Big Data и облачные вычисления — Oracle представила прогноз развития новых технологий в 2017 году

Сегодня к сети интернет подключаются не только смартфоны и ноутбуки, но и датчики на машинах, транспортных средствах и других устройствах. Все эти сетевые соединения генерируют огромные объемы данных.

Для компаний, способных преобразовывать эти данные и управлять ими, открываются исключительные возможности. Две технологии — большие данные (Big Data) и облачные вычисления — поддерживают некоторые из таких кардинальных трансформаций, говорится в исследовании компании Oracle.

Машинное обучение больше не является исключительной прерогативой исследователей данных. Возможность применять его к огромным объемам данных значительно повышает его значимость и поддерживает более широкое освоение. Можно ожидать значительного повышения доступности средств машинного обучения в инструментах для бизнес-аналитиков и конечных пользователей, пишет Компьютерное Обозрение.

Оно начнет эффективно использоваться всеми, оказывая влияние на взаимодействие пользователей в самых разных областях, от страхования и бытового энергопотребления до здравоохранения и учета времени парковки.

Не всегда есть возможность перенести данные во внешний ЦОД. Требования конфиденциальности, регулирующие нормы и требования суверенности данных зачастую препятствуют выполнению таких действий. А иногда объемы данных столь велики, что затраты на их перемещение по сети могут превышать любые возможные выгоды. В таких случаях можно приблизить облако к данным. В будущем все большему количеству организаций потребуется разрабатывать облачные стратегии для использования данных на различных площадках.

Ранние сценарии использования технологий больших данных сосредоточивались главным образом на сокращении ИТ-затрат и схемах аналитических решений. В настоящее время очевидно, что широкое разнообразие отраслевых бизнес-потребностей стимулирует создания нового поколения приложений, основывающихся на использовании больших данных.

Интернет вещей — это не просто неодушевленные предметы. Сочетая новые источники данных с аналитикой реального времени и поведенческой информацией, предприятия разрабатывают новое поколение облачных приложений, способных адаптироваться и обучаться на лету. Их влияние будет ощущаться не только в мире бизнесa, и будет проявляться в экспоненциальном росте количества проектов по развитию разумных городов и разумных наций по всему миру.

На предприятиях появляется все больше отдельных источников данных на таких платформах, как Hadoop, Spark и NoSQL. Потенциально ценные данные остаются незадействованными в связи с тем, что доступ к ним и их поиск затруднены. Организации понимают, что переместить все в один репозиторий для обеспечения единого доступа нереально, и что требуется другой подход. Виртуализация данных должна обеспечить анализ Больших Данных в реальном времени без необходимости их перемещать.

Компании готовятся к выходу на магистраль данных. Технология Apache Kafka укрепляет свои позиции и, судя по всему, достигнет пика популярности в 2017 г. Она обеспечивает публикацию записей о событиях в больших данных, загрузку данных в Hadoop и распространение данных среди потребителей.

Ожидается резкий рост спроса на готовые, интегрированные системы облачных данных. Все больше организаций испытывают потребность в лабораториях данных для проведения экспериментов с большими данными и поддержки инноваций. В течение всего года ожидается высокий спрос на готовые, интегрированные облачные лаборатории данных.

Объектные хранилища имеют множество хороших качеств — доступность, репликация, аварийное восстановление и резервное копирование. Это самые дешевые и простые хранилища для больших объемов данных, и они могут поддерживать такие инструменты обработки, как Spark. Технологии объектного хранения становятся репозиторием для больших данных, поскольку они все больше интегрируются с вычислительными технологиями и предоставляют жизнеспособную альтернативу HDFS-хранилищам для множества сценариев использования.

Удаление уровней виртуализации. Технологии ускорения, такие как графические процессоры и NVMe-накопители. Оптимальное размещение ресурсов хранения и вычислений. Неблокирующие сетевые взаимодействия с высокой пропускной способностью. Ничто из этого не является чем-то новым. Новое — это их конвергенция. Вместе они позволяют создавать облачные архитектуры, обеспечивающие на порядок большую производительность вычислений, ввода/вывода и сетевых взаимодействий.

Развертывания и сценарии использования Hadoop перестали быть экспериментами. Все чаще они становятся критически важными для бизнеса организаций, поэтому безопасность Hadoop стала обязательным требованием. Вероятно, в будущем придется развертывать средства многоуровневого обеспечения безопасности для проектов по использованию больших данных.

Big Data в страховании

Исследователи уверяют, что анализ Big Data сможет до неузнаваемости изменить практически все отрасли. Здравоохранение и страхование — не исключение.

Для каждого продукта страховщики обязаны построить модель среднестатистического клиента — в противном случае компания просто не сможет рассчитать страховой тариф. Поэтому на основании собранной информации делаем предположение, что большинство клиентов, покупающих какой-либо полис страхования, это люди со средним достатком, около 30–50 лет, с семьей, двумя детьми и автомобилем.

Когда компании начнут использовать Big Data в страховании, каждому клиенту будут предлагать индивидуальный тариф и определенный набор услуг.

Некоторые компании уже так работают. Это, например, южноафриканский страховщик Discovery, сумевший наладить партнерские отношения с каждым своим клиентом. Компания раздала всем желающим гаджеты, которые измеряют различные параметры здоровья в режиме онлайн. Кроме того, Discovery получает информацию о покупках своего клиента. Обрабатывая эти массивы данных, страховщик стал устанавливать индивидуальный тариф по медицинскому страхованию и плюс к тому давать рекомендации по улучшению здоровья. 

Источник: forinsurer.com