Big Data
Big Data

Big Data

Готовая платформа для работы с большими данными — все преимущества аналитики больших данных с меньшими затратами сил, времени и средств

Ключевые возможности

Быстрый старт проекта

Быстрый старт проекта

Запуск проекта больших данных без значительных начальных вложений в оборудование. Быстрое последующее масштабирование платформы с оплатой за фактически использованные ресурсы.
Ускорение принятия решений

Ускорение принятия решений

Многократное увеличение скорости создания аналитических отчетов и принятия бизнес-решений на основе данных.
Быстрая проверка гипотез

Быстрая проверка гипотез

Проверка гипотез и оптимизация бизнес-процессов в течение 2 недель после запуска проекта.
Оптимизация бизнеса

Оптимизация бизнеса

Финансовая выгода от оптимизации бизнеса на основе анализа больших данных до 60% по опыту реализованных проектов.
Экономия на обслуживании

Экономия на обслуживании

Освобождение ИТ-персонала от рутинных задач за счет привлечения компетенций провайдера, при этом затраты на обслуживание сокращаются до 3 раз.
Строгий SLA

Строгий SLA

Обеспечение доступности платформы и инфраструктуры для больших данных на уровне 99,95% и оперативное реагирование на инциденты в течение 10 мин в соответствии со строгим SLA.

Сценарии использования

В банках:

  • Прогнозирование ухода клиентов и предотвращение их оттока
  • Прогноз необходимого остатка наличных средств в кассах и банкоматах с точностью до 99,6%
  • Рекомендации наилучших действий (next best action) сотрудникам фронт-офиса и операторам контакт-центра для роста продаж
  • Противодействие мошенничеству — выявление рисков противозаконных транзакций

В промышленности:

  • Прогнозирование, выявление причин и предотвращение брака на технологическом конвейере
  • Мониторинг износа и амортизации оборудования (ТОИР) для экономии на обслуживании
  • Оптимизация расхода дорогостоящего сырья
  • Разведка залежей сырьевых ресурсов по анализу данных спутниковой и аэрофотосъемки. Оптимизация и сокращение затрат на добычу

В ритейле:

  • Формирование ассортиментной матрицы и оптимизация товарных остатков
  • Товарные рекомендации по анализу чека и истории покупок
  • Анализ поведения клиентов на сайте в реальном времени и спасение «брошенных» корзин
  • Персонализация коммуникации с пользователями во всех каналах
  • Составление рейтингов поставщиков

На транспорте и в логистике

  • Регулирование тарифов с учетом состояния транспортного парка, расхода на топливо и заявок клиентов
  • Снижение аварийности за счет анализа данных телеметрии автомобилей
  • Управление расписанием движения транспортных средств

Как мы работаем

Шаг 1
Аудит
Обследуем бизнес- и ИТ-среды работы с данными и составляем «дорожную карту» проекта.
Шаг 2
Разработка
Создаем архитектуру платформы данных в облаке.
Шаг 3
Инсталляция
Инсталлируем, тестируем и осуществляем первичную загрузку мастер-данных.
Шаг 4
Аналитика
Настраиваем аналитику и отчетность.
Шаг 5
Поддержка
Обеспечиваем эксплуатацию решения и поддержку 24×7.
Шаг 1
Аудит
Обследуем бизнес- и ИТ-среды работы с данными и составляем «дорожную карту» проекта.
Шаг 2
Разработка
Создаем архитектуру платформы данных в облаке.
Шаг 3
Инсталляция
Инсталлируем, тестируем и осуществляем первичную загрузку мастер-данных.
Шаг 4
Аналитика
Настраиваем аналитику и отчетность.
Шаг 5
Поддержка
Обеспечиваем эксплуатацию решения и поддержку 24×7.
Часто задаваемые вопросы
Как монетизировать имеющиеся данные?
Данные не зря называют новой нефтью — с их помощью можно значительно повысить эффективность бизнес-процессов компании. Например, в промышленности с помощью решений промышленной аналитики можно исследовать эффективность технологического процесса в целом или производственного процесса конкретного подразделения. Поскольку источников данных, например, цехов очень много, часто необходима именно аналитика больших данных, что позволяет изучить и проанализировать производственный процесс с разных сторон. В банках все чаще большие данные используются, чтобы предлагать банковские продукты потенциальным клиентам. В ритейле большие данные используются для формирования ассортиментной матрицы и прочих предложений.
Чем озера данных отличаются от больших данных?
Озера данных — это составляющая часть больших данных. Они предназначены для сбора разнородной информации — структурированной или неструктурированной. В случае неструктурированных данных зачастую нет возможности разобраться в их структуре до сохранения. Поэтому важным отличием озер данных является изменение парадигмы работы с данными: сначала данные сохраняются, а потом с ними начинают разбираться. Таким образом, озера данных позволяют «сохранить на будущее» полученные данные, а уже потом понять, как их использовать и интегрировать из озер в инфраструктуру.
Чем озера данных отличаются от хранилищ данных?
В озера данных сохраняются любые наборы данных, которые могут дублироваться, и единая «версия правды» создается уже после сохранения. В хранилище же изначально сохраняется структурированная информация без дублей и с самого начала существует единая «версия правды». Кроме того, хранилища создаются в соответствии с регламентными процессами, и информация в них поступает только из проверенных источников, которые контролирует ИТ-служба предприятия. Сохранить же информацию в озере данных, обработать ее и подготовить витрины может фактически любой сотрудник, у которого есть на это право. Суммируя, разница заключается в типах данных, видах нагрузки, применении, паттернах работы и вовлечении пользователей в процесс обработки данных.
На предприятиях часто используются различные системы для сбора и обработки данных. Нужно ли их унифицировать, прежде чем внедрять платформу для работы с большими данными?
Унификация данных — классическая задача. Реализация проектов в области больших данных часто начинается с консолидации данных на единой аналитической платформе. Один и тот же объект может быть по-разному представлен в разных учетных системах, и сопутствующая типовая задача в рамках проектов в области больших данных часто заключается в унификации такого объекта, т. е. приведении его к единому целевому формату. Для этого, в зависимости от степени интеграции существующих систем и используемых форматов данных, могут применяться различные инструменты.
Что собой представляет платформа для работы с большими данными?
Функциональная архитектура платформы включает две ключевые подсистемы — подсистему интеграции для сбора и загрузки данных, их потоковой и пакетной обработки, и подсистему хранения и обработки данных, в которой выделяются различные слои хранения. Платформа также включает BI-платформу для создания аналитической отчетности и пользовательских отчетов, математических моделей и т. д. На базе платформы может быть организована лаборатория данных, в которой пользователям выделяются определенные ресурсы и полномочия для работы с данными и проверки гипотезы, в том числе с использованием Python. Вместе с платформой также внедряется подсистема управления данными класса Data Governance. Они обеспечивает прозрачность источников и процессов получения данных, преобразования данных перед использованием в витринах, что улучшает осведомленность пользователей и создает объективную картину данных. К платформе можно подключать различные системы, например подсистему управления бизнес-процессами (BPM).
Какие инструменты используются для работы с большими данными?
Платформа для работы с большими данными использует компоненты Arenadata, например, стриминговую платформу Arenadata Streaming на базе NiFi и Kafka в составе подсистемы интеграции для работы с потоковыми данными. NiFi также часто используется как оркестратор, который запускает и выполняет различные процессы обработки данных. Для извлечения, трансформации и загрузки данных (ETL) применяются NiFi, Airflow, а также PXF — фреймворк для Arenadata DB Greenplum. Для ETL-задач можно использовать любые инструменты, уже интегрированные в пользовательскую инфраструктуру.

Для обработки и хранения данных в произвольном формате в составе подсистемы хранения и обработки данных используется Hadoop. В качестве хранилища данных применяется набирающее популярность решение Arenadata DB Greenplum. Как показывает наш многолетний опыт использования Greenplum (мы сотрудничаем с Greenplum с с 2014 года), этот продукт подходит как для решений в области больших данных, так и для обособленных хранилищ данных. При этом Greenplum и Hadoop формируют устойчивый тандем, позволяющий обмениваться данными. В быстрых витринах Arenadata QuickMarts используется ClickHouse. Например, для получения быстрого отклика по большому массиву данных можно сохранить такой массив в ClickHouse или подготовить данные в Greenplum на уровне Hadoop и отправить их в ClickHouse.
Запись онлайн-митапа
Big Data в Облаке КРОК: работа с данными в новых реалиях
01

Новые сервисы Elasticsearch и MongoDB и другие обновления Облака КРОК

В разделе PaaS появился сервис Elasticsearch в новой категории Поиск и аналитика, а список доступных баз данных пополнился MongoDB.

02

Быстрый старт из шаблона запуска, смена подсети у ВМ и мониторинг бакетов

Как и обещали, экземпляры теперь можно быстро запускать из веб-интерфейса с помощью шаблонов запуска.
03

Новый сервис кеширования и другие обновления Облака КРОК

В Облаке КРОК появился новый PaaS-сервис – сервис кеширования данных.
04

Майские обновления Облака КРОК

В Облаке КРОК теперь можно создать снимок диска из версии, увеличить размер диска в Kubernetes и отфильтровать ресурсы по основным параметрам.
05

Автоматическое масштабирование с Auto Scaling Groups

Новый сервис позволяет автоматически реагировать на изменения нагрузки, добавляя или удаляя экземпляры за считанные минуты.
06

Представляем шаблоны запуска и методы API для работы с ними

Шаблоны запуска позволяют упростить и ускорить создание однотипных экземпляров и минимизировать риск ошибок конфигурации при их развертывании.
Остались вопросы?
Заполните форму, и эксперт КРОК Облачные сервисы оперативно ответит на все ваши вопросы.

КРОК Облачные сервисы

КРОК Облачные сервисы — это самостоятельное подразделение компании КРОК, предлагающее рынку облачные услуги и управляемые В2В-сервисы.
24/7
SLA 10 минут
12 лет
на рынке облачных услуг
750+
клиентов из разных отраслей
>400
экспертов реализуют проекты любой сложности
scrollup