Курс для специалистов, желающих получить и систематизировать знания по использованию Apache Kafka для программирования распределенной обработки потоков событий (Event Stream Processing) на практических примерах с потоковыми данными в реальном времени.
Курс содержит расширенные сведения по написанию программ работы с распределенным журналом Kafka, использованию его в парадигмах Pub/Sub и Message Queue и обработки потоковых данных с соблюдением best practices.
В теоретической части вы узнаете о наиболее важных API, архитектуре Kafka и внутренних принципах работы основных API Apache Kafka (Producer API, Consumer API, Streams API, Connect API), а также об особенностях реализации Apache Kafka и некоторых интересных концепциях, таких как exactly once semantics, компактируемых логах, Kafka DSL и др.
Соотношение теории к практике: 50/50.
Обучение построен так, чтобы за 24 часа получить глубокое понимание и навыки работы с самой популярной платформой потоковой передачи событий, включая ее архитектуру, возможности и ограничения. Для этого придется выполнять задания, решая задачи проектирования и эксплуатации потоковых конвейеров, включая выполнение операций devops.
Курс позволит понять, как устроена Apache Kafka и каковые ее возможности для решения различных задач, связанных с потоковой обработкой больших объемов данных. Обучение включает практические задания, которые помогут вам закрепить полученные знания и научиться применять их на практике. Все задания основаны на реальных задачах, которые приходится решать при работе с Кафка. Задания выполняются онлайн, на платформе, предоставленной нашими специалистами devops, дополнительная оплата за экземпляр платформы не требуется.
Занятия проходят онлайн в дистанционном режиме с преподавателем. Практические задания тоже выполняются онлайн.
Практический курс по кафке и интеграции ее с другими системами ориентирован на программистов, разработчиков Big Data и специалистов, которые хотят:
Разберемся в анатомии топика, использовании механизмов партиционирования и consumer групп.
Погрузимся в детальную настройку и использование Kafka Producer-а и best practices на стороне производителя сообщений.
Научимся принимать сообщения и на практике реализуем минимальное приложение, работающее с Kafka.
Познакомимся с концепцией групп (consumer groups) и научимся настраивать группы для работы с сообщениями в режиме broadcasting.
Изучим общие принципы и приемы в процессе работы с Kafka Streams.
Изучим специализированный язык описания (DSL) потоков данных в Kafka и научимся его использовать.
Напишем базовое Kafka Streams приложение.
Научимся работать на “низком” уровне – создавать топологии и перенаправлять по ним сообщения, использовать расписание (punctuator). Напишем приложение с использованием Processor API.
Разберемся в том, какие готовые Connector-ы есть для Kafka, создадим собственные Source и Sink коннекторы.
Познакомимся с внутренним устройством топиков, партиций и сегментов. Поймем влияние параметров конфигурации на производительность процесса публикаци и потребления сообщений.
Научимся сериализовать и десериализовать данные с использованием Avro, познакомимся с ksqlDB, его особенностями и применимостью. На примере python API познакомимся с тем, как можно использовать Kafka не из Java.
под руководством инструктора