1100₴
Евгений Борисов Spring AI как надо, а не как все 2025
1100₴
Характеристики товара:
| Состояние | Новое (сток) |
| Для | взрослых |
| Вид | Курс, Лекции |
Доставка: по всей Украине, указано в объявлении | Киевская область, Бровары | Наложенного платежа нет | Актуально на: 12 марта 2026
Информация о продавце
Premium магазин
"Продажа курсов и вебинаров"
Premium магазин
"Продажа курсов и вебинаров"
Регистрация: 23.12.2013
Заходил(а): 16.03.2026 (22:20)
Заходил(а): 16.03.2026 (22:20)
Откуда: Украина, Киевская область, Бровары
Подробное описание: Евгений Борисов Spring AI как надо, а не как все 2025
Евгений Борисов [lektorium] Spring AI: как надо, а не как все (2025)Онлайн-курс для разработчиков, знакомых с Java и Spring
Онлайн-курс для тех, кто хочет встроить ИИ в свое приложение и выстроить архитектуру так, чтобы все работало как надо, даже на локальной модели.
А это значит безопасно. И почти бесплатно.
Опытный инженер-практик покажет, как подойти к созданию приложений с локальными LLM-моделями не по учебнику, а по-взрослому: с пониманием архитектуры, принципов взаимодействия и маленькими трюками, которые сделают работу с AI не только эффективной, но и приятной.
Во время прохождения курса вы получите рекомендации по настройке инструментов, выбору архитектурных решений и улучшению качества взаимодействия с моделью.
Онлайн-курс для тех, кто хочет встроить ИИ в свое приложение и выстроить архитектуру так, чтобы все работало как надо, даже на локальной модели.
А это значит безопасно. И почти бесплатно.
Курс включает техники, которые вы вряд ли встретите в других материалах по Spring AI:
Кастомные retrieval-стратегии, чтобы запросы были умнее, а ответы точнее
Оптимизация промптов для слабых моделей
Настройка баланса между историей диалога и знаниями из RAG
И, наконец, RAG, который действительно помогает, а не просто добавлен, «потому что сегодня так принято»
Программа курса:
Теория не ради галочки. Все сразу закрепляется в коде, шаг за шагом: от запуска локальной модели до настройки кастомного RAG.
Диалог с моделью: создаем микросервис, который работает с локальной LLM и хранит историю переписки для полноценного общения
«И ты, RAG»: учимся готовить данные, резать их на чанки и подключать к модели
Оптимизация качества (выжмем из локальной модели то, что облаку и не снилось):
пишем кастомный Advisor, внедряем Query Extensions, retrieval-стратегии и ранкеры — улучшаем ответы без увеличения мощности модели













