В 2025 году AI окончательно вышел за рамки экспериментальных функций и стал инфраструктурным слоем цифровых продуктов. Он всё чаще определяет не отдельные возможности, а логику развития экосистем, скорость запуска новых продуктов и качество пользовательского опыта.
Крупные операторы, банки и цифровые экосистемы уже смещают фокус с самого факта подключения LLM на то, как AI встроен в реальные сценарии. Сегодня важен не отдельный сервис, премиум-чат или новый интерфейс, а быстрый и понятный результат внутри уже привычного цифрового пути. В масштабе же десятков миллионов пользователей ключевым становится архитектурный уровень: устойчивость, управляемость и нативная интеграция в продукт.
Именно в этом контексте в 2025 году red_mad_robot и Билайн заключили стратегическое партнёрство. Мы развиваем сразу несколько направлений — от AI-сервисов до клиентских продуктов, где технологии усиливают ежедневный UX.
Одним из первых шагов стало создание полноценного AI-слоя для платформы Билайна «план б.» на базе Agentic-First решения Daisy. Сам Билайн справедливо называет «план б.» больше, чем тарифом: продукт изначально проектировался как цифровая среда, объединяющая мобильную связь и цифровые сервисы в едином пользовательском опыте.
Рассказываем, как мы подошли к проектированию AI-функциональности, какие решения легли в основу архитектуры и что получилось на практике.
Билайн хотел сделать продукт для молодой аудитории, которой важно быть в технологическом контексте и использовать современные инструменты в повседневной жизни.
Задача заключалась в том, чтобы «план б.» работал как цифровой помощник для общения, развлечений и самовыражения, а не «ещё один молодёжный тариф». Поэтому к привычным возможностям — безлимитному доступу к мессенджерам, музыке, видео и соцсетям, компенсации подписки Telegram Premium и другим функциям — в продукт добавили доступ к основным международным LLM.
Именно поэтому AI-функциональность появилась в формате мини-аппа в Telegram, а затем VK и MAX. Такой подход решил сразу несколько ключевых задач:
Нативность и отсутствие трения: пользователь не скачивает отдельное приложение и не привыкает к новому интерфейсу — AI доступен там, где человек и так находится каждый день.
Доступ к международным LLM без VPN: платформа обеспечивает работу с разными моделями в едином контуре «плана б.». Для Билайна это создаёт технологическую гибкость и снижает зависимость от одного вендора.
Новое поколение интерфейсов: AI-сервис должен давать результат без сложных промптов и экспериментов. Поэтому важно было сделать акцент на готовых сценариях.
Масштабируемость и скорость развития: система должна выдерживать рост аудитории и позволять запускать новые сценарии без перестройки продукта достаточно быстро — в течение недель, а не месяцев.
В этом контексте «плану б.» требовался не набор отдельных LLM, а полноценный AI-слой. Такой основой в проекте стала Daisy — Agentic-First решение от red_mad_robot.
Архитектура Daisy изначально проектировалась как white label-решение. Это готовая платформа, способная быстро запускаться в продуктах с большой аудиторией и выдерживать соответствующую нагрузку. Такой подход закрывает один из ключевых вызовов крупных экосистем: им нужна технологическая база, которую можно расширять без риска для стабильности.
Всю AI-функциональность «плана б.» удалось собрать и внедрить за два месяца.
|
Подробнее о том, как устроена Daisy мы рассказывали в этом материале. |
Если коротко, то Daisy обеспечивает интеллектуальную маршрутизацию запросов, механизмы безопасности, контент-фильтрацию и единый слой интеграции моделей. Для продуктовой команды — это управляемая и масштабируемая техническая база, а для пользователя — простой и интуитивно понятный интерфейс.
За последний год мы наблюдаем устойчивое изменение в том, как массовые пользователи работают с AI. На первом этапе индустрия решала задачу доступа: дать людям возможность попробовать LLM, разобраться с промптами, научиться применять модели под свои задачи. Это был важный шаг — именно он сделал AI понятным для широкой аудитории.
Параллельно с этим мы в Daisy шли другим путём. Пока рынок фокусировался на доступе, мы развивали сценарную логику взаимодействия — формат, в котором человек выбирает действие, а не инструмент.
Поэтому в «плане б.» всё выстроено вокруг готовых действий — привычных и понятных шагов внутри продукта. Это позволяет сразу переходить к задаче: работе с медиа, текстом или поиску информации, делает опыт предсказуемым и воспроизводимым, а также позволяет масштабировать AI-функциональность без изменений CJM.
В результате ядром интерфейса стали четыре ключевых сценария:
работа с текстом;
анализ документов и фотографий;
генерация и работа с медиа (создание видео, изображений и музыки, AI-аватарки, оживление фото);
умный веб-поиск.
В такой логике UI становится не отдельным центром взаимодействия, а частью адаптивной среды: система помогает сформулировать запрос, подсказывает и берёт на себя техническую сложность. При этом предусмотрен и прямой доступ к выбранной LLM — без сценариев и дополнительных слоёв.
Первые данные показали, что AI-функциональность стала заметным фактором притяжения для молодой аудитории. Средний возраст новых пользователей, которые активно работают с LLM внутри «плана б.», составляет 29 лет. Это подтверждает, что формат встроенного AI хорошо совпадает с повседневными цифровыми привычками аудитории.
По характеру запросов видно, что AI применяется не в одном узком контексте, а распределяется между разными типами задач. Наиболее востребованы креативные запросы, за ними следуют технологические и образовательные, а также задачи, связанные с повседневной работой и общением.
Это отражается и в выборе инструментов. В сентябре 2025 года чаще всего использовались текстовые модели от OpenAI, сервис генерации изображений Daisy Image Generation, а также мультимодальные инструменты Suno и Runway.
По объёму запросов мы также видим, что AI перешёл в режим регулярного применения. За тот же период сервис обработал более 200 тыс. обращений, среди них:
~86 тыс. — генерация изображений
~114 тыс. — текстовые задачи
Если посмотреть глубже, по уровню сложности запросов, то преобладают простые и средние задачи. Пользователи решают прикладные вопросы и работают с контентом и информацией, не погружаясь в сложную настройку инструментов или моделей.
В совокупности это подтверждает нашу базовую гипотезу: встроенный AI в «плане б.» воспринимается как понятный и доступный в привычных сценариях инструмент, а не отдельный экспериментальный сервис.
Как было сказано выше, «Дейзи» изначально проектировалась под высокие нагрузки и быстрое масштабирование. На данный момент текущая конфигурация решения выдерживает до 2 млн пользователей.
Непрерывная работа AI внутри мини-аппов обеспечивается набором сервисов, каждый из которых отвечает за свою критическую часть инфраструктуры:
RAG снижает расходы на токены: вместо передачи всего контекста в запросе система извлекает только релевантные фрагменты данных, передаёт их в модель и повторно использует при следующих запросах. Это позволяет уменьшить объём контекста, избежать повторов и оптимизировать количество обращений к LLM.
Tariffication Service управляет тарификацией запросов и распределением потребления между моделями и типами операций.
Image/Video Generation Service: отвечают за генерацию изображений, видео и аудио. Они вынесены в отдельные сервисы, работают независимо от текстовых моделей и подключают сторонние API через общий слой маршрутизации.
|
Сейчас в мини-аппах доступны основные международные LLM — от текстовых до мультимодальных. Пользователи могут работать с ChatGPT, Gemini 2.5, Claude 4.5 Sonnet, DeepSeek, Flux, Runway, Suno и Veo 3. |
Запуск AI-функциональности в «плане б.» стал проверкой сразу на двух уровнях — пользовательском и инфраструктурном. С точки зрения UX было важно, чтобы AI решал задачи быстро и без переключения между сервисами, а с точки зрения платформы — чтобы архитектура выдерживала рост нагрузки и позволяла развивать функциональность без изменений привычного сценария взаимодействия.
Распределение обращений по типам запросов оказалось равномерным, что говорит о разнообразии сценариев и регулярной работе с LLM.
Такой результат показывает:
формат мини-аппа в знакомых экосистемах снижает порог входа;
сценарная модель взаимодействия позволяет быстро получать результат;
инфраструктура Daisy уверенно выдерживает масштаб и разнообразие запросов.
AI-функциональность не стала ещё одним внешним сервисом — она встроилась в логику платформы, усилила её ценность и создала новую точку взаимодействия с пользователями.
Над материалом работали:
текст — Саша Лазарева
иллюстрации — Саша Буяк
Это блог red_mad_robot. Мы запускаем цифровые бизнесы и помогаем компаниям внедрять AI. Здесь наша команда разработки на собственных кейсах рассказывает о том, что происходит с AI сегодня, а стратегические аналитики подсказывают, что будет завтра. Мы бы подписались.
Наш Telegram-канал (там всё другое, а ещё есть анонсы мероприятий): t.me/redmadnews
Источник


