В 2023–2024 годах главной новостью были крупные языковые модели (LLM).
В 2025-м фокус смещается: модели становятся фоном, а на первый план выходят агенты, инфраструктура, данные и регуляция.
По данным аналитиков, рынок on-device AI уже растёт на десятки процентов в год, а объём синтетических данных для обучения моделей приближается к тому, чтобы догнать и обогнать реальные данные.
Разберём 10 ИИ-трендов, которые будут задавать повестку ближайшие 12 месяцев.
1. Агентные модели и reasoning-ИИ вместо «чата с ботом»
2025 — год, когда «просто чат-боты» становятся скучными. На смену приходят:
- агентные модели, которые сами планируют шаги, вызывают инструменты и ходят в интернет;
- reasoning-режимы в топ-моделях (GPT-5.1 Thinking, Claude Opus 4.5, Gemini 3 Pro) с явным многозвенным рассуждением.
Opus 4.5, например, уже показывает state-of-the-art по сложным задачам: код, многошаговый анализ, работа с инструментами.
Что это меняет:
- продукты переходят от «ответа на запрос» к полуавтоматическим рабочим процессам;
- бизнес начинает строить целые команды «ИИ-агентов», которые закрывают цепочку задач: от сбора данных до подготовки отчёта.
2. On-device AI: ИИ в каждом ноутбуке и смартфоне
Крупные вендоры (Intel, Qualcomm, Apple, NVIDIA и др.) перевели ноутбуки и телефоны на архитектуру с отдельным NPU для локального ИИ. Исследования показывают, что рынок on-device AI растёт с миллиардов долларов в 2024-м до нескольких десятков миллиардов к 2030-му.
Китайские игроки уже выкатывают смартфоны с встроенными LLM-ассистентами — например, ByteDance запустила голосового помощника на базе модели Doubao прямо в линейке Nubia.
Что это значит:
- многие задачи (черновые ответы, суммаризация, перевод, голосовой ассистент) будут работать без облака, прямо на устройстве;
- приложения вынуждены становиться ИИ-первым уровнем интерфейса — пользователь ожидает, что «умный слой» есть везде по умолчанию;
- разработчикам нужно думать не только про «запрос в облако», но и про архитектуру, которая комбинирует локальные и серверные модели.
3. Лёгкие мультимодальные модели — ИИ, который «видит и слышит» на краю сети
Мультимодальность стала нормой: топовые модели работают сразу с текстом, картинками, аудио, видео и таблицами. Но новый тренд — компактные мультимодальные модели, которые запускаются прямо на edge-устройствах (Raspberry Pi, терминалы, киоски).
Исследования по моделям вроде Octopus v3 показывают, что мультимодальные сети с <1 млрд параметров уже могут обрабатывать изображение и речь локально.
Что это даёт:
- компьютерное зрение + голос + LLM встраиваются в банкоматы, медицинское оборудование, retail-стойки, киоски самообслуживания;
- бизнес получает онлайн-аналитику и интерактивные интерфейсы без передачи чувствительных данных в облако.
4. Синтетические данные: топливо для следующего поколения моделей
Дефицит качественных данных и жёсткие требования к приватности привели к взлёту synthetic data:
-
ряд обзоров оценивает долю синтетических данных в тренировочных наборах уже в ~60% для некоторых сценариев;
-
синтетика используется для редких событий (фрод, аварии, дефекты оборудования), где реальных примеров мало;
-
отраслевые игроки строят симуляторы для генерации датасетов (робототехника, автопилоты, медицина). Для рынка это значит:
-
меньше зависимости от «сырых» пользовательских данных;
-
ускорение вывода новых моделей, особенно нишевых (финансы, медицина, промбезопасность);
-
по сути, появляется новая индустрия — поставщики синтетических датасетов и симуляторов.
5. Регуляция и AI-governance: EU AI Act задаёт глобальные правила
В 2025-м вступают в силу первые положения EU AI Act:
запрет «неприемлемых» ИИ-систем, требования к прозрачности, отдельные правила для General-Purpose AI (GPAI) и высокорисковых систем.
Параллельно появляются практические гайды по AI-governance: фреймворки, пирамиды управления и чек-листы для внедрения акта в компаниях.
Что меняется:
- крупный бизнес перестаёт смотреть на ИИ как на «игрушку лаборатории» — нужны процессы, роли, контроль рисков;
- поставщики ИИ-решений вынуждены встроить комплаенс, логирование и объяснимость прямо в продукт;
- российским и другим нерегулируемым рынкам это тоже важно: глобальные корпорации будут требовать совместимости с европейскими стандартами.
6. Суверенные AI-фабрики и частные облака ИИ
Крупные игроки строят суверенные AI-фабрики — кластеры и лаборатории, где компании могут обучать и запускать модели на инфраструктуре, соответствующей их юрисдикции и требованиям к данным.
Пример: HPE и NVIDIA запустили в Европе AI-factory lab, где бизнес может тестировать и масштабировать ИИ-нагрузки в «суверенной» среде с локальным хранением данных.
Тренд на ближайшие годы:
- банки, госструктуры, медицина и крупная промышленность будут уходить от идеи «всё в публичном облаке»;
- вырастет спрос на частные облака ИИ, on-prem-кластер и “AI as a service” внутри периметра.
7. Голосовые ассистенты и voice-агенты нового поколения
Классические «Сири-подобные» ассистенты сменяются voice-агентами на базе LLM:
- они умеют не только распознать команду, но и вести диалог, уточнять, запоминать контекст, выполнять цепочку действий;
- крупнейшие игроки (включая ByteDance в Китае) уже интегрируют LLM-ассистентов прямо в смартфоны.
Сюда же относится рост платформ для AI-колл-центров, голосовых роботов, ассистентов в мессенджерах и колл-ботов в банках.
8. Новая эпоха AI-обучения: от разметки к «исследовательским ассистентам»
Классическая индустрия разметки данных (bounding boxes, классификация, простые теги) постепенно уходит в прошлое:
- игроки вроде Turing открыто говорят, что «эра простого data-labeling заканчивается» и смещают фокус на комплексные задачи и симуляции для обучения ИИ;
- компании всё чаще нанимают узких экспертов, которые обучают модели решать реальные задачи (медицинские заключения, юр-анализ, сложная техподдержка), а не ставить галочки в датасетах.
Что это даёт рынку:
- качество моделей в специализированных областях резко растёт;
- появляется новый профиль работы: «ИИ-тренер / research accelerator», а не просто «разметчик».
9. Малые и открытые модели: «второй фронт» ИИ-гонки
Пока гиганты соревнуются в топ-моделях, параллельно идёт гонка в сегменте:
- меньших LLM (1–14B параметров), которые запускаются на одной GPU или даже на CPU;
- открытых моделей (Llama-семейство, Qwen, Mistral и др.), которые становятся всё ближе по качеству к проприетарным.
Отчёты по Edge/On-Device AI и компактным мультимодальным моделям показывают, что производительность маленьких моделей растёт, а требования к железу — падают.
Точка перелома: для многих сценариев (чаты внутри компании, простая аналитика, FAQ, автодополнение) локальная open-source модель становится достаточно хорошей и намного более дешёвой.
10. AI-первый UX: ИИ как базовый слой любого продукта
Главный невидимый тренд: ИИ перестаёт быть «отдельной кнопкой».
- AI-PC-концепция предполагает, что операционная система сама подстраивает рабочие процессы под пользователя: суммирует письма, предлагает ответы, помогает с документами.
- мессенджеры, соцсети и офисные пакеты получают встроенные ассистенты и агенты, а не «ботов сильно сбоку»;
- на мобильных устройствах LLM-слой становится аналогом клавиатуры — он есть везде, всегда и по умолчанию.
Это меняет ожидания пользователей:
если продукт не умеет «понимать по-человечески» и помогать проактивно — он уже ощущается устаревшим.
Что делать бизнесу и разработчикам
Всё выше — не «красивые тренды ради презентации», а очень практичный чек-лист:
- Определить, где нужны именно агенты, а не чат-бот.
- Продумать on-device-стратегию: какие задачи можно выполнять локально ради скорости и приватности.
- Разобраться с синтетическими данными и оценить, где они ускорят ваши проекты.
- Встроить AI-governance и соответствие регуляции ещё на этапе дизайна продукта.
- Выстроить инфраструктуру: от публичного облака до частных AI-фабрик и локальных моделей.
В ИИСеть мы развиваем свою платформу именно с оглядкой на эти тренды:
от поиска и генерации изображений до «жизненных ИИ-агентов» и инструментов для бизнеса.
