Почему Сбер и Яндекс отстают от мировых лидеров в области ИИ

Меня часто спрашивают, почему международные модели ИИ, например от OpenAI, неизменно превосходят российские аналоги, такие как GigaChat. Чтобы понять эту разницу, необходимо выйти за рамки анализа кода и рассмотреть фундаментальные, структурные проблемы. Вот ключевые факторы, ограничивающие позиции России в глобальной гонке ИИ. 1. Дефицит вычислительных мощностей Эффективная разработка ИИ в масштабе зависит от необработанной вычислительной мощности. С 2022 года доступ к жизненно важным высокопроизводительным чипам NVIDIA (таким как A100 и H100) был прекращен. Обучение модели масштаба GPT-4 требует кластера из более чем 10 000 графических процессоров — это ресурсные возможности, которых просто нет в России. Для контекста: самый мощный суперкомпьютер Сбера, Christofari Neo, работает на уровне около 12 петафлопс, что в 50-100 раз меньше, чем у ведущих мировых исследовательских центров ИИ. ...

24 апреля, 2025 · 2 минуты · 380 слов · Юрий Акинин

Искусственный интеллект в мессенджерах: за пределами простых ботов

Мессенджеры давно перестали быть просто инструментами для обмена сообщениями. Сегодня это пространство, где сходятся наша работа, личная жизнь, новости и друзья. Логичным следующим шагом является интеграция ИИ-помощника в эту среду — того, кто поможет структурировать общение и будет взаимодействовать с вами в привычном интерфейсе, как любой другой контакт. Большинство решений на рынке — это боты, работающие на упрощенных или бесплатных версиях GPT. Они могут генерировать ответы, но часто не в состоянии предоставить высококачественную, глубокую информацию. ...

22 апреля, 2025 · 2 минуты · 215 слов · Юрий Акинин

За пределами интерфейса: 5 ключевых отличий современных моделей ИИ

Пользователи видят окно чата. Иногда это голосовое взаимодействие, иногда работа с изображениями. Но за этим привычным интерфейсом скрываются радикально разные архитектуры и возможности. Вот пять ключевых параметров, которые отличают ведущие модели ИИ в 2025 году: 1. Память (окно контекста) Этот параметр определяет, какой объем информации модель может сохранять в рамках одного диалога. GPT-4o: 128 тысяч токенов (~300 страниц текста) Claude 3 Opus и Gemini 2.5 Pro: До 1 миллиона токенов (~2000 страниц) DeepSeek-VL Mini: ~8 тысяч токенов (~20 страниц) Больший объем памяти обеспечивает лучший контекст и снижает галлюцинации, но также требует более мощного оборудования. ...

19 апреля, 2025 · 2 минуты · 354 слова · Юрий Акинин

Codex CLI от OpenAI: Тихая победа для открытого исходного кода

OpenAI выпустила Codex CLI, агент ИИ с открытым исходным кодом для разработчиков. Это знаменует собой тихую, но значительную победу для сообщества открытого исходного кода. Инструмент позволяет разработчикам использовать естественный язык непосредственно в терминале — агент интерпретирует запрос, затем пишет, выполняет и тестирует код. Самое главное, весь этот процесс выполняется локально, без отправки данных в облако. С этим выпуском индустрия становится на шаг ближе к системе, которая может самостоятельно понимать, создавать и развертывать решения. Это подчеркивает критически важный момент: будущее не только в выборе правильной модели, но и в разработке правильной архитектуры, которая связывает мысль → действие. ...

17 апреля, 2025 · 2 минуты · 224 слова · Юрий Акинин

Модели — это инструменты, а не события: Истинный смысл появления GPT-4.1 и ухода GPT-4.5

Вчера OpenAI открыла доступ к API GPT-4.1. Это усовершенствованная версия их флагманской модели — более быстрая и архитектурно ближе к концепции «агентов». Параллельно компания официально объявила о сворачивании GPT-4.5, своей самой ресурсоемкой модели, из-за ее чрезмерной сложности и проблем с поддержкой. С GPT-4.5, похоже, они зашли в архитектурный тупик. Мы находимся в точке, когда модели быстро появляются и исчезают. Они становятся тем, чем должны быть: инструментами, а не знаковыми событиями. У нас растет каталог специализированных ИИ: одни вычисляют, другие пишут код, планируют задачи или генерируют видео. Но от среднего пользователя нельзя ожидать, что он будет знать и выбирать между каждым существующим ИИ. Такая парадигма противоречит логике хорошего пользовательского опыта. ...

15 апреля, 2025 · 2 минуты · 229 слов · Юрий Акинин

Глубокое Исследование: От Охотника за Информацией к Стратегическому Второму Пилоту

Ваш Мыслительный Процесс, Упакованный Глубокое исследование — это не просто очередная функция ИИ; это фундаментальный сдвиг в сторону архитектуры, основанной на агентах. В этой модели LLM перестает быть простым чат-ботом и становится соавтором — агентом, который самостоятельно ищет, фильтрует, проверяет и структурирует информацию. Что это меняет? Если вы разрабатываете бизнес, стартап или продукт, у вас нет времени лично читать 200 источников. Теперь это делает за вас ИИ-агент. Это освобождает вас для выполнения высокоценной работы: для размышлений, а не просто для поиска. ...

14 апреля, 2025 · 2 минуты · 372 слова · Юрий Акинин

Мозг мыши, 1.6 Петабайта данных и Путь к ОИИ

Недавно ученые оцифровали один кубический миллиметр зрительной коры головного мозга мыши, проект, в ходе которого было сгенерировано 1.6 петабайта данных для картирования 84 000 нейронов и полумиллиарда синапсов. Чтобы представить это в перспективе, количество синапсов в этом крошечном фрагменте мозговой ткани сопоставимо с количеством параметров в крупномасштабных ИИ, таких как модели DeepSeek или GPT. Это значительно больше, чем 29 миллиардов параметров в такой модели, как GigaChat. Это сравнение является полезной аналогией для масштаба и сложности: подобно тому, как синапсы определяют вычислительную мощность мозга, параметры определяют “мощность” ИИ. ...

11 апреля, 2025 · 1 минута · 200 слов · Юрий Акинин

Три Вывода о Дружбе и Динамике Команды от CLUB 500

Вчерашний день был посвящен отношениям. Я был на мероприятии CLUB 500, где обсуждали дружбу и ее прямое влияние на стабильность команды, успех проектов и общую атмосферу внутри компании. Вот три мысли, которые я вынес с собой: 1. Развитие Происходит Только Через Взаимодействие Сидение в позе лотоса — для стабилизации. Настоящий рост начинается там, где есть живое, человеческое общение. Не по Zoom, не в чате, а в общем физическом пространстве. Истинный прогресс подпитывается тем высокоскоростным, прямым взаимодействием, которое цифровые инструменты могут лишь имитировать. ...

31 марта, 2025 · 1 минута · 190 слов · Юрий Акинин

DeepSeek-V3: Тихий релиз с впечатляющей локальной производительностью

DeepSeek в очередной раз применил свою стратегию «тихого релиза», представив новую модель DeepSeek-V3-0324 на Hugging Face без каких-либо громких анонсов. Вместо маркетингового шума они просто предоставили сообществу готовое решение для оценки. Я протестировал модель локально на Mac Studio, оснащенном чипом M3 Ultra, и был впечатлен производительностью, генерирующей более 20 токенов в секунду. Это знаменует собой значительное ускорение для запуска мощных моделей на локальном оборудовании, делая их жизнеспособным вариантом для разработчиков. ...

27 марта, 2025 · 1 минута · 104 слова · Юрий Акинин

Telegram строит экосистему: Ключевые выводы с TgConf

В прошлый четверг я посетил TgConf — ключевую конференцию, посвященную трафику, монетизации и будущему экосистемы Telegram. Развивая свой канал, я постоянно ищу новые возможности для интеграции и роста. Сессии охватывали вопросы рекламы, развития приложений и стратегического направления платформы. Вот мои основные выводы с мероприятия: Путь к супераппу Самый важный вывод заключается в том, что Telegram неуклонно движется к превращению в комплексную экосистему, следуя модели китайского WeChat. Амбиции платформы — эволюционировать за пределы мессенджера в универсальную среду для общения, бизнеса и услуг. ...

24 марта, 2025 · 1 минута · 196 слов · Юрий Акинин