Почему обучение ИИ стоит миллионы: Взгляд на «Гигафабрику вычислений»

Мне часто задают вопрос, какой проект по обучению ИИ стоил миллионы долларов и два года моей жизни. Люди недоумевают: почему это так дорого? Мой обычный ответ заключается в том, что это не так уж и дорого — особенно учитывая, что у нас пока нет собственного оборудования. Обучение ИИ всегда было связано с массивными центрами обработки данных; такова реальность этой области. Когда вы не погружены в это, представить себе такой масштаб бывает трудно. ...

9 мая, 2025 · 2 минуты · 234 слова · Юрий Акинин

Дневник ИИ-стартапа

Эта серия постов будет моим способом документирования пути создания одного из самых амбициозных продуктов нашей команды: интеллектуального помощника A.V.E.L.I.N. Чтобы дать вам немного контекста, моя команда разработчиков и я в настоящее время бета-тестируем проект в рамках нашей AI-платформы Mozgii Ecosystem. Наше основное внимание сосредоточено на A.V.E.L.I.N. — интеллектуальном персональном помощнике в Telegram, созданном для решения как базовых, так и сложных задач, включающих поиск, обработку и анализ информации с использованием ИИ. ...

1 мая, 2025 · 1 минута · 1 слово · Юрий Акинин

Новый навык эпохи ИИ: не просто поиск

По моему опыту работы с нейронными сетями стало очевидно, как два человека, взаимодействуя с одной и той же моделью, могут получить кардинально разные результаты. Это не незначительное отклонение — это фундаментальный отход от парадигмы поисковых систем. Мы вступили в новую эру взаимодействия с искусственным интеллектом. ИИ не просто агрегирует данные; он отбирает и синтезирует релевантную информацию в ответ на конкретные запросы. Это меняет саму природу нашего взаимодействия с информацией. Если раньше ключевым навыком был поиск данных в поисковых системах, то теперь это способность правильно формулировать запросы к ИИ. ...

25 апреля, 2025 · 1 минута · 1 слово · Юрий Акинин

Почему Сбер и Яндекс отстают от мировых лидеров в области ИИ

Меня часто спрашивают, почему международные модели ИИ, например от OpenAI, неизменно превосходят российские аналоги, такие как GigaChat. Чтобы понять эту разницу, необходимо выйти за рамки анализа кода и рассмотреть фундаментальные, структурные проблемы. Вот ключевые факторы, ограничивающие позиции России в глобальной гонке ИИ. 1. Дефицит вычислительных мощностей Эффективная разработка ИИ в масштабе зависит от необработанной вычислительной мощности. С 2022 года доступ к жизненно важным высокопроизводительным чипам NVIDIA (таким как A100 и H100) был прекращен. Обучение модели масштаба GPT-4 требует кластера из более чем 10 000 графических процессоров — это ресурсные возможности, которых просто нет в России. Для контекста: самый мощный суперкомпьютер Сбера, Christofari Neo, работает на уровне около 12 петафлопс, что в 50-100 раз меньше, чем у ведущих мировых исследовательских центров ИИ. ...

24 апреля, 2025 · 2 минуты · 380 слов · Юрий Акинин

Модели — это инструменты, а не события: Истинный смысл появления GPT-4.1 и ухода GPT-4.5

Вчера OpenAI открыла доступ к API GPT-4.1. Это усовершенствованная версия их флагманской модели — более быстрая и архитектурно ближе к концепции «агентов». Параллельно компания официально объявила о сворачивании GPT-4.5, своей самой ресурсоемкой модели, из-за ее чрезмерной сложности и проблем с поддержкой. С GPT-4.5, похоже, они зашли в архитектурный тупик. Мы находимся в точке, когда модели быстро появляются и исчезают. Они становятся тем, чем должны быть: инструментами, а не знаковыми событиями. У нас растет каталог специализированных ИИ: одни вычисляют, другие пишут код, планируют задачи или генерируют видео. Но от среднего пользователя нельзя ожидать, что он будет знать и выбирать между каждым существующим ИИ. Такая парадигма противоречит логике хорошего пользовательского опыта. ...

15 апреля, 2025 · 2 минуты · 229 слов · Юрий Акинин

Мозг мыши, 1.6 Петабайта данных и Путь к ОИИ

Недавно ученые оцифровали один кубический миллиметр зрительной коры головного мозга мыши, проект, в ходе которого было сгенерировано 1.6 петабайта данных для картирования 84 000 нейронов и полумиллиарда синапсов. Чтобы представить это в перспективе, количество синапсов в этом крошечном фрагменте мозговой ткани сопоставимо с количеством параметров в крупномасштабных ИИ, таких как модели DeepSeek или GPT. Это значительно больше, чем 29 миллиардов параметров в такой модели, как GigaChat. Это сравнение является полезной аналогией для масштаба и сложности: подобно тому, как синапсы определяют вычислительную мощность мозга, параметры определяют “мощность” ИИ. ...

11 апреля, 2025 · 1 минута · 200 слов · Юрий Акинин