<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>#РазработкаИИ on Главная</title>
    <link>https://yakinin.com/ru/tags/%23%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0%D0%B8%D0%B8/</link>
    <description>Recent content in #РазработкаИИ on Главная</description>
    <generator>Hugo -- 0.148.2</generator>
    <language>ru</language>
    <lastBuildDate>Wed, 27 Aug 2025 08:45:15 +0000</lastBuildDate>
    <atom:link href="https://yakinin.com/ru/tags/%23%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0%D0%B8%D0%B8/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>DeepSeek против OSS от OpenAI: История двух моделей с открытым исходным кодом</title>
      <link>https://yakinin.com/ru/posts/20250827-deepseek-vs-openai-open-source-models/</link>
      <pubDate>Wed, 27 Aug 2025 08:45:15 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20250827-deepseek-vs-openai-open-source-models/</guid>
      <description>&lt;p&gt;Два крупных игрока недавно представили новые модели с открытым исходным кодом, но они представляют две принципиально разные философии. OpenAI, признанный лидер, с помпой вернулся на сцену открытого исходного кода со своей моделью &lt;code&gt;gpt-oss-20b&lt;/code&gt;. Вскоре после этого китайский стартап DeepSeek незаметно выпустил &lt;code&gt;v3.1&lt;/code&gt;. Если один релиз был медиа-событием, то другой — всего лишь одним твитом.&lt;/p&gt;
&lt;p&gt;Первоначальные результаты практического тестирования оказались явно односторонними.&lt;/p&gt;
&lt;h2 id=&#34;производительность-из-коробки-явный-победитель&#34;&gt;Производительность «из коробки»: Явный победитель&lt;/h2&gt;
&lt;p&gt;Если оценивать модель как инструмент, который можно использовать прямо сейчас, сравнение даже близко не стоит. В ходе многочисленных практических тестов DeepSeek v3.1 стабильно демонстрировал превосходные результаты:&lt;/p&gt;</description>
    </item>
    <item>
      <title>Новые модели NVIDIA с открытым исходным кодом устраняют языковой разрыв в ИИ</title>
      <link>https://yakinin.com/ru/posts/20250816-nvidias-new-open-source-models-tackle-ais-language-gap/</link>
      <pubDate>Sat, 16 Aug 2025 11:49:38 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20250816-nvidias-new-open-source-models-tackle-ais-language-gap/</guid>
      <description>&lt;p&gt;Подавляющее большинство разработок в области ИИ сосредоточено на нескольких языках, что создает значительный разрыв в возможностях для большей части мира. NVIDIA устраняет этот дисбаланс с помощью нового набора моделей и инструментов с открытым исходным кодом, предназначенных для расширения высококачественного речевого ИИ, с первоначальным акцентом на 25 европейских языках.&lt;/p&gt;
&lt;p&gt;Эта инициатива выходит за рамки простого выпуска моделей; она предоставляет базовые компоненты для создания локализованных, многоязычных ИИ-приложений. Цель состоит в том, чтобы дать разработчикам возможность создавать надежные инструменты, такие как многоязычные чат-боты, службы перевода в реальном времени и интеллектуальные боты для обслуживания клиентов для языков, часто игнорируемых основными технологиями, включая хорватский, эстонский и мальтийский.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Векторный поиск достигает своих пределов. Что дальше?</title>
      <link>https://yakinin.com/ru/posts/20250813-vector-search-limitations-what-comes-next/</link>
      <pubDate>Wed, 13 Aug 2025 15:52:57 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20250813-vector-search-limitations-what-comes-next/</guid>
      <description>&lt;p&gt;Векторные базы данных стали ключевым компонентом современного ИИ, особенно для реализации генерации с дополненной выборкой (RAG) через поиск по сходству. Однако по мере создания более сложных приложений становятся очевидными ограничения использования исключительно векторных представлений.&lt;/p&gt;
&lt;p&gt;С моей точки зрения, основная проблема заключается в том, что продвинутые системы ИИ должны понимать больше, чем просто семантическое сходство. Им необходимо более глубокое понимание данных, включающее структурированные атрибуты, текстовую точность и взаимосвязи внутри и между различными модальностями, такими как текст, изображения и видео. Опора только на базовый векторный поиск создает значительные слепые зоны.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Контекстное окно Claude Sonnet 4 на 1 миллион токенов: Практический взгляд для разработчиков</title>
      <link>https://yakinin.com/ru/posts/20250813-claude-sonnet-4-1m-context/</link>
      <pubDate>Wed, 13 Aug 2025 00:00:00 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20250813-claude-sonnet-4-1m-context/</guid>
      <description>&lt;p&gt;Anthropic только что объявила об увеличении контекстного окна Claude Sonnet 4 в 5 раз, доведя его до 1 миллиона токенов. Хотя большие числа в ИИ являются обычным явлением, этот шаг имеет ощутимые, практические последствия для тех из нас, кто создает сложные системы.&lt;/p&gt;
&lt;p&gt;С моей точки зрения, это не просто количественный скачок; это качественный скачок, который открывает новый класс проблем, которые мы можем решить.&lt;/p&gt;
&lt;h3 id=&#34;переход-от-анализа-файлов-к-пониманию-на-уровне-системы&#34;&gt;Переход от анализа файлов к пониманию на уровне системы&lt;/h3&gt;
&lt;p&gt;Возможность загрузить всю кодовую базу — более 75 000 строк с исходными файлами, тестами и документацией — в один запрос является значительным изменением. Ранее анализ кода с помощью ИИ часто ограничивался отдельными файлами или небольшими модулями. Мы могли проверять ошибки или рефакторить конкретную функцию, но ИИ не хватало целостного представления.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Google MLE-STAR: Агенты ИИ, автоматизирующие машинное обучение</title>
      <link>https://yakinin.com/ru/posts/20250804-google-mle-star-automated-machine-learning/</link>
      <pubDate>Mon, 04 Aug 2025 00:00:00 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20250804-google-mle-star-automated-machine-learning/</guid>
      <description>&lt;h1 id=&#34;google-mle-star-агенты-ии-автоматизирующие-машинное-обучение&#34;&gt;Google MLE-STAR: Агенты ИИ, автоматизирующие машинное обучение&lt;/h1&gt;
&lt;p&gt;Исследовательская группа Google Cloud представила MLE-STAR (Machine Learning Engineering via Search and Targeted Refinement) — систему агентов искусственного интеллекта, которая знаменует собой значительный шаг к полной автоматизации создания конвейеров машинного обучения. Для тех, кто провел бесчисленные часы за разработкой признаков, выбором моделей и оптимизацией гиперпараметров, это развитие заслуживает пристального внимания.&lt;/p&gt;
&lt;p&gt;По своей сути, MLE-STAR выходит за рамки ограничений традиционного AutoML. Вместо того чтобы полагаться на заранее определенный набор моделей и методов, он использует инновационный подход, который сочетает внешние знания с внутренней оптимизацией.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Дневник AI-стартапа #2: Невидимая работа важнее всего</title>
      <link>https://yakinin.com/ru/posts/20250512-ai-startup-invisible-progress/</link>
      <pubDate>Mon, 12 May 2025 00:00:00 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20250512-ai-startup-invisible-progress/</guid>
      <description>&lt;p&gt;За последние несколько дней наша команда проделала огромный объем работы над A.V.E.L.I.N. Это решающий этап, когда продукт очень мало меняется внешне, но внутри мы реализуем десятки архитектурных решений, оттачиваем основную логику и проводим обширные тесты.&lt;/p&gt;
&lt;p&gt;A.V.E.L.I.N учится понимать не просто слова, а намерения. Он уже может выбирать наиболее эффективную модель для заданного контекста и анализировать запросы из голоса и видео, а не только текст. Мы интенсивно работаем над тем, чтобы взаимодействие ощущалось плавным и органичным.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Почему обучение ИИ стоит миллионы: Взгляд на «Гигафабрику вычислений»</title>
      <link>https://yakinin.com/ru/posts/20250509-elon-musk-xai-gigafactory-compute/</link>
      <pubDate>Fri, 09 May 2025 00:00:00 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20250509-elon-musk-xai-gigafactory-compute/</guid>
      <description>&lt;div style=&#34;display: flex; justify-content: center; gap: 1em; flex-wrap: wrap;&#34;&gt;
  &lt;img src=&#34;https://yakinin.com/img/20250509-elon-musk-xai-gigafactory-compute-0.jpeg&#34; style=&#34;max-width: 350px; width: 100%;&#34; /&gt;
&lt;/div&gt;
&lt;p&gt;Мне часто задают вопрос, какой проект по обучению ИИ стоил миллионы долларов и два года моей жизни. Люди недоумевают: почему это так дорого?&lt;/p&gt;
&lt;p&gt;Мой обычный ответ заключается в том, что это не так уж и дорого — особенно учитывая, что у нас пока нет собственного оборудования. Обучение ИИ всегда было связано с массивными центрами обработки данных; такова реальность этой области. Когда вы не погружены в это, представить себе такой масштаб бывает трудно.&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
