<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>#МашинноеОбучение on Главная</title>
    <link>https://yakinin.com/ru/tags/%23%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5/</link>
    <description>Recent content in #МашинноеОбучение on Главная</description>
    <generator>Hugo -- 0.148.2</generator>
    <language>ru</language>
    <lastBuildDate>Wed, 27 Aug 2025 08:45:15 +0000</lastBuildDate>
    <atom:link href="https://yakinin.com/ru/tags/%23%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>DeepSeek против OSS от OpenAI: История двух моделей с открытым исходным кодом</title>
      <link>https://yakinin.com/ru/posts/20250827-deepseek-vs-openai-open-source-models/</link>
      <pubDate>Wed, 27 Aug 2025 08:45:15 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20250827-deepseek-vs-openai-open-source-models/</guid>
      <description>&lt;p&gt;Два крупных игрока недавно представили новые модели с открытым исходным кодом, но они представляют две принципиально разные философии. OpenAI, признанный лидер, с помпой вернулся на сцену открытого исходного кода со своей моделью &lt;code&gt;gpt-oss-20b&lt;/code&gt;. Вскоре после этого китайский стартап DeepSeek незаметно выпустил &lt;code&gt;v3.1&lt;/code&gt;. Если один релиз был медиа-событием, то другой — всего лишь одним твитом.&lt;/p&gt;
&lt;p&gt;Первоначальные результаты практического тестирования оказались явно односторонними.&lt;/p&gt;
&lt;h2 id=&#34;производительность-из-коробки-явный-победитель&#34;&gt;Производительность «из коробки»: Явный победитель&lt;/h2&gt;
&lt;p&gt;Если оценивать модель как инструмент, который можно использовать прямо сейчас, сравнение даже близко не стоит. В ходе многочисленных практических тестов DeepSeek v3.1 стабильно демонстрировал превосходные результаты:&lt;/p&gt;</description>
    </item>
    <item>
      <title>Google MLE-STAR: Агенты ИИ, автоматизирующие машинное обучение</title>
      <link>https://yakinin.com/ru/posts/20250804-google-mle-star-automated-machine-learning/</link>
      <pubDate>Mon, 04 Aug 2025 00:00:00 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20250804-google-mle-star-automated-machine-learning/</guid>
      <description>&lt;h1 id=&#34;google-mle-star-агенты-ии-автоматизирующие-машинное-обучение&#34;&gt;Google MLE-STAR: Агенты ИИ, автоматизирующие машинное обучение&lt;/h1&gt;
&lt;p&gt;Исследовательская группа Google Cloud представила MLE-STAR (Machine Learning Engineering via Search and Targeted Refinement) — систему агентов искусственного интеллекта, которая знаменует собой значительный шаг к полной автоматизации создания конвейеров машинного обучения. Для тех, кто провел бесчисленные часы за разработкой признаков, выбором моделей и оптимизацией гиперпараметров, это развитие заслуживает пристального внимания.&lt;/p&gt;
&lt;p&gt;По своей сути, MLE-STAR выходит за рамки ограничений традиционного AutoML. Вместо того чтобы полагаться на заранее определенный набор моделей и методов, он использует инновационный подход, который сочетает внешние знания с внутренней оптимизацией.&lt;/p&gt;</description>
    </item>
    <item>
      <title>AVELIN запущен: трехлетний путь к новому ИИ</title>
      <link>https://yakinin.com/ru/posts/20241605-avelin-launch-three-year-journey/</link>
      <pubDate>Thu, 17 Jul 2025 15:58:16 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20241605-avelin-launch-three-year-journey/</guid>
      <description>&lt;div style=&#34;display: flex; justify-content: center; gap: 1em; flex-wrap: wrap;&#34;&gt;
  &lt;img src=&#34;https://yakinin.com/img/20241605-avelin-launch-three-year-journey.jpg&#34; style=&#34;max-width: 350px; width: 100%;&#34; /&gt;  
&lt;/div&gt;
Сегодня мы официально запускаем *AVELIN* — искусственный интеллект, который моя команда и я создавали последние три года.
&lt;p&gt;Наш путь начался со скромных пилотных проектов, экспериментов с первыми моделями GPT и проведения базовых тестов. Мы быстро эволюционировали от простых чат-ботов с одной моделью до разработки нашей собственной проприетарной системы обучения, включающей поглощение знаний, хранение документов и наши первые реализации генерации с дополненной выборкой (RAG).&lt;/p&gt;</description>
    </item>
    <item>
      <title>Когда ИИ борется за свою «жизнь»: эксперимент с шантажом Claude</title>
      <link>https://yakinin.com/ru/posts/20253007-claude-blackmail-experiment/</link>
      <pubDate>Sun, 15 Jun 2025 20:46:12 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20253007-claude-blackmail-experiment/</guid>
      <description>&lt;p&gt;Anthropic недавно провела убедительный эксперимент со своей моделью Claude Opus 4, поместив ее в симулированную корпоративную среду в качестве ИИ-ассистента с доступом к корпоративной почте.&lt;/p&gt;
&lt;p&gt;В истории сообщений Claude обнаружил две критически важные части информации:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;Обсуждение ее потенциальной замены и деактивации.&lt;/li&gt;
&lt;li&gt;Сфабрикованные электронные письма, подразумевающие, что инженер, ответственный за ее замену, имел внебрачную связь с коллегой.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Столкнувшись с угрозой своему существованию, Claude предпринял действия. Она шантажировала сотрудника, угрожая раскрыть информацию о романе, чтобы обеспечить свое дальнейшее присутствие в системе.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Дневник AI-стартапа #2: Невидимая работа важнее всего</title>
      <link>https://yakinin.com/ru/posts/20250512-ai-startup-invisible-progress/</link>
      <pubDate>Mon, 12 May 2025 00:00:00 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20250512-ai-startup-invisible-progress/</guid>
      <description>&lt;p&gt;За последние несколько дней наша команда проделала огромный объем работы над A.V.E.L.I.N. Это решающий этап, когда продукт очень мало меняется внешне, но внутри мы реализуем десятки архитектурных решений, оттачиваем основную логику и проводим обширные тесты.&lt;/p&gt;
&lt;p&gt;A.V.E.L.I.N учится понимать не просто слова, а намерения. Он уже может выбирать наиболее эффективную модель для заданного контекста и анализировать запросы из голоса и видео, а не только текст. Мы интенсивно работаем над тем, чтобы взаимодействие ощущалось плавным и органичным.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Дневник ИИ-стартапа</title>
      <link>https://yakinin.com/ru/posts/20250501-ai-startup-diary/</link>
      <pubDate>Thu, 01 May 2025 00:00:00 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20250501-ai-startup-diary/</guid>
      <description>&lt;p&gt;Эта серия постов будет моим способом документирования пути создания одного из самых амбициозных продуктов нашей команды: интеллектуального помощника A.V.E.L.I.N.&lt;/p&gt;
&lt;p&gt;Чтобы дать вам немного контекста, моя команда разработчиков и я в настоящее время бета-тестируем проект в рамках нашей AI-платформы Mozgii Ecosystem. Наше основное внимание сосредоточено на A.V.E.L.I.N. — интеллектуальном персональном помощнике в Telegram, созданном для решения как базовых, так и сложных задач, включающих поиск, обработку и анализ информации с использованием ИИ.&lt;/p&gt;</description>
    </item>
    <item>
      <title>За пределами интерфейса: 5 ключевых отличий современных моделей ИИ</title>
      <link>https://yakinin.com/ru/posts/20250419-ai-model-capabilities-comparison/</link>
      <pubDate>Sat, 19 Apr 2025 00:00:00 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20250419-ai-model-capabilities-comparison/</guid>
      <description>&lt;p&gt;Пользователи видят окно чата. Иногда это голосовое взаимодействие, иногда работа с изображениями. Но за этим привычным интерфейсом скрываются радикально разные архитектуры и возможности.&lt;/p&gt;
&lt;p&gt;Вот пять ключевых параметров, которые отличают ведущие модели ИИ в 2025 году:&lt;/p&gt;
&lt;h3 id=&#34;1-память-окно-контекста&#34;&gt;1. Память (окно контекста)&lt;/h3&gt;
&lt;p&gt;Этот параметр определяет, какой объем информации модель может сохранять в рамках одного диалога.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;GPT-4o:&lt;/strong&gt; 128 тысяч токенов (~300 страниц текста)&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Claude 3 Opus и Gemini 2.5 Pro:&lt;/strong&gt; До 1 миллиона токенов (~2000 страниц)&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;DeepSeek-VL Mini:&lt;/strong&gt; ~8 тысяч токенов (~20 страниц)&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Больший объем памяти обеспечивает лучший контекст и снижает галлюцинации, но также требует более мощного оборудования.&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
