<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>#БЯМ on Главная</title>
    <link>https://yakinin.com/ru/tags/%23%D0%B1%D1%8F%D0%BC/</link>
    <description>Recent content in #БЯМ on Главная</description>
    <generator>Hugo -- 0.148.2</generator>
    <language>ru</language>
    <lastBuildDate>Wed, 13 Aug 2025 15:55:16 +0000</lastBuildDate>
    <atom:link href="https://yakinin.com/ru/tags/%23%D0%B1%D1%8F%D0%BC/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>GPT-OSS от OpenAI: Важный шаг к возвращению к «открытости»</title>
      <link>https://yakinin.com/ru/posts/20250813-openai-gpt-oss-northflank/</link>
      <pubDate>Wed, 13 Aug 2025 15:55:16 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20250813-openai-gpt-oss-northflank/</guid>
      <description>&lt;p&gt;OpenAI совершила значительный шаг, выпустив GPT-OSS — свое первое семейство по-настоящему открытых больших языковых моделей со времен GPT-2. С разрешительной лицензией Apache 2.0 это не просто минорный релиз; это фундаментальное изменение, которое возвращает реальную мощь в руки разработчиков.&lt;/p&gt;
&lt;p&gt;Семейство включает две модели Mixture-of-Experts (MoE): gpt-oss-20b и gpt-oss-120b, разработанные для высокопроизводительного вывода с мощными возможностями рассуждения.&lt;/p&gt;
&lt;h2 id=&#34;почему-это-меняет-правила-игры&#34;&gt;Почему это меняет правила игры&lt;/h2&gt;
&lt;p&gt;В течение многих лет самые мощные модели от OpenAI были заблокированы за API. Это означало необходимость иметь дело с ограничениями по запросам, непрозрачным ценообразованием и отправкой потенциально конфиденциальных данных третьей стороне. GPT-OSS полностью меняет это уравнение.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Контекстное окно Claude Sonnet 4 на 1 миллион токенов: Практический взгляд для разработчиков</title>
      <link>https://yakinin.com/ru/posts/20250813-claude-sonnet-4-1m-context/</link>
      <pubDate>Wed, 13 Aug 2025 00:00:00 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20250813-claude-sonnet-4-1m-context/</guid>
      <description>&lt;p&gt;Anthropic только что объявила об увеличении контекстного окна Claude Sonnet 4 в 5 раз, доведя его до 1 миллиона токенов. Хотя большие числа в ИИ являются обычным явлением, этот шаг имеет ощутимые, практические последствия для тех из нас, кто создает сложные системы.&lt;/p&gt;
&lt;p&gt;С моей точки зрения, это не просто количественный скачок; это качественный скачок, который открывает новый класс проблем, которые мы можем решить.&lt;/p&gt;
&lt;h3 id=&#34;переход-от-анализа-файлов-к-пониманию-на-уровне-системы&#34;&gt;Переход от анализа файлов к пониманию на уровне системы&lt;/h3&gt;
&lt;p&gt;Возможность загрузить всю кодовую базу — более 75 000 строк с исходными файлами, тестами и документацией — в один запрос является значительным изменением. Ранее анализ кода с помощью ИИ часто ограничивался отдельными файлами или небольшими модулями. Мы могли проверять ошибки или рефакторить конкретную функцию, но ИИ не хватало целостного представления.&lt;/p&gt;</description>
    </item>
    <item>
      <title>Claude Opus 4.1: Сфокусированное Обновление в Кодировании и Взвешенная Позиция в Отношении Автономии</title>
      <link>https://yakinin.com/ru/posts/20250806-claude-opus-4-1-update/</link>
      <pubDate>Wed, 06 Aug 2025 00:00:00 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20250806-claude-opus-4-1-update/</guid>
      <description>&lt;p&gt;Anthropic выпустила Claude Opus 4.1 — инкрементальное, но важное обновление, которое оттачивает возможности флагманской модели в конкретных, высокоценных областях: агентные задачи, реальное кодирование и рассуждение. Это не полная переработка, а сфокусированное улучшение для профессиональных и разработческих сценариев использования.&lt;/p&gt;
&lt;h2 id=&#34;улучшенное-кодирование-и-рассуждение&#34;&gt;Улучшенное Кодирование и Рассуждение&lt;/h2&gt;
&lt;p&gt;Основное улучшение заключается в производительности кодирования. Opus 4.1 достигает 74,5% на бенчмарке SWE-bench Verified. Углубляясь в технические детали, модель решила в среднем 18,4 задачи из сложного подмножества, по сравнению с 16,6 для Claude Opus 4.&lt;/p&gt;</description>
    </item>
    <item>
      <title>DeepSeek-V3: Тихий релиз с впечатляющей локальной производительностью</title>
      <link>https://yakinin.com/ru/posts/20250801-deepseek-v3-local-performance/</link>
      <pubDate>Thu, 27 Mar 2025 11:22:11 +0000</pubDate>
      <guid>https://yakinin.com/ru/posts/20250801-deepseek-v3-local-performance/</guid>
      <description>&lt;div style=&#34;display: flex; justify-content: center; gap: 1em; flex-wrap: wrap;&#34;&gt;
  &lt;img src=&#34;https://yakinin.com/img/20250801-deepseek-v3-local-performance-0.jpg&#34; style=&#34;max-width: 350px; width: 100%;&#34; /&gt;
&lt;/div&gt;
&lt;p&gt;DeepSeek в очередной раз применил свою стратегию «тихого релиза», представив новую модель DeepSeek-V3-0324 на Hugging Face без каких-либо громких анонсов. Вместо маркетингового шума они просто предоставили сообществу готовое решение для оценки.&lt;/p&gt;
&lt;p&gt;Я протестировал модель локально на Mac Studio, оснащенном чипом M3 Ultra, и был впечатлен производительностью, генерирующей более 20 токенов в секунду. Это знаменует собой значительное ускорение для запуска мощных моделей на локальном оборудовании, делая их жизнеспособным вариантом для разработчиков.&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
