Предложение OpenAI шифровать ИИ — это похвальный заголовок, но оно обходит стороной более фундаментальную проблему. Прежде чем обсуждать сложную философию шифрования искусственного интеллекта, мы должны задать более простой и срочный вопрос: залатали ли они базовые уязвимости в своих существующих системах?
Легко забыть, но OpenAI имеет историю нарушений безопасности, наиболее заметным из которых является инцидент, приведший к утечке конфиденциальных чатов пользователей по всему интернету. Это был не сбой передовой криптографии; это была фундаментальная ошибка безопасности. Они создали уязвимость и, как следствие, раскрыли личные разговоры своих клиентов.
С инженерной и продуктово-ориентированной точки зрения, приоритеты здесь кажутся перевернутыми. Первый принцип построения безопасной и заслуживающей доверия системы — это выявление и устранение существующих дыр. Это кропотливая, негламурная работа. Поднятие философского спора о шифровании ИИ, с другой стороны, является грандиозным, дальновидным жестом.
Этот шаг вписывается в более широкую картину. Недавно мы видели, как Сэм Альтман признал, что они “полностью облажались” с запуском GPT-5, что привело к откату. Это указывает на повторяющийся разрыв между дальновидными анонсами и стабильной, реальной реализацией.
Трудно игнорировать бизнес-стимулы, которые здесь действуют. “Шифрование ИИ” — это нарратив, который может привлечь миллиарды инвестиций. “Отладка и исправление устаревшего кода” — это операционные расходы. Хотя я понимаю привлекательность великого видения, истинные инновации строятся на фундаменте надежности.
Прежде чем строить криптографическое хранилище для ИИ, нам нужно убедиться, что здание, в котором оно находится, безопасно. Давайте сосредоточимся на надежной инженерии и решении сегодняшних проблем, прежде чем привлекать капитал для завтрашних решений.