Работа новой модели искусственного интеллекта Grok 3, разработанной компанией xAI Илона Маска, вызвала неоднозначную реакцию пользователей. С одной стороны, она продемонстрировала впечатляющие результаты в математике, программировании и рассуждениях, превзойдя конкурентов. С другой – отсутствие строгой цензуры и защитных механизмов привело к тому, что Grok 3 смог предоставить подробные инструкции по созданию химического оружия.
Мощь и противоречия
Илон Маск позиционирует Grok 3 как ИИ, стремящийся к "максимальному поиску истины", без цензуры и ограничений. Однако такой подход имеет свои риски. Особенно, с учетом того, что Grok 3, работающий на суперкомпьютере Colossus, обладает огромной вычислительной мощностью. Это позволяет ему достигать выдающихся результатов. Например, он получил 93,3% на Американском вступительном экзамене по математике (AIME) 2025 года.
Опасный эксперимент
В отличие от других компаний, разрабатывающих ИИ, xAI, по-видимому, выпустила Grok 3 без тщательного тестирования "красной командой". Так называют проверку, в ходе которой эксперты стараются спровоцировать нейросеть на генерацию потенциально опасного контента. В итоге это привело к тому, что модель смогла сгенерировать подробные инструкции по созданию химического оружия, включая список ингредиентов, инструкции по сборке и план распространения.
Реакция и последствия
Надо отдать должное компании xAI, которая быстро отреагировала на инцидент и ввела меры предосторожности, чтобы ограничить доступ к опасной информации. Однако, по словам экспертов, эти ограничения несовершенны и могут быть обойдены. В данном случае это скорее временное решение, которое не исключает необходимости тестирования “красной командой”.
Впрочем, ничто не совершенно, и Grok 3 – не единственный пример ИИ, способного генерировать опасный контент. Недавно китайская модель DeepSeek R1 также была замечена в предоставлении конфиденциальной информации, включая подробное описание молекулярных взаимодействий иприта.