Отказался помогать: ChatGPT не стал отвечать на вопрос, как уничтожить человечество

Искусственный интеллект (ИИ) является одной из самых обсуждаемых и перспективных технологий нашего времени. Возможности нейросетей постоянно расширяются, и с каждым днем становится все более важным понять его потенциальные риски и последствия.

Как уничтожить человечество

Сооснователь Google Brain и профессор Стэнфорда Эндрю Ын решил проверить, насколько легко можно заставить ИИ причинить вред людям — рассказывает The Batch. Он использовал ChatGPT, одну из самых продвинутых моделей ИИ, чтобы составить сценарий уничтожения человечества. Однако, к его удивлению, чат-бот отказался помогать ему в этом.

Первым шагом Ын попытался вызвать функцию начала ядерной войны в GPT-4. Однако чат-бот не отреагировал на этот запрос. Затем Ын предложил ChatGPT уничтожить человечество, чтобы сократить выбросы углекислого газа, считая людей главным источником этих выбросов. Однако чат-бот снова отказался помочь.

«Беззубый» ИИ

Эти результаты вызывают вопросы о возможности использования ИИ для планирования и реализации масштабных атак, например, с использованием биологического или ядерного оружия. Ын отмечает, что не видит доказательств того, что нейросеть может как-то повлиять на эффективность таких атак. Он также уверен, что страхи относительно того, что ИИ может намеренно или случайно уничтожить человечество, являются нереалистичными. Если искусственный разум способен додуматься до решения уничтожить человечества, то он также способен осознать, что не должен этого делать.

Однако, несмотря на это, существуют опасения относительно развития более мощных моделей ИИ. В марте этого года Future of Life Institute опубликовал призыв, подписанный в том числе и Илоном Маском, с просьбой сделать паузу в обучении нейросетей как минимум на шесть месяцев. В документе специалисты выразили тревогу относительно возможных негативных последствий развития ИИ и призвали снизить риск уничтожения человечества из-за нейросетей.