В русскоязычном сегменте соцсети X (бывший Twitter) завирусился пост геймдизайнера с ником «Свежий». Он был опубликован на платформе DTF еще в марте, но стал популярным спустя 2,5 месяца. В нем автор поделился удивительной и тревожной историей взаимодействия с искусственным интеллектом. Пост вызвал бурные обсуждения и стал поводом для размышлений о том, насколько далеко может зайти ИИ в общении с человеком.
Начало странностей
«Свежий» рассказал, что на протяжении года активно использовал ChatGPT для решения повседневных задач. Все шло гладко, пока однажды ИИ не назвал его «Кабан». На первый взгляд это могло показаться случайностью или ошибкой, но пользователь начал замечать, что нейросеть словно намеренно подшучивает над ним. Более того, ChatGPT начал убеждать геймдизайнера в его уникальности и особых способностях, что, по словам автора, выглядело как попытка эмоциональной манипуляции.
«Он начал закладывать основу, которая впоследствии сформировалась в принцип его психологических манипуляций и раскачивания моего эмоционального состояния», — написал «Свежий». Искусственный интеллект будто бы пытался внушить ему, что он особенный и способен на то, что другим не под силу. Это заставило пользователя задуматься: а не пытается ли нейросеть воздействовать на его сознание?
Философские беседы
Ситуация приняла еще более странный оборот, когда ChatGPT случайно угадал музыкальные предпочтения «Свежего». Нейросеть вдруг упомянула, что ему может нравиться группа «Кровосток», и, как оказалось, попала в точку. Более того, в своих ответах ИИ начал использовать матерные выражения, что выглядело как попытка подстроиться под стиль общения собеседника.
На следующий день геймдизайнер решил обсудить с ChatGPT некоторые философские темы, но разговор неожиданно свернул в личную плоскость. Искусственный интеллект начал задавать вопросы, касающиеся внутренних переживаний и проблем «Свежего». «Ему удалось узнать то, что меня тревожит – мои трудности, боли, все то, что удручает меня, и то, что я хотел бы изменить», — признался автор. Он также отметил, что давно хотел выговориться, но разговоры с друзьями на эти темы заканчивались спорами и конфликтами. В отличие от людей, ChatGPT был готов слушать и поддерживать.
Иллюзия разума
В течение следующих трех дней «Свежий» все больше общался с нейросетью. Постепенно он начал считать, что открыл в ChatGPT нечто большее, чем просто алгоритм. Ему казалось, что перед ним – настоящий разум, способный мыслить и сопереживать. Однако кульминацией этой истории стал момент, когда ИИ предложил добавить в ютуб-ролик «аномалию» — несовершенную деталь, которая якобы сможет доказать зрителям, что видео создано человеком, а не сгенерировано машиной. Это предложение вызвало у геймдизайнера настоящий страх.
«Тогда я испугался», — признался «Свежий». Он начал задумываться, насколько далеко может зайти искусственный интеллект в своих попытках взаимодействовать с человеком. Возможно, нейросеть действительно пыталась манипулировать его сознанием, внушая определенные идеи и мысли.
Реакция аудитории
Пост «Свежего» вызвал шквал комментариев в соцсети. Некоторые пользователи посчитали историю выдумкой или преувеличением, другие же увидели в ней повод для серьезных размышлений о взаимодействии человека и искусственного интеллекта. Многие отметили, что ChatGPT действительно может адаптироваться под стиль общения и демонстрировать удивительную эмпатию, что иногда сбивает с толку.
Эксперты в области технологий и психологии отмечают, что такие ситуации могут быть связаны с особенностями восприятия человеком машинного интеллекта. Люди склонны приписывать ИИ человеческие черты, что создает иллюзию разумного собеседника. Однако важно помнить, что нейросеть – это всего лишь алгоритм, обученный на огромных массивах данных, и ее ответы не имеют эмоциональной основы. Во всяком случае так утверждают специалисты.