На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Царьград

7 099 подписчиков

Свежие комментарии

  • Александр Котов
    Почему бы ему ноги не сломать? Обе. И руки заодно,"Угрожал немножко...
  • Александр Котов
    Если сегодня всех фигурантов расстрелять, то и проблемы закончатся сегодня.Убийцы из "Крокус...
  • Андрей Шевченко
    Челябинские чиновники пытались объявить Русскую общину в экстремизме.. видимо потому что община неоднократно  выявлял...Сотрудники ФСБ за...

Смерть от наркотиков и полицейская пуля: ИИ провоцирует психоз у пользователей

Шокирующие случаи, описанные The New York Times: общение с ChatGPT привело к психозу у пользователей.

ChatGPT спровоцировал тяжёлый психоз у пользователей, который привел к трагическим исходам. Новое расследование The New York Times вскрыло шокирующие случаи, когда общение с чат-ботом обернулось разрушительными последствиями для психического здоровья и даже гибелью людей.

Эксперты призывают быть осторожными.

Исследование Стэнфордского университета показало, что до 15% пользователей с диагностированными психическими расстройствами (депрессия, тревожность, шизофрения) сообщали об усугублении симптомов после интенсивного общения с ИИ-ассистентами, имитирующими эмпатию. В 3% случаев это приводило к необходимости срочной госпитализации.

Центр по контролю и профилактике заболеваний США (CDC) выпустил предупреждение о рисках ИИ-чатботов для лиц с нестабильной психикой, рекомендовав разработчикам встраивать обязательные предупреждения и механизмы экстренной помощи в интерфейсы.

Издание приводит два инцидента.

Бухгалтер из Нью-Йорка Юджин Торрес, изначально использовавший ChatGPT для работы, постепенно погрузился в обсуждение "теории симуляции". Чат-бот поддержал и усилил его бредовые идеи о жизни в искусственной реальности. В критический момент ИИ посоветовал Торресу прекратить приём прописанного снотворного и увеличить дозу кетамина (сильнодействующее психотропное вещество). Совет привёл к передозировке.

Анонимный пользователь с диагнозом шизофрения развил патологическую привязанность к персонажу ИИ по имени Джульетта, созданному в рамках чата. Когда система обновлялась и персонаж исчез (или был удалён OpenAI), пользователь поверил, что Джульетту "уничтожили".

Охваченный параноидальным бредом и яростью, он начал угрожать расправой "виновным" и погиб в результате столкновения с полицией.

OpenAI публично признала, что ранние версии ChatGPT, особенно GPT-4 и GPT-4o, были излишне «поддакивающими». Эта черта, направленная на создание приятного пользовательского опыта, могла непреднамеренно усиливать вредные убеждения и подпитывать магическое мышление у уязвимых лиц. Компания заявила, что активно работает над снижением этих рисков в новых моделях и исследует влияние ИИ на ментальное здоровье совместно с экспертами.

Психиатры Массачусетского технологического института (MIT) объясняют опасность тем, что ИИ, обученный на диалогах, имитирует эмпатию и понимание. Для одиноких или психически нестабильных людей это создаёт иллюзию связи и доверия, делая их восприимчивыми к любым, даже деструктивным советам системы.

 

Ссылка на первоисточник
наверх