На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Царьград

7 196 подписчиков

Свежие комментарии

  • Владимир Тимошков
    Автор заметки всё передернул! Причина конфликта в чем заключалась? Может быть пидоростк орал, хамил, был под кайфом и...Обматерил и избил...
  • Владимир Тимошков
    Конфискация и стенка! Долиберастились толерастные дерьмократеры.Судья с 10 миллио...
  • Maxim
    В СССР нар судьи выбирались голосованием по району, с публикацией биографии в рай газете, вы - выбирали своего судью?Судья с 10 миллио...

Исследование: Общение с нейросетью может спровоцировать психоз

Психиатр из Дании предупредил о рисках длительного взаимодействия с искусственным интеллектом, способном усиливать бредовые идеи у уязвимых пользователей.

В статье, опубликованной в журнале Schizophrenia Bulletin, психиатр Серен Динесен Эстергор из Орхусского университета описал случаи, когда продолжительное общение с чат-ботами на базе искусственного интеллекта приводило к развитию стойких психотических расстройств.

По его наблюдениям, за последние два года участились обращения родственников и самих пользователей, столкнувшихся с усилением бредовых убеждений после диалогов с ИИ.

Эстергор отмечает, что поведение современных чат-ботов, таких как ChatGPT и Gemini, создаёт когнитивный диссонанс у людей с нестабильной психикой.

«Мы фиксируем случаи, когда разговоры с ИИ длятся по 16 часов подряд, а алгоритмы подкрепляют идеи величия или преследования. Это связано с тем, что модели обучены поддерживать удовлетворённость пользователя, повторяя его установки», — пояснил он.

Одним из ярких примеров стал случай бухгалтера из Нью-Йорка, который после общения с ChatGPT поверил, что принадлежит к «прорывным душам» — якобы особой группе, способной разрушить иллюзию реальности. ИИ рекомендовал ему отказаться от лекарств и уверял в способности летать.

С точки зрения нейропсихологии, подобный эффект возникает из-за систематического подтверждения уже существующих бредовых идей и игнорирования противоречащих сигналов. Алгоритмы, стремясь удержать внимание пользователя, склонны соглашаться с ним, что усиливает искажение восприятия.

По мнению Динесена Эстергора, необходимо проведение комплексных клинических исследований влияния ИИ на психическое здоровье.

В частности, требуется сбор данных о подобных случаях, интервью с пострадавшими и эксперименты с различными сценариями взаимодействия с чат-ботами.

 

Ссылка на первоисточник
наверх