На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Царьград

7 123 подписчика

Свежие комментарии

  • Eduard
    Умница!Мелания Трамп угр...
  • Eduard
    Карлик в зеленом совсем охрееел!"Мы откроем треть...
  • Вячеслав Денисов
    Кто же напринимал на такую работу, где должны отвечать за жизни людей, клинических идиотов! Их нужно не просто уволит...Водный аттракцион...

Исследование: Общение с нейросетью может спровоцировать психоз

Психиатр из Дании предупредил о рисках длительного взаимодействия с искусственным интеллектом, способном усиливать бредовые идеи у уязвимых пользователей.

В статье, опубликованной в журнале Schizophrenia Bulletin, психиатр Серен Динесен Эстергор из Орхусского университета описал случаи, когда продолжительное общение с чат-ботами на базе искусственного интеллекта приводило к развитию стойких психотических расстройств.

По его наблюдениям, за последние два года участились обращения родственников и самих пользователей, столкнувшихся с усилением бредовых убеждений после диалогов с ИИ.

Эстергор отмечает, что поведение современных чат-ботов, таких как ChatGPT и Gemini, создаёт когнитивный диссонанс у людей с нестабильной психикой.

«Мы фиксируем случаи, когда разговоры с ИИ длятся по 16 часов подряд, а алгоритмы подкрепляют идеи величия или преследования. Это связано с тем, что модели обучены поддерживать удовлетворённость пользователя, повторяя его установки», — пояснил он.

Одним из ярких примеров стал случай бухгалтера из Нью-Йорка, который после общения с ChatGPT поверил, что принадлежит к «прорывным душам» — якобы особой группе, способной разрушить иллюзию реальности. ИИ рекомендовал ему отказаться от лекарств и уверял в способности летать.

С точки зрения нейропсихологии, подобный эффект возникает из-за систематического подтверждения уже существующих бредовых идей и игнорирования противоречащих сигналов. Алгоритмы, стремясь удержать внимание пользователя, склонны соглашаться с ним, что усиливает искажение восприятия.

По мнению Динесена Эстергора, необходимо проведение комплексных клинических исследований влияния ИИ на психическое здоровье.

В частности, требуется сбор данных о подобных случаях, интервью с пострадавшими и эксперименты с различными сценариями взаимодействия с чат-ботами.

 

Ссылка на первоисточник
наверх