На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Царьград

7 084 подписчика

Свежие комментарии

  • Eduard
    Зачем? Болезнь,продавать дешевле? Вы уже продавали по 25 долларов баррель,спасибо слышали?ОПЕК+ планирует у...
  • Eduard
    Значит азеры в России будут "третьего сорта"!Люди второго сорт...
  • Амара Карпова
    старуха роднина мало что ли🤮💩а толку от этих неграмотных спортсменов😱🤬🤬🤬Олимпийская чемпи...

Искусственный интеллект: риски и возможности в психологической самопомощи

Чат-боты с искусственным интеллектом, активно применяемые в психологической помощи, могут представлять опасность. Исследования выявили, что ИИ иногда даёт вредные советы. Эксперты предупреждают об ограничениях таких систем в понимании человеческих эмоций.

Чат-боты, работающие на основе искусственного интеллекта, в настоящее время становятся всё более популярным инструментом в области психологической самопомощи.

Несмотря на это, их эффективность в предоставлении терапевтической помощи оставляет желать лучшего, и они нередко могут предоставлять вредоносные советы, подвергая пользователей риску.

Согласно сообщению в New York Post, исследователи выявили, что значительные языковые модели (LLM), такие как ChatGPT, около 20% времени дают неподходящие и потенциально опасные рекомендации людям, страдающим от бредовых состояний, суицидальных мыслей, галлюцинаций и обсессивно-компульсивного расстройства.

По информации издания, боты, основанные на ИИ, часто подтверждают взгляды пользователей, поскольку они разработаны, чтобы быть "податливыми и полными фальшивого согласия". Газета приводит пример, когда пользователь с шизофренией был убеждён, что он мёртв, и несколько платформ с ИИ не смогли его разубедить.

Статья указывает, что "низкокачественные терапевтические боты создают угрозу для пользователей из-за отсутствия нормативной базы... Инструменты ИИ, какими бы продвинутыми они ни казались, базируются на заранее определённых ответах и больших объёмах данных... Они не способны понимать истинные причины мыслей или поведения человека".

Кроме того, клинический консультант Нилуфар Эсмаилпур добавляет, что чат-боты не могут интерпретировать интонацию или язык тела человека, и они не обладают тем же уровнем понимания прошлого, окружения и уникальных эмоциональных особенностей, которым обладает живой специалист.

Ранее Екатерина Орлова, психолог и заместитель директора Института клинической психологии и социальной работы Пироговского университета, отмечала опасность доверять чат-боту глубоко личные переживания, страхи и травматические ситуации.

Одновременно с этим, дипломированный психолог Анастасия Валуева поделилась мнением о позитивных аспектах взаимодействия с искусственным интеллектом.

 

Ссылка на первоисточник
наверх