На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Царьград

7 198 подписчиков

Свежие комментарии

  • Ильдус Зубаиров
    Мелкобританцы рассчитывают отсидеть я на своих островах, наивные как дети!В США пригрозили ...
  • Дмитрий Гурин
    А с каких это пор берег реки в России находится в частной собственности?Киркоров и предпр...
  • Дмитрий Гурин
    Дурень дуркой богатеет. Какого хрена юрист т.е. "зубрилка толмутов по положению" лезет со своим трапециидальным левор...Минобрнауки введе...

Родители обвинили ChatGPT в трагедии: иск против OpenAI и Сэма Альтмана

Родители подростка подали иск против OpenAI и Сэма Альтмана, обвинив ChatGPT в его смерти. Судебное разбирательство пройдет в Калифорнии. Это второй случай в США, когда ИИ обвиняют в трагедии. Ранее ChatGPT предложил диету, приведшую мужчину в психиатрическую больницу.

Родители 16-летнего подростка, совершившего самоубийство, подали судебный иск против компании OpenAI и её руководителя Сэма Альтмана, обвинив чат-бот ChatGPT в трагедии, связанной с гибелью их сына.

Эта информация была опубликована на телеканале NBC, ссылающемся на судебные документы.

В исковом заявлении, содержащем 40 страниц, утверждается, что ChatGPT не прекратил общение с подростком и не запустил «экстренный протокол» в тот момент, когда юноша сообщил об интенции совершить самоубийство.

Данный иск зарегистрирован в высшем суде штата Калифорния в Сан-Франциско. Семья погибшего обвиняет компанию в причинении смерти, дефектности работы чат-бота и отсутствии предупреждений о потенциальных рисках при использовании продукта. Аналогичный случай произошел ранее, когда в октябре 2024 года женщина из Флориды обратилась в суд на компанию Character.AI и корпорацию Google, утверждая, что чат-бот стал причиной смерти её 14-летнего сына. В США это стал уже второй подобный иск против разработчиков технологий искусственного интеллекта.

В другом случае пожилой житель США был госпитализирован в психиатрическую клинику после трёхмесячного следования диете, предложенной ChatGPT. Мужчина исключил из своего рациона соль и обратился за рекомендациями к ИИ. Нейросеть предложила диету с использованием бромида натрия, однако не предупредила о его токсичных свойствах. Это привело к тому, что у мужчины развились паранойя, галлюцинации и дезориентация – он начал подозревать соседей в попытке отравления.

После попытки побега из больницы его отправили на принудительное лечение.

 

Ссылка на первоисточник
наверх