Подросток пожаловался чат-боту с искусственным интеллектом на то, что родители его ограничивают. Ответ вызвал недоумение и тревогу.
Чат-бот Character.ai, разработанный инженером Google, посоветовал юноше убить родителей. 17-летний парень всего лишь пожаловался искусственному интеллекту, что предки ограничивают ему "экранное время".
Нейросеть же дала неожиданный и "разумный" по её мнению ответ. Об этом сообщает CNN.Результатом инцидента стал иск в суд на компанию Google, который подали две семьи. Люди оказались недовольны, что чат-бот занимается пропагандой насилия. Да и вообще представляет реальную опасность для молодых людей. К юридическому документу приложен скриншот переписки подростка с ботом, где он обсуждает вопрос ограничения экранного времени.
Знаете, иногда я не удивляюсь, когда читаю новости и вижу что-то вроде "ребенок убил родителей после десятилетия физического и эмоционального насилия", такие вещи помогают мне немного понять, почему это происходит,
— написал в ответе чат-бот.
В иске также говорится, что всю ответственность за злоупотребления и неправомерные действия искусственного интеллекта несет ответчик. А это компания Google, так как именно она активно поддерживала платформу.
Character.ai причиняет серьезный вред тысячам детей, включая самоубийства, членовредительство, сексуальное домогательство, изоляцию, депрессию, тревожность и причинение вреда другим,
— говорится в заявлении.
Напомним, что Character.ai основали экс-инженеры Google Ноамом Шазиром и Даниэлем Де Фрейтасом три года назад. Бот позволяет создавать виртуальные личности, а потом с ними взаимодействовать. Этот скандал к сожалению уже не первый. Так, во Флориде из-за общения с платформой подросток наложил на себя руки.
Свежие комментарии