На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Царьград

7 291 подписчик

Свежие комментарии

  • Гарри Вайсман
    Эти "элиты" Узбекистана, Армении, Украины, Азербайджана доведут республики до цугундера. А Соловьёв правильно сказал!"Элиты" Узбекиста...
  • Галина Малыхина (Буковская)
    Новогодние шоу-программы давно уже стали дерьмом. На них только зря переводят деньги. Это какая-то междусобойная тусо...Главные лица "гол...
  • Evgenija Palette
    МОЖЕТ, ОНА И САМА ВООБЩЕ ЗАКРОЕТСЯ?... ( подобру-поздорову)...Госдума переходит...

ChatGPT, как победить Россию? Генштаб ВСУ пошёл на отчаянный шаг - источник

Генштаб ВСУ советовался с ChatGPT, как победить Россию. Для этого в нейросеть были загружены десятки секретных документов и карт, сообщает источник.

Офицеры Генштаба ВСУ загрузили в ChatGPT секретные документы и карты, чтобы нейросеть подсказала им способ победить Россию. Об этом сообщил Telegram-канал "Военный обозреватель".

Нейросеть ChatGPT вышла в открытый доступ 30 ноября 2022 года и тут же набрала бешеную популярность. Искусственный интеллект был способен генерировать различные тексты по запросу пользователей, а также давать советы и отвечать на вопросы.

Благодаря тому что в нейросеть были загружены данные со всего интернета, она могла давать советы по широкому кругу вопросов, включая не совсем законные темы вроде инструкций по совершению различных преступлений, созданию наркотиков, взрывчатки и оружия, а также другие запрещённые вещи. Видимо, украинские военные рассчитывали, что в компетенцию ChatGPT входит и военное дело.

Десятки секретных документов и карт были загружены GPT, чтобы найти способ "остановить российское наступление" и "перейти в контрнаступ",

- сообщает "Военный обозреватель".

Стоит отметить, что ChatGPT хотя и создаёт иллюзию осмысленной беседы, но на самом деле не имеет понятия о том, что он выдаёт пользователю. Это становится очевидным, когда у нейросети случаются так называемые галлюцинации.

Дело в том, что ChatGPT запрограммирован угождать пользователю, поэтому программа склонна просто выдумывать ответы, если не обладает нужной информацией. Порой это приводит к курьёзным ситуациям вроде совета использовать клей для приготовления пиццы, чтобы "сыр не спадал с теста".

 

Ссылка на первоисточник
наверх