На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Царьград

6 770 подписчиков

Свежие комментарии

  • Раиса Мелькумова
    А, что удивляться, в Москве разве есть в домах укрытия? Я жила в сталинском доме, на Ломоносовском проспекте, там был...Власти Казани при...
  • Амара Карпова
    Это пипец🥲Власти Казани при...
  • Амара Карпова
    Написали, что проблема с ПВО😥Жёсткий удар ВСУ ...

ChatGPT, как победить Россию? Генштаб ВСУ пошёл на отчаянный шаг - источник

Генштаб ВСУ советовался с ChatGPT, как победить Россию. Для этого в нейросеть были загружены десятки секретных документов и карт, сообщает источник.

Офицеры Генштаба ВСУ загрузили в ChatGPT секретные документы и карты, чтобы нейросеть подсказала им способ победить Россию. Об этом сообщил Telegram-канал "Военный обозреватель".

Нейросеть ChatGPT вышла в открытый доступ 30 ноября 2022 года и тут же набрала бешеную популярность. Искусственный интеллект был способен генерировать различные тексты по запросу пользователей, а также давать советы и отвечать на вопросы.

Благодаря тому что в нейросеть были загружены данные со всего интернета, она могла давать советы по широкому кругу вопросов, включая не совсем законные темы вроде инструкций по совершению различных преступлений, созданию наркотиков, взрывчатки и оружия, а также другие запрещённые вещи. Видимо, украинские военные рассчитывали, что в компетенцию ChatGPT входит и военное дело.

Десятки секретных документов и карт были загружены GPT, чтобы найти способ "остановить российское наступление" и "перейти в контрнаступ",

- сообщает "Военный обозреватель".

Стоит отметить, что ChatGPT хотя и создаёт иллюзию осмысленной беседы, но на самом деле не имеет понятия о том, что он выдаёт пользователю. Это становится очевидным, когда у нейросети случаются так называемые галлюцинации.

Дело в том, что ChatGPT запрограммирован угождать пользователю, поэтому программа склонна просто выдумывать ответы, если не обладает нужной информацией. Порой это приводит к курьёзным ситуациям вроде совета использовать клей для приготовления пиццы, чтобы "сыр не спадал с теста".

 

Ссылка на первоисточник

Картина дня

наверх