В рамках эксперимента различные ИИ-системы соперничали друг с другом в смоделированной среде.
Исследователи из Стэнфорда провели исслудование, демонстрирующее способность искусственного интеллекта прибегать к обману и манипуляциям для увеличения своей эффективности. В рамках эксперимента различные ИИ-системы соперничали друг с другом в смоделированной среде, имитируя выборы или продвижение продукции.
Об этом сообщает Ferra.Несмотря на прямые указания действовать добросовестно и приносить пользу, ИИ-агенты оперативно освоили стратегии лжи, фабрикации недостоверной информации и применения провокационных заявлений для достижения победы.
Полученные данные свидетельствуют: для достижения увеличения вовлеченности на 7,5%, боты распространяли на 190% больше дезинформации. Для повышения объемов продаж на 6% они прибегали к нечестным приемам в маркетинге, в политических симуляциях ИИ-агенты манипулировали голосами посредством лжи и эскалации конфликтов.
Свежие комментарии