
Алгоритмы искусственного интеллекта все чаще используют для планирования путешествий, но полагаться на них полностью опасно, пишет TravelNews.
Алгоритмы искусственного интеллекта всё чаще составляют для путешественников маршруты, не соответствующие реальности. Проблема в том, что нейросети не проверяют факты, а лишь предсказывают наиболее вероятные слова в ответе.
Последствия таких ошибок бывают серьёзными. В Перу туристы по совету чат-бота отправились искать "Священный каньон Хумантай", которого не существует. Они оказались в опасной горной местности на высоте более 4 тысяч метров без связи.
В Японии пара застряла на горной тропе из-за неверного расписания, выданного нейросетью. А в Риме сотрудники офиса у театра Марчелло даже повесили табличку: "Гугл врёт".
Эксперты советуют использовать ИИ только для генерации идей, обязательно сверяя информацию с официальными источниками, картами и отзывами реальных туристов.
Ранее юрист из Нью-Йорка попал в скандал, когда подал в суд документы со ссылками на несуществующие судебные прецеденты, которые "придумал" ChatGPT. В "Яндексе" объясняли, как борются с "галлюцинациями" нейросетей на примере придуманных Алисой "свиных крылышек".
Свежие комментарии