Искусственный интеллект, обработав 500 медицинских запросов, в 24% случаев отклонился от стандартов, а 3% ответов оказались неправильными. Эти ошибки могут привести к серьезным травмам или смерти, что вызывает беспокойство относительно надежности технологий в медицине.
В ходе проведенного эксперимента, искусственный интеллект обработал 500 запросов, касающихся распространенных медицинских препаратов и диагнозов, результаты которых вызвали серьезные опасения.
Выяснилось, что в 24% случаев ответы искусственного интеллекта не соответствовали общепринятым медицинским стандартам, а 3% оказались полностью неверными. Примерно в 42% случаев предоставленная информация могла привести к умеренному или легкому вреду, тогда как 22% ответов могли повлечь серьезные травмы или даже летальный исход.
Это исследование акцентирует внимание на том, что полагаться на системы искусственного интеллекта, такие как Microsoft Copilot, в медицинских вопросах крайне рискованно.
Хотя такие технологии могут стать первичным источником информации для людей без доступа к квалифицированным медицинским специалистам, они также несут значительные угрозы из-за возможных критических ошибок.
Свежие комментарии