Financial Times опубликовала исследование о рисках ИИ. Учёные предупреждают: ИИ способен генерировать опасные белки, незаметные для систем безопасности, что угрожает биологической безопасностью. Эксперты настоятельно рекомендуют международное регулирование.
Применение технологий искусственного интеллекта может стать причиной утечек генетического материала, который потенциально может быть использован для создания биологического оружия.
Об этом сообщает издание Financial Times (FT), ссылаясь на результаты исследования, опубликованного в журнале Science.Учёные установили, что ИИ, который используют компании, занимающиеся продажей синтетических нуклеиновых кислот, способен генерировать вредоносные белки. Некоторые из этих белков остаются невидимыми для систем безопасности, которые разработаны для обнаружения опасного генетического материала и предотвращения его утечек. Как отмечает FT, это подчёркивает серьёзные риски использования ИИ для создания будущих видов оружия, поскольку его способности в области биотехнологий продолжают улучшаться.
Согласно информации газеты, ранее учёные уже выступали за необходимость:
проверки существующих мировых биотехнологических систем безопасности международного регулирования технологий синтеза белка с применением ИИ С точки зрения профессора информатики и синтетической биологии Ньюкаслского университета Наталио Красногора, требуется незамедлительное принятие мер, поскольку дальнейшее развитие ИИ "облегчит получение разрешений и экспериментальное производство синтетических токсинов, делая этот процесс более простым и доступным, чем в настоящее время".
Свежие комментарии