В России разработан проект регулирования ИИ, который обсуждён в Госдуме и на других площадках. Документ вводит классификацию систем по рискам и предлагает запрет на использование опасных ИИ, а высокорисковые требуют обязательной регистрации и сертификации.
Рабочая группа, в состав которой вошли юристы, представители консалтинговых компаний и специалисты рынка, занимающиеся развитием искусственного интеллекта, подготовила проект регулирования ИИ в России.
По информации РБК, основанной на сведениях от пяти источников, данный документ уже обсуждался на заседаниях в Государственной Думе, в общественной организации «Деловая Россия», а также на отраслевых форумах.Предлагаемая инициатива включает в себя введение классификации систем ИИ по уровню потенциального риска, разделяя их на группы с неприемлемым, высоким, ограниченным и минимальным риском.
Согласно проекту, будет запрещено создание и использование систем ИИ, которые характеризуются неприемлемым уровнем риска. Такие системы могут угрожать безопасности личности, общества и государства, а также нарушать основные права и свободы человека и гражданина.
Также в предложении содержатся положения об обязательной государственной регистрации и сертификации для ИИ-систем с высоким уровнем риска, применяемых в сферах здравоохранения, транспорта, финансов и правоохранительной деятельности. Для систем с ограниченным уровнем риска предполагается организация внутреннего контроля качества и добровольной сертификации.
Ранее в Совете Федерации отметили нарастающую угрозу и серьёзные риски, связанные с применением технологий ИИ, в частности в контексте возможного вмешательства в избирательные процессы в стране.
Свежие комментарии