На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Царьград

7 300 подписчиков

Свежие комментарии

  • V K
    Так уже давно известно, что, например, рыжим не будет царствия небесного...В раю не место: с...
  • Вера Роднова
    А кто проследит куда Трамп дел деньги? Если и прикарманит кто спросит? Дураков ищет по всему Миру и ведь находит, что...Делягин подсказал...
  • Владимир Тимошков
    Мутантных пиздюков вместе со всей роднёй отлавливать, кастрировать и в родные кишлаки возвращать.Безопасность дете...

Новый закон ИИ в России: рискованные системы под запретом и жесткий контроль

В России разработан проект регулирования ИИ, который обсуждён в Госдуме и на других площадках. Документ вводит классификацию систем по рискам и предлагает запрет на использование опасных ИИ, а высокорисковые требуют обязательной регистрации и сертификации.

Рабочая группа, в состав которой вошли юристы, представители консалтинговых компаний и специалисты рынка, занимающиеся развитием искусственного интеллекта, подготовила проект регулирования ИИ в России.

По информации РБК, основанной на сведениях от пяти источников, данный документ уже обсуждался на заседаниях в Государственной Думе, в общественной организации «Деловая Россия», а также на отраслевых форумах.

Предлагаемая инициатива включает в себя введение классификации систем ИИ по уровню потенциального риска, разделяя их на группы с неприемлемым, высоким, ограниченным и минимальным риском.

Согласно проекту, будет запрещено создание и использование систем ИИ, которые характеризуются неприемлемым уровнем риска. Такие системы могут угрожать безопасности личности, общества и государства, а также нарушать основные права и свободы человека и гражданина.

Также в предложении содержатся положения об обязательной государственной регистрации и сертификации для ИИ-систем с высоким уровнем риска, применяемых в сферах здравоохранения, транспорта, финансов и правоохранительной деятельности. Для систем с ограниченным уровнем риска предполагается организация внутреннего контроля качества и добровольной сертификации.

Ранее в Совете Федерации отметили нарастающую угрозу и серьёзные риски, связанные с применением технологий ИИ, в частности в контексте возможного вмешательства в избирательные процессы в стране.

 

Ссылка на первоисточник
наверх