Царьград

1 664 подписчика

Свежие комментарии

  • Владимир Чернышов
    Да, тест очень опасен. Можно глаз проткнуть. :-) И требует не меньше профессорского звания для применения. :-) Дебил..."Запасных детей у...
  • Виктор Шиховцев
    Пожалеют и дадут. В надежде, что все вдруг зауважают Вову. Но будет, как всегда.Молдавия на грани...
  • Meerflieger
    "...Москва делает ставку в отношениях с молдавскими партнёрами на заключение годового или месячного контракта, причём...Молдавия на грани...

"Окулус" Большого Брата: Правда и мифы о системе слежения за интернетом

"Окулус" Большого Брата: Правда и мифы о системе слежения за интернетом

Преступления есть, приговоров нет

Роскомнадзор сформулировал задание на разработку системы "Окулус" – комплекс на основе искусственного интеллекта (ИИ), который сможет автоматически идентифицировать запрещённую информацию не только в текстовых файлах, но и в изображениях и видеороликах. К ней относятся экстремистские материалы, например, призывы к массовым беспорядкам, поддержка терроризма, нацизма, а также – порнография, реклама половых перверсий, пропаганда наркотиков и суицида.

Главный радиочастотный центр (ГРЧЦ) уже объявил тендер стоимостью 15 млн рублей на разработку техзадания для системы. Срок выполнения контракта – до 17 декабря 2021 года. Полное же создание "Окулуса" может стоить, по оценкам экспертов, сотни миллионов рублей, а его внедрение и обслуживание на протяжении нескольких лет потребует уже миллиарды.

Ясно, что если государство готово идти на такие затраты не в самой лучшей экономической ситуации, то подобная система – не "полицейская прихоть", а назревшая необходимость. Против нашей страны ведётся гибридная война, в которой сетевое пространство играет важную роль. Через него происходят не только вбросы общественно-опасных фейков и призывов к массовым беспорядкам, но и системное "перекодирование" сознания русского народа, особенно молодёжи, которое советник министра обороны Сергея Шойгу Андрей Ильницкий назвал "ментальной войной".

Напомним, ответственность за размещение противоправных материалов по сегодняшним законам России может быть как административной, так и уголовной. Скажем, за возбуждение ненависти и вражды, унижение человеческого достоинства по факторам расы и пола предусмотрены штраф до полумиллиона рублей или лишение свободы от 2 до 5 лет. А за изготовление, приобретение и хранение детской порнографии "светит" от 3 до 10 лет.

Впрочем, реальных посадок по таким делам очень мало (за 2020 год – менее 20 по обеим статьям суммарно). Тем более, как разъяснял Верховный суд России, неподсудны комментарии, лайки, в соцсетях, а "фейковые" посты и репосты могут преследоваться лишь при судебно доказанном злом умысле этих сообщений. Уголовная статистика таких случаев пока удручает. Да и бодания регулятора с иностранными IT-гигантами с целью заставить их удалить деструктивный контент выглядит пока позиционной войной с переменным успехом. А давно пора бы уже и тяжёлую артиллерию в ход пустить.

1984 впереди?

Разумеется, пришествие нового, особенно в такой тонкой сфере, как информация, влечёт с собой некоторые риски. Оценивают их сегодня по-разному. Так, некоторые эксперты считают, что из-за внедрения "Окулуса" скорость доступа в интернет для пользователей изрядно замедлится: виной тому фильтрация фото- и видеоконтента контента ИИ-алгоритмами. На эти страхи оперативно среагировали в пресс-службе Главного радиочастотного центра:

Поисковый робот не будет предварительно модерировать или фильтровать публикуемый трафик, а лишь просигнализирует эксперту, что в уже размещёенной публикации могут содержаться нарушающие законодательство материалы, –

полагает начальник отдела анализа и прогнозирования Научно-технического центра ГРЧЦ Роман Коросташов.

Другие опасения, которые немедленно подхватили и раздули издания вроде "Медузы"*, связаны с тем, что автоматизированный надзор за сетевыми публикациями может обернуться тотальным контролем над образом мыслей частных граждан и приближением к пресловутому Большому Брату из романа Оруэлла "1984". Подогрели эти ужасы даже некоторые "официальные лица". Например, представитель уполномоченного при президенте России по защите прав предпринимателей в сфере интернета Дмитрий Мариничев в беседе с корреспондентом "Общественной службы новостей" заявил:

Фактически это тотальный мониторинг, тотальное изучение общественного мнения, контроль настроений, эмпатии в текстах. Это очень опасная система искусственного интеллекта, особенно, если она будет в руках власти.

"Особенно"?! А в чьих руках она была бы благом?

1984 позади!

"Первый русский" попросил высказаться известного IT-специалиста, члена Совета по правам человека при президенте России Игоря Ашманова. Он не раз до этого публично предупреждал об опасных сторонах тотальной цифровизации и неправильного использования ИИ. Но в нынешней инновации от РКН он не видит причин для тревоги:

Роскомнадзор – это всего лишь регулятор, он сам ничего не решает, исполняя закон по запросу других ведомств: Прокуратуры, МВД, Роспотребнадзора и других. Одни дают сведения о пропаганде в сети наркотиков, другие – детского порно. Но таким образом бороться с нарушениями закона в интернете крайне неэффективно. Ведь сами эти ведомства должны либо инициативно искать запрещённый контент по своей "епархии", либо реагировать на сигналы от граждан – как чаще всего и происходит.

Пока такая история дойдет до регулятора, пока он, в соответствии с законом, вынесет предупреждение нарушителю и подождёт положенное на его реакцию время и, наконец, заблокирует – вредоносная информация широко разлетится по сети, будет тысячи раз скачана. Это всё равно, что носить воду в решете. В итоге Роскомнадзор вынужден искать такой контент сам и отправлять ответственным ведомствам на оценку, чтобы получить от них предписание на блокирование. То есть лишняя "петля" получается. Поэтому регулятор пошёл по совершенно логичному пути, дав задание разработать инициативный "поиск плохого".

Ашманов уверен, что к Оруэллу "Окулус" не имеет никакого отношения, поскольку "никакой слежки за публикациями частных пользователей не предполагается". В отличие от западного, особенно англосаксонского мира, где, по свидетельству эксперта, налажен настоящий тотальный контроль за "мыслепреступлениями".

Там вы не можете в сети без последствий для себя усомниться в господствующих идеологических установках, например, в системном анти-расизме или правах извращенцев. Более того: Запад уже шагнул дальше романа "1984". В корпорации Google, скажем, устраивают для белых сотрудников строго обязательные тренинги, на которых внушают обязанность не просто признавать на словах свою вину перед чернокожими, но и искренне чувствовать её изнутри, развивать это чувство с помощью медитаций и специальных дыхательных техник.

У нас же речь идёт об элементарной защите сознания граждан и самозащите государства от разного рода отравы. Это можно сравнить со станциями фильтрации и обеззараживания водопроводной воды, благодаря которым, мы смело наливаем воду из-под крана и пьём. Из интернета так же смело "наливать" и "пить" сегодня опасно".

Эксперт подчеркнул, что в отличие от ручного поиска вредоносного контента алгоритмы ИИ смогут по одному обнаруженному элементу обнаружить все тысячи его копий на разных ресурсах и идентифицировать как совпадающие. А потом передать экспертам для единой экспертизы. "Нейронные сети позволяют сегодня эффективно фиксировать такие элементы в визуальном контенте. Машина эта, как любой поисковик, работает в фоновом режиме, нисколько не тормозя трафик, поэтому беспокоится обычным пользователям не о чем", – заключил Ашманов.

Он также выразил уверенность, что отечественным программистам вполне по силам в короткие сроки создать подобную систему "по крайней мере, начальную базовую версию, ведь интернет-поисковик – это не проект, а процесс".

Что с того?

Разъяснения и Роскомнадзора и Игоря Ашманова по системе "Окулус" вполне убедительны. Действительно, опасаться автоматического поиска противоправного контента сегодня в России стоит лишь его заинтересованным производителям. Ловить и наказывать частных пользователей соцсетей за "неправильный" пост или тем более – перепост государство не собирается. По крайней мере, пока. По нынешним законам.

Бояться же ИИ в принципе – тоже глупо: мы давно живём уже в его окружении. Другое дело, что он также – не проект, а процесс. Но неправильно ставить вопрос, куда он нас приведёт. Важно – куда мы его приведём. За каждым процессом пока что стоят люди – разработчики с одной стороны и получатели результатов с другой.

"Первый русский" уже не раз подробно разбирал опасность внедрения ИИ в социальные технологии для "более эффективного" управления населением, как это уже происходит в Китае. Есть опаска и в мире. Так верховный комиссар ООН Мишель Бачелет недавно призвала наложить мораторий на использование некоторых технологий на базе искусственного интеллекта, в частности – системы автоматического распознавания лиц.

Как и любая технология, искусственный интеллект – палка о двух концах: можно защитить человека, а можно "зарезать", заперев в эффективный концлагерь из антиутопий. Всё зависит от нравственного уровня его разработчиков и главное – заказчиков. Поэтому даже за применением невинного и полезного сетевого фильтра следует внимательно наблюдать. Чтобы на очередном витке итерации его не превратили в кляп.

* Является иностранным агентом

 

Ссылка на первоисточник

Картина дня

наверх