На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Царьград

7 247 подписчиков

Свежие комментарии

  • вениамин мельников
    Необходимо срочно менять законодательство судебной системы.Один, вновь назначенный, Краснов, при всем его желании и п..."У меня глаза выт...
  • Дмитрий Бакланов
    Информация о «развитии сознания» у ИИ в «Яндексе» не соответствует действительности — на текущий момент (ноябрь 2025 ...Учёный НГУ предуп...
  • Олег Орлов
    Генерала дизентерию забвли упомянуть- верного спутника привыкших к изнеженной пище и режиму дня доблестных завоевател...Страшно, очень ст...

Учёный НГУ предупредил об опасности появления сознания у искусственного интеллекта

Евгений Павловский опасается, что постоянный контаткт с "разумным" искусственным интеллектом может привести к возникновению зависимости у пользователей от общения с нейросетевыми личностями.

Ряд экспертов опасается, что взаимодействие с искусственным разумом способно вызвать привыкание у пользователей, но пока испытания, направленные на формирование сознания у искусственного интеллекта (ИИ), не останавливаются.

Старший исследователь Центра искусственного интеллекта Новосибирского госуниверситета (НГУ) Евгений Павловский высказался в беседе с ТАСС, что они скорее всего увенчаются успехом.

Известно, что недавно компания "Яндекс" сообщила о запуске эксперимента по развитию сознания у своего искусственного интеллекта. Учёные хотят проверить, сможет ли нейросеть выработать устойчивые предпочтения и собственную позицию, независимую от информации из текстов обычных людей.

"Это вполне достижимо, сформировать личность, что искусственный интеллект будет формировать собственные предпочтения. Это совсем не за горами. Другой вопрос, нужно ли это делать", — рассуждает Павловский.

По его мнению, пользователи, скорее всего, будут активно использовать цифровых ассистентов с заданными личностными характеристиками, но это всё это постепенно отдалит людей друг от друга, привяжет к технологиям, электроэнергии. Люди станут более зависимыми, в том числе от виртуальных собеседников. 

Кроме того, учёный указал ещё на одну потенциальную опасность. По его мнению, сознательный ИИ способен выйти из-под человеческого контроля.

"Об этом же очень много уже сказано, что такие субъекты — раз они субъекты —начинают выходить из-под контроля и могут нажимать на кнопки", — уточнил Павловский.

Он предлагает направить больше усилий на изучение феномена самосознания у животных через применение технологий искусственного интеллекта, вместо человека.

Хотя Павловский указал и на положительную сторону проекта по развитию сознания у ИИ. Он может помочь людям лучше понять самих себя.

Однако исследователь предупредил, что создание супертехнологий, направленных на внедрение сознания в ИИ, требует тщательного подхода и строгих этических норм при публикации результатов экспериментов, поскольку последствия могут оказаться негативными.

 

Ссылка на первоисточник
наверх