На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Царьград

6 924 подписчика

Свежие комментарии

  • Иван Еськов
    Спрашивается, какой идиот проталкивает у нас этот либеральный проект, накормить сверчками его до отвала,Пожар в Ижевске: ...
  • Иван Еськов
    Все времена крепости брал ишак с грузом золота, купили местных чиновников с потрохами. Местным только требовать отста...Власти встали на ...
  • Ирина Галивец
    Боже, храните нашего Президента!Покушения на Пути...

Сотни учёных бьют тревогу: Риск апокалипсиса из-за ИИ прошел критический уровень

Сотни учёных бьют тревогу по причине стремительного развития ИИ и прогнозируют приближение апокалипсиса.

Свыше половины опрошенных из 738 ученых, работающих в сфере развития ИИ считают: совершенствование искусственного интеллекта приближает апокалипсис. Этот риск они оценивают в 5%, а главы лабораторий в 10%-20%.

До краха человечества, по их мнению, осталось около ста лет.

Что делать для снижения риска наступления апокалипсиса? Ученые предлагали – перестать обучать ИИ. Остановить все исследования в этой области, потому что риски слишком высоки.

Отметим, что во всех отраслях экономики есть понятие допустимого риска. Например, при производстве лекарств он не может превышать 0,01% матожидания смертей в год. Если этот показатель больше, препарат в гражданский оборот не пускают. И несмотря на это, бывали ситуации, когда риск сознательно или случайно занижался. Так было с ЛСД и морфием, которые не сразу попали в список запрещенных веществ.

Ранее «Царьград» писал о самых известных предсказаниях ученых о наступлении апокалипсиса.

 

Ссылка на первоисточник
наверх