Сотни учёных бьют тревогу по причине стремительного развития ИИ и прогнозируют приближение апокалипсиса.
Свыше половины опрошенных из 738 ученых, работающих в сфере развития ИИ считают: совершенствование искусственного интеллекта приближает апокалипсис. Этот риск они оценивают в 5%, а главы лабораторий в 10%-20%.
До краха человечества, по их мнению, осталось около ста лет.Что делать для снижения риска наступления апокалипсиса? Ученые предлагали – перестать обучать ИИ. Остановить все исследования в этой области, потому что риски слишком высоки.
Отметим, что во всех отраслях экономики есть понятие допустимого риска. Например, при производстве лекарств он не может превышать 0,01% матожидания смертей в год. Если этот показатель больше, препарат в гражданский оборот не пускают. И несмотря на это, бывали ситуации, когда риск сознательно или случайно занижался. Так было с ЛСД и морфием, которые не сразу попали в список запрещенных веществ.
Ранее «Царьград» писал о самых известных предсказаниях ученых о наступлении апокалипсиса.
Свежие комментарии