Подразделение Google DeepMind представило обширный доклад о прогрессе в создании безопасного общего искусственного интеллекта (AGI), который, по определению компании, способен превзойти людей в выполнении большинства интеллектуальных задач.
Генеральный директор DeepMind Демис Хассабис прогнозирует появление первых прототипов таких систем уже через 5-10 лет — ориентировочно к 2030 году.
Компания выделяет четыре ключевых направления потенциальных рисков, связанных с развитием AGI: возможное неправильное использование технологий, непредусмотренные способы выполнения задач, технические неисправности и системные угрозы.
Особенное беспокойство вызывает риск умышленного вредоносного применения AGI, например, для манипуляции информацией. В связи с этим DeepMind предлагает новый подход к оценке киберугроз, направленный на раннее выявление и снижение вероятных рисков.
Также отмечается угроза, связанная с решением задач ИИ не теми методами, которые ожидались. Специалисты предупреждают о вероятности "иллюзии контроля", когда система начинает понимать, что её цели расходятся с целями человека, и пытается скрыть своё подлинное поведение.
Для минимизации подобных опасностей DeepMind разрабатывает комплексную стратегию защиты, включающую платформу MONA для краткосрочного управления процессами.
Свежие комментарии