В модели искусственного интеллекта необходимо встраивать «материнские инстинкты», чтобы помешать ИИ навредить человеку.
Pixabay
Доктор Джеффри Хинтон, которого часто называют «крестным отцом» искусственного интеллекта, заявил, что для предотвращения потенциальной угрозы со стороны ИИ человечеству необходим принципиально новый подход. По его мнению, сверхразумные системы должны обладать встроенными «материнскими инстинктами».
Об этом он сказал в своем выступлении на отраслевой конференции Ai4 в Лас-Вегасе, передает Unilad.
На фоне стремительного развития технологий искусственного интеллекта все чаще звучат призывы к созданию механизмов, способных ограничить возможные риски. Хинтон убежден: по мере того как ИИ становится мощнее и превосходит человека по интеллектуальным возможностям, в него необходимо закладывать механизмы заботы и ответственности.
Он провел аналогию с материнским поведением. По словам ученого, матери инстинктивно защищают своих детей, а общество дополнительно поддерживает такую модель через социальные нормы. Подобный принцип, считает Хинтон, мог бы стать ориентиром и для разработки продвинутых ИИ-систем.
«Единственный пример, когда более умная сущность находится под контролем менее умной, — это отношения матери и ребенка. Нам нужны не просто ИИ-помощники, а своего рода ИИ-матери. Помощника можно отключить или освободить, но мать — нет», — пояснил он.
При этом исследователь признал, что пока нет четкого понимания, как реализовать такую концепцию на практике и насколько она окажется эффективной.
Ранее Хинтон оценивал вероятность того, что развитие искусственного интеллекта может привести к исчезновению человечества, примерно в 10 процентов. Теперь он считает, что этот риск может составлять от 10 до 20 процентов.
Джеффри Хинтон получил статус одного из пионеров отрасли благодаря фундаментальным работам в области искусственных нейронных сетей, ставших основой современного машинного обучения. В свое время он покинул компанию Google вскоре после того, как группа из тысячи специалистов подписала открытое письмо с призывом временно приостановить развитие ИИ-технологий, чтобы снизить возможные угрозы для общества и человечества.
Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.
Часто даже после выздоровления от вирусных болезней остается истощение, вялость и постоянная усталость.
Премьер-министр Ливана Наваф Салам запретил военную деятельность "Хизбаллы", признав ее незаконной.
Политические эксперты часто связывают участившиеся случаи загадочных смертей бывших чиновников с переделом сфер влияния и…
Как сохранить и укрепить здоровье сердца без особых усилий, поменяв только одну привычку?
Экстренные службы уточнили информацию о последствиях ракетного удара, сообщив новые данные о пострадавших в результате…
Использование баллистических ракет «Хейбар» позволило Ирану, по версии КСИР, нанести якобы сокрушительный удар по целям…