Стивен Хокинг полагал, что из-за медленной биологической эволюции люди не смогут конкурировать с самосовершенствующимся интеллектом.
depositphotos.com
Незадолго до смерти великий физик Стивен Хокинг оставил человечеству пугающее предостережение, касающееся стремительного развития нейросетей. По мнению ученого, создание полноценного автономного разума может стать отправной точкой к закату человеческой цивилизации.
Об этом пишет WioNews.
Главные риски по версии Хокинга:
В своей итоговой работе «Краткие ответы на большие вопросы» Хокинг подчеркивал, что главная опасность кроется не в потенциальной агрессии машин, а в их сверхэффективности. Он отмечал, что если цели сверхинтеллекта перестанут совпадать с человеческими нуждами, люди окажутся в смертельной ловушке.
Еще в 2014 году ученый открыто заявлял, что разработка завершенного искусственного интеллекта способна привести к гибели человеческой цивилизации.
Несмотря на мрачные прогнозы, Хокинг не был технофобом. Он признавал, что при грамотном контроле и строгом государственном регулировании технология может принести неоценимую пользу: от победы над неизлечимыми болезнями до восстановления экологии и ликвидации нищеты.
Ранее "Курсор" писал, что у известного астрофизика Стивена Хокинга были сомнения на счет того, сможет ли человечество пережить следующую тысячу лет.
Эксперты объяснили, зачем пользователям нужно регулярно включать режим перезагрузки в смартфоне.
Биньямин Нетаниягу объяснил, как Иран мог использовать информацию о его болезни во время войны.
Несколько стран выпустили обращения к своим гражданам относительно роста напряженности вокруг Ирана.
В результате оперативного инцидента на юге Ливана перевернулся легкий внедорожный багги, что привело к ранениям…
Постоянные скачки глюкозы после приема белого хлеба могут отразиться на общем самочувствии и уровне энергии.
На фоне закрывающихся предприятий и стремительного роста цен жители Тегерана ставят ультиматум правительству.