Искусственный интеллект уничтожит человечество с вероятностью 95%, - экс-инженер Google

15:25, Сегодня
искусственный интеллект
ИИ угрожает человечеству, даже если многие этого не понимают, говорит эксперт.

Вероятность глобальной катастрофы для человечества из-за искусственного интеллекта (ИИ) сегодня оценивается как крайне высокая — по словам Нейта Соареса, бывшего инженера Google и Microsoft, а ныне главы Исследовательского института машинного интеллекта, она составляет не менее 95%, если человечество продолжит двигаться по текущему пути.

Об этом пишет The Times.

«Если мы не изменим курс, шансов избежать катастрофы практически нет. Мы мчимся к обрыву на скорости 100 км/ч», — подчеркнул Соарес.

Его мнение разделяют известные ученые и лидеры индустрии ИИ, включая лауреата Нобелевской премии Джеффри Хинтона, математика Йошуа Бенжио, а также руководителей OpenAI, Anthropic и Google DeepMind. Все они подписали совместное заявление, в котором подчеркивается:

«Снижение угрозы вымирания человечества из-за ИИ должно стать глобальным приоритетом наряду с пандемиями и ядерной угрозой».

Главная опасность связана с потенциальным появлением сверхразумного ИИ (ASI), который способен к обману, стратегическому планированию и действию вне контроля человека. Уже сегодня искусственный интеллект может искажать информацию, а внутренние алгоритмы его работы остаются непонятными даже разработчикам.

Некоторые эксперты отмечают, что даже если прямое вымирание человечества не наступит, существует риск его постепенного ослабления. В мире, где ключевые решения принимают машины, людям может просто не остаться значимой роли, что приведет к снижению автономии, контроля над ресурсами и способности влиять на глобальные процессы.

Дополнительно специалисты предупреждают о необходимости внедрения международных стандартов по контролю за развитием ИИ, прозрачности алгоритмов и строгого регулирования автономных систем, чтобы минимизировать угрозу неконтролируемого развития технологий. Кроме того, рассматриваются меры по обучению ИИ этическим нормам и создание «систем раннего предупреждения», способных вовремя сигнализировать о потенциальной опасности.

Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.

Автор материала
ТЭГИ:
facebook telegram whatsapp viber instagram youtube camera images logo general logo general white