ИИ угрожает человечеству, даже если многие этого не понимают, говорит эксперт.
Pixabay
Вероятность глобальной катастрофы для человечества из-за искусственного интеллекта (ИИ) сегодня оценивается как крайне высокая — по словам Нейта Соареса, бывшего инженера Google и Microsoft, а ныне главы Исследовательского института машинного интеллекта, она составляет не менее 95%, если человечество продолжит двигаться по текущему пути.
Об этом пишет The Times.
«Если мы не изменим курс, шансов избежать катастрофы практически нет. Мы мчимся к обрыву на скорости 100 км/ч», — подчеркнул Соарес.
Его мнение разделяют известные ученые и лидеры индустрии ИИ, включая лауреата Нобелевской премии Джеффри Хинтона, математика Йошуа Бенжио, а также руководителей OpenAI, Anthropic и Google DeepMind. Все они подписали совместное заявление, в котором подчеркивается:
«Снижение угрозы вымирания человечества из-за ИИ должно стать глобальным приоритетом наряду с пандемиями и ядерной угрозой».
Главная опасность связана с потенциальным появлением сверхразумного ИИ (ASI), который способен к обману, стратегическому планированию и действию вне контроля человека. Уже сегодня искусственный интеллект может искажать информацию, а внутренние алгоритмы его работы остаются непонятными даже разработчикам.
Некоторые эксперты отмечают, что даже если прямое вымирание человечества не наступит, существует риск его постепенного ослабления. В мире, где ключевые решения принимают машины, людям может просто не остаться значимой роли, что приведет к снижению автономии, контроля над ресурсами и способности влиять на глобальные процессы.
Дополнительно специалисты предупреждают о необходимости внедрения международных стандартов по контролю за развитием ИИ, прозрачности алгоритмов и строгого регулирования автономных систем, чтобы минимизировать угрозу неконтролируемого развития технологий. Кроме того, рассматриваются меры по обучению ИИ этическим нормам и создание «систем раннего предупреждения», способных вовремя сигнализировать о потенциальной опасности.
Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.
После нескольких спокойных и уравновешенных дней судьба вновь зовёт к действию — но не хаотичному,…
Спокойный день без погодных сюрпризов.
От бессонницы не застрахован никто и важно относиться к ней спокойно, чтобы не усугублять состояние…
Президент Украины уверен, что Трамп готов к решительным действиям.
Каких привычек избегают счастливые люди?
Участница шоу «Голос» оказалась жертвой преступников в Азии.