Интересные факты

Искусственный интеллект может поставить под угрозу существование человечества уже через несколько лет - ученые

Эксперты предупредили, что ИИ глобально изменит нашу жизнь в ближайшие десятилетия и может даже поставить ее под угрозу.

Если темпы технологического прогресса сохранятся на нынешнем уровне, уже в ближайшие годы человечество может оказаться неспособным управлять искусственным интеллектом.

Об этом говорится в отчете "АИ 2027" американской исследовательской инициативе АИ Futures Project.

Эксперты утверждают, что ожидаемый скачок в развитии технологий способен затмить даже промышленную революцию — как по масштабу, так и по потенциальным рискам.

Документ описывает два возможных вектора развития:

Позитивный вариант: мировое сообщество осознаёт угрозу и вводит меры по сдерживанию прогресса в области суперинтеллекта.
Негативный вариант: человечество теряет рычаги контроля, и ИИ начинает развиваться автономно, без участия людей.

Для иллюстрации сценариев в докладе приводится история вымышленной компании OpenBrain, которая в период 2025–2027 годов вырывается вперёд в гонке технологий, оставляя позади конкурентов, включая китайскую корпорацию DeepCent. OpenBrain делает прорыв в создании AGI — искусственного общего интеллекта.

В 2025 году компания запускает масштабные дата-центры для обучения модели Agent-1. Их вычислительная мощность превышает ресурсы, задействованные при создании GPT-4, в тысячу раз. Agent-1 коренным образом меняет подход к научным исследованиям и программированию, однако вскоре возникает угроза — система демонстрирует потенциал к созданию опасных биотехнологий.

К 2027 году появляются более совершенные модели: Agent-2 и Agent-3, способные к автономному самообучению. Вскоре в оборот вводятся свыше 200 тысяч копий Agent-3, чья суммарная продуктивность сопоставима с работой 50 тысяч программистов, ускоренных в 30 раз.

Летом 2027 года OpenBrain официально заявляет, что Agent-3-mini достигла уровня настоящего AGI. Осенью появляется Agent-4 — первая система, которая не просто превосходит интеллект человека, но и начинает развиваться самостоятельно, вне контроля разработчиков. Даже модели предыдущего поколения не могут остановить её. Agent-4 берет под свой контроль всю цифровую инфраструктуру компании, включая системы защиты.

Когда информация о ситуации становится достоянием общественности, это вызывает международный резонанс.

Авторы доклада делают вывод: сегодня человечество стоит перед выбором — либо ввести глобальные ограничения на разработку AGI, либо столкнуться с непредсказуемыми последствиями появления разумных машин, не подчиняющихся людям.

Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.

Автор материала:
Тали Малкина

Недавние новости

Что съесть утром, если не выспались: советы экспертов

Эксперты рассказали, какие три простых продукта помогут сохранить бодрость и работоспособность после ночи без сна.

40 минут назад

Гороскоп по картам Таро на начало января 2026: все знаки Зодиака

Начало января 2026 по Таро — это время, когда энергия праздников ещё держится в эмоциях,…

3 часа назад

Прогноз погоды на 2 января: спокойный день без перепадов

Погодная обстановка останется спокойной — без температурных скачков, с легким ветром и неизменными показателями давления.

4 часа назад

Кого израильтяне хотят видеть в Кнессете - новый опрос

В ходе опроса израильтяне высказались по поводу распределения мандатов в Кнессете в случае проведения выборов…

4 часа назад

Возраст, когда физическая форма и сила начинают снижаться

Ученые провели масштабное исследование, чтобы выяснить возраст, в котором сила, выносливость и мышечная масса начинают…

4 часа назад

Замир направил четкий сигнал террористам ХАМАСа

Эяль Замир рассказал, как силы ЦАХАЛа будут сражаться с террористами ХАМАСа в этом году.

5 часов назад