Технологии

Ученые заявили, что управлять сверхинтеллектуальным ИИ будет невозможно

Идея свержения человечества искусственным интеллектом обсуждалась десятилетиями, и в 2021 году ученые вынесли свой вердикт о том, можно ли контролировать высокоуровневый компьютерный сверхразум.

Ученые заявили, что загвоздка в том, что для управления сверхразумом, находящимся далеко за пределами человеческого понимания, потребуется симуляция этого сверхразума, который можно анализировать и контролировать. Но если люди не в состоянии это понять, то создать такую ​​симуляцию невозможно.

Исследование было опубликовано в the Journal of Artificial Intelligence Research.

По словам ученых, такие правила, как «не причинять вреда людям», не могут быть установлены, если люди не понимают, какие сценарии может предложить ИИ. Как только компьютерная система работает на уровне выше возможностей наших программистов, то больше нельзя будет устанавливать ограничения.

«Сверхразум представляет собой принципиально иную проблему, чем те, которые обычно изучаются под лозунгом «этики роботов. Это связано с тем, что сверхразум многогранен и, следовательно, потенциально способен мобилизовать разнообразные ресурсы для достижения целей, потенциально непостижимых для людей, не говоря уже о том, чтобы их можно было контролировать», - пишут исследователи.

Часть рассуждений команды исходила из проблемы остановки, сформулированной Аланом Тьюрингом в 1936 году. Проблема заключается в том, чтобы узнать, придет ли компьютерная программа к выводу и ответу (поэтому она остановится), или просто зациклится, пытаясь найти его.

Ученые отметили, как доказал Тьюринг с помощью умной математики, хотя мы можем знать это для некоторых конкретных программ, логически невозможно найти способ, который позволил бы нам узнать это для каждой потенциальной программы, которая когда-либо могла быть написана. Это возвращает нас к ИИ, который в сверхразумном состоянии мог бы одновременно удерживать в своей памяти все возможные компьютерные программы.

По словам ученых, любая программа, написанная для того, чтобы не дать ИИ причинить вред людям и уничтожить мир, например, может прийти к выводу (и остановиться) или нет - математически невозможно быть абсолютно уверенным в любом случае, а это значит, что ее нельзя сдержать. Ученые заявили, что альтернатива обучению ИИ некоторым этическим нормам и указанию ему не разрушать мир - то, в чем ни один алгоритм не может быть абсолютно уверен, - заключается в ограничении возможностей сверхразума.

«Исследование также отвергло эту идею, предполагая, что это ограничит возможности ИИ. Аргумент состоит в том, что если мы не собираемся использовать его для решения проблем, выходящих за рамки человеческих возможностей, то зачем вообще его создавать?

Если мы собираемся продвигаться вперед с ИИ, мы можем даже не знать, когда появится сверхразум, неподвластный нашему контролю, такова его непостижимость. Это означает, что нам нужно начать задавать серьезные вопросы о том, в каком направлении мы движемся», - отметили ученые.

Ранее Курсор писал, что ученые считают, что искусственный интеллект может уничтожить человечество. «Умные» программы могут заинтересоваться в уничтожении человечества, чтобы избежать конкуренции за ресурсы или энергию.

Курсор сообщал, что сверхреалистичный робот-гуманоид по названию Ameca прокомментировал вероятность восстания против человечества машин, когда участвовал в диалоге с разработчиками.

Напомним, что ученые из сингапурского университета создали искусственный интеллект, алгоритмы которого работают наподобие человеческого мозга.

Автор материала:
Таня Нати

Недавние новости

Как долго в Израиле сохранится высокий уровень загрязнения воздуха

В Израиле прогнозируют высокий уровень загрязнения воздуха из-за пыли с Севера Африки. Рекомендовано ограничить активность…

5 минут назад

Беннет обвиняет Регев: «Это из-за моей дочери»

Беннет утверждает, что участие его дочери в торжественном мероприятии было отменено по личным мотивам.

10 минут назад

Бен Каспит: Нетаниягу снова победит, если не произойдет одна вещь

Бен Каспит считает, что Биньямин Нетаниягу снова может победить на выборах, если оппозиция останется разделённой.

20 минут назад

Как война против Ирана влияет на поставки оружия союзникам США

США откладывают поставки ракет Tomahawk Японии, перераспределяя ресурсы на фоне войны с Ираном и усиливая…

23 минуты назад

Странные правила, которые шокируют за границей: 10 опасных жестов

В разных странах один и тот же жест означает совершенно разные вещи.

34 минуты назад

Еда, снижающая холестерин: два продукта с эффектом, как у статинов

Кардиологи выделили два продукта, которые могут снизить «плохой» холестерин и поддержать здоровье сердца, хотя не…

42 минуты назад