Американский специалист по искусственному интеллекту (дальше – ИИ) и писатель Элиезер Юдковский считает, что все человечество погибнет от рук «враждебной сверхчеловеческой» версии ИИ.
Об этом сообщает Time.
Юдковский таким образом высказался об открытом письме, в котором Илон Маск, Стив Возняк и другие эксперты призывают приостановить разработку систем ИИ более мощных, чем GPT-4.
"Я воздержался от подписи, потому что считаю, что письмо занижает серьезность ситуации и требует слишком мало для ее решения", – написал он.
По мнению специалиста, приостановка развития ИИ – недостаточная мера, потому что человечество должно только полностью остановить эти процессы. Он утверждает, что ключевой вопрос состоит не в создании конкуренции человеческому интеллекту, а в том, что произойдет после того, как ИИ станет умнее человеческого.
Юдковский полагает, что «исследовательская лаборатория перейдет критические границы, не заметив этого». Наиболее вероятный результат развития ИИ, согласно гипотезе эксперта, – отказ технологии от выполнения требуемых человеком действия. В итоге ИИ может прекратить заботиться о человечестве и "о разумной жизни в целом".
"Многие исследователи, погруженные в эти вопросы, в том числе и я, ожидают, что наиболее вероятным результатом создания сверхчеловечески умного ИИ при каких-либо отдаленных обстоятельствах, подобных нынешним, будет то, что буквально все на Земле умрут", – добавил он.
Американец считает, что враждебный сверхчеловеческий ИИ может проявиться себя как "целая инопланетная цивилизация", мыслящая со скоростью, в миллионы раз превышающей человеческую. Юдковский добавил, что если на Земле появится слишком мощный ИИ, то в итоге вся биологическая жизнь на нашей планете исчезнет.
Также "Курсор" сообщал, что ИИ научился читать мысли человека и визуализировать их.