Опрос показывает раскол среди ученых в отношении искусственного интеллекта (ИИ, AGI).
pixabay.com
Опрос ученых и исследователей, работающих в области искусственного интеллекта (ИИ), показал, что около трети из них считают, что это может вызвать катастрофу, сравнимую с полномасштабной ядерной войной, уже в этом столетии.
Статья была опубликована на сервере препринтов arXiv.
Опрос был предоставлен исследователям, которые были соавторами как минимум двух публикаций по компьютерной лингвистике в период с 2019 по 2022 год. Он был направлен на то, чтобы узнать взгляды отрасли на спорные темы, связанные с ИИ и общим искусственным интеллектом (AGI) - способностью ИИ думать как человек, - а также с тем влиянием, которое, по мнению специалистов в области исследований, ИИ окажет на общество в целом. Результаты публикуются в препринте, который еще не прошел рецензирование.
AGI, как отмечается в документе, является спорной темой в этой области. Существуют большие различия во мнениях относительно того, движемся ли мы к этому, должны ли мы вообще стремиться к этому и что произойдет, когда человечество доберется до этого.
«Сообщество в целом знает, что это спорный вопрос, и теперь (благодаря этому опросу) мы можем знать, что мы знаем, что это спорный вопрос», - написала команда в своем исследовании.
Среди результатов (довольно разделенных) было то, что 58% респондентов согласились с тем, что AGI вообще должен быть важной проблемой для обработки естественного языка, в то время как 57% согласились с тем, что недавние исследования подтолкнули нас к AGI. Что становится интересным, так это то, как исследователи ИИ считают, что AGI повлияет на мир в целом.
«73% респондентов согласны с тем, что автоматизация труда с помощью ИИ может привести к революционным социальным изменениям в этом столетии, по крайней мере, в масштабах промышленной революции», - написали исследователи в своем опросе.
Между тем, 36% респондентов согласились с тем, что вполне вероятно, что ИИ может привести к катастрофическим последствиям в этом столетии «на уровне тотальной ядерной войны». Это не самая обнадеживающая вещь, когда значительная часть ученых считает, что это может привести к уничтожению человечества. Однако в разделе отзывов некоторые респонденты возражали против формулировки «тотальной ядерной войны», написав, что они «согласятся с менее резкими формулировками вопроса».
Ранее Курсор писал, что ученые заявили, что управлять сверхинтеллектуальным ИИ будет невозможно. Идея свержения человечества искусственным интеллектом обсуждалась десятилетиями, и в 2021 году ученые вынесли свой вердикт о том, можно ли контролировать высокоуровневый компьютерный сверхразум.
Кроме этого, ученые считают, что искусственный интеллект может уничтожить человечество. «Умные» программы могут заинтересоваться в уничтожении человечества, чтобы избежать конкуренции за ресурсы или энергию.
Курсор сообщал, что сверхреалистичный робот-гуманоид по названию Ameca прокомментировал вероятность восстания против человечества машин, когда участвовал в диалоге с разработчиками.
Напомним, что ученые из сингапурского университета создали искусственный интеллект, алгоритмы которого работают наподобие человеческого мозга.
ХАМАС нашел новую причину затянуть переговоры по освобождению заложников.
Террорист был сирийским беженцем, получившим британское гражданство.
Лидер ХАМАСа Халиль аль-Хайя дал первое интервью после покушения в Дохе.
Кофе считается полезным продуктом, но важно понимать, что каждый организм реагирует на него по-своему.
Израиль готовится к реализации первой фазы плана Трампа по освобождению заложников.
Бренд вырос на 1952% за год.