Технологии

Илон Маск, Стив Возняк и другие эксперты призывают приостановить разработку ИИ — в чем причина

Под обращением подписались: основатели SpaceX, Apple, Pinterest, Ripple, профессора ведущих мировых университетов и исследователи искусственного интеллекта.

Стив Возняк, Илон Маск, ученые и другие эксперты отрасли призывают приостановить разработку искусственного интеллекта, ссылаясь на то, что это несет огромный риск для человечества. Об этом говорится в письме опубликованном некоммерческой организацией Future of Life Institute.

Группа экспертов по искусственному интеллекту и руководителей отрасли призывают к шестимесячной паузе в обучении систем, более мощных, чем GPT-4.

Авторы письма призвали приостановить разработку передового ИИ до тех пор, пока не будут разработаны, внедрены и проверены независимыми экспертами совместные протоколы безопасности для таких проектов.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы будем уверены, что их эффект будет положительным, а риски — управляемыми», — говорится в письме.

Исследования и разработки ИИ должны быть сосредоточены на том, чтобы сделать современные системы более точными, безопасными, интерпретируемыми, прозрачными, устойчивыми, согласованными, надежными и лояльными.

Рабочая группа независимых экспертов и лабораторий ИИ должна быть разработана для разработки и внедрения общих протоколов безопасности для разработки ИИ.

Также сообщается, что параллельно разработчики ИИ должны сотрудничать с политиками, чтобы значительно ускорить разработку надежных систем управления ИИ.

Кроме того, они должны включать как минимум: новые и способные регулирующие органы, занимающиеся ИИ; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших вычислительных возможностей; системы происхождения и водяных знаков, чтобы помочь отличить подлинное от синтетического и отслеживать утечки моделей; надежную экосистему аудита и сертификации; ответственность за ущерб, причиненный ИИ; надежное государственное финансирование технических исследований безопасности ИИ; а также хорошо обеспеченные ресурсы учреждения для преодоления драматических экономических и политических потрясений (особенно для демократии), которые вызовет ИИ.

Ранее «Курсор» сообщал о том, что по мнению кинорежиссера Джеймса Кэмерон роботы, способные убить человечество, могли уже захватить наш мир.

Автор материала:
Эстер Берг

Недавние новости

Арест в аэропорту Бен-Гурион: полиция расследует изнасилование

Быстрая координация между службами аэропорта и полицией позволила задержать подозреваемого до того, как его рейс…

8 минут назад

Иран предложил США на переговорах идею, связанную с рф – WSJ

Переговоры в Женеве завершились без прорыва из-за нежелания Ирана уничтожать инфраструктуру, созданную за последние десятилетия.

17 минут назад

После войны на Украину будут ровняться- экс-директор ЦРУ

Украинский ВПК производит технологии завтрашнего дня для сегодняшней войны, а опыт Украины может стать примером…

25 минут назад

Трамп и Иран: существует ли третий путь между соглашением и войной

По мнению эксперта, третий путь Трампа — инструмент тактического управления рисками, который может позволить сторонам…

40 минут назад

Место, где могут "прятаться" инопланетяне, нашли эксперты НАСА

Космическое агентство NASA обнаружило редкую экзопланету, которая «чрезвычайно похожа на Землю».

53 минуты назад

До 15% за полтора месяца: как меняются цены на подержанные авто

Резкое падение цен на подержанные автомобили отражает рост конкуренции и укрепление шекеля, что тормозит рынок…

1 час назад