Технологии

Илон Маск, Стив Возняк и другие эксперты призывают приостановить разработку ИИ — в чем причина

Под обращением подписались: основатели SpaceX, Apple, Pinterest, Ripple, профессора ведущих мировых университетов и исследователи искусственного интеллекта.

Стив Возняк, Илон Маск, ученые и другие эксперты отрасли призывают приостановить разработку искусственного интеллекта, ссылаясь на то, что это несет огромный риск для человечества. Об этом говорится в письме опубликованном некоммерческой организацией Future of Life Institute.

Группа экспертов по искусственному интеллекту и руководителей отрасли призывают к шестимесячной паузе в обучении систем, более мощных, чем GPT-4.

Авторы письма призвали приостановить разработку передового ИИ до тех пор, пока не будут разработаны, внедрены и проверены независимыми экспертами совместные протоколы безопасности для таких проектов.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы будем уверены, что их эффект будет положительным, а риски — управляемыми», — говорится в письме.

Исследования и разработки ИИ должны быть сосредоточены на том, чтобы сделать современные системы более точными, безопасными, интерпретируемыми, прозрачными, устойчивыми, согласованными, надежными и лояльными.

Рабочая группа независимых экспертов и лабораторий ИИ должна быть разработана для разработки и внедрения общих протоколов безопасности для разработки ИИ.

Также сообщается, что параллельно разработчики ИИ должны сотрудничать с политиками, чтобы значительно ускорить разработку надежных систем управления ИИ.

Кроме того, они должны включать как минимум: новые и способные регулирующие органы, занимающиеся ИИ; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших вычислительных возможностей; системы происхождения и водяных знаков, чтобы помочь отличить подлинное от синтетического и отслеживать утечки моделей; надежную экосистему аудита и сертификации; ответственность за ущерб, причиненный ИИ; надежное государственное финансирование технических исследований безопасности ИИ; а также хорошо обеспеченные ресурсы учреждения для преодоления драматических экономических и политических потрясений (особенно для демократии), которые вызовет ИИ.

Ранее «Курсор» сообщал о том, что по мнению кинорежиссера Джеймса Кэмерон роботы, способные убить человечество, могли уже захватить наш мир.

Автор материала:
Эстер Берг

Недавние новости

"Очень хочу": Зеленский признался, что мечтает сделать после войны

Президент Украины Владимир Зеленский высказался о том, как видит свою жизнь после окончания боевых действий…

8 минут назад

Масштабный сбой в работе интернета в Израиле - возможная причина

Специалисты по кибербезопасности занимаются выявлением уязвимостей в системе, что могло привести к отсутствию интернета израильских…

17 минут назад

Тайны бортпроводников: 8 вещей, которые бесят всех в самолете

Почему нельзя спорить с экипажем и как правильно выходить из самолета? Читайте рекомендации специалистов, которые…

31 минута назад

Выплаты по 3000 шекелей: кто сможет получить разовую помощь

Парламентская комиссия утвердила единовременную выплату бывшим женам и сожительницам резервистов боевых частей. При каких условиях?

40 минут назад

Иран может атаковать Израиль в ближайшее время - оценка

В системе безопасности Израиля существует серьезное опасение по поводу внезапного нападения Ирана.

55 минут назад

Миллион евро благодаря ДНК-тесту: драматическая история из Испании

После четырех лет расследования власти Испании подтвердили факт подмены двух младенцев. Теперь страховщики выплатят пострадавшим…

1 час назад