Глава ООН по правам человека Мишель Бачелет призывает к мораторию на использование технологий искусственного интеллекта, которые представляют серьезную опасность для прав человека, включая системы сканирования лиц, которые отслеживают людей в общественных местах.
К приложениям, которые следует запретить, относятся государственные системы «социальной оценки», которые оценивают людей по их поведению, и определенные инструменты на основе ИИ, которые разделяют людей на группы, например, по этнической принадлежности или полу.
«Технологии на основе искусственного интеллекта могут быть силой добра, но они также могут иметь негативные, даже катастрофические, последствия, если они используются без достаточного учета того, как они влияют на права человека», - говорится в заявлении Бачелет.
Ее комментарии сопровождались новым отчетом ООН, в котором исследуется, как страны и предприятия поспешили применить системы ИИ, которые влияют на жизнь и средства к существованию людей, не создавая надлежащих мер защиты для предотвращения дискриминации и других видов вреда.
«Дело не в отсутствии искусственного интеллекта», - сказала журналистам Пегги Хикс, директор по тематическому взаимодействию правозащитного центра, когда она представляла отчет в Женеве. - «Речь идет о признании того, что, если ИИ будет использоваться в этих - очень важных - функциональных областях, связанных с правами человека, это должно быть сделано правильно. И мы просто еще не создали структуру, которая обеспечивала бы это».
Бачелет не призывала к полному запрету технологии распознавания лиц, но сказал, что правительства должны прекратить сканирование функций людей в режиме реального времени, пока они не продемонстрируют, что технология точна, не допускает дискриминации и соответствует определенным стандартам конфиденциальности и защиты данных.
Хотя названия стран в отчете не упоминаются, Китай был среди стран, которые развернули технологию распознавания лиц, особенно для наблюдения в западном регионе Синьцзяну. Ключевые авторы отчета заявили, что наименование конкретных стран не входит в их полномочия и даже может быть контрпродуктивным.
«В китайском контексте, как и в других контекстах, мы обеспокоены прозрачностью и дискриминационными приложениями, которые адресованы конкретным сообществам», - сказал Хикс.
В отчете также высказываются опасения по поводу инструментов, которые пытаются определить эмоциональное и психическое состояние людей путем анализа их мимики или движений тела, заявив, что такие технологии подвержены предвзятости, неверной интерпретации и не имеют научной основы.
«Использование государственными властями систем распознавания эмоций, например для выделения лиц для задержания или ареста полицией или для оценки правдивости заявлений во время допросов, рискует подорвать права человека, такие как право на неприкосновенность частной жизни, свободу и справедливость», - говорится в сообщении.
Рекомендации отчета отражают взгляды многих политических лидеров на Западе, которые надеются задействовать экономический и социальный потенциал ИИ, одновременно устраняя растущую озабоченность по поводу надежности инструментов.
Европейские регулирующие органы уже предприняли шаги, чтобы обуздать наиболее рискованные приложения искусственного интеллекта. Предлагаемые правила, изложенные официальными лицами Европейского союза в этом году, будут запрещать некоторые виды использования ИИ, такие как сканирование черт лица в реальном времени, и жестко контролировать другие виды использования, которые могут угрожать безопасности или правам людей.
Администрация президента США Джо Байдена выразила аналогичную озабоченность, хотя еще не изложила подробный подход к этому вопросу. Недавно сформированная группа под названием Совет по торговле и технологиям, которую совместно возглавляют американские и европейские официальные лица, стремилась сотрудничать в разработке общих правил для ИИ и другой технической политики.
Усилия по ограничению наиболее рискованного использования ИИ были поддержаны Microsoft и другими технологическими гигантами США, которые надеются установить правила, влияющие на эту технологию.
Западные страны были в авангарде выражения озабоченности по поводу дискриминационного использования ИИ.
«Если вы думаете о том, как ИИ можно использовать дискриминационным образом или для дальнейшего усиления дискриминационных тенденций, это довольно страшно. Мы должны быть уверены, что этого не допустим», - сказала министр торговли США Джина Раймондо во время виртуальной конференции в июне.
Ранее Курсор писал, что искусственный интеллект дописал десятую симфонию Бетховена. Искусственный интеллект BeethovANN, разработанный учеными Федеральной политехнической школы Лозанны, завершил десятую симфонию Людвига ван Бетховена.
Курсор также сообщал, что ученые из США выяснили, при каких условиях искусственный интеллект выйдет из под контроля. Американские ученые провели исследование, чтобы убедиться, насколько нереальной в данный момент является угроза восстания искусственного интеллекта.