 
      Доктор Джеффри Хинтон, которого во всем мире знают как «крестного отца искусственного интеллекта», предложил неожиданный способ, который, по его мнению, способен уберечь человечество от гибели, вызванной развитием ИИ. Он считает, что для этого более разумные и мощные системы должны обладать встроенными «материнскими инстинктами».
Об этом он сказал в своем выступлении на отраслевой конференции Ai4 в Лас-Вегасе, передает Unilad.
По мере стремительного роста возможностей искусственного интеллекта все чаще звучат призывы создать эффективные механизмы контроля, которые могли бы защитить человечество от потенциальных угроз. Хинтон уверен: чтобы сделать ИИ безопасным, необходимо привить ему черты, аналогичные материнской заботе — стремление защищать и оберегать, а не доминировать.
Он объяснил, что в природе существует уникальный пример, когда более развитое существо находится под контролем менее разумного — это отношения между матерью и ребенком. Мать, руководствуясь инстинктами и социальными нормами, заботится о малыше, даже если тот становится сильнее и умнее.
«Нам нужны не цифровые ассистенты, а искусственные матери, — подчеркнул Хинтон. — Ассистента можно “отпустить”, но мать невозможно освободить. Она по своей природе привязана к ребенку и несет ответственность за него. Вот такой механизм и должен быть встроен в ИИ».
При этом ученый признал, что пока не существует четкого понимания, как можно технически реализовать эту идею и будет ли она действительно эффективной.
Ранее Хинтон оценивал вероятность того, что искусственный интеллект может привести к вымиранию человечества, примерно в 10 процентов. Сейчас он считает, что риск может достигать от 10 до 20 процентов, что, по его словам, «слишком высокая ставка, чтобы игнорировать опасность».
Кто такой Джеффри Хинтон
Джеффри Хинтон получил прозвище «крестный отец ИИ» за свою ключевую роль в создании искусственных нейронных сетей — технологии, ставшей фундаментом современного машинного обучения. Его научные идеи легли в основу многих прорывных систем, которые сегодня применяются в голосовых помощниках, переводчиках и генеративных моделях.
В 2023 году он покинул Google, где занимал руководящую должность в области ИИ-исследований. Это произошло вскоре после того, как свыше тысячи ученых и инженеров подписали открытое письмо с призывом приостановить развитие мощных ИИ-систем минимум на полгода, чтобы успеть осознать и оценить угрозы, которые эти технологии несут обществу и самому существованию человека.
Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.