Ученые надеются, что новые разработки проложат путь к более надежной технологии ИИ, которая будет вести себя люди и делать меньше непредсказуемых ошибок.
Создание ИИ, подобного человеку, - это больше, чем имитация человеческого поведения - технология также должна уметь обрабатывать информацию или «думать», как и люди, чтобы на нее можно было полностью положиться.
Новое исследование, опубликованное в журнале Patterns и проведенное Школой психологии и нейробиологии Университета Глазго, использует 3D-моделирование для анализа того, как глубокие нейронные сети - часть более широкого семейства машинного обучения - обрабатывают информацию, чтобы визуализировать, как их обработка информации совпадает с обработкой людей.
«Мы надеемся, что эта новая работа проложит путь к созданию более надежной технологии искусственного интеллекта, которая будет обрабатывать информацию, как люди, и делать ошибки, которые мы можем понять и предсказать», - заявили разработчики.
Одна из проблем, стоящих перед разработкой искусственного интеллекта, заключается в том, как лучше понять процесс машинного мышления и соответствует ли он тому, как люди обрабатывают информацию, чтобы обеспечить точность. Глубинные нейронные сети часто представляют, как лучшую на данный момент модель поведения человека при принятии решений, достигающего или даже превышающего производительность человека в некоторых задачах. Однако даже обманчиво простые задачи визуального различения могут выявить явные несоответствия и ошибки моделей ИИ по сравнению с людьми.
В настоящее время технология Deep Neural Network используется в таких приложениях, как распознавание лиц, и, хотя она очень успешна в этих областях, ученые до сих пор не до конца понимают, как эти сети обрабатывают информацию и, следовательно, когда могут возникать ошибки.
В этом новом исследовании исследовательская группа решила эту проблему, смоделировав визуальный стимул, выдаваемый глубинной нейронной сетью, преобразовав его множеством способов, чтобы они могли продемонстрировать сходство распознавания путем обработки аналогичной информации между людьми и моделью ИИ.
Профессор Филипп Шинс, старший автор исследования и руководитель Института нейробиологии и технологий Университета Глазго, сказал: «При создании моделей ИИ, которые ведут себя «как люди», например, чтобы распознавать лицо человека, когда он видит его, мы должны убедиться, что модель ИИ использует ту же информацию от лица, что и другой человек, чтобы ее распознать. Если ИИ этого не сделает, у нас может возникнуть иллюзия, что система работает так же, как и у людей, но затем мы обнаружим, что в каких-то новых или непроверенных обстоятельствах что-то происходит не так».
Исследователи использовали серию изменяемых трехмерных лиц и попросили людей оценить сходство этих случайно сгенерированных лиц с четырьмя знакомыми личностями. Затем они использовали эту информацию, чтобы проверить, дают ли глубокие нейронные сети одинаковые рейтинги по тем же причинам - проверяя не только то, принимали ли люди и ИИ одинаковые решения, но и основывались ли они на одной и той же информации. Важно отметить, что с помощью своего подхода исследователи могут визуализировать эти результаты в виде трехмерных лиц, которые определяют поведение людей и сетей.
Ранее Курсор писал, что в ООН призывают ввести мораторий на некоторые виды искусственного интеллекта. Среди технологий, на которые предлагается ввести запрет — система распознавания лиц и смежные с ней технологии.
Курсор ранее сообщал, что глава Apple рассказал о перспективах искусственного интеллекта. Гендиректор одной из крупнейших технологических компаний Apple Тим Кук признался, что в восторге от динамики технологического прогресса. По словам руководителя Apple, искусственный интеллект уже внедряется повсеместно во всех сферах жизни.
Наш портал также писал, что бывший сотрудник Google перечислил главные угрозы от искусственного интеллекта. Экс-сотрудник крупнейших технологических корпораций Google, Apple и Microsoft Кай-Фу Ли озвучил четыре основные угрозы со стороны искусственного интеллекта.
Напомним, что ученые из США выяснили, при каких условиях искусственный интеллект выйдет из под контроля. Американские ученые провели исследование, чтобы убедиться, насколько нереальной в данный момент является угроза восстания искусственного интеллекта.
Воскресенье – это время, когда энергия недели достигает своей кульминации, позволяя заглянуть внутрь себя, подвести…
В результате расследования выяснилось, что на посланника ХАБАДа напали трое граждан Узбекистана, следившие за ним…
Новогодние праздники ассоциируются с обилием вкусных блюд и застолий, что часто становится причиной лишних килограммов.
По оценкам экспертов, решение МУС по выдаче ордеров Нетаниягу и Галанта предоставило Израилю уникальную возможность.
Зеленский отметил, что для путина крайне важно продемонстрировать контроль над ситуацией, которую тот фактически не…
Бывший глава БАПОР активно сотрудничал с ХАМАСом и "Исламским джихадом", призывая террористов к единству.