ИИ в ближайшие 10 лет: междисциплинарность, доверие и объяснимость
Эти аспекты доцент ИСАУ, директор НИЦ искусственного интеллекта ГУД Алексей Аверкин обсуждал на форуме «Шаг в будущее: глобальный форсайт, искусственный интеллект и стратегическое лидерство».
В своем докладе Алексей Николаевич подчеркнул текущие проблемы объяснительного ИИ (XAI) и представил концепцию XAI 2.0. Это следующее поколение объяснительного искусственного интеллекта, ориентированное на интеграцию прозрачности и интерпретируемости непосредственно в архитектуру моделей, на удобство использования и надежности.
Алексей Николаевич и его команда уделяют внимание ключевым аспектам развития современных ИИ-моделей в рамках читаемых в университете дисциплин. Он отмечает: «Концепция объяснительного ИИ может укрепить доверие к технологии, поскольку разработчики смогут объяснять пользователям, как и почему их системы ИИ принимают те или иные решения».
На форуме руководители исследовательских отделов по ИИ из Яндекса, Т-Банка, МТУСИ, РЭУ, НМХУ им. Пирогова и Фонда перспективных исследований рассматривали такие ключевые вопросы, как инженерия знаний, интеллектуальный анализ текстов, философские проблемы ИИ, компьютерное зрение и новые подходы в интеллектуальных измерениях. Современное человечество работает с третьим поколением ИИ. В 2030-х годах мы увидим ИИ четвертого поколения, а к 2040-м – пятого. И эти новые модели ИИ будут обладать своим собственным воображением, считают специалисты.
Источник:
Государственный университет «Дубна»