Что такое объяснимый ИИ (XAI)?

По мере своего расширения и усложнения область искусственного интеллекта (ИИ) становится все сложнее и сложнее для понимания. Благодаря новаторским достижениям в этой области, особенно в области машинного обучения, исследования, проводимые вокруг ИИ, по-прежнему вызывают огромный интерес. Несмотря на растущую сложность, развитие ИИ до уровня, когда программы смогут самостоятельно обучаться и находить решения сложных проблем, остается одной из самых важных областей исследований. Именно поэтому тем более важно следить за тем, чтобы наше понимание решений и результатов ИИ оставалось актуальным.

Именно здесь на помощь приходит объяснимый искусственный интеллект (Explainable Artificial Intelligence, XAI). Пользователи хотят и должны понимать, как работает ИИ программы и как оцениваются целевые результаты. В противном случае нет реальной основы, на которой можно было бы основывать доверие к цифровым расчетам. Прозрачность, создаваемая Explainable AI, имеет огромное значение, когда речь идет о принятии искусственного интеллекта. Итак, что именно подразумевает этот подход?

Что такое объяснимый искусственный интеллект (XAI)?

Термин «объяснимый искусственный интеллект» — это неологизм, который используется в исследованиях и дискуссиях вокруг машинного обучения с 2004 года. На сегодняшний день все еще не существует достоверного определения объяснимого искусственного интеллекта. Однако программа XAI агентства DARPA (Defense Advanced Research Projects Agency) определяет цели объяснимого искусственного интеллекта с помощью следующих требований:

Объясняемые модели должны существовать без необходимости жертвовать высоким уровнем эффективности обучения. Будущие пользователи должны иметь возможность понимать новое поколение ИИ, доверять ему в разумных пределах, эффективно работать и взаимодействовать с ним.

Определение: Объяснимый ИИ (XAI)

Объяснимый ИИ (XAI) — это принцип проектирования искусственного интеллекта, позволяющий сделать его функции, работу и результаты как можно более понятными для пользователя.

Какова цель XAI?

Уже некоторое время ИИ волнует людей в самых разных отраслях за пределами исследований и науки. Фактически, он уже стал неотъемлемой частью повседневной жизни. Поэтому тем более важно, чтобы модульность ИИ была понятна не только разработчикам и непосредственным пользователям. Лицам, принимающим решения, в частности, необходимо как можно лучше понять, как работает ИИ, чтобы заложить основу для доверия к этой технологии.

Некоторые известные компании уже подают хороший пример в этом отношении. В 2017 году компания Nvidia опубликовала статью в блоге разработчиков на своем сайте под названием «Объясняя, как глубокая нейронная сеть, обученная с помощью сквозного обучения, управляет автомобилем». В этой статье четыре разработчика объяснили, как их искусственный интеллект учится самостоятельно управлять автомобилем. Компания представила результаты своих исследований в прозрачной манере и привела несколько простых для понимания примеров того, как искусственный интеллект учится.

В том же году компания Accenture опубликовала руководство под названием «Ответственный ИИ: почему нам нужен объяснимый ИИ», в котором поставщик технологических услуг рассмотрел такие аспекты, как этика и доверие по отношению к машинам (особенно в отношении самодвижущихся автомобилей).

Какие методы используются в объяснимом ИИ?

Существует множество методов или подходов для обеспечения прозрачности и понятности, когда речь идет об искусственном интеллекте. Ниже мы обобщили наиболее важные из них:

Layer-wise Relevance Propagation (LRP) был впервые описан в 2015 году. Это метод определения того, какие характеристики входов вносят наибольший вклад в выход нейронной сети.

Контрфактический метод описывает, как входные данные (например, текст, изображения, диаграммы и т.д.) специально изменяются после получения результатов. Затем наблюдают, насколько в результате изменился выходной сигнал.

Локальная интерпретируемая модель-агностические объяснения (LIME) — это объяснительная модель с целостным подходом. Она предназначена для объяснения любого классификатора машинного обучения и полученного прогноза. Это позволяет пользователям из других областей понять данные и процедуры.

Рационализация — это процедура, которая используется специально для роботов на основе ИИ. Она предполагает проектирование машины таким образом, чтобы она могла автономно объяснять свои действия.

Когда и где используется объясняемый искусственный интеллект?

Поскольку ИИ уже используется во многих отраслях промышленности и сферы услуг, обеспечение прозрачности и подотчетности приобретает особое значение.

Ниже перечислены некоторые области применения или сферы, в которых ИИ приобрел более заметное значение:

  • Проектирование антенн
  • Высокочастотная торговля (алгоритмическая торговля)
  • Медицинская диагностика
  • Автономное вождение (самоуправляемые автомобили)
  • Нейросетевая визуализация
  • Обучение военным стратегиям

Каждый, кто когда-либо пользовался парковочным ассистентом, знает, как напряженно и скептически можно чувствовать себя за рулем в первое время. Но за этим часто следует изумление от возможностей помощника. Как пользователи, мы хотим знать, как это возможно, чтобы автомобиль парковался самостоятельно. И это делает еще более важным, чтобы функциональность ИИ была объяснена простым языком для конечного пользователя.

Объясняемый ИИ от Google

Google — одна из тех компаний, которые признают растущую потребность в объяснении. Корпорация уже проводит множество исследований в области ИИ, а также использует его как часть своей популярной поисковой системы. В связи с этим компания стремится сделать свои программы более прозрачными. Компоненты Google Explainable AI позволяют людям создавать интегрированные и интерпретируемые модели машинного обучения с 2019 года. Этот пакет предоставляется бесплатно на срок до 12 месяцев.

В пакет Google входит «What-If Tool», который позволяет пользователям визуализировать поведение модели. Прогнозы инструмента могут быть адаптированы в зависимости от потребностей пользователя. Используя разнообразные демо-версии и графический интерфейс пользователя, пользователи могут более детально изучить различные модели машинного обучения без необходимости самостоятельно писать тонну кода. Для этого Google предлагает множество готовых к использованию инструментов. Помимо возможности оценить возраст или классифицировать цветы, например, есть функция для оценки различных портретов. Эта функция классифицирует изображения в зависимости от того, улыбается ли человек на фотографии. Этот модуль также предоставляет различные параметры для характеристики лица. Например, фотографии можно классифицировать на основе того, есть ли у человека борода или челка.

В целях защиты конфиденциальности видео не будет загружаться, пока вы не нажмете на него.

Другие компании также используют возможности, предлагаемые Google Explainable AI. Телевизионная сеть Sky использует инструмент What-If Tool для своей собственной платформы ИИ, чтобы иметь возможность давать понятные объяснения и лучше анализировать свои данные.

Оцените статью
cdelat.ru
Добавить комментарий