Как T‑Банк AI Research вскрывает внутренности нейросетей и зачем нужен объяснимый ИИ

Аватар автора
РБК
Почему к решениям ИИ предъявляют требования выше, чем к людям, где пределы текущих языковых моделей и почему прорыв ждут не от новых данных, а от умения моделей «думать» и объяснять свои выводы — в программе «Технологии и тренды» Современный искусственный интеллект во многом работает по принципу «черного ящика»: даже разработчики не всегда могут логически объяснить, почему модель пришла именно к такому ответу. Ведущие программы «Технологии и тренды» Аркадий Глушенков и Иван Звягин отмечают, что ИИ уже участвует в принятии критически важных решений в медицине и финансах, хотя в основе его работы по-прежнему лежит статистический выбор наиболее вероятных последовательностей. Руководитель лаборатории «Т-Банк AI Research» Даниил Гаврилов в эфире Радио РБК подчеркнул важность развития «объяснимого ИИ». По его словам, такая работа предполагает анализ того, как концепции проходят через вычислительные слои нейросети и каким образом формируется итоговый ответ модели. 00:00 — Проблема «черного ящика»: почему ИИ принимает решения, которые не всегда могут объяснить даже создатели. 00:42 — Представление гостей: Даниил Гаврилов и лаборатория T-Bank AI Research. 00:58 — Понимает ли нейросеть то, что пишет, или это просто подбор слов? Сравнение мышления ИИ и человека. 02:23 — Почему мы требуем от ИИ больше объяснимости, чем от людей? Аналогия с «разбором полётов» в авиации. 04:33 — Интуиция против логики: как люди и алгоритмы аргументируют свои решения. 05:00 — Два пути развития...

0/0


0/0

0/0

0/0

0/0