ИИ в разработке: 4 мифа, которые мешают безопасности

Аватар автора
AM Live
ИИ всё чаще становится частью разработки. Но как быть с безопасностью? В этом выпуске AM Live — четыре мифа, которые мешают командам внедрять защиту ML-моделей: от недооценки атак до ложной уверенности в классических подходах InfoSec. Мы пришли на конференцию Swordfish ProDevSecOps, чтобы выяснить, где правда, а где — легенды: опросили архитекторов, безопасников, инженеров, разобрали реальные атаки на ML, показали новый фреймворк по AI Security. В выпуске: — примеры атак на ML/LLM (в том числе кейс с Cadillac за $1); — почему DevSecOps ≠ MLSecOps и где критические отличия; — кто должен отвечать за безопасность ИИ: InfoSec, ML-команда или вместе? — насколько рынок готов к архитектуре AI Native. Тайм-коды: 00:00 — Вступление: мифы, риски и зачем мы пришли на ProDevSecOps 00:24 — Миф 1: Атаки на ML — это теория 01:50 — Примеры реальных атак: от prompt injection до проданного Cadillac 02:29 — 25% компаний уже подвергались атакам 03:04 — Почему LLM уязвимы, и как их атакуют 03:39 — MLCOPS-инструменты: poisoning, drift, adversarial 04:38 — Таксономия и AI Security Framework от Swordfish 05:10 — Миф 2: MLSecOps — просто DevSecOps с модной приставкой 06:30 — Чем MLSecOps отличается от DevSecOps на практике 07:34 — Миф 3: За безопасность отвечает только InfoSec 08:41 — Кто действительно должен защищать AI 09:24 — Миф 4: Рынок сам справится. Государство не нужно 10:29 — Как устроена реальная регуляция и консорциумы 11:59 — Финал: мифы разобраны, что дальше? 12:36 — Советы бизнесу...

0/0


0/0

0/0

0/0