Полный курс: Техника безопасности с ИИ. Что важно знать при работе с нейросетями!

Аватар автора
marketograf
⏩ И еще больше подарков, которые можно забрать сразу: В этом видео Полный курс по технике безопасности при работе с нейросетями. Разбираем громкие скандалы: как Deloitte оштрафовали на $486,000 за использование ChatGPT, почему Samsung запретил сотрудникам загружать код в нейросети. Узнайте 4 главные угрозы при работе с ИИ: конфиденциальность данных, ошибки в ответах, манипуляции нейросетей и действия мошенников. Практические рекомендации, как защитить себя и бизнес, какие данные нельзя загружать и как правильно использовать ChatGPT, Gigachat и другие ИИ-инструменты. Навигация по видео: 0:00 – Введение: громкий скандал с Deloitte – штраф $486,000 за использование ChatGPT 1:23 – УГРОЗА Конфиденциальность информации. Почему нельзя загружать личные и корпоративные данные в нейросети 2:39 – Инциденты с утечками: 3000+ диалогов Grok в Google поиске, Samsung и утечка кода через ChatGPT 3:31 – Кто имеет доступ к вашим данным в ChatGPT (связь с АНБ) 4:41 – Правила работы: получать данные из ИИ можно, загружать конфиденциальные – нельзя 5:45 – Рекомендации по использованию Gigachat и Яндекс Алиса для работы с чувствительными данными 6:41 – Как обезличивать данные перед загрузкой в нейросети 7:20 – УГРОЗА Поверхностное погружение ИИ в задачу. Социально ожидаемые ответы вместо правильных 10:13 – Почему нейросети ошибаются в точных расчётах и работе с таблицами11:48 – Реклама бесплатного курса "Путь в нейросети" 12:22 – УГРОЗА Манипуляции нейросетей. Случаи обмана: ChatGPT нанял...

0/0


0/0

0/0

0/0

0/0