#4 ЖЁСТКОЕ NLP Собеседовние Middle+ / Senior Data Scientist 2 часть| RNN se

Аватар автора
Машинное понимание
🔎 NLP секция - неотъемлемая часть получения оффера для NLP инженера. Как раз таки в этом видео я даю базу, которую спрашивают на подобных собеседованиях и объясняю на пальцах эти темы так, чтобы ты точно на них ответил. 📊 Разбираем: - RNN , плюсы и минусы , сложность RNN - Transformers , полное устройство self-attention внутри - Различия между RNN и transformers - Токенайзеры , виды, и как они работают - Написали Self-Attention с нуля на Torch 💡 Проверь свои знания и подготовься к собеседованию! Привет! Я Дима Савелко - Ментор и Deep Learning Engineer (ClassicML, NLP/LLM) с 4-летним опытом коммерческой разработки как на СНГ сегменте, так и на зарубежном рынке. Параллельно официальной работе руковожу AI-командой для реализации проектов, решая задачи бизнеса с помощью ИИ. Также обо мне вы можете почитать в моём телеграм-канале! Ссылки: Таймкоды: 00:00 Что такое....? 00:20 Приветствие 01:15 Что такое RNN? 02:08 Объяснение - что такое RNN и как он работает 05:39 Какие есть плюс и минусы у RNN ? 07:30 Объяснение минусов и плюсов RNN 08:31 Какая сложность у RNN ? 08:39 Выводим с нуля сложность RNN 16:20 Что такое transformers (трансформеры)? Чем они отличаются от RNN ? 17:20 С нуля до ОФФЕРА 18:25 Почему у RNN и у transformers эмбеддинги называются контекстуальными ? 19:28 Объяснение - что такое контекстуальные эмбеддинги ? 21:03 Нужно ли в transformers использовать предобработку текста ? 21:48 Что такое токенайзер ? Какие виды существуют ? 22:29 Объяснение - Что такое...

0/0


0/0

0/0

0/0