Сложная модель ИИ, которую мы понимаем

Аватар автора
Veritasium [RU]
Способности моделей к решению сложных задач и их понимание зависят от контекста и задач. Однако есть работы, которые демонстрируют возможности сложных моделей, а также исследования, выявляющие их ограничения. Разделы видео: — Модульное добавление — Взгляд модели — Случайное открытие в OpenAI — Подробнее о модели и линейные датчики — Часы выполняют сложение по модулю — Как именно взаимодействуют x и y? — Он запоминает тригонометрическое тождество?! собираем всё воедино и исключаем потери Исследование учёных из Массачусетского технологического института (MIT) (2024). Выявило принципиальные ограничения современных генеративных моделей ИИ, таких как GPT-4. Они демонстрируют способность генерировать правдоподобные ответы, но не могут по-настоящему «понимать» сложные системы и взаимодействия в реальном мире. Например, в рамках эксперимента исследователи оценили, как ИИ может генерировать инструкции для навигации по улицам Нью-Йорка. Несмотря на то, что модели показали хорошие результаты при выполнении строго определённых задач, они столкнулись с трудностями при возникновении нестандартных условий, создавая рыночные карты, которые не совпадали с реальными физическими ориентациями.

0/0


0/0

0/0

0/0