Сооснователь Positive Technologies Юрий Максимов объяснил, чем опасен ИИ и при чем тут суверенность

Аватар автора
РБК
Самое главное в вопросе суверенизации искусственного интеллекта (ИИ) — не зарегулировать себя так, чтобы утратить возможность получения такой суверенной модели, заявил в эфире Радио РБК сооснователь Positive Technologies и фонда развития результативной кибербезопасности «Сайберус» Юрий Максимов. «Поэтому наши лидеры технологические, они предлагают какое-то решение. Пускай они идут этим решением, но закреплять одно из них таким догматическим образом я бы, конечно, не стал», — сказал он. По мнению Максимова, даже самая отсталая страна может сделать свою модель, которая будет отставать «на бесконечное количество раз» от моделей продвинутых стран, и назвать суверенной. Но моделью она не будет. Есть три пути создания суверенной модели ИИ, рассказал Максимов: взять готовую, убрать из нее неправильные ограничения и добавить свои; пересобрать чужую модель; получить для разработки собственные дата-сеты. «Может быть, ни один из этих вариантов не сработает. Может быть, какой-то не сработает. Поэтому сейчас делать выбор в сторону того или иного пути может оказаться для части цивилизации фатальным. Поэтому здесь очень важно сохранять гибкость мышления и нацеленность на конечный результат, все время помнить, что мы делаем», — пояснил Максимов. Он добавил, что нужно иметь суверенную модель, «которая служит нам, которую у нас не отберут, через которую нас не взломают».

0/0


0/0

0/0

0/0

0/0