Искусственный интеллект открывает хакерам новые возможности для создания хаоса

- 02 апреля 2025 14:50
- Екатерина Трофимова, обозреватель «Ридуса»
Многие известные люди, в том числе отцы-основатели искусственного интеллекта, продолжают беспокоиться, что данная технология может привести к социальному коллапсу. Но пока что наиболее вероятным сценарием является получение преимуществ мелкими хакерами.
Как рассказал изданию Business Insider технический директор по машинному обучению в компании JFrog Юваль Фернбах, у хакеров обычно есть три основные цели. Они останавливают работу, крадут информацию или изменяют результаты работы сайта, приложения или гаджета.
Мошенники и хакеры, как и сотрудники любого бизнеса, уже используют искусственный интеллект для повышения производительности. По словам Фернбаха, системы ИИ самостоятельно предоставляют злоумышленникам новый способ проникновения в компании, поскольку вредоносный код легко спрятать внутри больших языковых моделей с открытым исходным кодом.
«Мы наблюдаем много-много атак», — уточнил эксперт.
По данным JFrog, особенно часто встречается перегрузка системы до такой степени, что она перестаёт отвечать на запросы. Дойти до этой точки довольно легко, отметил Фернбах.
Лидеры отрасли начинают объединяться, чтобы сократить количество вредоносных моделей. У JFrog есть сканер для проверки моделей перед их запуском в производство. Но в какой-то степени ответственность всегда будет лежать на каждой компании.
Сложный выбор
Когда компании хотят начать использовать искусственный интеллект, им приходится выбирать модель от OpenAI, Anthropic или Meta*, поскольку большинство из них не тратит огромные средства на создание собственной системы с нуля. Первые две фирмы предлагают проприетарные модели, что обеспечивает большую безопасность. Но их использование обходится дороже, и многие компании опасаются делиться своими данными.

Переход на модель с открытым исходным кодом от Meta* или любую другую из тысяч доступных вариантов становится всё более популярным. Компании могут использовать API-интерфейсы или загружать модели и запускать их локально. Примерно половина компаний, участвовавших в недавнем опросе 1400 предприятий, проведённом JFrog и InformationWeek, использовала загруженные модели на собственных серверах.
По мере развития искусственного интеллекта компании всё чаще объединяют несколько моделей с различными навыками и экспертизой. По словам Фернбаха, тщательная проверка их всех при каждом обновлении противоречит быстрому и свободному этапу экспериментов с ИИ в компаниях. Но каждая новая модель и любые последующие обновления данных или функциональности могут содержать вредоносный код или просто изменения в системе, которые влияют на результат.
Последствия самоуспокоенности могут быть значительными. В 2024 году канадский суд обязал Air Canada предоставить скидку в связи с утратой близкого человека путешественнику, которому чат-бот компании дал неверную информацию, как получить льготу. Авиакомпании пришлось вернуть сотни долларов и оплатить судебные издержки.
В масштабах компании такая ошибка может стоить ещё дороже. Например, банки уже обеспокоены тем, что генеративный ИИ развивается быстрее, чем они успевают реагировать.
Дальше рисков будет больше
Чтобы выяснить масштаб проблемы, в прошлом году JFrog сотрудничала с онлайн-хранилищем моделей искусственного интеллекта Hugging Face. Четыреста из более чем миллиона моделей содержали вредоносный код, то есть менее 1%. Однако, по оценкам JFrog, с тех пор число атак увеличилось в семь раз, хотя количество новых моделей выросло лишь втрое.
У многих популярных моделей часто есть злонамеренные «клоны», которые отличаются от оригинала небольшими ошибками в написании названия, что сбивает с толку торопливых и невнимательных инженеров.
При этом 58% участников упомянутого опроса либо не придерживались политики в отношении моделей ИИ с открытым исходным кодом, либо вовсе не знали, есть ли у них такая политика. У 68% не было другого способа проверить использование моделей разработчиками, кроме как вручную.
С развитием искусственного интеллекта модели будут не только предоставлять и анализировать информацию, но и выполнять задачи. Риски могут возрасти.
______________
* Решением Тверского районного суда города Москвы от 21 марта 2022 года деятельность компании Meta Platforms, Inc. (соцсети Facebook и Instagram) запрещена в России как экстремистская.
- Телеграм
- Дзен
- Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.
Войти через социальные сети: