Эксперты Positive Technologies провели детальный анализ трёх основных направлений развития ИИ — агентного ИИ (agentic AI), периферийного ИИ (edge AI) и квантового ИИ (quantum AI). Каждое из них открывает новые деловые возможности, одновременно порождая специфические киберриски. Реализованные атаки могут привести к утечкам данных, срыву бизнес-процессов и другим серьёзным последствиям — от фальсификации биометрии и финансовых убытков до остановки производств, ДТП или создания потенциально опасных веществ.
Агентный ИИ и мультиагентные системы на базе больших языковых моделей (LLM) способны автономно анализировать информацию, принимать решения и взаимодействовать с внешними ресурсами. По прогнозу аналитического агентства Gartner, к 2028 году с их помощью можно будет автоматизировать до 15% рутинных рабочих задач — от управления логистикой до персонализированного клиентского обслуживания.
В исследовании Positive Technologies отмечено, что применение ИИ-агентов влечёт новые векторы атак. Злоумышленники могут подменять данные в памяти или использовать агентные инструменты в злонамеренных целях для получения доступа к конфиденциальной информации и критически важным системам. Ложные входные данные способны запустить цепочку ошибочных решений ИИ, а перегрузка большим количеством запросов вызывает сбои в работе — всё это может нарушить бизнес-процессы и обойти политики безопасности. Внедрение вредоносного кода в фреймворки для разработки ИИ-агентов угрожает безопасности связанных систем.
Рост числа устройств Интернета вещей подтолкнул развитие периферийных вычислений — обработки данных как можно ближе к их источнику. Сочетание edge computing и ИИ открывает возможности в медицине, умных городах и других отраслях: интеллектуальные системы сохраняют работоспособность при ограниченной связи, а обработка в реальном времени повышает скорость принятия решений и позволяет оперативно выявлять неисправности оборудования.
При этом злоумышленники могут эксплуатировать уязвимости самих «умных» устройств — небезопасные настройки или устаревшие компоненты. Передача данных по сети остаётся подвержена классическим атакам (DDoS, спуфинг, «человек посередине»). Также возможны атаки на модели edge AI, включая подмену входных данных, что даёт злоумышленникам доступ к чувствительной информации организации.
Квантовый ИИ пока ограниченно применяется на практике, но его потенциал уже исследуется в медицине, финансах, логистике, энергетике, фармацевтике и других сферах. Технология решает сложные задачи оптимизации, ускоряет процессы и демонстрирует низкое энергопотребление по сравнению с классическими суперкомпьютерами. Благодаря точному моделированию молекулярных взаимодействий квантовый ИИ перспективен для разработки новых материалов и веществ.
На текущем этапе взаимодействие с квантовым ИИ в основном осуществляется через облачных провайдеров. Используя уязвимости облачных платформ, злоумышленники могут похитить архитектуру моделей, обучающие наборы данных и другую интеллектуальную собственность. Внедрение скрытых уязвимостей на этапе обучения приводит к неверной работе модели — например, в фармацевтике токсичное соединение может быть ошибочно признано безопасным, в финансах — не обнаружены мошеннические транзакции. Искажение входных данных может вызвать критические сбои — от навигационных ошибок беспилотников до фальсификации биометрии. Кроме того, квантовый ИИ способен повысить эффективность традиционных атак, например ускорив подбор паролей.
«Пока злоумышленникам, включая APT-группировки, проще использовать проверенные методы доступа к корпоративным системам, чем создавать ИИ-агентов для взлома, атаковать ИИ-модели или применять дорогостоящее квантовое оборудование. Но ситуация может измениться, и бизнес должен учитывать эти риски. Компании, которые интегрируют кибербезопасность в стратегию внедрения ИИ, получат устойчивое технологическое преимущество и укрепят доверие клиентов и партнёров», — комментирует Яна Авезова, ведущий аналитик направления аналитических исследований Positive Technologies.
Эксперты подчёркивают необходимость комплексной оценки рисков при внедрении ИИ. Технической защиты моделей недостаточно: важно контролировать стык технологий и бизнес-процессов через обучение персонала и стандартизацию процедур. Особое внимание требуется защите данных — ограничению объёма информации, доступной ИИ, и внедрению механизмов контроля для предотвращения утечек конфиденциальных сведений.