ИИ в разработке может создать новые риски утечек данных и кибератак

magnific.com
Использование ИИ в разработке повышает риск утечек и атак на данные
Активное внедрение искусственного интеллекта в процессы разработки программного обеспечения сопровождается ростом новых киберрисков. Эксперты фиксируют угрозы утечек корпоративной информации через ИИ-агентов, а также появление уязвимостей в их взаимодействии с инфраструктурой.
Специалисты отмечают, что развитие ИИ приводит к формированию новых типов угроз, связанных с тем, что модели начинают выполнять не только аналитические, но и прикладные действия в системах компаний.
Как работают новые угрозы
ИИ-агенты сегодня способны действовать автономно: читать файлы, выполнять запросы к сервисам, анализировать программный код и взаимодействовать с внутренними системами.
При отсутствии строгих ограничений это может привести к утечкам данных или перехвату каналов связи между разработчиком и моделью. Даже случайная ошибка настройки способна открыть доступ к чувствительной информации.
Исследование «Лаборатории Касперского» показывает, что современные ИИ-системы работают уже не только с кодом, но и с инфраструктурой целиком. Однако расширение контекста создаёт риск ошибок из-за так называемого эффекта «размывания внимания» модели.
Масштабы утечек и статистика
По данным аналитики exploitDog, около 30% утечек корпоративных данных сегодня связано с использованием публичных ИИ-сервисов. В них могут попадать документы, фрагменты исходного кода, финансовая информация и внутренние регламенты.
Сергей Крюков, глава exploitDog (НИР), отметил, что ИИ-агенты без ограничений доступа становятся потенциальным каналом утечки, сравнимым по рискам с доступом сотрудника к критической инфраструктуре.
Новый класс уязвимостей
По словам директора по науке и ИИ ПАО «Группа Астра» Владимира Нелюба, формируется новый слой уязвимостей на стыке кибербезопасности и поведения ИИ-моделей.
К ним относятся внедрение вредоносных инструкций, подмена целей агента, отравление памяти модели, ошибки взаимодействия между агентами и чрезмерные права системных аккаунтов.
Эксперты подчёркивают, что ИИ работает с естественным языком, поэтому граница между командой и данными становится условной. Это требует защиты не только моделей, но и всей инфраструктуры — от API до логирования и управления доступом.
Роль ИИ в защите и ограничениях
В Positive Technologies отмечают, что ИИ уже помогает выявлять типовые уязвимости в коде и ускоряет анализ изменений, выступая в роли дополнительного инструмента проверки.
Однако полностью передавать ему функции безопасности нельзя. Модели могут допускать ошибки и неверно интерпретировать контекст, поэтому окончательные решения должны оставаться за специалистами по информационной безопасности.
Больше новостей и эксклюзивных видео смотрите в канале Самара Онлайн 24 в MAX.
