ИИ в разработке может создать новые риски утечек данных и кибератак

Эксперты сообщили, что ИИ-агенты в разработке П...

magnific.com

Использование ИИ в разработке повышает риск утечек и атак на данные

Активное внедрение искусственного интеллекта в процессы разработки программного обеспечения сопровождается ростом новых киберрисков. Эксперты фиксируют угрозы утечек корпоративной информации через ИИ-агентов, а также появление уязвимостей в их взаимодействии с инфраструктурой.

Специалисты отмечают, что развитие ИИ приводит к формированию новых типов угроз, связанных с тем, что модели начинают выполнять не только аналитические, но и прикладные действия в системах компаний.

Как работают новые угрозы

ИИ-агенты сегодня способны действовать автономно: читать файлы, выполнять запросы к сервисам, анализировать программный код и взаимодействовать с внутренними системами.

При отсутствии строгих ограничений это может привести к утечкам данных или перехвату каналов связи между разработчиком и моделью. Даже случайная ошибка настройки способна открыть доступ к чувствительной информации.

Исследование «Лаборатории Касперского» показывает, что современные ИИ-системы работают уже не только с кодом, но и с инфраструктурой целиком. Однако расширение контекста создаёт риск ошибок из-за так называемого эффекта «размывания внимания» модели.

Масштабы утечек и статистика

По данным аналитики exploitDog, около 30% утечек корпоративных данных сегодня связано с использованием публичных ИИ-сервисов. В них могут попадать документы, фрагменты исходного кода, финансовая информация и внутренние регламенты.

Сергей Крюков, глава exploitDog (НИР), отметил, что ИИ-агенты без ограничений доступа становятся потенциальным каналом утечки, сравнимым по рискам с доступом сотрудника к критической инфраструктуре.

Новый класс уязвимостей

По словам директора по науке и ИИ ПАО «Группа Астра» Владимира Нелюба, формируется новый слой уязвимостей на стыке кибербезопасности и поведения ИИ-моделей.

К ним относятся внедрение вредоносных инструкций, подмена целей агента, отравление памяти модели, ошибки взаимодействия между агентами и чрезмерные права системных аккаунтов.

Эксперты подчёркивают, что ИИ работает с естественным языком, поэтому граница между командой и данными становится условной. Это требует защиты не только моделей, но и всей инфраструктуры — от API до логирования и управления доступом.

Роль ИИ в защите и ограничениях

В Positive Technologies отмечают, что ИИ уже помогает выявлять типовые уязвимости в коде и ускоряет анализ изменений, выступая в роли дополнительного инструмента проверки.

Однако полностью передавать ему функции безопасности нельзя. Модели могут допускать ошибки и неверно интерпретировать контекст, поэтому окончательные решения должны оставаться за специалистами по информационной безопасности.

Больше новостей и эксклюзивных видео смотрите в канале Самара Онлайн 24 в MAX.