Отмечается резкий рост рисков утечек, связанных с использованием публичных ИИ‑сервисов: по данным «Солара», в 2025 году объём чувствительной информации, которую сотрудники загружают из компаний в общедоступные нейросети, вырос в 30 раз год к году. Проблема усугубляется тем, что во многих организациях отсутствуют чёткие правила «что можно/нельзя» отправлять в такие сервисы, из‑за чего в запросах и вложениях оказываются презентации, таблицы, внутренние документы и фрагменты кода.
ИБ‑риски здесь не сводятся только к «утечке файла»: часто утечка происходит через контекст (описание процессов, архитектуры, конфигурации, клиентских кейсов), а значит её сложнее обнаружить традиционными инструментами, если нет контроля каналов и классификации данных. Для бизнеса это превращается в риск раскрытия коммерческой тайны, нарушения требований по защите информации и репутационных последствий, особенно если данные потом используются третьими сторонами или оказываются в неконтролируемой среде. На практике компаниям нужна как минимум базовая политика по ИИ (разрешённые сервисы, запрет на чувствительные данные, правила анонимизации), а для зрелых контуров — корпоративные ИИ‑решения или прокси/шлюзы с контролем утечек и журналированием.
