За 2025 год в нейронные сети ChatGPT и Gemini попало в 30 раз больше конфиденциальной информации из российских компаний по сравнению с 2024 годом — сотрудники активно используют чат‑боты для анализа документов, таблиц и кода, не осознавая рисков передачи корпоративных данных в неконтролируемую среду. Около 60% организаций не имеют формализованных политик по использованию ИИ, что приводит к утечкам через контекст запросов, описания процессов и вложения.
Аналогичные инциденты произошли в CISA и Samsung, где загрузка внутренних материалов в публичные нейросети вызвала расследования и ограничения доступа. Проблема особенно актуальна для компаний с высоким уровнем цифровизации, где ИИ применяется для автоматизации рутинных задач, отчетности и анализа данных. Риски включают не только утечку файлов, но и раскрытие архитектуры систем, клиентских кейсов и бизнес‑процессов через описательный контекст.
Что делать бизнесу: Разработать и внедрить политику использования ИИ с классификацией данных, настроить DLP для контроля загрузок в облачные сервисы, организовать обучение сотрудников и внедрить корпоративные ИИ‑решения.
