За 2025 год в общедоступные нейронные сети ChatGPT и Gemini попало в 30 раз больше конфиденциальной информации из российских компаний по сравнению с предыдущим годом — сотрудники массово загружают в чат‑боты рабочие документы, таблицы, презентации и фрагменты кода для анализа и генерации контента. Ситуацию усугубляет правовой вакуум: около 60% организаций не формализовали политики использования ИИ, что приводит к ситуациям, когда коммерческая тайна, техническая документация или клиентские данные оказываются в руках третьих лиц без каких-либо гарантий конфиденциальности. Аналогичные инциденты произошли в американских CISA и Samsung, где утечки исходного кода и внутренних документов через публичные нейросети привели к внутренним расследованиям, ограничениям доступа и репутационным потерям. Проблема особенно остра для компаний с высоким уровнем цифровизации, где сотрудники активно используют ИИ для автоматизации рутинных задач, не осознавая рисков передачи корпоративных данных в неконтролируемую среду.
Что делать бизнесу: Внедрить политику по ИИ (запрет чувствительных данных, корпоративные альтернативы), настроить DLP на контроль загрузок в облачные сервисы, провести обучение сотрудников.
