Блог

Blogs (Блог)

Shadow AI: Угрозы информационной безопасности при использовании публичных ИИ инструментов в корпоративной среде

Растущая популярность публичных инструментов искусственного интеллекта в корпоративной среде создает беспрецедентные угрозы информационной безопасности. Исследования 2025 года показывают, что 8 из 10 сотрудников используют несанкционированные ИИ инструменты, из них 32% скрывают эту деятельность. Данные утечек свидетельствуют о критическом масштабе проблемы: 13% запросов к открытым генеративным ИИ содержат конфиденциальные корпоративные данные, включая коды доступа, личные данные, финансовые отчеты и защищенную информацию. Организациям необходимо срочно внедрить комплексные политики управления ИИ, технические средства защиты данных и программы обучения сотрудников.


Введение: Shadow AI как стратегическая угроза

Феномен Shadow AI (теневое искусственное интеллект) представляет собой одну из наиболее критических угроз информационной безопасности XXI века. В отличие от традиционного Shadow IT, который долгие годы беспокоил IT-отделы компаний, Shadow AI отличается скоростью распространения и сложностью обнаружения.

Термин Shadow AI описывает несанкционированное использование сотрудниками свободных или коммерческих генеративных ИИ инструментов, таких как ChatGPT, Claude, Gemini и сотни других платформ. Проблема заключается не только в нарушении корпоративной политики, но в непреднамеренной передаче конфиденциальной информации внешним поставщикам ИИ услуг, которые используют эти данные для обучения своих моделей.

Недавние исследования 2025 года выявили масштаб проблемы:

  • 80% сотрудников используют несанкционированные ИИ инструменты на работе
  • 68% руководителей по информационной безопасности, включая CISO, признали использование неодобренных ИИ инструментов
  • 90% руководителей безопасности сами используют несанкционированные ИИ инструменты в своей работе
  • 32% пользователей ИИ скрывают факт использования генеративных ИИ

Такой парадокс, когда даже специалисты по информационной безопасности нарушают собственные политики, свидетельствует об объективных преимуществах ИИ инструментов для производительности труда и необходимости пересмотра подходов к их управлению.


1. Масштаб утечек данных через публичные ИИ инструменты

 

1.1 Распространенность проблемы

Исследование компании Ivanti выявило тревожную статистику использования несанкционированного ИИ:

  • 46% офисных работников используют ИИ инструменты, которые не предоставлены работодателем
  • 38% IT специалистов используют несанкционированные ИИ инструменты
  • 47% пользователей ИИ использовали его способами, которые могут считаться неуместными
  • 63% сотрудников видели других коллег, использующих ИИ неадекватно

Еще более критичными являются данные от исследования Melbourne Business School, которое показало, что 20% компаний уже пострадали от утечек данных, связанных с Shadow AI — это на 7 процентных пункта выше, чем утечки через санкционированные ИИ инструменты.

1.2 Объем и типы данных

Исследование компании Lasso, проведенное в период с декабря 2023 по февраль 2025 года, выявило, что 13% запросов к генеративным ИИ содержат данные с рисками безопасности или соответствия. Более детальный анализ показал следующее распределение скомпрометированных данных:

Код и учетные данные (4% запросов):

  • 30% этой категории содержали открытые учетные данные, секреты или проприетарный код
  • Риски включают кражу интеллектуальной собственности и увеличение уязвимости к взломам

Информация о сети (5% запросов):

  • Запросы часто содержали внутренние URL адреса, IPv4 адреса и MAC адреса
  • 38% таких запросов создавали прямые риски путем облегчения сетевой разведки и расширения поверхности атаки

Личные данные и данные платежей (1,4% запросов):

  • 11,2% запросов, содержащих личные данные, были отмечены как подозрительные
  • Часто включают адреса электронной почты и информацию о платежах

Другое исследование компании Harmonic под названием "From Payrolls to Patents" выявило, что 8,5% всех запросов к популярным генеративным ИИ содержали конфиденциальные данные:

  • 46% включали данные клиентов (информация о выставлении счетов, данные аутентификации)
  • 27% включали данные сотрудников (данные о зарплате, кадровые записи)
  • 15% включали юридические и финансовые данные (данные о трубопроводе продаж, портфельные инвестиции, M&A материалы)
  • 12% включали политики безопасности, отчеты, ключи доступа и проприетарный исходный код

 

1.3 Масштаб проблемы в организациях

Исследование компании Kiteworks 2025 года выявило критическую брешь в защите данных:

  • 83% организаций не имеют автоматизированных контролей для предотвращения передачи конфиденциальных данных в публичные ИИ инструменты
  • 86% организаций не имеют видимости в потоки данных ИИ
  • 27% компаний сообщают, что более 30% данных, которыми они делятся с ИИ инструментами, содержат приватную информацию
  • Только 17% организаций реализовали автоматизированные контроли с DLP сканированием

При этом даже высокорегулируемые отрасли не защищены:

  • 44% медицинских организаций не имеют контролей конфиденциальности (что нарушает HIPAA)
  • 27% технологических компаний имеют наивысший уровень утечек данных
  • 14% финансовых компаний учитывают этот риск несмотря на удвоение взломов третьих сторон

2. Типы угроз информационной безопасности

 

2.1 Кража интеллектуальной собственности

Использование публичных ИИ инструментов представляет экзистенциальную угрозу для интеллектуальной собственности компаний:

Проблемы с правами на патенты: Согласно патентному законодательству США, изобретатели имеют одногодичный льготный период для подачи заявки на патент после публичного раскрытия изобретения. Однако непреднамеренное раскрытие сотрудником информации через ИИ может стать "предшествующим искусством" (prior art), который предотвратит патентную защиту. Это особенно критично для компаний в высокотехнологичных отраслях.

Потеря защиты коммерческих тайн: Если сотрудник раскроет конфиденциальную информацию, компания может потерять защиту коммерческой тайны. В отличие от патентной защиты, которая требует формального регистрационного процесса, коммерческие тайны требуют активного сохранения конфиденциальности. Один инцидент передачи данных в публичный ИИ может привести к потере этого статуса.

Проблемы с авторским правом и обучением моделей: Сотрудники, не полностью понимающие, как работает ИИ инструмент, могут невольно предоставить компанию информацию, которая будет использована провайдером ИИ для обучения своих больших языковых моделей (LLM). Кроме того, использование защищенных авторским правом материалов в качестве запросов (или части запросов) может представлять нарушение авторского права и более вероятно приведет к выходу, который сам будет нарушать авторские права.

Ослабление товарных знаков: Товарный знак — это исключительный бренд компании. Однако ненадлежащее использование знака для обозначения категории товаров или услуг может привести к тому, что знак станет общеродовым и доступным для использования всеми. Классические примеры бывших товарных знаков, ставших общеродовыми: "Thermos", "Aspirin" и "Escalator". По мере того, как LLM продолжает обучаться на предоставленных сотрудниками данных, она может генерировать результаты, которые ослабляют товарный знак компании.

 

2.2 Взлом и компрометация учетных данных

Исследования показывают, что 51% анализируемых ИИ инструментов имели украденные корпоративные учетные данные. Это происходит по нескольким причинам:

  • Повторное использование паролей: 44% компаний, разрабатывающих ИИ инструменты, показывают признаки повторного использования сотрудниками паролей
  • Кража учетных данных: Украденные учетные данные часто служат предвестником взлома данных, так как их можно использовать для доступа к чувствительным данным
  • Фишинг и социальная инженерия: ИИ инструменты становятся каналом для распространения вредоносного контента или сбора информации для целевых атак

Хакеры используют те же ИИ инструменты, что и все остальные, и могут использовать их для разведки и подготовки целевых атак против конкретных организаций.

 

2.3 Внутренние угрозы и злоумышленное использование

Новый вектор угрозы — это использование ИИ инструментов недовольными сотрудниками или теми, кто планирует преступную деятельность:

  • Сотрудник может использовать ИИ для создания резюме, оставив в том же сеансе запрос для суммирования конфиденциальных данных о продажах
  • История сеанса, если она логируется и не должным образом защищена, создает запись преступного намерения
  • Возможность обработки большого объема данных ИИ позволяет быстро компилировать критическую информацию для передачи конкурентам

 

2.4 Нарушения нормативных требований и штрафы

EU AI Act, вступивший в полную силу в 2025 году, устанавливает строгие требования к организациям, использующим ИИ системы, особенно высокорисковые:

  • Штрафы за несоответствие рассчитываются как процент от глобального годового оборота компании или предварительно установленной суммы, в зависимости от того, что больше
  • Для систем с высоким риском требуется комплексная оценка соответствия, подробная техническая документация и постоянный контроль
  • HIPAA нарушения в медицинской сфере могут стоить до $1,5 млн за категорию за инцидент
  • GDPR нарушения могут стоить до 4% глобального годового оборота или €20 млн

Кроме того, требования следующие:

  • Конформность с системой управления рисками для высокорисковых ИИ систем
  • Детальная техническая документация и оценки соответствия
  • Использование высококачественных наборов данных для снижения смещения
  • Постоянный контроль человека на всем жизненном цикле ИИ
  • Логирование деятельности для полной отслеживаемости и проверяемости
  • Прозрачность для пользователей, взаимодействующих с генерируемым ИИ контентом

 

2.5 Финансовые последствия

Стоимость одного взлома данных оценивается в среднем в $15 млн, при этом глобальная стоимость кибератак растет экспоненциально. Компании, использующие несанкционированные ИИ инструменты, подвергаются риску:

  • Судебных исков от пострадавших сторон
  • Нарушения договорных обязательств перед клиентами и партнерами
  • Репутационного ущерба и потери клиентов
  • Потери конкурентных преимуществ через утечку ноу-хау
  • Стоимости восстановления после взлома

3. Реальный пример: Samsung (2023) и другие случаи

Известный инцидент произошел в Samsung в 2023 году, когда инженеры использовали ChatGPT для помощи в отладке кода и оптимизации рабочих нагрузок. В результате они невольно предоставили конфиденциальную внутреннюю информацию, включая проприетарный исходный код. Инцидент был настолько серьезным, что юридический отдел компании обратился к OpenAI с просьбой удалить загруженный исходный код из тренировочных данных.

Ответ компании был решительным: полный запрет на использование генеративных ИИ инструментов был введен по всей организации.

Более недавний пример — Fortune 500 финансовая фирма, которая обнаружила, что ее команда обслуживания клиентов в течение 6 месяцев копировала и вставляла конфиденциальные данные клиентов (включая номера социального страхования, остатки счетов и истории транзакций) в ChatGPT для создания шаблонов ответов. ИИ инструмент обработал миллионы записей без возможности их отслеживания или удаления. Потенциальные штрафы только за нарушения регулирования могли достичь $50 млн.


4. Статистика Shadow AI в России и постсоветских странах

Хотя специализированных исследований Shadow AI для России и постсоветских стран меньше, тенденции глобального рынка указывают на аналогичные проблемы:

  • Российские компании активно внедряют ИИ инструменты, начиная с 2023-2024 года
  • Отсутствие локальных регуляторных рамок до недавно создавало вакуум в управлении ИИ
  • Рост использования облачных ИИ сервисов, включая OpenAI, Claude, YandexGPT и других
  • Особенно высокий риск в IT, финансовом секторе и консалтинге
  • Проблема усугубляется языковым барьером и недостатком локализованного обучения по безопасности ИИ

5. Рекомендации для организаций

 

5.1 Разработка политики управления ИИ

Первый шаг — это разработка четкой, всеобъемлющей политики использования ИИ. Политика должна:

  • Запретить загрузку и использование бесплатных ИИ инструментов без одобрения
  • Определить допустимые варианты использования санкционированных ИИ инструментов
  • Запретить обмен конфиденциальной, проприетарной и личной информацией с бесплатными ИИ инструментами
  • Ограничить входные данные, запросы или вопросы к бесплатным ИИ инструментам
  • Ограничить использование и распределение выходных данных из бесплатных ИИ инструментов
  • Определить ответственность за нарушения и процедуры сообщения об инцидентах

 

5.2 Обновление существующих политик

Необходимо пересмотреть и обновить политики IT, сетевой безопасности и закупок, чтобы учесть риски ИИ. Поскольку снижение рисков ИИ требует многодисциплинарного подхода, команды, предоставляющие кросс-функциональную поддержку организации, могут быть лучше подготовлены к обнаружению проблем на ранних этапах.

 

5.3 Проверка контрактов с провайдерами ИИ инструментов

ИИ разработчики часто требуют раскрытий или других мер в своих условиях обслуживания, что может потребовать изменений в заявлениях о конфиденциальности или условиях использования организации. Необходимо:

  • Тщательно проанализировать все условия обслуживания
  • Определить, как провайдер использует загруженные данные
  • Установить требования по удалению данных и шифрованию
  • Согласовать соглашения об обработке данных (DPA)

 

5.4 Обучение сотрудников ответственному использованию ИИ

Сотрудники должны быть полностью проинформированы:

  • О политиках компании в отношении ИИ
  • О рисках использования несанкционированных ИИ инструментов
  • О лучших практиках безопасности при использовании ИИ
  • О том, как сообщить об ИИ-связанных инцидентах

Важный результат исследований показывает, что 40% сотрудников, получивших обучение по безопасности ИИ, все равно используют несанкционированные инструменты. Это указывает на необходимость эволюции программ обучения для учета растущего стремления сотрудников к производительности и уверенности в новых технологиях.

 

5.5 Разработка стратегии классификации данных

Помогите сотрудникам определять и помечать конфиденциальную, проприетарную и личную информацию. Это повышает компетентность каждого сотрудника в области ИИ, что снижает подверженность компании. Классификация должна включать:

  • Общедоступные данные (социальные медиа посты, опубликованные отчеты)
  • Внутренние данные (руководства, процедуры)
  • Конфиденциальные данные (контрактная информация, финансовые данные)
  • Ограниченные данные (личные данные сотрудников, медицинская информация)

 

5.6 Назначение авторизованных пользователей ИИ инструментов

Создайте механизм одобрения, который позволяет заинтересованным сотрудникам получить разрешение на использование компании ИИ инструментов. Это может повысить эффективность, сузив круг сотрудников, нуждающихся в более комплексном обучении ИИ.

 

5.7 Обязательная документация использования ИИ

Люди, использующие ИИ инструменты, должны документировать их использование, включая входные и выходные данные. Такая информация может быть необходима для оценки рисков интеллектуальной собственности или претензий. Такие данные также могут использоваться для оценки соответствия политикам ИИ и выявления новых рисков.

 

5.8 Реализация процесса проверки для публикации или распределения генеративного контента

Проверка выходных данных на предмет смещения и точности может снизить вероятность репутационных проблем, связанных с использованием генеративного контента ИИ.

 

5.9 Постоянный мониторинг использования ИИ в организации

Мониторинг может включать:

  • Регулярную проверку контрактов с провайдерами ИИ (которые часто меняются)
  • Тестирование точности, релевантности и смещения в выходных данных ИИ
  • Формирование комитетов надзора для обеспечения регулярного соответствия
  • Использование инструментов мониторинга использования ИИ для выявления несанкционированных инструментов

83% организаций в настоящее время не имеют автоматизированных контролей, что является главным приоритетом для замедления Shadow AI.

 

5.10 Реализация плана реагирования на инциденты

Необходимо разработать план реагирования на инциденты, охватывающий предвидимые сценарии ИИ:

  • Назначьте первого контактного лица для сотрудника, который подозревает или осознает, что кто-то передал конфиденциальную информацию в ИИ инструмент
  • Установите процедуры расследования
  • Определите процесс уведомления необходимых сторон
  • Создайте программу удаления информации, где это возможно
  • Документируйте все инциденты для целей соответствия

6. Роль технических решений: DLP и мониторинг

 

6.1 Системы предотвращения потери данных (DLP)

Автоматизированные системы DLP являются критическим компонентом:

  • Предварительное сканирование документов: Автоматическое сканирование файлов и документов перед их отправкой в генеративные ИИ чатботы
  • Сканирование в реальном времени: Мониторинг попыток скопировать/вставить конфиденциальные данные в браузерные ИИ инструменты
  • Блокирование и предупреждение: Активное предотвращение или предупреждение сотрудников перед отправкой конфиденциальных данных
  • Логирование и отчетность: Полный аудит всех попыток отправки потенциально конфиденциальных данных

 

6.2 Мониторинг использования ИИ

Организации должны внедрить решения для обнаружения и мониторинга всех ИИ инструментов, используемых в сети:

  • Shadow LLM обнаружение: Выявление более 12 000 известных ИИ инструментов и сервисов
  • Анализ поведения пользователя: Обнаружение аномального использования ИИ или высокого риска действий
  • Интеграция с Identity and Access Management (IAM): Гарантия, что только авторизованный персонал может использовать утвержденные ИИ приложения

 

6.3 Управление идентификацией и доступом для ИИ

Реализация IAM решений обеспечивает:

  • Авторизацию и аутентификацию: Только авторизованные сотрудники могут получить доступ к утвержденным ИИ инструментам
  • Безопасная промежуточность: IAM служит безопасным посредником между сотрудниками и ИИ инструментами
  • Применение политики безопасности: Мониторинг обмена данными и блокирование неавторизованного использования ИИ приложений

 

6.4 Защищённые корпоративные сервисы на основе LLM

В контексте растущих угроз безопасности при использовании публичных ИИ инструментов особую значимость приобретают решения для локального развёртывания генеративных ИИ в защищённом контуре организации.

Современные DEX-решения, как например Инкоманд, предоставляют возможности реализации портальных сервисов для сотрудников, основанных на LLM (больших языковых моделях), развёртываемых on-premise в защищённой инфраструктуре заказчика.

 

6.5.1 Ключевые преимущества on-premise развёртывания LLM

Полная конфиденциальность данных:

  • Все данные сотрудников остаются в пределах корпоративной сети
  • Нет передачи конфиденциальной информации внешним провайдерам
  • Гарантированное соответствие требованиям GDPR, HIPAA, и других нормативных актов

Контроль над обучением моделей:

  • LLM не использует корпоративные данные для обучения внешних моделей
  • Исключается риск утечки интеллектуальной собственности через обучающие данные
  • Модель остаётся полностью под контролем организации

Независимость от внешних сервисов:

  • Организация не зависит от политики изменений провайдера ИИ
  • Гарантированное соответствие портальных функций корпоративным стандартам
  • Возможность кастомизации поведения модели под специфические бизнес-требования

 

6.5.2 Сравнение с публичными ИИ инструментами

Критерий

Публичные ИИ инструменты

On-prem LLM

Место хранения данных

Внешние серверы провайдера

Корпоративная инфраструктура

Использование данных для обучения

Данные используются для обучения модели

Данные остаются в контроле организации

Конфиденциальность

Нет гарантий

Полная конфиденциальность

GDPR соответствие

Требует соответствующего контракта

Встроенное соответствие

Скорость отклика

Зависит от интернета

Оптимальная локальная скорость

Стоимость владения

Подписка плюс риски утечек

Предсказуемые затраты с минимальными рисками

Контроль моделей

Нет

Полный контроль и кастомизация

 

6.5.3 Практические применения в корпоративной среде

Виртуальный ассистент сотрудников:

  • Помощь в заполнении форм, поиске информации о процессах
  • Ответы на часто задаваемые вопросы о политике компании
  • Поддержка на естественном языке (включая русский)

Умный поиск и организация контента:

  • Быстрый поиск информации в корпоративных документах
  • Автоматическое предложение релевантного контента
  • Семантический поиск поверх структурированных и неструктурированных данных

Автоматизация корпоративных процессов:

  • Генерация документов и отчётов
  • Маршрутизация запросов к нужным отделам
  • Подготовка аналитических сводок

Управление знаниями и обучением:

  • Создание персональных обучающих путей для новых сотрудников
  • Адаптивные справочные системы
  • Документирование процедур и best practices

7. Рекомендации по переходу на защищённые решения

 

7.1 Оценка текущего состояния

Организациям следует провести:

  1. Аудит использования ИИ - выявление всех используемых ИИ инструментов в организации
  2. Оценка критичности данных - определение какие данные обрабатываются ИИ инструментами
  3. Анализ рисков - оценка потенциального воздействия утечек для каждого типа данных
  4. Оценка соответствия нормам - проверка текущего соответствия GDPR, CCPA, EU AI Act и местным требованиям

 

7.2 Разработка стратегии миграции

После оценки организация должна разработать:

  1. Дорожная карта - план поэтапного перехода на управляемые ИИ решения
  2. Выбор технологии - выбор подходящей платформы (например, Инкоманд для портальных сервисов)
  3. Пилотный проект - начать с одного отдела для проверки решения
  4. Масштабирование - постепенное внедрение по остальным подразделениям

 

7.3 Организационные изменения

Изменение культуры:

  • Объяснение сотрудникам преимуществ управляемых решений
  • Демонстрация, что одобренные ИИ инструменты не менее удобны, чем публичные
  • Поощрение использования корпоративных ИИ инструментов вместо публичных

Подготовка команд:

  • Обучение IT команд управлению on-premise LLM
  • Подготовка бизнес-аналитиков к работе с корпоративным ИИ
  • Создание центра компетенций по управлению ИИ

8. Путь вперёд: Регулятивная среда и тренды

 

8.1 EU AI Act и его влияние

ЕС AI Act, вступивший в полную силу в 2025 году, устанавливает новый стандарт управления ИИ:

  • Категоризация ИИ систем по уровню риска (неприемлемый, высокий, ограниченный, минимальный)
  • Обязательные системы управления рисками
  • Техническая документация и оценка соответствия
  • Постоянный мониторинг и отчётность
  • Штрафы до 4% глобального оборота за неправильное использование ИИ

 

8.2 NAIC Guidance for AI Adoption (октябрь 2025)

Совещательный орган Канады недавно выпустил обновленные рекомендации по внедрению ИИ в организациях, которые включают:

  • Управление и подотчётность
  • Оценка воздействия
  • Управление рисками
  • Прозрачность и объяснимость
  • Тестирование и мониторинг
  • Контроль человека

 

8.3 Прогноз на будущее

По оценкам экспертов:

  • К 2026 году большинство крупных организаций будут иметь официальные политики управления ИИ
  • К 2027 году регулятивные требования будут гармонизированы на уровне ЕС, и другие регионы будут следовать похожим моделям
  • К 2028 году on-premise или гибридные решения для ИИ станут стандартом для критичных данных
  • Возрастающая цена соответствия регулятивным требованиям будет стимулировать переход на управляемые решения

Заключение

Shadow AI представляет собой одну из наиболее серьёзных угроз информационной безопасности в 2025 году. Масштаб проблемы впечатляет: 8 из 10 сотрудников используют несанкционированные ИИ инструменты, 32% скрывают это от работодателя, а 13% всех запросов к публичным ИИ содержат конфиденциальные корпоративные данные.

Угрозы многообразны и включают:

  • Кражу интеллектуальной собственности
  • Нарушение авторских прав и прав на товарные знаки
  • Взлом учетных данных и внутренние угрозы
  • Нарушение нормативных требований (GDPR, CCPA, EU AI Act)
  • Существенные финансовые потери (от 15 млн долларов за взлом данных)

Организациям необходимо срочно:

  1. Разработать и внедрить политики управления ИИ
  2. Обучить сотрудников безопасности ИИ
  3. Внедрить технические средства защиты (DLP, мониторинг)
  4. Перейти на управляемые ИИ решения для критичных данных
  5. Обеспечить соответствие нормативным требованиям

Решения на базе защищённого on-premise развёртывания LLM, такие как предложенные Инкоманд для портальных сервисов сотрудников, предоставляют целостный ответ на эти угрозы. Они обеспечивают:

  • Полную конфиденциальность корпоративных данных
  • Полный контроль над обучением и поведением ИИ моделей
  • Соответствие всем нормативным требованиям
  • Экономическую эффективность при минимизации рисков

Организации, которые упустят момент и не внедрят адекватные мероприятия по управлению ИИ, рискуют столкнуться с катастрофическими взломами данных, потерей интеллектуальной собственности и значительными штрафами за нарушение нормативных требований.