Компании сталкиваются с растущими рисками утечек данных, связанных с использованием генеративного ИИ. Согласно отчету Netskope Threat Labs, за последний год наблюдается поразительный 30-кратный рост передачи данных к приложениям генеративного ИИ со стороны корпоративных пользователей. Это увеличение подчеркивает серьезные риски утечек данных и угроз со стороны инсайдеров, усиливая Растущие риски утечек данных.

В отчете указано, что в большое количество данных, отправляемых в приложения генеративного ИИ, входят чувствительные данные, такие как исходные коды, регулируемая информация, пароли, ключи и интеллектуальная собственность. Эти данные представляют собой высокие риски для безопасности, нарушений норм и кражи интеллектуальной собственности, что также способствует растущим рискам утечек данных.

Теневой ИИ и угроза безопасности

Выявлена проблема «теневого ИИ». Она затрагивает 72% корпоративных пользователей. Эти пользователи используют приложения генеративного ИИ через личные аккаунты. Анализ показал 317 приложений генеративного ИИ. В списке находятся ChatGPT, Google Gemini и GitHub Copilot. Эти приложения широко используются в различных компаниях. Около 75% корпоративных пользователей применяют генеративный ИИ. Это создает потенциальные угрозы от инсайдеров, даже если они не намеренные, и увеличивает Растущие риски утечек данных.

Джеймс Робинсон, специалист по безопасности компании Netskope, прокомментировал результаты. Он отметил, что организации усиливают внедрение управляемых инструментов. Однако исследование показывает, что теневой ИТ-вопрос стал теневым ИИ. Почти три четверти пользователей по-прежнему используют генеративный ИИ через личные аккаунты. Продолжающаяся тенденция подчеркивает необходимость улучшения средств безопасности. Необходимы меры для контроля, видимости и допустимого использования ИИ для снижения растущих рисков утечек данных.

Отчет подчеркивает нехватку видимости при обработке данных с генеративным ИИ. Непрямой генеративный ИИ создает проблемы с безопасностью данных. Принятый подход ограничивает использование приложений до разработки четких политик. Рэй Канзанес из Netskope Threat Labs призвал к более стратегическому подходу. Он отметил, что генеративный ИИ теперь повсюду. Технология интегрируется от специализированных приложений до бэкенд интеграций. Эта повсеместность создает растущие проблемы кибербезопасности для организаций. Необходим всесторонний подход к управлению рисками. Иначе существует риск раскрытия чувствительных данных третьим лицам. Эти данные могут быть использованы для обучения новых ИИ-моделей. Это создает Растущие риски утечек данных.

Локальный хостинг генеративного ИИ

Исследование указывает на значительный сдвиг к локальному хостингу генеративного ИИ. Локальный хостинг увеличился с менее 1% до 54% за год. Эта мера снижает риски утечек данных от внешних приложений. Однако она вводит новые риски с управлением данными и безопасностью. Ари Гигер из Netskope объяснил меняющийся ландшафт безопасности. Он отметил, что ИИ меняет безопасность периметра и платформы. Угрозы становятся более точными из-за злоумышленников с генеративными навыками. Защита должна быть генеративной и развиваться в реальном времени. Это поможет противостоять “инновационной инфляции”. Эффективная борьба требует творческих защитников на стороне человека. На поле боя, управляемом ИИ, нужна безопасность, оснащенная ИИ для защиты от растущих рисков утечек данных.

Чтобы смягчить риски, связанные с ИИ, почти все организации внедряют меры безопасности, контролируя доступ к инструментам ИИ и управляя протоколами обмена данными. Netskope советует компаниям регулярно обновлять рамки риска, касающиеся внедрения ИИ или генеративного ИИ, обеспечивая адекватную защиту данных. Это включает в себя оценку среды генеративного ИИ, усиление контроля приложений и регулярное сравнение этих мер с отраслевыми стандартами и лучшими практиками.

Эти выводы подчеркивают важность для организаций оставаться бдительными и проактивными в управлении рисками, связанными с генеративным ИИ, включая адаптацию существующих мер безопасности к быстро меняющимся технологиям ИИ и растущим рискам утечек данных.

Источник: SecurityBrief Asia

7