Perforce выражает сомнения относительно конфиденциальности данных в сфере искусственного интеллекта.

Perforce выражает сомнения относительно конфиденциальности данных в сфере искусственного интеллекта.

В отчете Perforce Software за 2025 год о состоянии соответствия и безопасности данных выявлен заметный разрыв между амбициями предприятий в области ИИ и пониманием рисков для конфиденциальности данных. По данным отчета, большинство организаций поддерживают использование чувствительных данных при разработке ИИ, но при этом выражают значительные опасения по поводу их безопасности. Этот парадокс подчеркивает настоятельную необходимость для организаций внедрять четкие рекомендации и надежные стратегии защиты данных по мере роста внедрения ИИ.

Опрос охватывает мнения представителей различных отраслей и дает представление о том, как компании обрабатывают чувствительные данные в контексте ИИ, аналитики и разработки программного обеспечения. Он подчеркивает как оптимизм организаций в отношении потенциала ИИ, так и опасения по поводу управления конфиденциальной информацией.

Парадокс конфиденциальности данных в ИИ

Отчет показывает, что 91% организаций считают, что чувствительные данные должны использоваться для обучения моделей ИИ. В то же время 78% выражают высокую озабоченность по поводу кражи или утечек. Эксперты считают, что это несоответствие связано с недостатком понимания о неизменности данных в системах ИИ. После использования чувствительной информации для обучения модели, ее невозможно полностью удалить или сделать абсолютно безопасной, что создает постоянный риск утечки, особенно когда речь идет о персональных или конфиденциальных данных.

Стив Карам, главный менеджер по продукту в Perforce, отметил, что организации сталкиваются с двойным давлением: необходимостью быстро внедрять ИИ и при этом соблюдать стандарты конфиденциальности и соответствия. Он подчеркнул, что персонально идентифицируемая информация (PII) никогда не должна использоваться в обучении моделей, и что альтернативные подходы, такие как синтетические данные, могут обеспечить безопасные пути для разработки ИИ.

Этот парадокс не является только теоретическим. Организации часто недооценивают, как системы ИИ сохраняют и распространяют тренировочные данные. Даже в контролируемых средах выводы моделей могут случайно раскрыть чувствительную информацию, что делает обязательным для бизнеса внедрение комплексных стратегий управления рисками.

Растущие риски утечек в непроизводственных средах

Непроизводственные среды, такие как тестирование и разработка, остаются частым источником утечек данных. В отчете обнаружено, что 60% организаций столкнулись с утечками или кражами в средах разработки программного обеспечения, ИИ или аналитики — это на 11% больше, чем в предыдущем году. Эта растущая тенденция подчеркивает уязвимости, существующие вне производственных систем, где данные часто считаются менее чувствительными.

Несмотря на известные риски, 84% организаций все еще допускают исключения из политики соответствия данных в непроизводственных средах. Эта практика может способствовать утечкам и создавать ложное чувство безопасности. Росс Милленакер, старший менеджер по продукту в Perforce, отметил, что многие организации считают защиту чувствительных данных, например, с помощью маскирования, обременительной или ручной. В результате часто делаются исключения, что непреднамеренно увеличивает риск.

Устойчивость утечек в непроизводственных средах демонстрирует необходимость в более автоматизированных и интегрированных решениях. Организации поощряются к внедрению практик защиты данных во всех средах, включая тестовые и промежуточные, чтобы минимизировать уязвимости.

Рост инвестиций в решения для конфиденциальности данных ИИ

В свете этих рисков опрос показывает, что 86% организаций планируют инвестировать в решения для конфиденциальности данных ИИ в ближайшие один-два года. Эти инвестиции отражают растущее признание того, что конфиденциальность и безопасность не могут оставаться на втором плане в гонке за внедрение ИИ.

Стратегии инвестиций варьируются, но обычно включают автоматизированное маскирование данных, контроль доступа, механизмы аудита и системы мониторинга для обнаружения несанкционированного доступа к данным. Организации все чаще отдают предпочтение технологиям, которые позволяют ИИ-проектам двигаться вперед, не компрометируя конфиденциальную информацию.

Защита чувствительных данных стала стратегическим императивом. Организации, которые не внедряют надежные меры безопасности, сталкиваются не только с регуляторными последствиями, но и с потенциальными репутационными потерями. Отчет подчеркивает, что внедрение ИИ не может происходить в отрыве от комплексных стратегий конфиденциальности данных, и организации должны планировать инвестиции соответственно.

Роль синтетических данных в разработке ИИ

Один из подходов, освещенных в отчете, — использование генерации синтетических данных на основе ИИ. Синтетические данные имитируют статистические характеристики реальных данных, но не содержат идентифицируемой личной информации, что позволяет организациям разрабатывать и обучать модели ИИ без риска утечки конфиденциальных данных.

Платформа DevOps Data Platform от Perforce Delphix интегрирует генерацию синтетических данных с традиционными процессами маскирования и доставки данных. Этот унифицированный подход позволяет бизнесу обеспечивать соответствие требованиям конфиденциальности, предоставляя реалистичные наборы данных для тестирования, аналитики и обучения ИИ. Принимая синтетические данные, организации могут значительно снизить риск раскрытия конфиденциальной информации, одновременно получая выгоду от аналитики, основанной на ИИ.

Синтетические данные также предоставляют гибкость в конвейерах ИИ. Организации могут создавать наборы данных, отвечающие специфическим требованиям тестирования или обучения, не дожидаясь, пока производственные данные будут очищены. Эта возможность сокращает задержки в циклах разработки и поддерживает гибкие ИИ инициативы, что делает их практичной альтернативой традиционным подходам, основанным на ограниченной анонимизации или сложных процедурах маскирования.

Проблемы соответствия и организационная культура

Отчет подчеркивает, что проблемы конфиденциальности данных в ИИ не являются исключительно техническими — они также носят культурный и процедурный характер. Многие организации допускают исключения из правил соответствия данных из-за восприятия их как обременительных для рабочих процессов или из-за недостатка понимания рисков. Преодоление этого разрыва требует не только технологий, но и обучения и четких политик управления.

Организации поощряются к развитию всеобъемлющей культуры ответственности за данные. Это включает в себя обучение сотрудников постоянному характеру чувствительных данных в системах ИИ, обеспечение постоянного соблюдения требований во всех средах и использование технологий для упрощения защиты конфиденциальности.

Выводы опроса предполагают, что организации, которые интегрируют соображения конфиденциальности на ранних этапах своей стратегии ИИ, с большей вероятностью достигнут как регуляторного соответствия, так и операционной эффективности. Те, кто этого не делает, рискуют увеличенной экспозицией, потенциальными утечками и долгосрочными юридическими или репутационными последствиями.

Perforce выявляет неопределенность в отношении конфиденциальности данных ИИ

Отчет Perforce за 2025 год подчеркивает неопределенность в отношении конфиденциальности данных ИИ в корпоративной среде. Парадокс между желанием использовать чувствительные данные в ИИ и высокой озабоченностью по поводу утечек данных подчеркивает критическую необходимость в четких рекомендациях и интегрированных решениях.

Организации, которые внедряют ИИ ответственно и безопасно, включая использование синтетических данных и постоянного контроля конфиденциальности, могут справиться с этими вызовами, не замедляя инновации. Реализация надежных практик во всех средах — от разработки до производства — гарантирует, что инициативы в области ИИ продвигаются с минимальным риском для конфиденциальных данных.

Выводы отчета обращают внимание на более широкие последствия внедрения ИИ. Поскольку предприятия продолжают изучать возможности ИИ, понимание пересечения конфиденциальности данных, соответствия и технологических инноваций будет ключевым для минимизации рисков при обеспечении роста и конкурентных преимуществ.

Интегрируя безопасные практики в области ИИ, организации могут сочетать свои амбиции в области ИИ с необходимыми мерами безопасности для защиты конфиденциальной информации, укрепляя как регуляторное соответствие, так и доверие заинтересованных сторон.

Оставить коментарий
Комментарий:
Комментарии
  1. user

    Очень интересная статья! Сложно не согласиться с тем, что использование синтетических данных может стать отличным решением для обеспечения безопасности. Надеюсь, компании начнут активно внедрять такие подходы, чтобы снизить риски утечек.

  2. user

    Считаю, что организации должны больше внимания уделять обучению своих сотрудников по вопросам конфиденциальности данных. Без этого сложно представить эффективные изменения в культуре и соблюдении политики безопасности.

  3. user

    Проблема утечек данных в тестовых средах действительно актуальна. Автоматизация и интеграция решений звучат как разумный путь вперед. Интересно, какие еще методы защиты данных могли бы быть предложены в будущем?