•  ИНФОРМАЦИОННАЯ  БЕЗОПАСНОСТЬ  ГОСУДАРСТВЕННОГО  СЕКТОРА  ЭКОНОМИКИ,  БИЗНЕСА,  ЧАСТНОЙ  ЖИЗНИ  ГРАЖДАН  РОССИЙСКОЙ  ФЕДЕРАЦИИ
Специалист Content AI указал на угрозу потери данных при применении открытых нейронных сетей

Специалист Content AI указал на угрозу потери данных при применении открытых нейронных сетей

Большинство российских предприятий обеспокоено возможностью раскрытия секретных сведений вследствие внедрения искусственного интеллекта. Глава технологического подразделения Content AI Сергей Юдин поделился своим мнением с изданием «Российская газета», раскрыв причины, по которым публичные нейросети представляют собой потенциальный источник серьёзных утечек информации, и предложил рекомендации по осторожному внедрению ИИ-технологий внутри корпораций.

«Высокий риск утечки данных при использовании нейросетей обусловлен самой природой этой технологии», — отметил Сергей Юдин. По его словам, в отличие от классического проприетарного софта, который просто обрабатывает данные без их сохранения, большие языковые модели буквально «поглощают» переданную информацию и используют ее для понимания контекста. «А в случае публичных сервисов еще и для дообучения», — подчеркнул эксперт.

Он привел типичную ситуацию: сотрудники загружают в нейросеть финансовые отчеты, персональные данные клиентов, тексты договоров или стратегические планы.

«По сути, в такие модели отправляют самые ценные активы компании. Проблема в том, что, попав в открытую ИИ-систему, эта информация практически не подлежит удалению. Она может быть сохранена в логах, использована в обучающих выборках или случайно раскрыта третьим лицам. В результате утечка становится необратимой», — предупредил Юдин.

Эксперт напомнил, что публичные ИИ-сервисы зачастую прямо указывают в своих условиях, что сохраняют историю диалогов. Даже при агрегации и анонимизации данных, по его словам, остается риск их реконструкции или несанкционированного доступа.

«Первый и ключевой шаг — это формирование внутренней политики использования ИИ», — заявил Сергей Юдин.

Он рекомендовал обучать сотрудников тому, какие данные допустимо передавать в нейросеть, а какие категорически запрещено. В качестве практического инструмента защиты он предложил использовать плейсхолдеры: «Вместо настоящих имен, сумм, банковских реквизитов или названий компаний применяются вымышленные. Это позволяет сохранить логику и структуру задачи и получить релевантный ответ от ИИ без риска разглашения конфиденциальной информации».

На уровне архитектуры наиболее надежным решением, по мнению Юдина, остается развертывание ИИ-систем внутри корпоративного периметра.

«Многие современные платформы уже идут по пути локальных моделей. В этом случае данные никогда не покидают организацию, а эффективность ИИ-процессов сочетается с полным контролем над информационной безопасностью», — заключил он.


Материал подготовлен Content AI




Нажимая на кнопку, вы даете согласие на обработку персональных данных и соглашаетесь с политикой конфиденциальности

Ваши контактные данные не публикуются на сайте.

Нажимая на кнопку, вы даете согласие на обработку персональных данных и соглашаетесь с политикой конфиденциальности

Популярное

Мы используем куки (cookies) с целью повышения удобства вашей работы с сайтом.

Продолжая работу с сайтом, вы соглашаетесь с нашей политикой конфиденциальности.