Эксперт рассказал, какие данные нельзя загружать в нейросети

Алгоритмы способны анализировать миллионы записей одновременно, выявлять скрытые закономерности и строить прогнозы, недоступные человеку. При этом ИИ сопоставляет информацию из множества источников: от медицинских и финансовых данных до поведенческих факторов и биометрии.
— Это дает огромные возможности, но и несет значительные риски, — отмечает Андрей Гаев. — Например, в медицине ИИ помогает врачам интерпретировать анализы и снимки, выявлять ранние признаки заболеваний. Но для этого требуются массивы данных пациентов, чувствительная медицинская информация, нуждающаяся в особой защите.
Эксперт подчеркивает, что Закон «О защите персональных данных» распространяется на любую обработку с использованием автоматизированных средств, независимо от того, выполняет ее человек или алгоритм:
— Это означает, что все требования закона — законность, соразмерность, наличие правового основания и другие — должны соблюдаться и при использовании искусственного интеллекта. Защита данных должна обеспечиваться на всех этапах жизненного цикла ИИ, включая проектирование и обучение модели.
На практике пользователи часто без раздумий передают нейросетям личные и корпоративные документы — отчеты, таблицы, переписку и внутренние файлы — ради быстрого получения решения. Это может привести к серьезным последствиям: несанкционированному распространению персональных данных, утечке служебной и конфиденциальной информации, включая коммерческую тайну.
— В связи с этим важно сместить акцент: критична не категория данных — все персональные данные подлежат одинаковой защите, а наличие у организации правового основания для их загрузки в ИИ, — подчеркивает Андрей Гаев. — Закон допускает обработку обезличенных данных без согласия субъектов персональных данных для научных и исследовательских целей. Во всех других случаях подобные действия будут считаться нарушением закона.












































