Москва ТЕЛЕКОМ

ИИ под вопросом. Какие данные ему доверять нельзя

ИИ под вопросом. Какие данные ему доверять нельзя

Источник: ComNews

13 октября на портале госуслуг Московской области появилась новая страница, посвященная безопасному использованию искусственного интеллекта (ИИ). Этот раздел стал частью категории "Цифровая безопасность. Доступно о важном", как сообщило министерство государственного управления, информационных технологий и связи Московской области (Мингосуправления).

Создание страницы стало результатом сотрудничества с Министерством цифрового развития, связи и массовых коммуникаций РФ (Минцифры). На ней содержатся подробные рекомендации по безопасному взаимодействию с ИИ, которые помогут пользователям освоить навыки использования онлайн-сервисов. Также рекомендации разъясняют, какую информацию можно передавать ИИ, а от какой лучше воздержаться.

Директор направления "Искусственный интеллект" АНО "Цифровая экономика" Евгений Осадчук считает, что в раздел о том, что лучше не сообщать искусственному интеллекту, можно было бы добавить такие идентифицирующие людей сведения, как биометрические данные, например отпечатки пальцев, изображения лица для идентификации, голосовые образцы, данные сканирования сетчатки и другие биологические идентификаторы. "Также можно было бы дать предупреждение о том, что не стоит передавать ИИ интеллектуальную собственность, например, патентные заявки до подачи, незапатентованные изобретения, алгоритмы собственной разработки, стратегические планы развития вашего бизнеса. Все это может стать достоянием общественности, а, значит, кто-то может опередить вас, используя ваши наработки как свои. Не стоит показывать ИИ схемы безопасности, уязвимости систем, детали архитектуры критически важных объектов", - отметил Евгений Осадчук.

Проджект менеджер ООО "МД Аудит" (MD Audit - ГК Softline) Кирилл Левкин говорит о том, что многие пользователи не осознают, что любая информация, введенная в чат-бот, может быть сохранена и использована для обучения моделей: "Поэтому напоминание о недопустимости передачи персональных, финансовых и конфиденциальных данных - это важный шаг к повышению цифровой грамотности. Особенно ценно, что документ делает акцент не на запретах, а на осознанном поведении: что можно обсуждать, а что - нет".

Старший разработчик систем искусственного интеллекта ООО "Инностейдж" (Innostage) Александр Лебедев говорит о том, что нужно общаться с общедоступным ИИ, типа ChatGPT, DeepSeek, Gigachat или Yandex GPT так, как будто все-что человек пишет в чате, отображается на его страничке в интернете: "Потому что компании, владеющие этими моделями и чатами активно используют ваши переписки для обучения модели и аналитики. А в скором времени, наверняка будут использовать и для рекламы. Так что о конфиденциальности там речи и не идет. Пишите в ИИ только то, что готовы написать на страничке в интернете".

https://www.comnews.ru/content/241727/2025-10-13/2025-w42/1002/nuzhen-li-rossiyaninu-edinyy-nacionalnyy-ii-agent

Руководитель направления отдела анализа и оценки цифровых угроз ООО "Инфосекьюрити" (Infosecurity - ГК Softline) Максим Грязев согласился с тем, что ИИ никогда и ни при каких обстоятельствах нельзя сообщать конфиденциальную информацию, которая может быть использована против пользователя – это паспорт, ИНН, водительские права, данные банковских карт, пароли от приложений, контакты и др. "При регистрации и взаимодействии с нейросетями лучше использовать вымышленные данные. Например, в чатах стоит указывать случайное имя, адрес или другие данные вместо реальных сведений", - порекомендовал Максим Грязев.

Руководитель исследовательского центра UDV Group Юрий Чернышов оценивает позитивно любое действие по повышению грамотности организаций и населения в области информационной безопасности, поэтому считает рекомендации от Мингосуправления Подмосковья и Минцифры нужными и правильными: "Особенно для инновационных технологий, к которым многие оказались не готовы с точки зрения безопасного поведения. Правила "медицинской" гигиены вырабатывались годами и десятилетиями, но на формирование цифровой гигиены у нас такого времени нет, слишком быстро появляются новые непонятные населению технологии и слишком масштабные последствия нарушения элементарных правил самозащиты в цифровом мире. Последствия ошибок часто относятся не к одному человеку, а затрагивают большие коллективы, а материальный ущерб может многократно превышать посильный для человека уровень, поскольку опять же срабатывает "технологический рычаг", позволяющий злоумышленникам выманивать значительные суммы. У людей медленно формируются защитные паттерны безопасного поведения, поэтому любая просветительская деятельность в любой форме очень важна".

Директор департамента цифровых решений ООО "Ланит-Терком" (входит в группу компаний "Ланит") Марат Немешев считает, что рекомендации Мингосуправления Подмосковья и Минцифры абсолютно оправданы и своевременны: "Многие онлайн-сервисы при регистрации просят заполнить подробную информацию о себе в обмен на скидку или бонусные баллы, хотя практика показывает, что часто такие сервисы подвергаются внешним атакам, и данные уходят в сеть – почему-то об этом при регистрации стараются не говорить. Мы видим обратный положительный пример – пользователи должны быть осведомлены о рисках взаимодействия с абстрактным ИИ. Это не строгий запрет, а разумная рекомендация".

https://www.comnews.ru/content/241726/2025-10-13/2025-w42/1007/bank-rossii-obsudit-sozdanie-ii-pomoschnikov-dlya-slozhnykh-finansovykh-produktov

Основатель ИИ-платформы "Артифика" Алексей Нечаев отметил, что хотя многие разработчики заявляют, что персональные данные исключаются из публичных датасетов, на практике в закрытых базах и логах такие сведения нередко хранятся в исходном виде: "Более того, сформированные датасеты могут передаваться или продаваться другим организациям, в том числе за рубеж, что означает возможное перемещение персональной информации между компаниями и странами без контроля за ее конфиденциальностью".

Начальник ИТ-отдела ООО "Газинформсервис" Сергей Коловангин рассуждает: "Что касается предоставления информации ИИ, то вопрос может остаться и без ответа и превратиться в дискуссию - а почему мы не можем доверять ИИ свои и чужие данные? А что, если эта информация просто утонет и растворится в том массиве информации, который обрабатывается текущими GPT-моделями и ни один злоумышленник ее там не найдет? И все же, рекомендацию можно дать - не стоит, вероятно, отправлять в ИИ биометрию, геномную информацию, любые сведения, которые могут помочь сгенерировать ваш поведенческий профиль, а также информацию, принадлежащую третьим лицам, например, коммерческую тайну и чужую интеллектуальную собственность".

Заместитель генерального директора по науке АО "СиСофт Девелопмент" (входит в ГК "СиСофт") Михаил Бочаров заметил, что есть принципиальное отличие: "Банковские и государственные ИИ-сервисы работают в защищенном контуре, где уровень ответственности и меры безопасности существенно выше. Банки особенно тщательно относятся к защите информации, ведь речь идет не только о данных клиентов, но и об их репутации и доверии к бренду".

Директор департамента "Страхование" ООО "Рексофт" Никита Евсееенко напомнил, что Банк России разработал Кодекс этики в сфере применения ИИ на финансовом рынке, который носит рекомендательный характер и закладывает принципы мягкого регулирования: "Согласно принципу человекоцентричности, организациям не следует принимать окончательные решения с помощью ИИ без возможности их пересмотра человеком — клиентам должна быть предоставлена возможность отказаться от взаимодействия с ИИ и переключиться на сотрудника организации, а также обеспечить пересмотр решений, принятых с применением ИИ. Принцип прозрачности предусматривает обязательную маркировку контента, созданного с применением больших генеративных моделей, и информирование клиентов о применении ИИ, если это неочевидно из обстоятельств. Кодекс также содержит рекомендации об обеспечении непрерывности деятельности: значимые функции, осуществляемые с применением ИИ, должны выполняться сотрудниками организации в случае временной невозможности применения ИИ. Эти принципы отражают понимание регулятора, что ИИ должен оставаться инструментом, освобождающим специалистов от рутины для решения сложных задач, требующих экспертизы и эмпатии".

https://www.comnews.ru/content/240125/2025-07-11/2025-w28/1008/iskusstvennyy-intellekt-obrel-kodeks-etiki-finansovom-rynke

Директор департамента голосовых цифровых технологий компании ООО "БСС" (BSS) Александр Крушинский подчеркнул, что банковские и государственные ассистенты - это не публичные чаты: "Они работают в правовом режиме 152-ФЗ и в защищенных информационных системах персональных данных (ИСПДн); для банков - еще и в рамках ГОСТ Р 57580 (модель уровней защиты и меры кибербезопасности). Такие боты имеют доступ к вашим данным на законном основании (согласие/договор), но обязаны обрабатывать их внутри контура с требуемым уровнем защиты и журналированием. Пример: на "Госуслугах" цифровой ассистент Макс помогает по вопросам персональных данных, но действует в рамках политики портала. Риски появляются, если организация выводит диалог в облачные LLM без анонимизации/деперсонализации или использует потребительские версии ИИ-сервисов, где включено обучение на переписке".

Технический директор ООО "Осми-Ит" (Osmi IT) Денис Нечаев говорит о том, что если вспомнить про помощника Макса с "Госуслуг", который знает, казалось бы, о гражданах все, — то он берет информацию из своей базы, люди ничего не предоставляют туда, следовательно, это безопасно: "И если мы разворачиваем модели машинного обучения у себя в контуре и обеспечиваем полностью работу в рамках серверов, то подобной информацией не смогут воспользоваться злоумышленники. Но если мы используем внешние сервисы, модели следует применять без передачи в них чувствительных данных. Для чат-ботов и ИИ-решений такую информацию необходимо заранее обезличивать".

Молчание - золото

Эксперт центра ИИ АО "ПФ "СКБ Контур" Дмитрий Иванов сказал: "Подумайте о том, какую информацию вы бы не стали сообщать незнакомому для вас человеку. Или, например, применительно к интернету, представьте, что вы общаетесь на открытом форуме - думаю, вы не станете писать туда ничего личного, связанного с вашими финансами или конфиденциального".

Заместитель технического директора ГК "Цифровые привычки" Сергей Генералов считает, что гражданам нужно различать ИИ, заточенный на использование в финтехе, где алгоритмы, которые включают ИИ-агентов, заточены на работу с такими данными, и публичные ИИ общего пользования, которые предназначены для общения на различные темы. "Передавая конфиденциальную информацию в банк через ИИ-чат-ассистента, можно считать, что банк и так знает о вас всю такую информацию. Но вот в публичном поле это крайне не рекомендуется", - сказал Сергей Генералов.

Аналитик информационной безопасности ООО "СкайДНС" (SkyDNS) Ярослав Яцкевич считает, что не стоит ИИ разглашать любую информацию, которая позволяет однозначно идентифицировать вас или третьих лиц:

- Персональные данные (свои или чужие).
- Платежные сведения.
- Служебные или внутренние документы.
- Пароли, ключи API, данные корпоративных систем.

Директор ИТ-департамента ООО "Дисилоджик" (DCLogic) Михаил Копнин порекомендовал пользователям крайне осторожно относиться к передаче личных данных: "Любая информация, отправляемая в сеть, потенциально становится доступной неограниченному кругу лиц. Если ею завладеют злоумышленники, они смогут использовать эти сведения для целевых атак с применением методов социальной инженерии. Поэтому важно усиливать просвещение граждан в вопросах цифровой гигиены".

https://www.comnews.ru/content/241695/2025-10-10/2025-w41/1008/bolshinstvo-klientov-bankov-ne-gotovy-doverit-iskusstvennomu-intellektu-ni-odnu-operaciyu