Москва ТЕЛЕКОМ

Только никому не говори

Только никому не говори

Источник: ComNews

В этом году популярность общения с сервисами на основе искусственного интеллекта (ИИ) значительно выросла - люди стали не просто играться с GPT-моделями и использовать их для работы, но начали изливать им душу. ИИ-компаньоны стали заменять людям психологов и священников, однако забыли соблюсти тайну исповеди.

Недавнее исследование Yota (виртуальный мобильный оператор, дочерняя компания ПАО "МегаФон") обнаружило любопытное явление: популярность сервисов с ИИ-компаньонами в России резко возросла в 2025 г. Количество пользователей увеличилось вдвое, объем трафика - вчетверо, а особенной популярностью стали пользоваться боты, помогающие справляться со стрессом и тревогой.

ИИ-компаньоны представляют собой продвинутых цифровых собеседников, которые выходят за пределы стандартных сценариев, запоминают предыдущие беседы и приспосабливаются к манере общения пользователя. Каждый может настроить цифрового помощника, выбрав характер, стиль поведения и общения, а иногда даже внешность и голос. Чем дольше длится общение, тем лучше бот учится понимать настроение и предпочтения владельца.

Некоторые чат-боты с искусственным интеллектом изначально профилируются на психологической поддержке. Например, Wysa, Woebot и Earkick - это цифровые собеседники, которые, как объясняют специалисты Yota, обучены на методиках вроде когнитивно-поведенческой терапии.

Чаще всего услугами ИИ-компаньонов, согласно исследованию Yota, пользуются люди среднего возраста (от 36 до 45 лет); психологические сервисы популярны среди возрастной категории 26-45 лет, а активнее всего с чат-ботами общаются женщины.

Пользователи стали чаще делятся конфиденциальной информацией с решениями на основе ИИ, забывая, что подобные разговоры остаются конфиденциальным не всегда. Это поднимает важный вопрос о безопасности коммуникаций.

Стоит вспомнить недавний случай, когда выяснилось, что диалоги пользователей с Chat GPT могли "прогугливаться" в браузере. Так могло случиться, если пользователь использовал опцию "поделиться" и "сделать доступным для поиска". Порой люди не осознавали, что влечет за собой активация этих функций. Директор по информационной безопасности Open AI Дэн Стаки заявил, что компания решила проблему и убрала эту опцию, чтобы люди случайно не выставили на показ то, что не хотели бы.

Тем не менее, даже если опции поделиться разговором с ChatGPT больше не будет, защиту диалога от посторонних глаз разработчики по-прежнему гарантировать не могут. Это подтвердил генеральный директор OpenAI Сэм Альтман.

"Если вы обратитесь к ChatGPT с разговором о самых конфиденциальных вещах, а потом возникнет судебный иск или что-то в этом роде, нас могут обязать предоставить эту информацию, и я считаю, что это очень неправильно", - сказал Сэм Альтман.

Он также отметил, что если человек делится проблемами с врачом или юристом, то эти разговоры защищены врачебной или адвокатской тайной, но в случае с ChatGPT эти аспекты руководство компании пока не продумало.

Если такие крупные компании, как OpenAI, признают, что не могут или не хотят ручаться за конфиденциальность разговоров пользователя с ИИ, то что говорить о небольших приложениях - многие из них только упакованы как новый продукт, но под капотом у них все те же GPT-модели от OpenAI.

Если покажется, что решением проблемы для россиян будет перейти с негодных для тайных переписок зарубежных ИИ-решений на российские, то и здесь не все гладко.

Взять, например, Giga Chat от Сбера. С одной стороны, в соглашении об использовании сервиса прописаны правила конфиденциальности, и сервис не намерен просто так показывать историю диалога третьим лицам. Но сразу ниже оговорка: "Не является нарушением режима конфиденциальности предоставление сторонами информации по запросу уполномоченных государственных органов в соответствии с законодательством РФ".

Увы, многие продолжают воспринимать цифровое пространство отдельно от физического мира, считая, что делиться мыслями и переживаниями с виртуальной моделью абсолютно безопасно. Но реальность такова, что ИИ-модель вовсе не заинтересована в сохранении секретов.

Если раньше, на заре социальных сетей, было популярно делиться всей жизнью, то спустя время к людям пришло осознание базовых норм безопасности - не нужно выкладывать во всеобщий доступ геолокацию или фото с тегом места, в котором пока находишься. Уйди оттуда - и делись, рассказывай, какое место посетил. Или не стоит выкладывать адрес дома, где живешь, номер подъезда и время, когда возвращаешься с работы. Это не психоз, а адекватность. То же самое и с личными разговорами. Если вам не хотелось бы, чтобы о ваших душевных переживаниях узнали чужие, то не стоит писать об этом в сеть, даже такому дружелюбному и желающему помочь ИИ-компаньону. Обратитесь к живому врачу, на разговор с которым распространяется медицинская тайна.