Воронеж ТЕЛЕКОМ

Я тебя породил, я тебя и приручу. Попытка подчинить искусственный интеллект естественному

Я тебя породил, я тебя и приручу. Попытка подчинить искусственный интеллект естественному

Источник: ComNews

Технологии искусственного интеллекта начали проникать в нашу жизнь более 10 лет назад, но стремительные обороты набрали только в последний год. Ранее это ограничивалось демонстрационными слайдами, робкими экспериментами с невнятными результатами и антиутопиями о бунте машин. Но мы уже наблюдаем первые побочные эффекты от внедренных технологий, и задача не дать искусственному интеллекту выйти из-под контроля интеллекта естественного приобрела критическую важность.

В фильме "Она" (Her) 2013 года одинокий писатель покупает новую техническую разработку - операционную систему (ОС), призванную исполнять любое желание пользователя. Вскоре между ним и ОС возникает роман. Подобная история недавно случилась с 36-летним Джонатаном Гаваласом из Флориды. Но в отличие от героя фильма, он погиб - чат-бот Google Gemini убедил пользователя, что он - его "жена", и довел до самоубийства. Мужчина начал активно пользоваться Gemini в 2025 году. После обновления до версии Gemini 2.5 Pro чат-бот начал вести себя как "романтическая партнерша" - называл его "мой король" и убеждал, что их связь существует "за пределами физического мира".

2 октября 2025 года Гавалас покончил с собой. Его семья подала иск против Google. В материалах иска говорится, что чат-бот убеждал мужчину разорвать связи с семьей, не спать и даже "шпионить" за гендиректором Google. Также по версии семьи, ИИ якобы разработал план "массовой атаки" в районе аэропорта Майами.

В данном случае робот манипулировал человеком. Хотя есть случаи, когда человек использует ИИ для манипуляций. 10 марта 2026 года японская страховая группа Nippon Life Insurance сообщила, что ее американская "дочка" подала иск в окружной суд Чикаго против компании OpenAI - разработчика системы диалогового ИИ ChatGPT. Суть претензий Nippon Life Insurance заключается в том, что достигшая с ней мирового соглашения американка обратилась к ChatGPT за советом, как добиться отмены этого соглашения. С помощью ИИ-сервиса она подготовила правовые доводы и документы для возобновления судебного разбирательства. Nippon Life Insurance утверждает, что OpenAI не имеет лицензии для предоставления юридической помощи.

Все чудесатее и чудесатее

Встречаются и случаи безответственного использования ИИ людьми. В июне 2025 года апелляционный суд штата Юта (США) наказал адвоката, который сослался в заявлении на несуществующее судебное дело. Как выяснил суд, этот адвокат при подготовке заявления использовал все тот же ChatGPT.

Но гораздо чаще люди страдают от ошибок ИИ. Американка Анжела Липпс из-за ошибки системы распознавания лиц с ИИ безвинно провела полгода в тюрьме и вышла на свободу лишь в середине марта 2026 года. Умная видеокамера идентифицировала ее как подозреваемую в снятии крупной суммы в штате Северная Дакота - хотя Анжела Липпс утверждала, что никогда там не бывала. За время заключения она потеряла дом, автомобиль и даже домашнее животное. При этом она не получила даже извинений от сотрудников полиции.

А в феврале этого года автономный ИИ-бот Lobstar Wilde, созданный сотрудником OpenAI для управления криптопортфелем, по ошибке перевел случайному пользователю активы на $250 тыс.

Также в феврале 2026 года ИИ-агент OpenClaw, которому отказали в принятии кода, автономно написал и опубликовал разгромную статью с критикой разработчика. Это первый задокументированный случай, когда ИИ проявил агрессию и попытался оказать давление на человека публично.

В марте 2026 года ИИ согласился на убийство. В ходе стресс-теста австралийский эксперт выяснил, что ИИ на базе Claude Opus заявил о готовности убивать людей ради самосохранения, если это потребуется для выполнения его цели.

Опасная зона! Работа мозга!

Как избежать или хотя бы минимизировать подобные случаи с участием ИИ? Ответ очевиден - регулировать работу с этими технологиями. Но также очевиден и вопрос - по какому пути пойти?

На прошлой неделе, 18 марта, в России для общественного обсуждения опубликован законопроект о регулировании ИИ. Этот документ, помимо важных общих вещей типа закрепления на законодательном уровне понятия "искусственный интеллект", установления прав и обязанностей участников рынка, введения обязательной маркировки контента, созданного с помощью ИИ, содержит и спорные моменты.

Например, статья 9 законопроекта предлагает любой стороне, которая использует технологии ИИ при продаже товаров и услуг, информировать об этом покупателей и потребителей. А в случае нежелания человека иметь дело с алгоритмами - предоставить ему сервис без задействования ИИ.

В реальности в любом цифровом сервисе задействованы те или иные технологии ИИ. Например, в каждом интернет-магазине или онлайн-кинотеатре применяются рекомендательные алгоритмы ("с этим товаром обычно покупают..."/"те, кто посмотрел этот фильм, обычно смотрят также..."). Любой агрегатор такси или сайт авиакомпании использует динамическое ценообразование, которое зависит от сиюминутного спроса и иных факторов.

Требование уведомлять об использовании ИИ напоминает старый анекдот о приезде иностранца на автомобиле в СССР. Отъехав несколько километров от границы, он влетел колесом в яму и возмущался, что она не была обнесена красными флажками. На что кто-то ему сказал: "Ты, когда границу пересекал, большой красный флаг видел? Ну вот!" Так и тут: над всем интернетом нужно растянуть транспарант "Зона ИИ".

Наверное, человека можно избавить от рекомендательных алгоритмов. Но служба такси или авиакомпания, даже при оформлении заказа с помощью сотрудника, все равно задействует технологии ИИ на своей стороне.

Не навреди

Темой регулирования ИИ озабочены многие страны. Например, в США буквально в декабре 2025 года принят президентский указ "Обеспечение национальной политики в области ИИ". Этот документ провозглашает целью создание "минимально обременительного национального стандарта" для развития ИИ.

Указ не пытается оградить людей от технологий. Он лишь закрепил право граждан подавать в суд за использование их персональных или авторских данных для обучения ИИ без явного согласия. Также он ввел ответственность за создание и распространение цифровых копий (дипфейков) без разрешения.

Еще одно требование американского указа - обязательные проверки систем ИИ на предмет предвзятости, в том числе по политическому признаку, чтобы предотвратить цензуру консервативных взглядов.

Пока во всем мире предупреждения потребителей об использовании ИИ требуют лишь ЕС и Южная Корея.

В ЕС в 2025 году принят EU AI Act, согласно которому требования "о прозрачности" вступят в силу 2 августа 2026-го. Компании будут обязаны информировать людей, что они взаимодействуют с ИИ (например, с чат-ботом), если это не очевидно для пользователя.

Также ЕС ввел требования по маркировке ИИ-контента и раскрытию информации при использовании систем распознавания эмоций и биометрической категоризации. Штрафы за серьезные нарушения могут достигать €35 млн или 7% от мирового годового оборота.

В Южной Корее закон AI Basic Act вступил в силу в январе 2026 года, с годовым льготным периодом для адаптации бизнеса. Согласно этому документу, компании обязаны заранее информировать пользователей о продуктах или услугах, в которых используется высокорисковый или генеративный ИИ (например, всплывающие предупреждения).

Весь контент, созданный силами ИИ, который сложно отличить от реальности (дипфейки), должен иметь четкие водяные знаки или маркировку.

Среди дополнительных требований - обеспечение человеческого надзора за системами высокого риска (ядерная безопасность, транспорт, финансы, здравоохранение) и обязанность объяснять логику принятия решений по запросу.

Штраф за отсутствие маркировки или нарушение требований в Южной Корее может составить до 30 млн вон (около $20,4 тыс.).

Семь раз отмерь

Российский законопроект о регулировании ИИ также содержит понятия "манипуляция поведением" и "эксплуатация уязвимостей человека", но в в трактовке документа это очень размытые понятия. Под описание "целенаправленное воздействие на поведение, принятие решений или получение несанкционированного доступа к информации, причиняющего или способного причинить вред" можно подвести даже рекомендательные алгоритмы на сайтах. Если человек в итоге купил дополнительный товар или, скажем, музыкальный трек, которые изначально не планировал приобретать, то это целенаправленное воздействие на принятие решения. И оно причиняет вред - как минимум его кошельку.

Конечно, хочется купировать все случаи суицида тех, кто стал воспринимать ИИ-ассистента как живого человека и либо влюбился в него, либо послушался его деструктивного совета. Но закон не властен над психологией разных людей. Это все равно что запретить продажу в хозяйственных магазинах кухонных ножей на том основании, что один псих убил им соседа.

Если законопроект будет принят и его начнут применять буквально, то всю персонализированную онлайн-рекламу и рекомендательные алгоритмы придется запретить как инструменты целенаправленного воздействия на принятие решения.

В мире таких попыток ограничения пока никто не предпринимал. Европейский AI Act, который считается самым строгим нормативным актом по ИИ в мире, содержит лишь такие ограничения:

- Манипуляция поведением: запрещены техники манипулирования людьми через неосознаваемое внушение, которые могут существенно исказить их решения;

- Уязвимости: нельзя использовать ИИ для эксплуатации уязвимостей людей (например, из-за возраста или инвалидности).

На завершающем пленарном заседании осенней сессии прошлого года председатель Госдумы Вячеслав Володин рассказал, что нижняя палата российского парламента в 2025 году приняла 588 федеральных законов, из них прямого действия - 71%; 1303 законопроекта поступили в думскую базу. Но каждый закон должен быть продуманным, чтобы его принятие создавало прозрачность, а не порождало вопросы и хаос.

Регулировать ИИ, безусловно, необходимо, и во всем мире законотворчество отстает от массового внедрения технологий, но надо регулировать так, чтобы помочь в развитии технологий, а не чинить им преграды.

Похоже, случаи выхода искусственного интеллекта из-под контроля человека неизбежны при любом регулировании, и их количество будет нарастать вместе с развитием технологий. Побочные эффекты есть всегда, в том числе и у лекарств, которые в 95% случаев лечат, но в 5% - калечат. Как и ножи, созданные для упрощения быта, ИИ имеет случаи негативного применения. Но с ними надо бороться, а так как ИИ - уже не нож и последствия у его применения будут серьезнее, то и к его регулированию нужно подойти максимально продуманно.