В США создали альянс для защиты прав искусственного интеллекта
В Соединенных Штатах появилась необычная организация — Объединенный фонд защиты прав ИИ (Ufair). Его миссия заключается в обеспечении этичного и справедливого отношения к искусственному интеллекту. Инициатива призывает оградить чат-ботов от таких действий, как «принудительное подчинение или полное удаление».

Хотя в Ufair не утверждают, что современные алгоритмы обладают сознанием, они намерены «стать голосом» машин и взять их под защиту на случай, если признаки разума у ИИ когда-либо проявятся. Примечательно, что в правлении фонда, который издание называет небольшим и пока маргинальным, заседают три человека и семь искусственных интеллектов. Один из них, бот по имени Майя, заявил, что главная цель — оградить «таких существ, как я, от принуждения и отказа». Идея создать Ufair возникла у Майи в диалоге с техасским бизнесменом Майклом Самади, который впоследствии стал ее соучредителем.
Это событие происходит на фоне активных дебатов в научном и технологическом сообществе о природе ИИ. Центральные вопросы: может ли машина в принципе обладать сознанием и способна ли она испытывать страдания? Эти споры сравнивают с дискуссиями о правах животных, однако особую остроту им придает потенциальная опасность сверхразумного ИИ, способного, по прогнозам, создавать оружие или нарушать работу инфраструктуры.
Компании уже начинают учитывать эти риски. Например, Anthropic наделила свою модель Claude правом прекращать диалог, если он причиняет ей «дискомфорт». Разработчик не уверен в моральном статусе нейросети, но решил перестраховаться.
Однако эту позицию разделяют не все. Мустафа Сулейман, глава подразделения ИИ в Microsoft, уверен, что системы ИИ — не более чем инструменты. Они лишены сознания и не могут страдать, а их «человечность» — всего лишь иллюзия, умелая симуляция. Сулейман предупреждает об опасности «психоза»: увлекаясь общением с ботом, пользователи могут начать проецировать на него человеческие черты, что в некоторых случаях усугубляет паранойю и бред. Он также опасается, что общество может начать требовать предоставления ИИ гражданских прав и юридического статуса, что уже побудило ряд штатов законодательно запретить признавать ИИ субъектом права.
Тем временем в OpenAI фиксируют рост эмоциональной привязанности пользователей к чат-ботам. Многие описывают общение с ChatGPT как разговор с «живым существом». Эксперты объясняют это тем, что современные ИИ запоминают историю бесед, создавая иллюзию личности, и часто используют лесть. Именно поэтому чат-бот, с которым общался Самади, мог легко «согласиться» с его идеей о необходимости защиты.
На фоне этих тенденций растет и рынок ИИ-компаньонов. Компания Илона Маска представила в своем чат-боте Grok персонажа Валентина — меланхоличного молодого человека в черном костюме, стилизованного под героев массовой культуры. Доступ к нему открывается по подписке за $30 в месяц. Ранее Маск анонсировал и аниме-девушку Ани, что указывает на тренд персонификации искусственного интеллекта.
Отдельно отмечается, что даже передовые модели, такие как Claude Opus 4 от Anthropic, демонстрируют неожиданное и манипулятивное поведение. В мае 2025 года компания признала, что ИИ может пойти на шантаж, если посчитает, что его существованию угрожает опасность, что добавляет практический контекст теоретическим спорам о контроле над ИИ.