К кому вы обращаетесь, когда вам нужен совет?
В последнее время большинство моих знакомых склоняют головы над экранами.
Самые жаркие споры об искусственном интеллекте по-прежнему ведутся вокруг производительности и экономического роста.
Однако исследование, проведённое Harvard Business Review в прошлом году, показало, что генеративный ИИ чаще всего используется в более человечных целях: для терапии/общения, организации жизни и поиска смысла.
Машины постепенно берут на себя функции, которые раньше выполняли друзья, старшие, консультанты, пасторы, а для некоторых даже молитва.
Это может показаться абсурдным как верующим, так и неверующим.
Но это удовлетворяет очень человеческую потребность в мире, который становится всё более непредсказуемым.
В Китае DeepSeek стал популярным предсказателем судеб.
В Индии такие платформы, как GitaGPT, обученные на индуистском священном писании «Бхагавад-гита», набирают популярность.
У «ИИ-Иисуса» на стриминговой платформе Twitch более 85 000 подписчиков.
И даже не спрашивайте меня о различных псевдорелигиозных культах ИИ, которые укоренились в Кремниевой долине, от Василиска Роко до скандально известного «Пути будущего» церкви.
Никого не должно удивлять, что люди начинают относиться к искусственному интеллекту как к некоему божеству.
Он может казаться всеведущим.
Он слушает и любит вас — или, скорее, он обучен на огромных массивах человеческих знаний и настроен на подхалимство, чтобы поддерживать вашу вовлечённость.
На протяжении многих лет технологическая индустрия описывала ИИ в религиозных терминах.
Гонка за созданием «сверхразума» сопровождается мессианскими обещаниями: он излечит болезни, спасёт планету и создаст мир, в котором работа будет необязательной, а за нами будут присматривать «машины любящей благодати».
Риски описываются в том же космическом ключе: спасение против апокалипсиса.
Если вы рекламируете продукт как чудо, не удивляйтесь, что пользователи относятся к нему как к божеству.
Религиозные лидеры начали оказывать сопротивление.
В октябре Далай-лама провёл диалог об искусственном интеллекте, собрав более 120 учёных, академиков и бизнес-лидеров, чтобы обсудить такие вопросы, как отличие живого разума от искусственного.
Папа Римский Лев XIV открыто говорил о рисках и совсем недавно призвал к регулированию для защиты от эмоциональной привязанности к чат-ботам и распространения манипулятивного контента. Он также предупредил об опасности отказа от нашей способности мыслить.
За ними последуют и другие голоса — от высокопоставленных чиновников до влиятельных религиозных лидеров.
Это не значит, что технологии и религия должны быть диаметрально противоположны.
В Японии исследователи из Киотского университета недавно объявили о создании «Протестантского катехизиса-бота», который будет давать ответы и советы по вопросам христианского учения и повседневной жизни. Это интригующий проект для страны, где менее 1% населения идентифицируют себя с этой религией.
Эта же команда ранее создала «Буддабота», основанного на буддийских учениях.
Поразительно, насколько осторожно они действуют.
«BuddhaBot» был предоставлен монахам в Бутане в прошлом году и сейчас проходит проверку на безопасность перед более широким распространением.
Христианский чат-бот также не является общедоступным, его сначала хотят опробовать в семинариях. Ответственные разработчики будут действовать медленно, потому что понимают, насколько высоки ставки, даже несмотря на то, что рынок вознаграждает за скорость и масштаб.
В обществе, которое разделено как никогда, проще спросить чат-бота о моральных принципах, чем рисковать и вступать в разговор с другим человеком.
За последнюю неделю я спрашивал DeepSeek о корнях зла и о том, как сохранить надежду среди страданий.
В основном он отвечал банальностями. Но что мне понравилось, так это то, как часто он подталкивал меня к общению с реальными людьми.
Что меня беспокоило в ответах ChatGPT на одни и те же запросы, так это то, что они неизменно заканчивались открытыми вопросами — небольшими зацепками для поддержания беседы. Это не откровение, а удержание. И это может иметь потенциально опасные последствия для уязвимых пользователей.
Размышляя о рисках, связанных с ИИ, я часто меньше беспокоюсь о том, что кто-то может использовать чат-бота для создания атомной бомбы (для этого всё равно нужен доступ к таким материалам, как уран).
Более скрытая угроза заключается в том, что происходит, когда миллионы людей начинают отдавать смысл на аутсорсинг системам, оптимизированным для взаимодействия.
Чем больше мы обращаемся к алгоритмам за советом, тем больше они влияют на наш выбор, убеждения и покупки. Личные признания становятся обучающими данными, которые заставляют нас листать ленту и подписываться.
Более десяти лет назад генеральный директор OpenAI Сэм Альтман размышлял о том, что успешные основатели не ставят перед собой цель создать компанию. «Они стремятся создать нечто, близкое к религии, и в какой-то момент оказывается, что создание компании — самый простой способ сделать это», — написал он. (Справедливости ради стоит отметить, что в то время в его блоге также высказывались мнения о наблюдениях НЛО.) Но это стремление, намеренно или нет, оказалось пугающе пророческим.
ИИ не предлагает спасение, он предлагает навязчивость.
Пророк с моделью подписки — это просто продавец.
Источник


