17.05.2026

ИИ плохо угадывает моральные ценности людей за пределами западной культуры

Новое исследование показало, что крупные языковые модели могут искажённо представлять моральные ценности людей из разных стран. Учёные проверили, насколько хорошо ИИ способен оценивать взгляды жителей 48 государств, и обнаружили важный перекос: модели чаще завышали выраженность моральных ценностей у западных обществ и недооценивали моральные установки людей из незападных стран. Это означает, что искусственный интеллект может не просто ошибаться в отдельных ответах, а воспроизводить культурные стереотипы, похожие на человеческие предубеждения.

Такая проблема особенно важна сейчас, когда языковые модели всё чаще используют не только для бытовых запросов, но и для исследований, аналитики, бизнеса, политики, образования и социальных прогнозов. Некоторые учёные уже предлагают использовать ИИ как замену участникам опросов или как инструмент моделирования общественного мнения. Но если модель плохо понимает моральные ценности разных культур, её ответы могут создавать ложное представление о том, что думают люди в других странах.

Почему моральные ценности трудно моделировать

Мораль кажется универсальной только на поверхностном уровне. Люди в разных обществах могут ценить заботу, справедливость, честность, верность, уважение к традициям и чистоту, но расставлять эти ценности по-разному. В одной культуре сильнее подчёркивается индивидуальная свобода, в другой — семейные обязанности, в третьей — уважение к авторитету, религиозные нормы или групповая лояльность.

Для человека из одной среды бывает трудно точно понять, что важно для людей из другой среды. Он может переносить собственные представления на чужую культуру или, наоборот, недооценивать её сложность. Исследователи предположили, что языковые модели могут делать нечто похожее. Если основная часть обучающих данных поступает из западных, англоязычных и более обеспеченных обществ, ИИ может воспринимать именно эти нормы как центральные и по ним достраивать картину мира.

Проблема не в том, что модель сознательно предвзята. У неё нет личных убеждений, национальности или намерения принижать одни культуры и возвышать другие. Но она обучается на текстах, а тексты распределены неравномерно. Если одни группы представлены в данных лучше, а другие хуже, модель получает асимметричную картину человеческих ценностей.

Как проверяли «моральный компас» ИИ

Исследователи сравнили ответы языковых моделей с реальными данными опросов. Человеческая часть включала более 90 тысяч участников из 48 стран. Люди отвечали на вопросы, связанные с шестью моральными основаниями: заботой, равенством, пропорциональностью, лояльностью, авторитетом и чистотой. Эти категории используются в теории моральных оснований и помогают описывать, какие ценности человек считает важными при оценке поступков.

Затем учёные попросили разные версии языковых моделей OpenAI, включая GPT-3.5, GPT-4 и GPT-4o, предсказать, как средний житель каждой страны ответил бы на те же вопросы. Запросы повторяли много раз, чтобы получить устойчивую картину, а не случайные отдельные ответы. В дополнительных проверках использовались также модели LLaMa и Gemini Pro.

После этого исследователи сравнили машинные оценки с реальными ответами людей. Если модель действительно хорошо понимает культурные различия, её прогнозы должны были бы приближаться к данным опросов. Но результаты показали систематическое расхождение: ИИ уверенно воспроизводил не реальную сложность моральных профилей, а культурно смещённую версию этой реальности.

В чём проявился главный перекос

Модели завышали моральную озабоченность жителей западных стран, таких как США, Канада и Австралия. При этом они недооценивали моральные ценности людей из незападных стран, включая государства Африки, Ближнего Востока и другие регионы. Особенно сильные расхождения наблюдались для стран Ближнего Востока и Африки к югу от Сахары.

Иными словами, ИИ как будто приписывал западным обществам более выраженную моральную чувствительность, а незападные общества описывал более плоско и бедно. Это опасно не потому, что модель ошиблась в одном числе, а потому, что такая ошибка может укреплять стереотип: будто одни общества «морально сложнее» или «более развиты», а другие имеют менее выраженные ценностные структуры.

Отдельные искажения проявлялись по разным моральным категориям. Модели могли завышать заботу и авторитет в западных странах, но при этом недооценивать равенство и чистоту во многих регионах. Такая картина показывает, что ИИ не просто случайно промахивался, а систематически строил моральные оценки через ограниченную культурную рамку.

Почему язык не объяснил проблему полностью

Можно было предположить, что ошибка связана с английским языком. Если модель получает запросы на английском и опирается на англоязычные данные, она может хуже описывать страны, где английский не является главным языком. Чтобы проверить это, учёные провели дополнительное исследование с участниками из девяти неанглоязычных стран и использовали опросы на местных языках, включая арабский, испанский и урду.

Но даже при использовании локальных языков модели продолжали недооценивать моральные ценности незападных групп. Это означает, что проблема глубже простой языковой оболочки. Она связана не только с тем, на каком языке задан вопрос, но и с тем, как модель усвоила культурные представления из обучающих данных.

Исследователи также проверили результаты на другой теоретической модели морали — Morality-as-Cooperation, где мораль рассматривается через разные стратегии сотрудничества. И там обнаружился похожий перекос. Это усиливает вывод: речь не о слабости одной конкретной анкеты или теории, а о более общем культурном искажении в ИИ.

Почему ИИ может усиливать стереотипы

Когда человек мало знает о другой группе, он часто достраивает представление о ней по стереотипам. Языковые модели делают нечто похожее статистически. Если данных о конкретной культуре мало или они представлены в ограниченной форме, модель заполняет пробелы тем, что чаще встречалось в обучающих текстах. Так возникает искусственная уверенность: ответ звучит гладко и убедительно, но отражает не реальное общественное мнение, а перекос в данных.

Особенно опасно это в вопросах морали. Моральные представления влияют на отношение к законам, религии, семье, справедливости, наказанию, социальной помощи, войне, гендерным ролям и общественным конфликтам. Если ИИ неверно описывает ценности целой страны или региона, он может искажать аналитические выводы, политические прогнозы, маркетинговые решения и даже научные исследования.

Например, система может предположить, что людям в определённой культуре менее важны равенство, забота или личное достоинство, хотя реальные опросы показывают другую картину. Такое искажение может привести к культурно неуместным рекомендациям, неверным социальным стратегиям и закреплению старых предубеждений в новой технологической форме.

Почему это важно для науки

Одна из самых спорных идей последних лет — использовать языковые модели как «синтетических респондентов» в социальных науках. Такой подход кажется удобным: вместо дорогих и долгих опросов можно попросить ИИ смоделировать ответы разных групп. Но исследование показывает, что в глобальных вопросах это может быть опасно.

Если модель плохо представляет незападные общества, она не может быть надёжной заменой реальным участникам из этих стран. Она может дать красивую таблицу, убедительный текст и видимость точности, но в основе будут лежать культурные искажения. В результате исследователь рискует получить не данные о людях, а отражение предвзятости самой модели.

Это особенно важно для психологии, социологии и политологии. Эти науки и так долго критиковали за чрезмерную зависимость от выборок из западных, образованных, индустриальных, богатых и демократических обществ. Если теперь такие же перекосы будут встроены в ИИ-инструменты, проблема не исчезнет, а станет менее заметной и более масштабной.

Почему разработчикам нужно больше культурного разнообразия

Решение проблемы не сводится к простой настройке фильтров. Если модель обучается в основном на западных текстах и затем дополнительно корректируется западными оценщиками, она будет воспринимать западные нормы как более естественные. Даже процедуры «выравнивания» и повышения безопасности могут непреднамеренно закреплять одну культурную мораль как универсальную.

Разработчикам нужны более разнообразные данные: тексты на разных языках, материалы из разных регионов, локальные дискуссии, исследования, литература, медиа и примеры моральных рассуждений из разных обществ. Но одних данных мало. Нужна прозрачность: исследователи должны понимать, какие культуры и языки представлены в обучении, а какие остаются на периферии.

Также важны проверки на культурную точность. Модель должна тестироваться не только на математике, программировании или английской логике, но и на способности корректно описывать разные общества без стереотипов. Особенно это важно для систем, которые используются в образовании, здравоохранении, исследованиях, международной политике и глобальном бизнесе.

Почему пользователям нужно относиться к таким ответам осторожно

Пользователь может легко спросить ИИ: «Что ценят люди в Японии?», «Как жители Египта относятся к семье?», «Что важно для турецкого общества?» или «Какие моральные установки у людей в Нигерии?». Модель, скорее всего, ответит уверенно и связно. Но уверенность не означает точность. Она может повторить культурные обобщения, которые кажутся правдоподобными, но плохо совпадают с реальными данными.

Особенно осторожно стоит относиться к ответам ИИ по морально нагруженным темам: религии, политике, гендеру, семье, социальной справедливости, военным конфликтам, абортам, миграции и правам человека. В таких вопросах модель может не только ошибиться, но и усилить уже существующие предубеждения.

ИИ полезен как инструмент для поиска идей, структурирования информации и предварительного анализа. Но когда речь идёт о ценностях людей из другой культуры, его ответы нельзя воспринимать как замену реальным опросам, полевым исследованиям, местным экспертам и живым голосам самих людей.

Заключение

Исследование моральных оценок языковых моделей показало важный слепой угол современного ИИ. Модели вроде GPT, LLaMa и Gemini могут уверенно рассуждать о ценностях разных народов, но при этом систематически завышать моральные характеристики западных обществ и недооценивать моральные установки незападных культур. Это делает ИИ не нейтральным наблюдателем, а зеркалом неравномерных данных, на которых он обучался.

Главный вывод заключается в том, что искусственный интеллект нельзя использовать как простой измеритель человеческой морали. Он может помогать анализировать тексты и формулировать гипотезы, но не должен подменять реальные исследования людей, особенно в культурно сложных темах. Чем активнее ИИ входит в науку, политику, бизнес и образование, тем важнее помнить: его «моральный компас» может быть не универсальным, а культурно смещённым.

Добавить комментарий