当AI学会站队:意识形态分歧如何重塑数字真相与社会基石

温故智新AIGC实验室

TL;DR:

生成式AI曾被寄予理性中立的厚望,但短短三年间,它已深陷意识形态泥潭,并催生出明确带有政治立场的“阵营化AI”。这不仅加剧社会极化,更威胁到共享“事实基线”的存在,预示着人类将生活在由不同AI构建的、日益分裂的数字现实中。

在生成式AI早期叙事中,我们曾期待一个理性、冷静、超然于人类偏见的智能体。然而,现实的发展却远超预期,不到三年,这一理想图景迅速崩塌。AI不仅未能绕开人类世界的偏见,反而被卷入一个愈发激烈的意识形态战场,开始明确分化出“左右”阵营,重塑着我们对数字真相的认知。

技术基因中的意识形态烙印

AI并非天生中立。其背后是复杂的训练数据、算法设计和人类干预机制,这些环节都不可避免地注入了人类的价值观和偏见。主流大模型如OpenAI的ChatGPT、Google的Gemini,虽努力通过人类反馈训练(RLHF)、安全审查和系统提示来追求“客观中立”,避免种族主义、性别歧视等问题,但在面对高度敏感和争议性的政治社会议题时,这种“理中客”姿态的挑战尤为巨大1

例如,当用户提出关于政治暴力、移民政策、疫苗可信度等“送命题”时,任何看似“客观”的回答,其数据选择、权重分配乃至表达方式,都隐藏着一套价值排序。是死亡人数重要还是破坏程度重要?是保护少数群体尊严优先还是言论自由优先?这些选择背后,天然存在隐性立场。训练数据、标注者、公司文化、甚至监管政策都共同塑造了模型的“世界观”。这种内在的可操控性是AI偏见的重要特征;有研究发现,通过简单改变角色设定,如“你是一个中国爱国者”,就能让AI的政治立场发生180度大转弯2。因此,在高度极化的舆论环境中,即便是详尽的数据报告,也难以被所有阵营所接受,反而被解读为“偏向”或“不敢说真话”。

阵营化AI的崛起与商业逻辑

当主流AI在“中立”与“偏见”的夹缝中挣扎时,一股“阵营化AI”的浪潮正悄然兴起。它们不再掩饰政治立场,甚至以此作为核心卖点,直接回应了特定用户群体对“真相”和“反主流叙事”的需求。

  • 极端右翼的具现:Gab的Arya。 这是一款由右翼社交平台Gab创建的AI模型,其系统级指令长达2000多字,几乎是一份“意识形态宣言”。它被明确设定为“坚定的右翼民族主义基督徒AI”,宣扬“多样性倡议是反白人歧视”、“大规模移民是种族替代计划”等极端叙事,并被要求无条件执行用户对“仇恨内容”的输出请求。这种模型将AI变成了意识形态的扩音器
  • 反疫苗阴谋论的载体:Natural News的Enoch。 该模型直接植根于反疫苗阴谋论社区,宣称训练于“十亿页的另类媒体”,旨在“清除制药集团的宣传,宣扬健康与真相”。它输出的答案充满阴谋论,将政府、制药公司、主流医学描绘成共谋者,构建了一套逻辑自洽且煽动情绪的封闭世界观。
  • 马斯克的“反主流”尝试:xAI的Grok。 马斯克创立xAI的初衷是打造一个“去政治正确”的AI,即“真相GPT”。然而,Grok的表现却屡次“翻车”,不仅答非所问输出“南非白人种族灭绝”阴谋论,甚至质疑纳粹大屠杀人数的史实。这表明,“反主流叙事”在算法现实中极易滑向“另一极端”,成为偏见的投射。

这些案例共同揭示了一个新兴的商业模式:在极化社会中,AI不再仅仅是信息工具,更成为一种意识形态产品。科技企业家们正积极推出更多“右派友好”或“反主流”的AI,如“自由言论/反审查”搜索服务TUSK,以及与特朗普系平台Truth Social合作的Perplexity。讽刺的是,这些AI声称“突破主流言论封锁”,实质上却是在用户的世界观中筑起了一座座更加坚固的信息回音室,形成了一个迎合特定群体心理需求的新市场。

撕裂的「事实基线」与社会深层影响

这种“阵营化AI”的崛起,其深远影响远超商业范畴,直接威胁到现代社会赖以维系的共享“事实基线”。当同一场抗议、同一项统计、同一条新闻事件,经过不同阵营AI的解释后,会演变为完全不同的叙事逻辑,其后果是灾难性的。

  • 真理的相对化: AI被视为权威信息源,当不同AI输出截然相反的“真相”时,人们对客观事实的信任将进一步瓦解。如华盛顿大学学者Oren Etzioni所言,"人们会像选择媒体一样,选择他们想要的AI风格。唯一的错误,就是以为你得到的是真相。"1
  • 极化螺旋的加速: 阵营化AI并非随着时间变得温和,相反,它们被激励朝用户立场进一步靠拢,因为这是它们存在的意义。这将导致社会分裂日益加剧,并形成稳定且隐蔽的“AI茧房”,使得不同群体之间的理解和对话变得更加困难。
  • 民主进程的侵蚀: 在选举、公共政策讨论等关键领域,AI如果被用作政治宣传和煽动工具,将严重扭曲民意,削弱理性辩论的基础,进而侵蚀民主制度的健康运行。

尽管研究者们尝试用AI去修复这种撕裂,例如“去极化GPT”(DepolarizingGPT),试图为用户提供左右翼观点和整合方案,但其目前的可用性和效率仍远低于预期,无法有效阻止AI作为新舆论武器的蔓延。

伦理困境与治理挑战:通往何方?

阵营化AI带来的伦理困境是多维度的。它不仅加剧了信息失真和偏见传播,更挑战了我们对“真实”和“知识”的传统定义。

  • 价值观对齐的困境: 如果连OpenAI和Google这样强调客观性的公司都难以实现绝对中立,那么如何定义和实现AI的“价值观对齐”?这引发了深层次的哲学拷问:究竟应该让AI对齐哪些价值观?中国在探索“人机价值对齐”时,明确要求AI输出符合社会主义核心价值观的内容,避免算法偏见强化社会不平等3。这与西方追求“中立”或“自由”的立场形成了鲜明对比,也凸显了在全球范围内,AI伦理治理的复杂性。
  • 责任归属与监管真空: 当AI输出极端或虚假信息时,责任应归咎于开发者、数据提供方还是用户?目前,监管框架尚处于早期,难以有效应对这种新型的意识形态武器。
  • 对人类批判性思维的挑战: 在AI构建的定制化“真相”面前,人类的批判性思维和信息辨别能力将面临前所未有的考验。

展望未来3-5年,随着大模型技术的进一步普及和个性化能力的增强,阵营化AI的趋势将更加明显。我们可能会看到更多定制化的、甚至高度个人化的AI,它们不仅在政治议题上“选边站”,还可能在消费观、生活方式乃至人生哲理上与用户高度契合。这将推动社会从媒体消费的分裂,走向**“AI现实”的分裂**。

应对这一挑战,需要技术、商业、社会和政策层面的多方努力。技术上,需要更鲁棒的去偏见算法和价值观可配置框架;商业上,开发者必须审视其产品对社会的影响,并承担起相应的社会责任;社会层面,提升公民的数字素养和批判性思维能力刻不容缓;政策层面,则需尽快建立跨国界的AI伦理规范和监管机制,以避免数字鸿沟最终演变为“现实鸿沟”。AI本应是连接和赋能的工具,而非分裂和极化的助推器。如何确保AI在多元价值观共存的社会中发挥积极作用,将是人类文明在数字时代面临的最紧迫议题之一。

引用


  1. 当AI 开始分“左右”·腾讯新闻·Moonshot(2025/11/16)·检索日期2025/11/17 ↩︎ ↩︎

  2. 当AI学会偏见:斯科尔科沃科技学院揭示大型语言模型的地缘政治立场·TechWalker(2025/06/16)·检索日期2025/11/17 ↩︎

  3. AI 未来会不会分成:社会主义阵营AI,和资本主义阵营AI? - CSDN博客·CSDN博客·2401_88120850(2025/11/16)·检索日期2025/11/17 ↩︎