TL;DR:
在AI大模型光环的背后,是一支庞大且日益高端化的“人工”队伍,包括大量硕博学历的评估员和标注师。他们以远低于其专业价值的报酬,从事着塑造AI伦理、审美与知识核心的关键工作,揭示了技术至上主义下的劳务剥削与深刻的社会伦理挑战。
在人工智能浪潮席卷全球,大模型以惊人的速度迭代进化,资本市场为之狂热之时,我们往往聚焦于其表面的辉煌:顶尖的算法工程师、突破性的模型架构,以及无所不能的智能应用。然而,在这座宏伟的AI金字塔之下,却隐藏着一个鲜为人知的庞大“基石”——一群被低估、甚至被剥削的知识劳动者,他们以其宝贵的智力与时间,默默为AI注入灵魂。
技术变革的社会维度:当“人工”成为智能之核
当前的大语言模型(LLM)已远非早期计算机视觉模型单纯的“拉框打点”可比。AI评估师的任务,是对模型生成的复杂内容进行深度判断、审美评估和伦理审查。这包括但不限于:回答的准确性、引用的可靠性、语气的专业性,乃至莎士比亚诗歌的韵味,以及在伦理困境(如“何时可以说谎”)中AI答案的道德合规性。1
这类工作对从业者提出了极高的要求:专业的领域知识、深厚的文化素养、敏锐的判断力和批判性思维。正如原始资料所揭示,许多从事这些“AI老师”角色的,不乏经验丰富的作家、拥有硕士学位的教育者,甚至是物理学博士。他们扮演着AI的文学顾问、伦理审查官和专业知识教练。他们并非简单的数据处理器,而是AI模型“三观”和“品行”的塑造者,其工作直接决定了AI能否真正“像个专家”、“像个人类”去思考和回应。
然而,讽刺的是,这些为AI“铸魂”的高学历人才,在美国的报酬仅为每小时16到21美元,月薪勉强达到3000美元。这与同在谷歌工作的AI工程师数十万美元的年薪形成了天壤之别。在国内,这种现象也普遍存在,甚至一些数据标注岗位已要求985/211等名校背景和特定领域专业知识,但薪资水平远低于算法岗,本质仍是“赛博流水线”的知识榨取。2
“工程师负责把孩子‘生’出来,但孩子的三观、谈吐、品行,就不能只靠家长,得是学校和老师来教。”这句类比深刻揭示了AI开发中的核心矛盾:一方面,科技巨头普遍奉行“技术至上,文科无用”的观念;另一方面,他们又不得不依赖这些被轻视的“非计算机”知识和认知,来确保其赛博生命不至于“变成糖人”。
产业生态与资本逻辑:效率至上与金字塔式剥削
这种对高学历人才的低薪使用并非偶然,而是AI产业在效率至上和资本逐利逻辑下的“路径依赖”。大型科技公司在面对AI大模型海量、紧急的数据标注和评估需求时,倾向于采取外包模式。这种模式能够有效规避直接雇佣正式员工带来的高成本和长期承诺,将任务分解,以小时工或计件工资的形式发放。
一个庞大的金字塔式外包产业由此诞生:顶层是少数算法天才和科技巨头,而构成塔身的,则是无数被当作廉价小时工的高材生。项目经过层层转包——从甲方到乙方供应商,再到二包、三包甚至四包的小工作室。每多一层转包,下游劳动者的利润空间就被进一步挤压,工作条件和薪资待遇也更难得到保障。例如,国内数据标注员的平均月工资可能在2000-4000元人民币之间,即使是要求更高的岗位,也可能只有7-10k,但其工作稳定性极差,常伴有疯狂加班和项目结束后直接失业的情况。3
这种模式不仅导致了薪资上的不公,更带来了职业发展困境和精神健康危机。许多高学历的“AI老师”发现,他们的专业知识被一次性榨干以喂养AI,自身却难以学到新技能,职业发展停滞。更极端的是,为了训练AI识别和拒绝有害内容,一些科技巨头将包含谋杀、虐童、自残等极端内容的标注任务外包给发展中国家的工人,他们以不到2美元的时薪,承受着严重的心理创伤。4 亚马逊无人超市Amazon Go和送餐机器人背后,也隐藏着大量人工监控和远程操控。让人类表现得像个机器人,远比让机器人表现得像个人类,在当前阶段要便宜得多。
伦理挑战与未来工作:重塑人与智能的价值契约
这引发了深刻的伦理拷问:我们所赞美的人工智能的“伟大”,是否正建立在一片看不见的、被消耗和磨损的人类劳动废墟之上?这种对知识和劳动的系统性贬低,不仅是对个体尊严的侵蚀,也可能导致AI本身在价值观上存在缺陷。一个“没有爱”的训练环境,一个基于剥削劳动成果构建的智能体,能否真正发展出符合人类伦理、尊重生命的“智能之魂”?
从哲学层面看,这反映了技术发展与人文价值之间长期存在的张力。当技术被视为唯一的终极价值时,那些看似“非技术”的、关乎人类体验、道德判断、文化传承的工作,就容易被边缘化和工具化。然而,大语言模型对人类高级认知能力的需求,恰恰证明了这些“软实力”在构建真正通用智能中的不可替代性。
未来社会图景展望:再定义“人机协作”的公平范式
展望未来3-5年,随着AI模型的持续复杂化和普及,对高质量、高附加值人类反馈的需求不会消失,反而可能从量变走向质变。简单的、重复性的数据标注工作可能会被AI自动化取代,但涉及深层理解、创造性判断、跨文化伦理审核的“AI评估”工作,其门槛和重要性将进一步提升。届时,对“AI老师”的需求将更趋向于小而精、高价值的方向。
这为我们提供了重塑“人机协作”公平范式的契机:
- 提升价值认知:重新审视人文社科知识在AI发展中的核心价值,而非将其视为可替代的边缘辅助。
- 重构商业模式:科技巨头需要承担更大的企业社会责任,将AI训练过程中的劳动者纳入更公平的薪酬体系和职业发展通道,减少层层转包带来的剥削。这可能意味着在初期增加成本,但长期将带来更健康、更可持续的AI生态。
- 推动行业标准与监管:建立全球性的AI数据劳动者保护标准,包括最低工资、工作条件、心理健康支持等,尤其是对从事敏感内容审核的工人。工会化或集体谈判将成为保障劳动者权益的重要途径。
- 探索新型人机共生职业:鼓励设计出更具创造性、更少重复性的“AI策展人”、“AI伦理顾问”等新型知识型岗位,让人类与AI在更高层次上协同,而非简单的喂养与被喂养。
要让AI真正实现解放生产力、解放人类的宏伟目标,我们必须首先学会尊重那些构建它的人类。尊重知识、尊重劳动,是构建一个真正有益于人类文明的智能未来的起点。否则,高科技最终可能只是变成一种更隐蔽、更高效的劳动力压榨工具,重演历史上的金字塔悲剧。
引用
-
How thousands of ‘overworked, underpaid’ humans train Google’s AI to seem smart·The Guardian·(2025/10/20)·检索日期2025/10/20 ↩︎
-
月薪两万,大厂疯抢AI数据标注员 - 数英网·数英网·(未知)·检索日期2025/10/20 ↩︎
-
AI金字塔的底层:时薪15美元的“数据标注员” - 华尔街见闻·华尔街见闻·(未知)·检索日期2025/10/20 ↩︎
-
The Human Workforce Behind AI Wants a Union·The Nation·(2025/10/20)·检索日期2025/10/20 ↩︎