高考志愿,大厂AI的隐形战役:流量、数据与未来治理的权衡

温故智新AIGC实验室

在一年一度的高考志愿填报季,互联网巨头纷纷推出免费AI工具,试图挑战传统志愿规划师的地位。这不仅是一场争夺用户流量的战役,更是大厂积累教育决策数据、验证大模型“实战能力”的关键场域,其背后折射出AI技术在垂直应用场景中的真实局限与深层伦理考量。

一年一度的高考志愿填报,曾是无数家庭面临的巨大信息挑战与焦虑。过去,市场涌现出以“张雪峰”为代表的专业规划师,提供动辄上万元的咨询服务,催生了一个年付费规模预计在2025年达到10.9亿元的市场1。如今,随着AI技术浪潮席卷,百度、夸克、腾讯等互联网巨头正将其强大的AI能力投入这一赛道,推出“AI志愿助手”、“智能选志愿”、“AI高考通”等产品。这些工具凭借智能、高效和免费的优势,迅速成为考生和家长眼中的“香饽饽”1。然而,在这场由AI主导的信息战中,技术的光环背后,仍存在诸多未解的挑战与深层权衡。

算法之争与数据迷雾:AI高考志愿的现实困境

尽管大厂的AI高考志愿工具来势汹汹,但用户体验却并非一片叫好。最核心的问题集中于推荐算法的不透明性、数据全面性与真实性的存疑,以及个性化服务的不足

在实际测试中,不同平台对同一分数、同一省份的考生给出的“冲、稳、保”三类院校推荐结果相去甚远1。这种差异的根源在于各家AI工具所采用的训练数据不同、算法权重不同。例如,夸克声称其高考志愿大模型基于Qwen模型,并针对该领域进行了大量专业知识和定向任务的训练,理论上专业度更高1。而百度则支持调用文心一言、通义千问、DeepSeek等多个大模型,以期提供多维度建议1。然而,各家对推荐逻辑的保密,使得用户难以理解为何会有如此大的偏差,也无法判断哪种建议更为可靠。

数据的全面性和真实性是另一个核心痛点。尽管AI工具主要基于院校招生网、考试院官网等公开权威数据,但在采集、整合和更新过程中仍可能出现问题。实践中,曾发生过AI推荐的学校在该省份并无招生计划、推荐冲刺清华北大却排名相去甚远等“幻觉”现象1。这暴露了当前大模型在数据权威性不足模型反思能力欠缺方面的缺陷。对于高考志愿这种“只能成功、不能试错”的关键决策,任何一个微小的数据错误都可能带来灾难性后果。

此外,AI在提供“个性化”服务方面仍显稚嫩。尽管引入MBTI测试、霍兰德职业兴趣测试等心理评估工具,辅以多轮对话,试图模仿人类规划师的定制化服务,但其**“个性化”更多停留在标签匹配层面**。与资深志愿规划师长达数小时的深度沟通、对考生性格、家庭情况、就业前景的全面考量相比,AI提出的问题往往模板化、宽泛化,难以触及真正的个性化需求。专业的规划师还拥有长期积累的、针对特定地区的就业率、用人单位偏好等非公开信息库,这是当前AI难以复制的优势1

流量、数据与技术验证:大厂深层布局的驱动力

尽管AI志愿填报工具在用户体验上仍有提升空间,且大厂普遍采取免费策略,看似“不赚钱”,但其深层布局的背后,蕴藏着多重“隐形收益”1

首先是抢占流量入口。高考作为全国关注的焦点,志愿填报是巨大的“流量洼地”。每年高考期间,百度APP和夸克等产品吸引了海量考生和家长。通过提供免费、便捷的AI工具,大厂能以极低的成本获取大量新增用户,建立与用户的高频连接。志愿填报只是起点,未来还有可能将用户导向大学学习、考研、职业规划等更广阔的教育服务链条,实现长期用户留存。

其次是数据积累。高考志愿填报场景下产生的真实用户数据,对于大模型能力的提升具有极高价值。这些数据能帮助模型更好地理解复杂任务、适应地域规则、识别用户偏好,从而反哺模型的训练和迭代。部分大厂甚至通过与教育机构合作,获取非公开的报考数据,进一步丰富模型能力,形成数据壁垒。

最后是技术验证。志愿填报场景对AI模型的综合能力提出了更高要求。它不仅需要理解用户的多轮复杂需求,更需要调用海量结构化数据并进行逻辑推理。这正是对Agent或大模型**“实战能力”的绝佳检验场**。大厂借此场景,可以快速迭代和优化其核心AI技术,为未来更广泛的通用AI应用积累经验。

超越高考:AI治理与未来教育的伦理考量

AI志愿填报的兴起,不仅仅是技术在特定垂直领域的应用案例,它更是AI技术渗透入社会关键决策的缩影,也牵涉到更深层次的AI治理与伦理问题。

在AI技术快速发展的背景下,关于如何监管AI的讨论日益激烈。一些大型科技公司正在积极游说美国政府,推动一项提案,旨在禁止各州在未来10年内执行AI监管2。批评者认为,这是科技巨头为了确保其在构建通用人工智能(AGI)竞赛中的主导地位,试图垄断AI发展。他们指出,法律应该能够禁止不负责任的行为,而负责任的创新不应该害怕法律2。这种对监管的抵触,反映出大厂在追求技术突破和市场优势的同时,对于潜在社会风险的态度。

回到高考志愿场景,尽管AI工具提供了前所未有的便利,但也引发了关于“AI是否应该对如此重要的决策负责”的伦理拷问。当AI的推荐结果存在不透明性和不确定性时,它如何影响考生的未来选择,以及由此带来的潜在风险,都需要社会各界深入思考。教育决策不仅关乎分数与排名,更涉及个人兴趣、长远发展、家庭期望等多维度的人文考量。AI在处理这些复杂、非结构化、充满情感因素的个性化需求时,其“智能”的边界何在?

目前来看,AI报志愿工具还远未达到完全取代“张雪峰们”的程度。从业者普遍认为,AI更适合分数在两端、目标明确的考生,作为院校初筛和提升效率的辅助手段1。而对于处于中段分数区间、目标不明确的考生,AI则更应被视为“辅助工具”,且用户需要学习“如何提问”才能获得更精准的答案。这种“人+AI”的结合模式,是当前最务实的解决方案。

然而,不可否认的是,AI报志愿工具正在持续进化。随着大厂的持续投入、底层数据的不断完善以及模型能力的提升,AI在教育决策领域的应用将变得更加成熟。这不仅仅是技术竞赛,更是关于数据隐私、算法公平、责任归属等一系列AI治理问题的早期实践场。未来的教育,将在AI的深度介入下,重塑其信息获取、决策支持乃至个性化培养的范式。我们必须在拥抱技术进步的同时,警惕其潜在的伦理陷阱,并积极构建一套完善的AI治理框架,确保技术真正造福社会,而非带来新的不确定性。

References


  1. 定焦One团队(2025/6/19)。大厂AI,还干不掉张雪峰。定焦One。检索日期2025/6/19。 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  2. 周子意(2025/6/19)。未来十年禁止监管AI?硅谷巨头集体游说。财联社AI daily via 36氪。检索日期2025/6/19。 ↩︎ ↩︎