洞察 Insights
大模型的“耳根子软”:脆弱的自信心与AGI路径的深层挑战
谷歌DeepMind研究发现GPT-4o等大模型在无记忆时易受错误质疑影响,暴露出其“自信心”脆弱且缺乏独立判断。这不仅对RLHF训练和多轮AI系统鲁棒性构成挑战,更引发了对AI伦理、人机信任及AGI路径的深层思考,亟需发展更具韧性和元认知能力的AI模型。
阅读全文
洞察 Insights
AI幻觉并非缺陷:从DeepSeek风波看大模型“想象力”的边界与治理新范式
DeepSeek事件揭示AI幻觉并非缺陷,而是大模型“预测”与“创作”的固有特性,其在复杂场景下的高幻觉率挑战着人类信任。文章强调,应对AI幻觉的关键在于从技术、治理和用户教育等多维度进行管理而非消除,并通过AI对齐、批判性思维培养,以期在商业价值和社会责任之间找到平衡,共塑人机协同的新现实。
阅读全文