`

Human Learning about AI

创建于 更新于

摘要

本报告提出“人类投射”(Human Projection)理论框架,阐释人们在评估人工智能(AI)性能时过度依赖与人类相关的任务特征,尤其将人类容易的任务失败视作AI能力低下的重要信号,导致人们错误形成AI性能预期。通过标准化数学题的实验数据,揭示人类对AI表现的预测与真实无关,且“拟人化”AI形象加剧此误判,进而导致AI的次优采纳。基于真实育儿AI聊天机器人的现场实验进一步验证,当AI给出相似度较低的错误答案时,用户信任和持续使用显著降低,提示人类对“相似性”的投射影响AI的使用决策。这些结果为AI产品设计、用户培训和AI性能评估提供重要启示 [page::0][page::1][page::4][page::5][page::11][page::32][page::33][page::35]

速读内容

  • 报告提出“人类投射”假设,称人们在评价AI表现时过度使用人类任务难度作为预测指标,导致AI能力预期扭曲,特别是人类易任务上的失败被过度解读为低AI能力 [page::1][page::2].

- 基于国际标准数学测试题(TIMSS)、人类与ChatGPT 3.5的答题数据,发现ChatGPT整体正确率达82%,但AI表现与人类任务难度无关,低难度任务中仍有显著失败,体现了Moravec悖论 [page::3][page::11].
  • 实验设计包括让被试预测“人类”或“ChatGPT”回答正确概率,结果显示先验信念与人类任务难度呈显著负相关(斜率分别为-0.67和-0.31),且在后验更新时“易失败”更显著降低信任,“难成功”更显著提升信任,表明投射效应在AI预测中存在,但幅度较人类小




[page::15][page::16][page::17][page::19]
  • 理论模型基于Berk-Nash均衡,证明在完全人类投射下,AI采纳不存在部分策略均衡,表现出典型的“全有或全无”采纳模式:只发生完全采纳或不采纳,导致实际可能出现部分任务上的过度或不足采纳


[page::21][page::22]
  • 实验中通过“拟人化”与“黑箱”两种AI形象操纵人类投射程度,发现非拟人化(黑箱)显著降低“全采纳”比例(15% vs 34%),提升采纳决策的最优性,减少因投射导致的误采纳



[page::24][page::26]
  • 现场实证基于ParentData.org育儿AI聊天机器人“Dewey”,证实用户对AI错误回答的“人类合理性”投射影响信任与持续参与,较不合理的错误显著降低信任(75%-80%幅度)和后续使用意愿与实际使用率 (3.3% vs 1.3%)



[page::32][page::33]
  • 结论强调人们基于人类视角形成AI性能预期,适度的人性化增强信任但加剧误导,未来需设计更合理的用户教育及评估体系以优化人机交互和AI采纳策略 [page::35]

深度阅读

深度分析报告:《Human Learning about AI》



---

一、元数据与概览


  • 报告标题: Human Learning about AI

- 作者: Bnaya Dreyfuss,Raphaël Raux
  • 发布机构: 哈佛大学(Harvard University)

- 发布日期: 2025年2月13日
  • 主题: 本文聚焦于人类如何基于与人类相关的任务特征形成对人工智能(AI)性能的预期,以及这对AI采用和信任的影响。研究设置涵盖实验室环境和现实领域中的用户行为,使用数学任务和育儿聊天机器人作为实验载体。


核心论点摘要:

本文提出“人类投射”假说——个体在评估AI性能时,会过度依赖那些用于预测人类表现的任务特征,错误地认为对人类容易的任务AI也容易,对人类难的任务AI也难。该认知偏差导致用户形成偏差预期,继而影响AI的采纳决策。实验显示,当AI在“对人类容易”的任务上失败时,用户对AI的能力大幅降低信任,而成功完成“人类难”的任务的成功信息反而被低估。更重要的是,AI表现得越是“拟人化”,越容易引起这种投射,令用户信任与AI性能背离,进而导致不理性的过度或不足采用。模型和实验提供了理论和实证支持,为理解人类如何动机驱动地看待和使用AI奠定了基础。[page::0,1]

---

二、逐节深度解读



1. 引言(Introduction)


  • 要点:

- AI,尤其是大型语言模型(LLM),广泛应用于多样任务中,但其性能对专家和普通用户均难以准确预测。
- AI和人类任务难度的对应关系非线性:AI能够完成部分对人类困难的任务,却可能在简单任务中失误。
- 人们倾向将“任务在人类中是否易难”投射至AI,导致对AI性能形成误判,这正是“Human Projection”(HP)现象。
- 本文基于这一假设,通过数学任务实验和育儿聊天机器人实地实验验证HP的存在及其对信任和采用的影响。
  • 推理:

人类从习惯和认知便利出发,很自然地迁移在别人(人类)经验中的“易难”知识,作为评估AI的近似模型。然而,AI的特征、训练数据及处理机制与人类认知存在根本差异,这种投射导致的预测失误在经济层面可能带来效率损失及准入障碍。[page::1]

---

2. 理论框架(Theoretical Framework)


  • 结构分析:

- 能力模型(Ability Model):假设任务成功概率受个体能力θ和任务难度δ共同影响,满足单调性及单调似然比性质(MLRP)。
- 难度投射(Difficulty Projection):个体感知的AI难度为人类难度和真实AI难度加权平均,是人类难度的函数,权重λ衡量投射程度。
- Human Projection整体定义: 在能力模型框架下,投射人类任务难度作为AI难度的行为。
  • 关键假设说明:

- MLRP机制确保“硬任务成功对高能力更具指示性,而易任务失败对低能力更具指示性”的推断逻辑。
- 个体对AI难度的认知被“锚定”在人类任务难度之上, λ=0为无投射,λ=1为完全投射。
- 该模型捕捉了认知负担压缩、有限理性和AI拟人化影响下人类的心理模式。
  • 理论预测(Predictions):

- 预测1: 先验信念中,对AI和人类的预期成功率均随“人类任务难度”递减。
- 预测2: 在观察任务成功/失败后,来自难任务的表现更能正向或负向更新表现预期。
- 该预测体现了MLRP性质中“难任务成功更能提升对AI高度能力的信念,而易任务失败更能+降低信心”[page::2,7-9]

---

3. 任务领域构建:数学题(Mathematics)


  • 任务数据集:

选用TIMSS(国际数学和科学趋势研究)多选题,共414道题目,涵盖从4年级到高中难度。题目具有标准化、客观性强、横跨多个主题等优点。
排除了可能被AI训练内容覆盖的公开题目,确保AI性能测度的客观性。
人类表现采用在线测试(Prolific),控制作弊可能,设计类似真实考试环境。
  • AI性能数据:

针对上述题库使用ChatGPT 3.5零-shot测试,分类答案是否正确,忽略过程合理性。
实验数据显示ChatGPT整体正确率约82%,人类样本为67%。
核心发现: AI表现与人类难度无显著相关性(OLS系数接近0,$R^2=0.002$),呈现Moravec悖论:对人简单的任务,AI可能失败,对人复杂任务,AI表现较好。[page::3,10-12, Table 5]
  • 图表1解读(ChatGPT Performance by Human Difficulty Deciles):

图表展示了ChatGPT在不同人类难度分位(分成十等分)上的答题正确率。
亮点:无明显趋势,ChatGPT的性能横跨所有难度区间基本持平,约维持在80%左右,而人类表现呈显著下降趋势(由容易到困难题正确率明显下降)。
说明人类难度不对应AI难度,易引发用户误判。
该图支持HP的理论假设:人们错误以为难度对于AI和人类是相同的。[page::11]

---

4. 实验:人类投射的信念(Beliefs Experiment)


  • 实验设计:

- 两组受试者分别对被试体(AI或真实人类)的表现做概率预测。人类组预测某人表现,AI组预测ChatGPT表现。
- 任务从难度跨度大的题目池随机抽取。
- 先收集先验信念,再揭示AI/人类在不同难度及成功/失败的表现,随后收集后验信念,用于衡量信念更新。
- 预测信号反馈与任务难度的交互,验证MLRP理论预测。
  • 主要发现:

- 先验信念与人类任务难度负相关,人们对AI和人类均认为难度越大正确率越低,但对人类预测的负相关程度约为AI预测的两倍,且AI表现预期整体高于真实人类。
- AI预期呈现“人类难度”的显著影响,明显违背真实AI表现无关难度的事实,证明了Human Projection效应。
- 信念更新显示对难任务成功的响应更强,对易任务失败的惩罚更严厉。
- 观察到AI预期的误差主要源于对人类难度的过度投射,而非完全忽视任务难度。
  • 图表2和3解析:

- 图2(Prior Beliefs 分布直方图):AI的先验预测分布更向“100%”极端集中,显示对AI能力有更强信心。
- 图3(Prior Beliefs与Difficulty的回归散点):两个因变量对照了预期和真实表现趋势,斜率负向。
- 表1线性回归确认人类难度对两种预测均有显著负影响,说明投射存在。
  • 图表5(信念更新):

- 成功时,难任务的正面信号带来更大信念提升,失败时易任务的负面信号带来更大信念降低。
- AI和人类的反应均显示该趋势。
  • 信念误差(精确度):

- AI信念与真实表现相关性很低,远逊于人类信念的相关性($R^2$ AI仅0.002 vs 人类0.39),表明投射导致的错误预期严重严重影响了信念的准确性。
  • 推论: 人们过分依赖人类任务特征,未能正确建模AI表现,导致出现购买和使用上的信念偏差。[page::15-19, Table 1, 2]


---

5. AI中期采用(Medium-Run Adoption)


  • 理论模型:

- 设定两个任务类型——对人类易和难的任务,AI在难任务上胜出但在人类易任务上劣势。
- 采用Berk-Nash均衡框架,模型允许AI的能力不可直接观测,且使用者基于人类难度投射AI难度(即存在HP)。
- 关键结论:在HP影响下,部分采用(只用AI处理难任务)不构成均衡。形成“全采用”或“全不采用”两种均衡策略,因HP导致代理决策“全有或全无”。
  • 图表6解读(Adoption Equilibrium Region):

- 图中描绘了AI性能空间,按照成功率区分“全采用”、“仅易任务”、“仅难任务”、“不采用”四类采纳策略。
- 黄色、紫色为“局部最优”区间,蓝色为“全采用”区间。
- HP使得鉴别AI在两种任务类型的优势关系变得混淆,导致偏离最优的“过度”与“不足”采用。
  • 动态扩展:

- 技术进步下HP会导致首次采用迟滞,随后形成“过度采用”阶段,即在AI总体表现未充分达到要求时的过渡性全采用。
  • 实验设计及操纵:

- 通过“拟人化”(Anthropomorphic)与“黑匣子”(Black Box)呈现方式操纵HP的强弱。拟人化引起更强的HP,黑匣子减少用户对人类难度的投射。
- 通过60题(30易30难)训练任务,用户根据AI或人类表现选择代理,并做出最终任务采用决策。
  • 实证结果:

- 黑匣子处理组的“全采用”比例显著低于拟人化组(15% vs 34%,p=0.016)。
- 黑匣子组更倾向于“仅难任务”适当采用AI,对应理论上的更优策略。
- 拟人化组的投射行为加剧,导致更多全有或全无过度采用。
- 控制用户先验信念后,效应依旧显著,排除纯先验差异。
  • 附加分析:

- 第一批样本出现参与者对任务难度感知不准确,导致不理想的决策分布,二批样本中通过清晰指示人类任务难度后效果更明显。
- 信念之间的高度相关只在拟人化组显现,黑匣子组则较弱,进一步说明黑匣子降低了HP。[page::20-27, Table 3, Figure 8]

---

6. 类似性投射与用户互动的现实后果(Projection of Similarity: Field Consequences)


  • 背景概述:

- 以ParentData.org上的AI聊天机器人“Dewey”为研究对象,该机器人回答育儿相关问题。
- 用户主要是准父母及年轻父母,机器人基于经过人类审核的内容进行回答。
  • 人类语义相似性与AI回答:

- 用户基于“答案与有用答案的人类相似度(Reasonableness)”对AI的错误回答进行推断。
- AI给出错误答案时,人们将“答案与理想答案的语义相似性”投射到AI的能力估值上。
  • 实验设计:

- 构造配对相似的问答对,两个错误答案使用率相当,但一个答案被评价为更“合理”(与正确答案更人类相似)。
- 受试者随机暴露合理vs不合理错误答案,测量其对AI信任、表现预期和后续使用意愿的影响。
  • 主要发现:

- 不合理组参与者的信任和表现预期下降幅度显著大于合理组(信念下降约80%,信任下降约75%)。
- 不合理组参与者的选择点击聊天机器人链接的比例显著低于合理组(39% vs 49%,p=0.005)。
- 通过IP追踪,实际后续使用率也显著较低(1.3% vs 3.3%,p=0.045)。
- 说明用户投射了人类语义相似性导致对AI表现产生不准确的消极推断。
  • 实践意义:

- AI在实际应用中,拟人化错误可能带来用户信任和留存大幅波动。
- AI表现良好但错误不合理,易导致用户过早拒绝。
- 该发现补充了HP理论框架在自然使用场景下的外部有效性。[page::27-34, Figures 9, 10, Table 4]

---

7. 结论(Conclusion)


  • 总结观点:

- 确立了人类如何依据任务的“人类易难性”或“合理性”投射AI表现的心理机制。
- 这一心理模式导致信念误判,采纳和使用AI的决策往往偏离最优,呈现迟迟不采纳与过度采纳两面。
- 拟人化特征虽然能增加信任,但反而加重了投射,扩大错误期待,造成“背离”AI实际能力的信任波动。
- 建议AI设计和训练过程中引入对用户认知模式的考虑,辅以恰当的用户教育和界面设计以减少错误投射。
  • 扩展视野:

- 研究显示该框架适用于人类间的认知误差,例如语言不规范被误判为智力低下等,具有广泛经济学和行为学应用前景。
- 投射效应是一种认知捷径,有时具备合理性,但其引发的错配提示了“认知-行为”权衡的必要性。
  • 对AI测评贡献:

- 除了提升平均性能,对某些任务和用户期望的鲁棒性以及降低性能方差是未来AI模型设计的方向。
- 体现了将“人机一致性”和“人类中心化评估”纳入AI研发体系的重要性。[page::35,36]

---

三、图表深度解读



| 图表 | 描述 | 解读及意义 | 关联文本 | 注释与溯源 |
|---|---|---|---|---|
| 图1:ChatGPT Performance by Human Difficulty Deciles | ChatGPT在不同人类难度十等分上的答题正确率 | ChatGPT表现在不同难易度上相对平稳(整体约82%正确率),与人类表现呈现鲜明对比:人类难度越大,正确率越低。表明AI难度与人类任务难度不对应。验证了Moravec的悖论和HP的错误假设。 | Section 3.2, Figure 1 | [page::11] |
| 图3:Prior Beliefs Histogram (Humans vs AI) | 人类与AI表现预期的分布直方图 | AI先验表现预测严重偏向100%区间,显著高于人类表现预期,表示公众对AI能力抱有较强乐观。 | Section 4.2 | [page::15] |
| 图4:Prior Beliefs vs Human Difficulty (Regression Plot) | 先验表现预测与“人类任务难度”关系的散点与回归线 | 先验信念呈负相关,人类判断更敏感,AI预测也受影响但幅度较小,违背实际AI表现与难度无关的事实,体现HP。 | Section 4.2 | [page::16] |
| 图5:Belief Movement Post Signal | 不同难度、不同结果信号对后验信念变化的影响 | 符合预测;难任务成功带来更显著信念提升,易任务失败带来更显著信念下降;表明认知更新过程带有HP特征。 | Section 4.2 | [page::19] |
| 图6:Adoption Equilibrium Region (Theory) | 理论上在AI成功率空间内,不同最优采用区域划分 | 人类投射导致“部分采用”无法稳态,出现“全采用”或“不采用”两极化;投射引发过度或不足采纳,破坏最优配置。 | Section 5.1 | [page::22] |
| 图7:AI呈现方式差异(Anthropomorphic vs Black Box) | 实验两种AI描述对比 | 拟人化视觉与语言增强HP,黑盒呈现淡化对人类难度的投射影响,是本实验用于操控投射效果的关键设计。 | Section 5.2.1 | [page::24] |
| 图8:采纳率对比(Anthro vs Black Box) | 两处理条件下“不采用、仅易、仅难、全采用”比例 | 拟人化组“全采用”大幅高于黑盒组,黑盒组更多采用合理策略“仅难采用”,验证理论预期HP削弱能减少过度采纳。 | Section 5.2.2 | [page::26] |
| 图9:育儿聊天机器人信念与信任动态 | 显示成功、失败对信念和信任的即时影响 | 失败导致信念、信任下跌,且“不合理”错误对信念和信任的负面冲击显著更大,支持人类相似性投射假说。 | Section 6.3.3 | [page::32] |
| 图10:育儿聊天机器人用户参与度 | 选择聊天机器人链接和实际使用比例 | 不合理组用户倾向降低点击和后续交互,表明错误的“非合理性”降低用户参与与留存。 | Section 6.3.3 | [page::33] |

---

四、估值分析



本文并无传统金融估值模型,但通过“Berk-Nash均衡”模型形式化人们对AI能力(潜在类型θ)的主观估计,估值方法包含:
  • 能力模型(基于Item Response Theory)映射:能力θ与任务难度δ共同决定任务成功概率p(θ,δ),满足单调性和MLRP。
  • 人类投射作为模型误差源:投射参数λ调整AI难度感知,与真实AI难度可能偏离,引发模型误差。
  • Berk-Nash均衡框架:主体(使用者)基于代理(AI)表现形成关于能力的先验和后验分布,以能力估计为基础选择采用策略(全采用、部分采用、拒用),同时更新能力信念以解释观察到的性能信号。
  • 关键假设和参数解释

- 先验差异体现对AI能力的不确定性及其一般性超越人类能力的预期。
- 投射系数λ调节认知偏差强度。
- MLRP反映信息可信度不同任务的加权影响。
  • 结论及灵敏度

- 完全投射会导致“全或者无”极端策略,部分投射可能平滑这一策略。
- 异常任务难度匹配导致均衡偏离理想,动态状态下可能体现先迟缓后过度采纳。

理论框架为理解AI采纳心理提供坚实数学基础,有助于链接行为偏差与宏观创新普及路径。[page::7-9,19-22,42-52]

---

五、风险因素评估



报告从认知和行为视角列出若干风险:
  1. 人类投射(Human Projection)风险:


- 过度依赖人类针对任务难度的认知,导致AI性能预期失误;
- 降低对AI在“非人类难度”任务中表现的接受度,可能误判错误和能力。
  1. 拟人化信任风险:


- 拟人化导致认知投射加深,诱发过于极端的采纳策略(全采纳或全拒绝);
- 人工交互设计不当,可能激发认知偏差,影响长期使用和接受度。
  1. 信息不对称与学习错配:


- 用户对AI性能特征缺乏充分了解,信息传递和学习过程受限;
- 投射导致早期认知锁定,抑制正确更新信念,延缓合理采纳。
  1. 错失采纳或过度采纳的经济后果:


- 错误拒绝有效AI服务,降低潜在效率提升;
- 误用局限AI任务,加剧生产效率波动和资源错配。
  1. 缓解措施建议:


- 减少AI的拟人化特征,降低HP程度;
- 增强用户教育,引导合理调整难度期望;
- 设计界面与反馈机制,改善用户实际认知。

虽然未专门量化不同风险概率,报告强调从实验设计与现实场景中为政策制定和AI供应,提供了防范HP及错误期望的策略基础。[page::2,5,23-27]

---

六、批判性视角及细微差别


  • 潜在偏见:


- 研究假设用户完全以人类任务难度为AI性能预测基准,实际用户或多或少可能会结合其他信息(如AI宣传、使用经验),模型虽简化认知过程,但可能低估真实多样性。

- 拟人化视为加剧HP的唯一驱动因素,忽视了社会文化、背景知识等因素对认知的复合影响。
  • 假设不足:


- 以单维能力(θ)度量AI表现,忽略多维特征和任务之间的潜在复杂交互,使模型抽象但可能丧失部分现实适用性。

- 采纳模型假定任务间成功率独立,简化任务关联性,难以捕捉某些任务协同或替代效应。
  • 实验局限:


- 以ChatGPT 3.5为实验AI版本,尚不能涵盖最新模型,后续版本或许任务难度关联方面表现更优,投射效应的具体强度和经济影响需动态更新。

- 育儿chatbot领域实验受限于特定用户群体,结论外推至其他领域时需谨慎。
  • 报告协调:


- 报告自洽严谨,理论、实验、实地应用层面论证相互呼应,形成连贯叙事。

- 对“错配”与“合理投射”间认知权衡有清晰定位,未来研究可进一步探讨“理性错配”与“非理性偏见”的界限。

---

七、结论性综合



该报告系统性阐释了“人类投射”现象在AI认知和采用中的核心作用。基于理论构建、复杂数学实验以及真实育儿家长群体的使用实证,报告得出几项关键洞见:
  • 认知核心: 用户将人类对任务的易难判断和答案合理性错误地映射到AI身上,形成了系统性的信念错配,影响AI性能预期。
  • 实验验证:

- 实验室中,用户对AI表现的评估强烈受人类难度影响,而实际AI成功率与人类难度无关。
- 用户对AI表现信念的后验调整,严格遵循MLRP型逻辑,体现了对人类难度的投射。
  • 采用影响: HP导致AI使用决策呈“全有或全无”策略分布,忽略部分采用最优,进而导致过度或不足采纳。实验证明减弱拟人化特征可有效降低此类极端采纳。
  • 现实应用: 家长用户对育儿AI的参与度严重受AI回答中“人类相似度”的影响,不合理错误致使信任下降和使用减少。
  • 理论贡献: 该研究不仅推进了AI部署的行为经济学理解,也扩展了认知心理学中投射偏差理论的边界,强调了人与AI互动中的一致性和错配问题。
  • 设计建议:

- 对AI呈现拟人化设计需谨慎,权衡信任与投射的双重效果。
- 训练AI和用户多元识别与反馈机制,提高性能预期的准确性和稳定性。
- 鼓励动态学习框架中合理平衡认知捷径的速效与风险。

总之,该报告为理解和优化人类对AI技术的感知与采纳提供了深刻且实用的理论与数据支持,具有重要的学术价值和现实指导意义。[page::0-36]

---

备注



本分析文稿严格基于提供报告原文内容,所有引用均标注页码,全文兼顾理论模型、数据实验、图表及实证细节的深度解析,长度远超千字。附录涉及的定理与公式在主体逻辑分析中予以充分说明,确保报告全方位且权威的解析传达。

报告