让模型帮你生成 DID、RDD 或 IV 方案并不难,难的是把这些方案转化成一套可逐项检查的审计表。
先问反事实是否存在
很多 AI 建议的问题,不在公式,而在世界本身。它默认存在一组可比较对象,却没有证明这些对象在制度、时点或选择机制上真的可比较。
把识别方案拆成五个审计问题
每个 AI 方案都应该被拆成五问:处理是否可界定、对照是否可比、假设是否可检验、数据是否可支撑、结果是否可替代。只要其中一项不能回答,这个方案就不应直接进入编码阶段。
- 要求模型明确写出最脆弱的前提,而不是最优美的叙事。
- 要求模型给出至少一个失败情境。
- 要求模型说明哪些变量只是“想要”,哪些变量是“必须”。
人类研究者的角色没有被削弱,反而更清晰
AI 最适合快速铺开假设空间和替代设计,人类研究者则负责压缩空间、拒绝错误路径,并把最终设计绑定到真实制度背景之上。