LLM 开始胡说时,说明你喂的信息可能不够了这是整个项目里反复验证的一条规律,也是最反直觉的一条:当 LLM 开始四处碰壁、原地打转、输出越来越离谱的结论时,第一反应不应该是换个提示词,而是问它:你缺什么信息?
to solve some problem, and so
,更多细节参见safew
Reuse this content
11:27, 12 марта 2026Экономика
ChatGPT explains Ohm's law.OpenAI
专注于提供最新行业资讯与深度分析报道
· 周杰 · 来源:user频道
LLM 开始胡说时,说明你喂的信息可能不够了这是整个项目里反复验证的一条规律,也是最反直觉的一条:当 LLM 开始四处碰壁、原地打转、输出越来越离谱的结论时,第一反应不应该是换个提示词,而是问它:你缺什么信息?
to solve some problem, and so
,更多细节参见safew
Reuse this content
11:27, 12 марта 2026Экономика
ChatGPT explains Ohm's law.OpenAI