1. 笔记
原文标题:拥抱黑盒:一个研究者 All in AI 的实录与反思
原文出处:https://www.uscardforum.com/t/topic/488654
这篇文章真实、系统、信息量大。阅读 1 H 整理 1H ( PS:原文部分观点我不认同 )
拥抱黑盒,利用黑盒提升工作效率。用 AI Native 的方式思考、学习、工作甚至生活。
LLM 本质是一个下一个词预测器(next-token predictor),也是一个黑盒。
- 它在你给定的上下文(context)下,去算下一个词出现的概率。
- 它没有真正物理意义上的逻辑,核心运作方式就是概率推断(probabilistic inference)。
一个 Agent 并不是只是 LLM 本身,而是一个以 LLM 作为推理引擎,外面包裹着一套工具链的系统。
- 例子:找项目里的 User 类 -> 工具链调用 LLM -> LLM 返回’调用 grep’ -> 工具链执行 -> 带上所有结果循环执行至成功
- 弊端:上下文窗口大小有限制,超过或接近上限会使得模型推断概率准确性急剧下降。
- 解决办法:
- MCP:标准化接口让 LLM 自主链接外部工具和数据;
- Skills:封装好的”技能包”,固化的 SOP 或者命令,避免重复预测(思考);
- SubAgent:把大问题拆分成小问题( 怎么把大象塞进冰箱?)
- 概念类比:LLM ≈ CPU,上下文窗口 ≈ RAM,MCP ≈ USB/POSIX,Skils ≈ App,SubAgent ≈ 并行App(涉及 CPU 调度)
- 解决办法: