0
八年前就有人相信,给大模型一段提示词,就能变出一个完整应用。这个想法至今还在流传——简单、快速、有 vibe。但物理学说不行。
Claude Shannon 在1948年的信息论里埋了一颗雷:信息不能无中生有。通信信道输出的信息,不可能超过输入的信息。这是硬约束,不是技术限制。
看看我们实际在做什么。输入端:几百个 token 的提示词,意图模糊,约束隐晦,设计选择根本没说出口。输出端期待什么?几千个架构决策、UX 细节、错误处理、边界情况——信息量差了数量级。
大模型确实填补了缺口。它从训练 corpus 里调取 boilerplate:REST API 的标准写法、Python 连数据库的惯用模式、React 组件的常规结构。这些"通常怎么做"的知识它很富余,所以 demo 看起来唬人——外壳像真的。
但你的业务逻辑呢?特定场景下的架构妥协?只有你自己知道的边界行为?这些信息不在任何 corpus 里,只在你脑子里。大模型给骨架,你给灵魂。用 Kolmogorov 复杂度的话说:你的应用需要的最小描述信息量,远超提示词能承载的。通用信息可以补,特定信息不可压缩。
做个思想实验:拿一个跑起来的应用,让最好的大模型写"能复现这个应用的完美提示词"。再用这个提示词生成一次。结果?一百次尝试,一百个不同结果,没有一个和原版相同。提示词对应用,就像 SHA1 哈希对文件——单向压缩,不可逆。