平台之上,设想的未来 LLM 开发生态
引言
最近,OpenAI 推出了 ChatGPT plugins 系统。一时大量基于 OpenAI API 开发的产品直接被干掉。我之前想做的基于 ChatGPT 的产品同样也被 OpenAI 降维打击(还好没有开始开发🤣)。这似乎是属于 OpenAI 的 App Store 时刻,为 LLM 的未来发展提供了官方范式。但我悲观的认为,就 ChatGPT Plugin 来说,最终留给小型开发团队的机会是不大的。以下是我对这个观点产生原因的论述,以及小型开发团队可能的 LLM 产品开发方向。
ChatGPT Plugin 的发展局限
以 App Store 举例,App Store 繁荣的开发生态是基于 iOS 平台本身只有通用的基础功能以及高交互性硬件系统而发展起来的,用户有不同的偏好和需求,iPhone 的硬件也没有充分被利用,两者一结合后,提供了各大平台及开发者解决需求、创造需求的条件,浩如烟海的客户端被开发出来。而 ChatGPT Plugin 并没有这样的特点。因为 LLM 本身就能够提供个性化服务,我也觉得它是迄今为止能够为用户提供最深程度的个性化的计算平台。用户与它的交互基于文本、图形、语音、视频等多模态的信息流,随后 LLM 根据这些信息流来输出目标内容。这个过程不需要各式按钮、选项和布局等,而只需要一个输入框即可。用户可以随意地用各种语言、方式传达需求信息,这种个性化的交互体验是当今 UI 的通用组件、设计系统所无法比拟的。
而 Plugin 在这个过程中,并无法对交互方式产生影响,只能通过影响输出与输入内容来塑造基础 LLM 模型所不擅长的在特定领域的能力缺陷。而 Plugin 的功能通过黑箱被压缩成 LLM 输出的一部分,这个过程让用户对产品的认知被极大的削弱。这同时也造成了 Plugin 的开发为结果导向,而结果导向带来的是数据导向。那些具有大量数据积累、业务能力的应用能产出更好的结果,而中小型开发团队的应用由于没有数据积累将处于劣势。而且当 LLM 训练数据积累到一定数量,能力进化到一定程度后,那时大多数没有数据支撑的 Plugin 的功能由 LLM 自身即可完成。所以 Plugin 我认为只是发展过程中的过渡,LLM 一定会发展为巨型平台,但这个平台内部的巨型产品只会是 LLM 本身。
平台之上
现在的 LLM 已经非常强大,但我认为如果将它类比为操作系统,现在只是 DOS 的阶段。对比现在的 Prompt Engineer 和那时的程序员,一群人学着使用 Prompt 和另一群人记忆着命令行指令……虽说 Prompt 的交互方式已经将门槛大幅度的降低,但想要最大化利用 LLM 还是比较困难的。或许我们都高估了自己的语言能力,清晰准确并完整的传达出自己的需求对大多数人来说并非是一件易事。
所以,就像命令行界面会进化到图形界面一样,LLM 也会获得它的「图形界面」。LLM 的多模态能力我相信就是实现「图形界面」的第一步,但这绝对不够。就像 Win32 之于 Windows ,App Store 之于 iOS 一样,利用 LLM 的各种能力构建起的应用生态是核心。这些应用不作为 LLM 平台的一部分,而利用它提供的「API」拓宽与外界交互的能力。这些应用依赖于 LLM 但作为用户与其交互的抽象层,将构建起属于 LLM 的开发生态。
结语
作为一名业余开发者,AI 时代到来之即,自己能做些什么呢?最近使用 ChatGPT 辅助开发的经历告诉我,她的能力是无穷的。但当前存在的问题就像上面所说的,很多人包括我自己并无法很好的利用它的能力,或者说需要额外花费很多精力在写 Prompt 上。这个问题告诉我: Prompt 的辅助功能一定是刚需。我最近将尝试创造一个满足这一需求的产品。