时间:2023-04-22|浏览:191
ChatGPT最近推出了插件机制,对于一般用户来说,这可能只是另一个引入插件机制的产品。然而,从开发者的角度来看,它的实现机制是颠覆性的,具有解决去中心化互联网互操作性难题的潜力。
这一切的缘起可以追溯到Web 2.0时代,那时基于Open API的Mashup应用风靡一时。
21世纪初,交互式互联网发展的初期,几乎每一个新兴互联网应用都推出了自己的Open API,以响应“开放”的互联网精神。许多应用也将对接其他Open API他们正在不懈地用代码和汗水架构API互联的桥梁。
经过Open Web乱世和Mashup泡沫的折磨,随着互联网用户逐渐减少极客化的要求,人们开始更追求稳定和可靠而不是精彩纷呈的互联网应用程序。
那些巨头开始建起“高墙”,用商业化合作来代替Open API,取而代之连锁反应是开放思想渐渐被遗忘,只是一个营销策略。
ACPI设计不需要特别谨慎地设计,因为API的调用方不再是昔日的极客开拓者,而是普通程序员。
SOAP、Restful、Stateless等曾经风靡一时的API框架逐渐被OAuth、gRPC、GraphQL等取代,API研究的重点也转向了安全性、效率和控制,而“开放”则变成了一个鲜有人问询的研究领域。
Open API蛰伏着,等待着互联网世界的回归。Web 3.0和AI是其归来的靠山?
在OpenAI推出ChatGPT插件机制前,我一直在思考“自解释API设计”和“API演化模式”。前者解决了API调用依赖开发人员阅读和理解其API文档,后者确保了API在开放生态系统中的后向兼容性和扩展灵活性。
然而,OpenAI以AI为先思维,借助LLM强大的自然语言理解能力和海量的“文档+代码”语料库,试图改写API对接以开发为中心的模式。
它试图让AI像人类开发者一样阅读API文档,并按照文档自动生成API调用代码。这种沿袭传统API调用工作流的路径,无疑是门槛很低的。
虽然ChatGPT插件机制在实现上引入了人工智能,但本质上仍然是一个藩篱中的平台API。它能否在未来影响开放互联网API对接的普遍模式,仍待进一步观察。
可以确定的是,这种基于LLM的API调用模式将大幅降低互联网巨头对接大量外部API的开发和运维成本。同时,它也有积极的促进互联网开放的积极意义。
另一方面,基于LLM的API调用从根本上改变了“平台”和“插件”的约束关系。
过去,一个平台要支持插件,需要平台方首先定义接口,并让插件开发者探索应用场景,并根据接口进行开发。而ChatGPT插件开发者只需提供“能力”并定义API(符合ChatGPT的交互模式),由ChatGPT在与用户交互中探索应用场景。
随着“平台”和“插件”约束关系的改变深刻影响,两者的权力结构也发生了改变。
传统插件模式下,平台定义具体的游戏规则,用流量换取插件对其用户体验的承诺,双方是一种共生关系。
在ChatGPT引领的插件模式下,平台装作谦逊的领主,让插件文档调用API,实际上是把插件变成一个“谋士”。
OpenAI之所以引入这种权力关系极不平衡的插件模式,可能是基于以下两个原因:
1. 传统应用的交互形式与ChatGPT相去甚远,如果插件承接下游用户的体验,可能会给用户带来体验劣化的感觉。
2. 在OpenAI眼中,传统应用与ChatGPT相比就像工具与人之间的关系,心态上自然会蔑视其他应用并将其“物化”。