AI 迎来“USB-C时刻”,MCP 如何与以太坊完美融合?
内容 | Bruce
编辑 & 排版 | 环环
设计 | Daisy
AI 进化史上的”USB-C时刻”,2024 年 11 月,Anthropic 发布的 MCP 协议正在引发硅谷地震。这个被喻为”AI 界 USB-C”的开放标准,不仅重构了大模型与物理世界的连接方式,更暗藏着破解 AI 垄断困局、重构数字文明生产关系的密码。当我们还在争论 GPT-5 的参数规模时,MCP 已悄然铺就通向 AGI 时代的去中心化之路……
Bruce:最近在研究 Model Context Protocol(MCP)。这是继 ChatGPT 之后,在 AI 领域第二个让我非常兴奋的东西,因为它有希望解决我思考多年的三个问题:
-
非科学家和天才,普通人如何参与 AI 行业并获得收入?
-
AI 和 Ethereum 有什么双赢的结合之处?
-
如何实现 AI d/acc?避免中心化的大公司垄断、审查,AGI 毁灭人类?
01、MCP 是什么?
MCP 是一个开放标准框架,可以简化 LLM 与外部数据源和工具的集成。如果我们把 LLM 比作 Windows 操作系统,Cursor 等应用是键盘和硬件,那么 MCP 就是 USB 接口,支持将外部数据和工具灵活插入,然后用户可以读取使用这些外部数据和工具。
MCP 提供了三种能力对 LLM 进行扩展:
-
Resources(知识扩展)
-
Tools(执行函数,调用外部系统)
-
Prompts(预编写提示词模板)
MCP 可以由任何人进行开发和托管,以 Server 的方式提供,可以随时下线停止服务。
02、为什么需要 MCP
目前 LLM 使用尽可能多的数据进行大量的运算并生成大量的参数,将知识融入到模型里面,从而实现对话输出相应知识。但是存在比较大的几个问题:
-
大量的数据和运算需要大量的时间和硬件,用于训练的知识通常是过时的。
-
大量参数的模型,很难在本地设备进行部署和使用,但实际上使用者大部分场景可能并不需要全部信息完成需求。
-
部分模型采用爬虫的方式读取外部信息进行运算以实现时效性,但是由于爬虫的限制和外部数据的质量,可能产出误导性更强的内容。
-
由于 AI 并没有很好的给创作者带来利益,很多网站和内容开始实施反 AI 措施,生成大量垃圾信息,将会导致 LLM 的质量逐步下降。
-
LLM 很难扩展到方方面面的外部功能和操作,例如准确调用 GitHub 接口实现一些操作,它会按照可能过时的文档生成代码,但无法确保可以精准执行。
03、胖 LLM 和瘦 LLM + MCP 的架构演进
我们可以将目前的超大规模模型视为胖 LLM,其架构可以以下面简单图示表示:
用户输入信息之后,通过 Perception & Reasoning 层对输入进行拆解和推理,然后调用庞大的参数进行结果生成。
基于 MCP 之后,LLM 可能聚焦在语言解析本身,剥离出去知识和能力,变成瘦 LLM:
瘦 LLM 的架构下,Perception & Reasoning 层将会关注如何将全方面的人类物理环境信息解析成为 tokens,包括但不限于:语音、语气、气味、图像、文字、重力、气温等,然后通过 MCP Coordinator 编排和协调多达数百的 MCP Servers 完成任务。瘦 LLM 的训练成本和速度将会极速提升,对于部署设备的要求变得很低。
04、MCP 如何解决三大问题
普通人如何参与 AI 行业?
任何有独特才能的人,都可以创建自己的 MCP Server 对 LLM 提供服务。例如一个鸟类爱好者可以将自己多年的鸟类笔记通过 MCP 对外提供服务。当有人使用 LLM 搜索跟鸟类相关的信息,就会调用到当前鸟类笔记 MCP 服务。创作者也会因此获得收入分成。
这是一种更为精准和自动化的创作者经济循环,服务内容更加标准化,调用的次数、输出的 token 都可以很精准的统计。LLM 提供商甚至可以同时调用多个鸟类笔记 MCP Servers 让用户选择和评分来确定谁的质量更好获得更高匹配权重。
AI 和 Ethereum 的双赢结合
a. 我们可以基于 Ethereum 构建一个 OpenMCP.Network 创作者激励网络。MCP Server 需要托管和提供稳定的服务,用户对 LLM 提供商付费,LLM 提供商将实际的激励通过网络分配到被调用的 MCP Servers 上从而维持整个网络的可持续性和稳定性,激发 MCP 的创作者持续创作和提供高质量内容。这一套网络将需要使用智能合约实现激励的自动化、透明、可信和抗审查。运行过程中的签名、权限验证、隐私保护都可以使用以太坊钱包、ZK 等技术实现。
b. 开发 Ethereum 链上操作相关的 MCP Servers,例如 AA 钱包调用服务,用户将支持在 LLM 里面通过语言实现钱包付款而不暴露相关私钥和权限给 LLM。
c. 还有各种开发者工具,进一步简化 Ethereum 智能合约开发和代码生成。
实现 AI 去中心化
a. MCP Servers 将 AI 的知识和能力去中心化,任何人都可以创建和托管 MCP Servers,注册到例如 OpenMCP.Network 这样的平台上面之后按照调用获得激励。没有任何一个公司可以掌握全部的 MCP Servers。如果一个 LLM 提供商给予不公平的激励到 MCP Servers,创作者将支持屏蔽该公司,用户得不到优质结果后将会更换其他 LLM 提供商实现更公平的竞争。
b. 创作者可以对自己的 MCP Servers 实现细粒度的权限控制以保护隐私和版权。瘦 LLM 提供商应该通过提供合理的激励来让创作者贡献高质量的 MCP Servers。
c. 瘦 LLM 能力差距将慢慢抹平,因为人类的语言是有遍历上限的,演进也很缓慢。LLM 提供商将需要把目光、资金瞄向高质量的 MCP Servers,而非重复使用更多显卡炼丹。
d. AGI 的能力将得到分散和降权,LLM 仅作为语言处理和用户交互,具体能力分布在各个 MCP Servers 里面。AGI 将不会威胁到人类,因为关闭 MCP Servers 之后就只能进行基础语言对话。
05、总体回顾
-
LLM + MCP Servers 的架构演进,本质上是将 AI 能力的去中心化,降低了 AGI 毁灭人类的风险。
-
LLM 的使用方式,使其对 MCP Servers 的调用次数和输入输出可以做到 token 级别的统计和自动化,为 AI 创作者经济系统的搭建奠定了基础。
-
好的经济系统可以驱动创作者主动贡献创作高质量 MCP Servers,从而带动整个人类的发展,实现正向飞轮。创作者不再抵御 AI,AI 也会提供更多岗位和收入,将类似 OpenAI 这样的垄断商业公司的利润合理分配。
-
这一套经济系统,结合其特性和创作者的需求,非常适合基于 Ethereum 实小白导航现。
06、未来展望:下一步的剧本演进
-
MCP 或者类 MCP 的协议将会层出不穷,几家大公司将开始竞争标准的定义。
-
MCP Based LLM 将会出现,专注于解析和处理人类语言的小模型,附带 MCP Coordinator 接入 MCP 网络。LLM 将支持自动发现和调度 MCP Servers,无需复杂手工配置。
-
MCP Network 服务提供商将出现,每家有自己的经济激励系统,MCP 创作者将自己的 Server 注册和托管即可得到收入。
-
如果 MCP Network 的经济激励系统使用 Ethereum 构建,基于智能合约,那么 Ethereum 网络的 transactions 保守估计将增加约 150 倍(按照非常保守的每天 1 亿次 MCP Servers 的调用量,目前 12s 一个 Block 包括 100 txs 计算)。
文章来源于互联网:AI 迎来“USB-C时刻”,MCP 如何与以太坊完美融合?