多模型共识+去中心化验证:Mira Network 如何构建AI信任层对抗幻觉与偏见?

Mira网络试图要构建AI的信任层,那么,为什么AI需要被信任?Mira又是如何来解决这个问题的?

看到Mira网络的公共测试网于昨天推出。它试图要构建AI的信任层。那么,为什么AI需要被信任?Mira又是如何来解决这个问题的?

人们在讨论AI时,关注AI能力的强大方面更多些。不过,有意思的是,AI存在“幻觉”或偏见。人们对这个事情关注并不多。什么是AI的“幻觉”,简单来说,就是AI有时候会“瞎编”,一本正经地胡说八道。比如,你问AI月亮为什么是粉色的?它可能会一本正经给你很多看似合理的解释。

AI存在“幻觉”或偏见跟目前一些AI技术路径有一定关系,比如生成式AI会通过预测“最可能”来进行内容输出,以实现连贯以及合理,但有时候无法验证真伪;此外,训练数据本身也包含错误、偏见甚至虚构内容,这也会影响到AI的输出。也就是说AI本身学习的人类语言模式而不是事实本身

总言之,目前的概率生成机制+数据驱动的模式几乎不可避免带来AI 幻觉的可能性。

这种带有偏见或幻觉输出的内容如果只是普通知识或娱乐内容,暂时还不会有直接后果,而如果发生在医疗、法律、航空、金融等高度严谨的领域,会直接产生重大后果。因此关于如何解决AI幻觉和偏见,是AI演化过程中核心问题之一。有的采用检索增强生成技术(跟实时数据库结合,优先输出已验证事实)、有的引入人类反馈,通过人工标注人类监督来纠正模型的错误等。

Mira项目也在试图解决AI偏见和幻觉的问题,也就是,Mira试图要构建AI的信任层,减少AI偏见和幻觉,提升AI的可靠性。那么,从整体框架来说,Mira是如何来减少AI的偏见和幻觉,并最终实现可信任的AI?

Mira实现这一点的核心是通过多个AI模型共识来验证AI输出。也就是,Mira本身是一个验证网络,它验证AI输出的可靠性,而它借力的是多个AI模型的共识。此外,还有一点很重要,就是去中心化共识来进行验证。

由此Mira网络的关键是去中心化的共识验证。去中心化的共识验证是加密领域擅长的,同时它也利用了多模型的协同这一点,通过集体验证模式来减少偏见和幻觉。

验证架构方面,它需要有一种可独立验证声明,Mira协议支持将复杂内容转换为独立验证声明。这些声明需要节点运营商参与验证,为了确保节点运营商的诚实,这里会利用到加密经济激励/惩罚来实现,不同AI模型+分散的节点运营商参与,以保证验证结果的可靠性。

Mira的网络架构包括了内容转换、分布式验证、以及共识机制,以此实现验证的可靠性。在这个架构中,内容转换是重要一环小白导航。Mira网络首先会将候选内容(一般由客户提交)分解成为不同的可验证声明(以确保模型可以按相同背景下来理解),这些声明由系统分发给节点进行验证,以确定声明的有效性,并汇总结果达成共识。这些结果和共识会返回给客户。此外,为了保护客户隐私,候选内容转换分解为声明对,它们会以随机分片的方式给到不同节点,防止验证过程中产生信息泄漏。

节点运营商负责运行验证器模型,处理声明以及提交验证结果。为什么节点运营商愿意参与声明的验证中来?因为可以获得收益。收益从哪里来?从为客户创造的价值中来。Mira网络的目的是为了降低AI的错误率(幻觉和偏见),一旦可以达成目的,就可以产生价值,比如在医疗、法律、航空、金融等领域降低错误率,这会产生巨大价值。因此,客户就有意愿付费。当然,至于付费的可持续性和规模则取决于Mira网络能否持续为客户带来价值(降低AI错误率)。此外,为了防止节点随机响应的投机取巧的行为,持续偏离共识的节点会被消减质押代币。总言之,就是通过经济机制的博弈来确保节点运营商诚实地参与验证。

总体来说,Mira为实现AI的可靠性,提供了一种新的解决思路,就是在多AI模型基础上,构建出去中心化共识验证网络,为客户的AI服务带来更高的可靠性,降低AI偏见和幻觉,以满足客户更高准确度和精确率的需求。并在为客户提供价值基础上,为Mira网络的参与者带来收益。如果用一句话来概括,就是Mira试图构建AI的信任层。这对于提升AI应用深入起到推动作用。

目前Mira合作的AI agent框架就包括ai16z、ARC等。Mira网络的公共测试网于昨日推出,用户参与Mira公共测试网,可通过使用Klok即可,它是基于Mira的LLM聊天应用,使用Klok应用可以体验经过验证的AI输出(可以去比较跟没有经过验证的AI输出有什么区别),也可以赚取Mira积分。至于积分未来用途是什么,暂时还没透露。

文章来源于互联网:多模型共识+去中心化验证:Mira Network 如何构建AI信任层对抗幻觉与偏见?

分享到
© 版权声明

相关文章