Mira Network 能否解决 AI 大模型的「幻觉」问题?
Written by: Haotian
大家都清楚,AI 大模型落地到金融、医疗、法律等垂直应用场景中最大的阻碍就一个:AI 输出结果存在的「幻觉」问题无法匹配需要精准度的实际应用场景。如何解决呢?最近, @Mira_Network 推出了公共测试网,给出了一套解决方案,我来说说咋回事:
首先,AI 大模型工具存在「幻觉」的情况,大家都能有所感知,原因主要有两点:
1、AI LLMs 训练数据不够完整,尽管已有数据规模很庞大,但仍无法覆盖一些小众或专业领域的信息,这时候 AI 倾向于做「创造性补全」继而导致一些实时性错误;
2、AI LLMs 工作本质上都依赖「概率采样」,它是识别训练数据中的统计模式和相关性,而并非真正「理解」,因此概率采样的随机性、训练和推理结果的不一致性等都会导致 AI 在处理高精度事实性问题存在偏差;
如何解决此问题呢?康奈尔大学 ArXiv 平台上发布了一篇通过多个模型共同验证提高 LLMs 结果可靠性的方法。
简单理解,就是先让主模型生成结果,再集成多个验证模型对该问题进行「多数表决分析」,从而可降低模型产生的「幻觉」。
在一系列的测试中发现,此方法可以把 AI 输出的准确率提高至 95.6%。
既然如此,那肯定需要一个分布式的验证平台来管理并验证主模型和验证模型的协作交互过程,Mira Network 就是这么一个专门构建 AI LLMs 验证的中间件网络,在用户和基础 AI 模型之间构建了一个可靠的验证层。
有了这套验证层网络的存在,就可以实现包括隐私保护、准确率保障、可扩展设计、标准化 API 接口等集成服务,可以凭借减少 AI LLMs 输出幻觉来扩大 AI 在各个细分应用场景的落地可能性,也是 Crypto 分布式验证网络能够作用到 AI LLMs 工程实现过程中的一次实践。
比如,Mira Network 分享了几个在金融、教育、Blockchain生态的案例可以佐证:
1)Gigabrain 一个交易平台集成了 Mira 后,系统可以加一环验证市场分析和预测的准确性,过滤掉不靠谱的建议,可提高 AI 交易信号的准确性,让 AI LLMs 作用在 DeFai 场景更可靠一些;
2)Learnrite 则利用 mira 验证 AI 生成的标准化考试题目,让教育机构能够大规模利用 AI 生成内容,同时不影响教育测试的内容准确性,以维持严格的教育标准;
3)Blockchain Kernel Xiaobai Navigation项目利用了 Mira 的 LLM 共识机制将其整合到了 BNB 生态系统当中,创建了去中心化验证网络 DVN,使得Blockchain上执行 AI 计算的准确性和Safety性得到一定程度的保障。
above.
其实,Mira Network 提供的是中间件共识网络服务,肯定不是让 AI 应用能力增强的唯一途径,事实上,通过数据端的训练增强,通过多模态大模型的交互增强,以及通过 ZKP、FHE、TEE 等潜在密码学技术的隐私计算增强等等都是可选路径。但相较之下,Mira 的解决方案贵在落地实践快,且直接见效。
The article comes from the Internet:Mira Network 能否解决 AI 大模型的「幻觉」问题?