反射 70B "人工智能模型可解决令人头疼的法学硕士幻觉问题

2024-09-06 03:19:20 UTC

又有一个新的人工智能聊天机器人进入了这个本已拥挤不堪的领域,但这个聊天机器人显然能做到大多数聊天机器人做不到的事情--从错误中学习。

9 月 5 日,HyperWrite AI 公司首席执行官马特-舒默(Matt Shumer)在 X 上发表文章,宣布开发出 "Reflection 70B",并声称它是 "世界上最顶级的开源模型"。

他还补充说,新的人工智能是通过 "反思-调整"(Reflection-Tuning)技术训练出来的,该技术的开发目的是让 LLM 能够修正自己的错误。

他声称,Reflection Llama-3.1 70B 甚至可以在多个基准测试中与顶级闭源模型(如 Anthropic 的 Claude 3.5 Sonnet 和 OpenAI 的 GPT-4o )"分庭抗礼"。Llama 3.1 是 Meta 于今年 7 月推出的开源人工智能。

他说,目前的人工智能模型经常会产生幻觉,但反思-调谐(Reflection-Tuning)技术能让它们认识到自己的错误,并在承诺答案之前纠正错误。

"当前的人工乐虎国际手机版下载模型有产生幻觉的倾向,而且在产生幻觉时无法识别。"

人工智能幻觉是指生成式人工智能聊天机器人感知到人类观察者不存在或无法感知的模式或物体,从而产生不准确的输出。

反射调谐示例。来源:Matt Shumer马特-舒默

反射调谐是一种用于改进人工智能模型的技术,它可以让人工智能模型分析自身输出并从中学习。

可以将人工智能的反应反馈给人工智能,要求它评估自己的反应,例如找出优点、缺点和需要改进的地方。

这一过程会重复多次,使人工智能能够不断完善自身能力,目的是让它对自己的产出更有自知之明,更善于批评和改进自己的表现。

舒默补充说:"只要有正确的提示,它绝对是许多用例中的猛兽。

相关链接 报道:亚马逊将利用Anthropic的Claude人工智能模型改造Alexa

微软支持的 OpenAI 于 2023 年发布了一篇研究论文,提出了如何帮助防止人工智能幻觉的想法。

其中一个想法是 "过程监督",即训练人工智能模型在得出答案时,对每一个单独的、正确的推理步骤进行奖励,而不仅仅是奖励正确的最终结论。

"OpenAI的研究员卡尔-科布(Karl Cobbe)当时对CNBC说:"检测和减轻模型的逻辑错误或幻觉,是建立对齐的AGI(人工通用智能)的关键一步。

杂志: 台湾的人工智能无人机 "地狱景象 "计划,法学硕士太笨毁灭不了人类:人工智能之眼


Related News

More News

© 2025 DeFi.io