nuomiphp
正在加载…
请使用更现代的浏览器并启用 JavaScript 以获得最佳浏览体验。
加载论坛时出错,请强制刷新页面重试。
有没有办法让 AI 不胡扯
koto
比如我用 AI 学外语,让 AI 讲一个选择题,或者给我符合特定规律的词汇表。AI 偶尔会自由发挥,内容虽然看起来丰富,但有小错误。比如明明是动词它告诉我这是副词的情况。
另外去问 AI 的一些问题,AI 看似回答的,而且道理似乎通,其实是错的。
有没有办法,或者某些 AI 工具虽然可以蠢一点,但是不会胡扯或犯错的呢?
lithiumii
简单来说就是让它概括你提供的资料,而不是让它回答你的问题
Rorysky
ai 幻觉现象是早期的技术难点
geelaw
古代人曾经认为日心说是胡扯,所以即使是人,想要准确定义“胡扯”还是很困难的。另外有一些工作 https://arxiv.org/abs/2401.11817 传达的信息是:LLM provably hallucinates. 但我本人没有认真读过这篇文章,所以它的形式化模型是否适合用来解释 LLM ,我无定论。
xmuli
AI 的缺陷 1. 不知道自己的能力边界 2.也不知道物理世界的真实规矩 ---from 某外籍院士的前几天的分享
xmuli
估计一段时间内无法彻底解决,若是做某垂直领域,可微调和迭代训练,努力提高📈正确率,用户感受体验截然不同。 一般通用模型正确率可达到 85 分,上而到 95 就需堆叠人力资源,也能做到,于是一个商业产品就出现了。
shuson
用 lora 重新训练一个或者简单做个 RAG
BlackSiao
这里涉及到一点微调的方面了,最简单的办法就是调用 LLM 的时候把温度调低点,看看能不能满足你的需求;其次就是做个 RAG ,提前把相应的知识存好让它到时候随机应变调用。不过最经济的办法应该还是去网上搜一下有没有人已经根据你的需求调出一个特定的项目来,比如学外语的肯定有很多已调好的
darson
最近看了 hinton 的一个演讲,他说幻觉是所有神经网络的特性,可以降低但是无法杜绝。人也不例外,人对于短期发生的事情通常能够比较准确的召回,但是对于长期之前的事,事实上经常会对没发生过的事情深信不疑。例如曼德拉效应,或者孟子的故天将降大任于‘斯’人也 vs 故天将降大任于‘是’人也。所以比较简单的做法就是提供上下文,让 LLM 从中去找答案并提供出处。