您的位置:云骑士 > 科技 > 新闻 >

生成式AI获得新突破 助力提升语言模型可信度

时间:2024-06-22 17:04:54
人工智能(AI)是能阅读和生成自然人类语言的AI系统类似ChatGPT和Gemini,当AI生成答案的同时,也会有一些令人难辨真假的胡言乱语的结果,这被称为“幻觉”(hallucination)。不过,这类系统很容易产生所谓“幻觉”,即生成不准确或没有意义的内容。检测LLM出现的这种错误非常难,因为这些回答的呈现方式看起来很可信。而新一期《自然》杂志发表的一项研究报道了一种新方法,能检测大语言模型(LLM)产生的“幻觉”,即该方法能测量生成回答的含义的不确定性,或能提升LLM输出答案的可靠性。

英国牛津大学研究团队此次尝试量化一个LLM产生此类错误的程度,从而判断生成的内容有多忠于提供的源内容。他们的方法能检测“编造”——这是幻觉的一个子类别,特指不准确和随意的内容,常出现在LLM缺乏某类知识的情况下。这种方法考虑了语言的微妙差别,以及回答如何能以不同的方式表达,从而拥有不同的含义。团队的研究表明,他们的方法能在LLM生成的个人简介,以及关于琐事、常识和生命科学这类话题的回答中识别出“编造”内容。

在同时澳大利亚皇家墨尔本理工大学科学家指出,“用一个LLM评估一种基于LLM的方法似乎是在循环论证,而且可能有偏差。”不过,团队指出他们的方法有望帮助用户理解在哪些情况下使用LLM的回答需要注意,也意味着可以提高LLM在更多应用场景中的置信度。
总结:
近两年,国内外各种人工智能大模型如雨后春笋般涌现,它们陆续在聊天机器人、智能搜索、文本生成等丰富多样的场景中落地应用。以国内为例,目前用户可通过智能手机下载多款人工智能大模型应用,并与之聊天互动。不过,在应用过程中,人工智能大模型偶尔会“胡言乱语”的问题也受到关注。利用技术手段检测它们是否在“胡言乱语”很有必要,从根本上避免人工智能大模型出现“幻觉”更是急需破解的难题。
以上就是生成式AI获得新突破 助力提升语言模型可信度的全部内容,了解更多新闻资讯敬请关注云骑士装机大师

点击阅读全文

本文标题:生成式AI获得新突破 助力提升语言模型可信度

郑重声明:东方财富发布此内容旨在传播更多信息,与本站立场无关,不构成投资建议。

风险提示:谨慎投资,理性决策,市场风险自负。

相关视频
相关教程
最新教程