C114门户论坛百科APPEN| 举报 切换到宽版

亚星游戏官网

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

亚星游戏官网-yaxin222  少尉

注册:2015-11-142
发表于 2024-11-26 22:36:25 |显示全部楼层

奇月 发自 凹非寺量子位 | 公众号 QbitAI

只需几秒钟,开源模型检索4500篇论文,比GPT-4o还靠谱!

这就是由华盛顿大学和艾伦人工智能研究所(Ai2)打造的最新模型OpenScholar

它还是首个从论文到数据集、模型检查点都完全开源的科研助手模型。

亚星游戏官网-yaxin222



在由20位专家进行的500次对比实验中,72%的情况下他们都觉得OpenScholar的输出结果超越了人类。

亚星游戏官网-yaxin222



而且OpenScholar还会附上参考文献列表,非常贴心:

亚星游戏官网-yaxin222



亚星游戏官网-yaxin222



它的功能也非常丰富。

你可以询问OpenScholar某个研究课题的现状:“有没有人尝试过将检索增强型LM的检索库扩大到万亿级tokens?”

亚星游戏官网-yaxin222



寻找最新的数据集

亚星游戏官网-yaxin222



针对某篇论文询问技术细节

亚星游戏官网-yaxin222



或者询问算法的细节,比如机器人算法/ReLU算法等等:

亚星游戏官网-yaxin222



亚星游戏官网-yaxin222



有多位网友使用过后表示:做复杂课题也能快速搜集有用的资料,真是科研神器!

亚星游戏官网-yaxin222



亚星游戏官网-yaxin222



亚星游戏官网-yaxin222



仅调用8B模型

一句话总结:它存储了4500万篇论文的大规模数据,并使用自定义训练的检索器、重排器和8B参数语言模型进行检索,并根据最新的科学文献内容回答问题。

亚星游戏官网-yaxin222



具体来说,OpenScholar-8B(OS-8B)系统包括以下组件:

1.开放学者数据存储:包含超过4500万篇论文、以及对应的约2.5亿段落嵌入。底层论文数据截止到2024年10月。

2.专业检索器和重排序器:这些工具专门用于从科学文献数据存储库中识别相关段落。

3.专业8B语言模型:这是一个针对科学文献综合任务优化的8B参数语言模型,在性能与计算效率之间取得了很好平衡。团队基于来自迭代自我反馈生成管道生成的合成数据训练并微调了Llama 3.1 8B。

4.迭代自我反馈生成:在推理过程中,团队使用迭代自我反馈来通过自然语言反馈精炼模型输出。每次迭代都额外检索更多论文,使模型能够提高回答质量并缩小引用差距。

为了评估 OpenScholar,团队还开发了ScholarQABench——一个专门用于评估从多篇论文中综合信息以解决开放式科知识题的基准。

ScholarQABench包含七个数据集:三个专注于单篇论文评估的现有数据集,以及四个需要跨多篇论文综合的新收集数据集。

亚星游戏官网-yaxin222



最终在实验自动评估以及人工评估中,OpenScholar模型的表现优于很多主流模型,包括GPT-4o和Llama 3.1 70B。

亚星游戏官网-yaxin222



搜索的可靠性方面,OpenScholar更是远超GPT-4o。

GPT-4o在90%以上的情况下都引用了不存在的论文,而OpenScholar的结果都是来自确定来源。

以及在信息覆盖率、实用性、相关性等多个维度方面,OpenScholar撰写的结果都优于GPT-4o。

亚星游戏官网-yaxin222



运营成本便宜100倍

对比基于OpenAI的GPT-4o和Anthropic的Claude的科研模型可以发现,它们虽然性能很强,但价格昂贵、而且工作原理也不透明。

而OpenScholar正是为了挑战这些现有的大模型玩家入局的!

据开发人员称,OpenScholar是首个完全开源的科学助手语言模型——从数据到训练食谱再到模型检查点,全部公开!

研究人员可以非常清除地看到模型的训练过程和数据集的内容等,也可以根据自己的工作进行调整。

这样一来,规模较小、架构简单的OpenScholar-8B的运营成本比基于GPT-4o构建的同期系统PaperQA2便宜100倍

对于小型机构、资金不足的实验室以及发展中国家的研究人员来说,这样的运营成本非常有吸引力。

不过,目前OpenScholar也有很多局限,比如:

1.OpenScholar可能会引用不那么具有代表性的论文。

例如,在描述特定方法时,它可能未能引用提出该方法的原始论文,而是引用了提及该方法的另一篇论文。

2.OpenScholar有时可能会生成没有参考文献支撑的响应,或者检索到该领域不是最相关或最新的论文。

例如:当被问及机器人学中的大型基础模型时,此响应引用了一篇具有3.07亿参数模型的论文,而截至2024年11月,机器人学中当前最大的基础模型(RT-2)具有550亿参数。

3.OpenScholar可能仍然可能生成带有幻觉的结果,而不是依赖于它检索到的真实论文。

4.许多科学论文都设置了付费墙

目前出于对版权的敬重,OpenScholar数据存储库仅包含公开的论文。这可能会降低模型在较封闭领域回答问题的能力。

团队表示,未来他们会纳入更多论文、升级检索增强算法,也会对各个领域的经典研究问题和论文进行深入整合,增强OpenScholar的专业程度。

不过,从实验结果来看,OpenScholar已经是目前表现最好的AI学术研究助理之一啦,感兴趣的小伙伴可以直接戳下面的公开资料进行尝试!

亚星游戏官网-yaxin222



Demo:https://openscholar.allen.ai/
论文:https://openscholar.allen.ai/paper
OpenScholar代码:https://github.com/AkariAsai/OpenScholar
ScholarQABench数据集代码:https://github.com/AkariAsai/ScholarQABench
更多测试code:https://github.com/AkariAsai/OpenScholar_ExpertEval

参考链接
[1]https://venturebeat.com/ai/openscholar-the-open-source-a-i-thats-outperforming-gpt-4o-in-scientific-research/
[2]https://allenai.org/blog/openscholar


来源:网易

举报本楼

本帖有 2 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系大家 |网站地图  

GMT+8, 2024-12-26 03:03 , Processed in 0.230075 second(s), 16 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部
XML 地图 | Sitemap 地图