网站优化
当前位置: 主页 > 资讯 > 网站优化
人工智能工具大举“入侵”科学搜索引擎
发布日期:2023-08-04 阅读次数:

  互联网搜索引擎中出现的人工智能(AI)聊天机器人,如谷歌的Bard、微软的Bing等,似乎将越来越多地改变科学搜索。

  据《自然》报道,8月1日,荷兰出版业巨头爱思唯尔为其Scopus数据库的一些用户发布了一个基于ChatGPT的AI界面,而英国数字科学公司宣布为其Dimensions数据库的AI大型语言模型(LLM)进行封闭试验。同时,美国科睿唯安公司表示,他们也试图将LLM纳入其Web of Science数据库。

  用于科学搜索的LLM并不是什么新鲜事,Elicit、Scite和Consensus等初创公司已经有了这样的AI系统,即依靠免费的科学数据库,或通过与出版商合作来访问付费的研究论文,帮助总结一个领域的发现或识别顶尖研究。而现在,拥有大型科学数据库的公司也加入其中。

  作为试点推出的爱思唯尔聊天机器人名为Scopus AI。负责该工具开发的爱思唯尔的Maxim Khan说,作为一个轻便、有趣的工具, Scopus AI旨在帮助研究人员快速获得他们不熟悉的研究主题的摘要。在回答一个自然语言问题时,机器人使用LLM GPT-3.5版本获得一段关于研究主题的流畅总结、引用的参考文献以及需要进一步探索的问题。

  对用于搜索尤其是科学搜索的LLM的一个担忧是,它们是不可靠的。LLM并不理解其产生的文本,只是通过输出文本上看似合理的词语来工作。其输出可能包含事实错误和偏见,而且正如学者们很快发现的那样,LLM可能会编造不存在的参考文献。

  因此,Scopus AI受到了限制,它只能通过参考5至10篇研究摘要来生成答案。Khan 解释说,AI本身并不会寻找这些摘要,相反,在用户输入查询后,一个传统搜索引擎会将它们作为与问题相关的内容加以提供。

  爱思唯尔限制Scopus AI仅搜索自2018年以来发表的文章,以获取最近的论文,并指示其在回复中适当引用返回的摘要,以避免不安全或恶意的查询,并指示其说明收到的摘要中是否没有相关信息。这不能避免错误,但可以最大限度地减少错误。

  那么,用户是否有可能将机器人生成的段落复制粘贴到自己的论文中,从而对内容进行抄袭?Khan表示,这是有可能的。不过,爱思唯尔通过“指导意见”来解决这一问题,要求研究人员负责任地使用摘要。资助者和出版商也发布了类似的指导意见,要求透明地披露LLM是否用于撰写论文或进行同行评审,或者在某些情况下声明不应该使用LLM。

  目前,Scopus AI仅向约1.5万名用户推出,该公司表示,预计将于2024年初全面开放该工具。

  同样在8月1日,数字科学公司宣布将为其庞大的Dimensions数据库引入AI助手,目前同样只针对选定的测试者。在用户输入问题后,搜索引擎首先检索相关文章,然后开放的AI GPT模型围绕已检索到的排名靠前的摘要生成摘要段落。

  Dimensions还使用LLM提供了相关论文的更多细节,包括研究结果的简短总结。

  数字科学公司首席产品官Christian Herzog说,公司希望在今年年底前在更广泛的范围发布该工具,但目前正在与科学家、资助者和其他使用Dimensions的人合作,测试LLM在哪些方面可能有用——这还有待观察。他说:“这关乎逐渐适应一项新技术并建立信任。”

  同时,科睿唯安也表示,该公司正“致力于在Web of Science中添加LLM支持的搜索”,但没有透露相关工具发布的时间。

  版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:。

  FASE 前沿研究:一种监测和指导农田土壤增碳的工具——Soil Carbon Check

  英文学术期刊Malignancy Spectrum(《肿瘤学全景》)首篇文章在线