手机免费黄色大片,黄色在线免费观看网站,亚洲日本黄色网址是多少,国内精品久久久久影院亚洲,亚洲国产欧美国产综合一区,www.嫩草影院,精品精品久久宅男的天堂

基于大模型的搜索引擎給科研按下“加速鍵”

2024-10-22 07:27 來源:科技日報
查看余下全文
(責(zé)任編輯:王婉瑩)
手機看中經(jīng)經(jīng)濟日報微信中經(jīng)網(wǎng)微信

基于大模型的搜索引擎給科研按下“加速鍵”

2024年10月22日 07:27   來源:科技日報   

  ◎本報記者 劉 霞

  隨著人工智能(AI)技術(shù)蓬勃發(fā)展,許多基于大型語言模型的搜索引擎如雨后春筍般涌現(xiàn)。它們試圖通過整理大量文獻,提煉研究論文的精髓等,幫助科研人員提升工作效率,加速科研進程。

  英國《自然》網(wǎng)站在近日的報道中指出,盡管這些AI驅(qū)動的科研搜索引擎“各有其美”,但鑒于AI本身會產(chǎn)生“幻覺”,可能生成不準確或誤導(dǎo)性信息,科學(xué)家們在使用這些搜索引擎時,需保持警惕。當然,在確保信息的準確性方面,這些AI工具的提供者責(zé)無旁貸。

  科研搜索引擎應(yīng)運而生

  對科研人員來說,搜索和閱讀科研文獻可謂“家常便飯”。但是,傳統(tǒng)的文獻搜索往往耗時費力,難以高效獲取最新研究成果。基于AI的科研搜索引擎正是瞄準科研人員的這一“痛點”,提供精準助力。

  目前,最受科研工作者青睞的AI科研搜索引擎當屬Elicit、Consensus和You這三款。它們各顯其能,為科學(xué)家整理文獻綜述提供了極大便利。

  當用戶向Elicit拋出一個研究問題時,它會呈現(xiàn)相關(guān)論文的列表,并附上關(guān)鍵科學(xué)發(fā)現(xiàn)的摘要。在此基礎(chǔ)上,用戶可以進一步詢問與特定論文有關(guān)的問題,還能根據(jù)期刊或研究類型進行篩選,讓文獻檢索更加順暢。

  而Consensus則致力于引領(lǐng)研究人員深入了解某一主題的各種科學(xué)信息。針對一個特定的問題,該工具會提供一個“共識量表”,清晰展示各篇科學(xué)論文對該問題的看法。研究人員可以選擇性閱讀論文的摘要。該公司首席執(zhí)行官艾瑞克·奧爾森表示,盡管該工具不能取代對論文的深入探究,但對快速篩選研究確實有用。據(jù)歐洲新聞網(wǎng)今年1月報道,該搜索引擎目前聚焦六大主題:經(jīng)濟學(xué)、睡眠研究、社會政策、醫(yī)學(xué)以及心理健康和保健品。

  You則為用戶提供了探索研究問題的不同方式。例如,其“天才模式”能以圖表形式直觀呈現(xiàn)答案。上個月,You又推出了一款“多人游戲工具”,讓研究人員能夠攜手合作,共享定制的AI聊天工具,自動完成事實核查等任務(wù)。

  據(jù)愛思唯爾官網(wǎng)報道,該公司于今年4月正式發(fā)布了斯高帕斯(Scopus)AI。它以當今世界最大的文摘和引文數(shù)據(jù)庫Scopus中的數(shù)據(jù)為基礎(chǔ),結(jié)合生成式AI和大型語言模型技術(shù),以及豐富的內(nèi)容,為科研人員提供簡明且可信賴的研究主題摘要,并支持“進一步探索”、自然語言查詢和“思維導(dǎo)圖演示”等功能。

  總部位于倫敦的研究分析公司Clarivate于9月推出了基于AI的研究助手。這款工具使用戶能夠快速搜索Web of Science數(shù)據(jù)庫。研究人員只需輸入研究問題,便可查看相關(guān)的摘要、主題和引文圖。引文圖展示了每項研究引用的論文,可幫助研究人員快速識別關(guān)鍵文獻。該AI工具還可用不同語言總結(jié)論文摘要。

  針對專業(yè)領(lǐng)域的AI搜索引擎也開始涌現(xiàn),BioloGPT就是其中“翹楚”。它能為生物學(xué)問題提供精煉而深入的答案。

  功能表現(xiàn)各有千秋

  哪款A(yù)I科研搜索引擎最佳?這完全取決于用戶的具體需求。

  例如,當科研人員需要了解某個話題的共識程度或意見的多樣性時,Consensus或是最佳選擇。

  面對繁雜的海量數(shù)據(jù),研究人員可利用Elicit聚焦自己的研究興趣。Elicit能像一位精明的篩選師,剔除不相關(guān)的論文,讓研究人員能更深入探索更相關(guān)且真正有價值的論文。

  這些AI搜索工具不僅能幫助研究人員節(jié)省大量時間,還讓他們的工作質(zhì)量顯著提升,創(chuàng)造力得以激發(fā),甚至為他們找到了減輕工作壓力的妙招。

  但也有專家對于向?qū)W生介紹這些AI搜索工具持謹慎態(tài)度。他們認為,雖然這些工具很強大,但也可能會讓學(xué)生陷入對學(xué)術(shù)研究的誤解。因此,教學(xué)生如何批判性地看待這些工具,培養(yǎng)他們“慧眼識珠”的能力也同等重要。

  “幻覺”現(xiàn)象值得警惕

  當下,人們對主流AI聊天機器人(如ChatGPT)輸出內(nèi)容的準確性深感擔(dān)憂,原因在于這些機器人偶爾會出現(xiàn)“幻覺”。機器人的幻覺是自然語言生成領(lǐng)域的一個術(shù)語,指AI模型會生成一些看似合情合理,實則子虛烏有的文本片段。這些文本可能充斥著虛假的信息、自相矛盾的邏輯,甚至毫無意義的言辭。

  很多用戶都曾表示,他們發(fā)現(xiàn),AI研究工具在使用過程中,常常會犯下一些錯誤,比如編造統(tǒng)計數(shù)據(jù)、歪曲引用論文,甚至帶有偏見等。

  對此,開發(fā)人員已采取了一系列措施,以提升AI的準確性。

  Elicit公司主管詹姆斯·布雷迪表示,他們對信息的準確性極為重視,正在運用多個安全系統(tǒng)來嚴格核查答案中的錯誤。還有專家指出,Web of Science數(shù)據(jù)庫的AI工具擁有“堅實的防護網(wǎng)”,能夠有效屏蔽那些欺詐性和有問題的內(nèi)容。她提到,在軟件開發(fā)最后的測試階段,該團隊與約12000名研究人員攜手合作,整合了用戶們的反饋結(jié)果。

  盡管這種反饋改善了用戶體驗,但“幻覺”仍有可能出現(xiàn)。AI搜索工具在人類提供的反饋中不斷學(xué)習(xí)成長,希望為人類提供一個滿意的答案。因此,它們可能會自行填補那些原本不存在的信息空白。

  有AI研究人員認為,AI科研搜索工具能為科研提供助力,但前提是科學(xué)家對生成的信息予以驗證。

  正如BiologGPT創(chuàng)始人科勒·蘭巴登所指出的,要成為一名優(yōu)秀的科學(xué)家,很重要的一點是,對一切持懷疑態(tài)度,包括你自己的研究方法。

(責(zé)任編輯:王婉瑩)

精彩圖片