自去年11月OpenAI公司推出聊天機器人ChatGPT以來,學術界對這項顛覆性的技術進行熱烈討論,該技術也在信息搜索和分析領域展現巨大的潛力。信息和分析公司勵訊集團(Relx)2月16日發佈最新財報時表示,該公司正在使用生成式AI增強其法律、醫療和科學業務產品,並預測2023年的業績將繼續實現強勁增長。
勵訊旗下擁有全球最大的學術出版商之一愛思唯爾,旗下刊物包括《柳葉刀》(Lancet)、《細胞》(Cell)等知名科學雜志。勵訊集團的其他業務還涵蓋法律、風險以及展覽。
勵訊集團首席財務官Nick Luff表示,生成式AI給信息分析行業帶來的機遇大於威脅,集團目前已經將生成式AI構建到其業務產品中。“生成式AI技術本身非常有趣,但需要確保將它們應用於正確的內容、正確的用例、正確的工作流程,以獲得專業用戶的信任。”Luff在財報發佈時指出。
數字化轉型是勵訊集團近年來的戰略重點,這一需求在傳統出版行業面臨數字化挑戰的背景下顯得尤為突出。2月17日,愛思唯爾董事長池永碩在一篇署名文章中指出,愛思唯爾已經開發數字化解決方案,用於支持臨床決策的深度數據和信息分析,並產生可信賴的醫學知識信息。
不過,隨著科研人員邁入高級對話AI的新世界,出版機構也正在討論如何認可生成式AI的合法使用,並為防止濫用制定清晰準則。
全球知名出版集團施普林格-自然(Springer Nature)的旗艦刊物《自然》日前公開發表社論,聲明在使用生成式AI時的兩條原則:一是不接受任何LLM工具作為對研究論文有貢獻的作者;二是使用LLM工具的研究人員應在方法或致謝部分中聲明。
“這並不是禁止ChatGPT作為撰寫論文的工具,但根本問題是對於一篇論文是如何組成的,以及使用什麼軟件撰寫的,要有明確的規定。”一位出版界相關人士對第一財經記者表示,“科學需要透明度,這是核心與本質。包括研究人員、出版商需要走到一起,制定新的披露規范,以防止技術被濫用。”
全球頂尖科學期刊《科學》雜志主編Holden Thorp也公開撰文稱,在不到兩個月的時間裡,生成式AI軟件ChatGPT已經成為一種“文化轟動”。“這在文學創作中可能會變得很有趣,但對科學界和學術界可能會造成嚴重的影響。”Thorp寫道。
編輯和出版商是否已經可以檢測出由大模型生成的論文文本?根據《自然》的說法,ChatGPT的原始輸出經過仔細檢查是可以檢測到的,尤其是當涉及多個段落並且主題與科學工作相關時。
根據Thorp援引最近的一項研究,由ChatGPT創建的摘要在提交給學術審稿人時,隻有63%的文章被檢測到使用AI軟件。《科學》雜志制定準則稱,人工智能程序不能成為作者,違反這些政策將構成科學不端行為,與篡改圖像或抄襲現有論文沒有差異。但針對通過人工智能技術在研究中生成的合法的數據集(非論文文本)除外。
“科學論文歸根結底是人類為解決重要問題所做的努力。 機器發揮著重要作用,但它是人們提出假設、設計實驗和理解結果的工具。 最終,這些產品必須來自人類頭腦中美妙的計算機來表達。”Thorp表示。