近日,江蘇省科技廳監督評估處處長顧俊在做客一檔媒體節目時表示,將組織開展科技人員公開發表論文的自查和主動抽查,並開展科技倫理審查,引導科技人員提高誠信意識。顧俊表示,ChatGPT能生成連貫的、有邏輯性文章的特性,提供便利,但也可能被用來回避論文查重問題,甚至列出虛構的參考文獻目錄,導致學術不端問題。
這不是一個新問題。幾乎從ChatGPT誕生之日起,圍繞著其對教育界和科技界可能帶來的沖擊,爭議聲就一直沒有斷過。比起主張“嚴禁ChatGPT入侵”者,和主張“積極擁抱新技術”者,一個越來越被接受的共識,是需要厘清ChatGPT的應用場景和邊界,劃定底線、明確規則,最大程度讓ChatGPT發揮積極作用、限制其負面影響。以科技人員發表論文為例,雖然這已經不是評價科技工作者學術科研水平的唯一標尺,但仍然是檢驗學術成果、評價科研成色的重要標準之一,確保論文內容的原創性、創新性和撰寫的獨立性,仍是不可逾越的紅線。
通過自查和不定期抽查,更新學術不端的處理程序與標準,可以從技術手段上強化對已經發表論文的“體檢”,判斷論文的真偽性、原創性,讓科技人員不敢、不能劍走偏鋒;開展科技倫理審查,引導科技人員提高誠信意識,則抓住使用新技術的人員這一核心要素,從思想覺悟上加強教育,讓其從內心真正做到遠離學術不端。在目前語境下,加強對核心人群的誠信教育和以技術手段完善監督機制,是防止科技人員使用ChatGPT寫論文的兩個重要方面。
目前,國內外很多大學已經開設ChatGPT等相關課程,也鼓勵學生使用其完成部分作業,但對於使用ChatGPT寫論文,無一例外都是持禁止態度。暨南大學《暨南學報(哲學社會科學版)》、《天津師范大學學報(基礎教育版)》明確表示,暫不接受ChatGPT等任何大型語言模型工具單獨或聯合署名的文章。很多頂級學術期刊也是如此,比如《自然》雜志規定:禁止ChatGPT等任何大型語言模型工具成為論文作者,建議使用這些工具的研究人員在稿件中應特別說明使用AI;《科學》雜志明確表示不接受使用ChatGPT生成的論文,不允許ChatGPT作為論文作者,ChatGPT生成的論文等同於剽竊。
可見,從大學到頂級權威期刊,從針對教育教學人員到所有科技人員,其治理邏輯都是一致的:審慎接受,嚴格限制使用。無論是從保障論文創新價值上看,還是從維護科研人員的公平競爭上看,亦或從確保科研成果真正服務於社會進步上看,這種嚴格規范的管理都是應有之義。
雖然目前我國尚未正式出臺有關應對ChatGPT帶來問題的措施,但並不意味沒有相關管理。比如,去年3月,中辦、國辦印發《關於加強科技倫理治理的意見》,將人工智能作為需要加強科技倫理治理的重點領域之一。今年4月,國傢互聯網信息辦公室發佈《生成式人工智能服務管理辦法(征求意見稿)》,其中擬規定:提供生成式人工智能產品或服務,應尊重知識產權、商業道德;用於生成式人工智能產品的預訓練、優化訓練數據,應不含有侵犯知識產權的內容。
尤其值得一提的是,8月28日,學位法草案提請十四屆全國人大常委會審議。其中,對學位獲得者利用人工智能代寫學位論文等行為,明確相應的法律責任:經學位評定委員會審議決定由學位授予單位撤銷學位證書。這傳遞出的信號再明顯不過:以法律威嚴,堅決捍衛學位論文不被人工智能“入侵”。
在今天,ChatGPT作為一款功能強大、應用廣泛的新技術,我們固然不應對其一味排斥和回避,但說到底,它仍是人創造出來的、服務於人類的工具,且它本身是中性的,如何使用取決於我們自身。相信隨著時間的推移,相關管理治理的制度措施也會愈發完善,最終讓ChatGPT在遵循科技倫理、知識產權和學術嚴肅權威等各領域各行業規則的基礎上,更好發揮優勢,服務於人類和社會的發展進步。