論文工廠產業化、AI代寫成風 科學出版業面臨學術誠信危機
關鍵詞: 科學欺詐 AI代寫論文 學術不端 評價體系 學術誠信
圖片來源:《科學》網站
8月,美國西北大學社會系統領域專家在《美國國家科學院院刊》發文稱,科學欺詐已形成涵蓋論文工廠、出版商、編輯的復雜產業鏈。更令人擔憂的是,隨著生成式人工智能(AI)技術的興起,AI代寫論文的現象正迅速蔓延,這進一步加劇了學術不端問題。這兩大趨勢交織在一起,給科學出版業帶來了前所未有的挑戰。
科學欺詐形成龐大產業鏈
此次調查重點放在了《公共科學圖書館·綜合》期刊,因為該期刊可讓團隊方便地獲取大量元數據,以及處理每年發表的數千份論文的編輯姓名。通過分析被撤回或受批評的論文,團隊發現33名編輯存在異常,他們處理的論文中被撤回或受到批評的比例異常之高。其中一名編輯處理的79篇論文中,有49篇被撤回,比例高達62%。
該團隊還發現,這些編輯以令人可疑的高速度對某些作者的論文進行處理。這些作者往往是《公共科學圖書館·綜合》自己的編輯,他們經常處理彼此的論文,其中一些存在包庇問題。
這種現象并非個例。美國約翰威出版社收購的英國Hindawi出版社旗下10種期刊曾被發現存在類似問題,最終導致這些期刊停刊。更令人震驚的是,專家們發現了有組織地批量發表可疑論文的行為。通過分析外文論文同行評審平臺——PubPeer上標記的2000多篇含有重復圖像的論文,他們識別出多個論文集群,這些論文往往在同一時間段發表在有限的幾種期刊上。
印度欽奈的學術研究與發展協會(ARDA)就是這個產業鏈中的一個典型角色。該機構提供從論文寫作到期刊發表的一站式服務,收費在250至500美元之間。ARDA會根據期刊的信譽變化調整其合作列表,剔除那些因可疑行為被文獻計量數據庫除名的期刊,以招攬更多作者發表論文。
這類有組織的學術欺詐增速驚人。研究發現,2016年至2020年間,疑似論文工廠產出的論文數量每1.5年就翻一番,增速是整體科學文獻增長的10倍。盡管這類論文在總量中占比小,但增長趨勢令人擔憂。
AI威脅科學研究準確性
就在學術機構努力應對傳統學術欺詐的同時,生成式AI技術的興起又帶來了新的挑戰。美國斯坦福大學研究團隊8月4日在《自然·人類行為》上發表的研究顯示,自2022年ChatGPT問世以來,科學論文中AI生成內容的比例持續上升。
截至2024年9月,基于特定詞匯頻率分析(如“關鍵的”“復雜的”等AI高頻詞),計算機科學領域約22.5%的論文摘要被識別為經過大語言模型修改(檢測工具對AI生成內容的識別準確率約為85%)。電氣工程和系統科學領域的比例為18%,統計學領域為12.9%。雖然不同學科之間存在差異,但所有領域的AI使用比例都在上升。
然而,AI生成內容的可靠性令人擔憂。2023年的一項研究發現,研究人員在閱讀ChatGPT生成的醫學期刊摘要時,有三分之一無法識別出它們是機器生成的。更嚴重的是,大語言模型常常會臆造出虛假或誤導性的信息,這對科學研究的準確性構成了嚴重威脅。
破解“唯論文”是根本
早期學術不端多為個體行為。如今,隨著學術發表壓力增大、中介機構商業化運作,學術欺詐已演變為分工明確的產業——論文工廠負責批量撰寫,違規期刊提供發表渠道,部分編輯則通過相互包庇規避審查,形成“產—發—審”閉環,而AI技術的介入更讓欺詐手段愈發隱蔽。
面對這些挑戰,學術界正在積極尋找應對之策。《公共科學圖書館·綜合》的出版倫理負責人里尼·霍齊表示,他們早已意識到這類論文工廠的存在,并將對相關編輯展開調查。專業出版集團、約翰·威利父子出版公司的一位發言人也表示,出版商已經投入了大量資源來解決研究誠信問題。
然而,專家們普遍認為,單純依靠技術手段無法解決這一問題。重要的是需要改變當前學術界過度強調論文發表數量的評價體系。高校和科研機構應降低“論文數量”在考核中的權重,增加“研究可重復性”“同行評議質量”等指標。
同時,學術界需要建立更嚴格的標準來規范AI技術的使用。例如要求作者在論文中明確標注AI參與的內容及比例,期刊啟用基于詞匯頻率的算法模型檢測AI生成的內容。
在這場維護學術誠信的斗爭中,專業人士的角色至關重要。學術界必須與技術共同進步,但絕不能淪為AI的提線木偶。
科學的進步依賴于知識的積累和傳承,而這一切的基礎是學術誠信。面對日益復雜的學術欺詐產業鏈和AI技術帶來的新挑戰,學術界需要攜手共進,制定出有效的防范措施和規范標準。只有這樣,才能確保科學研究的真實性和可靠性,讓科學真正為人類福祉服務。
