BitcoinWorld
ArXiv 將對提交未經人工審核之 AI 生成論文的作者實施一年禁令
廣受使用的開放取用預印本研究庫 ArXiv 宣布了一項新政策,若作者提交的論文中有明確證據顯示其包含未經核查的 AI 生成內容,該作者將面臨一年禁令。此舉由 ArXiv 電腦科學部門主席 Thomas Dietterich 於週四公布,旨在解決日益嚴重的低品質 AI 生成研究問題,這類研究正在損害學術出版的公信力。
根據更新後的準則,若審核人員發現「確鑿證據」顯示作者在提交前未驗證大型語言模型(LLMs)的輸出內容,該論文將被拒絕,且作者將面臨一年內無法在 ArXiv 上發文的停權處分。禁令解除後,作者必須先有後續投稿被具有聲譽的同行評審期刊接受,才能重返平台。
Dietterich 指出,此類證據包括捏造的參考文獻、無意義的引用,或直接從 LLM 複製貼上的錯誤內容。該政策並非全面禁止使用 AI 工具,而是要求作者對所有內容「承擔全部責任」,無論內容以何種方式生成。這包括 AI 所引入的抄襲、偏頗陳述及事實錯誤。
ArXiv 長期以來是快速傳播研究成果的重要平台,尤其在電腦科學、數學和物理學領域。然而,生成式 AI 的興起導致提交量激增,這些提交內容似乎以極少的人工監督生成。近期同行評審研究記錄到生物醫學文獻中捏造引用的情況有所增加,這可能與 LLM 的使用有關。
透過執行這項「一次即懲」規則,ArXiv 致力於維護其資料庫的公信力。該政策亦包含申訴程序,允許作者對決定提出異議。審核人員必須先標記問題,部門主席確認證據後,才能實施處罰。
此政策反映了學術界日益形成的共識:AI 工具應輔助研究中的人工監督,而非取而代之。ArXiv 在由康乃爾大學託管逾二十年後,已轉型為獨立非營利組織,這使其在執行此類措施時擁有更大的靈活性。該資料庫已採取措施限制 AI 生成的投稿,包括要求首次投稿者提供保薦人背書。
對研究人員而言,訊息十分明確:使用 AI 起草或潤飾文字是可接受的,但在未進行嚴格事實查核與引用驗證的情況下提交作品則不被允許。這與學術出版中更廣泛的編輯標準一致,問責制在其中始終是首要原則。
ArXiv 的新禁令政策代表著在 AI 廣泛使用的時代維護預印本研究完整性的重要一步。透過對未能審核 AI 生成內容的作者實施處罰,該資料庫強化了人類研究人員對其作品負有最終責任的原則。隨著 AI 工具愈來愈深入融入研究流程,此類防護機制可能將成為學術出版的普遍標準。
Q1:ArXiv 的新政策是否禁止在撰寫論文時使用 AI?
不,該政策並未禁止使用 AI。它禁止提交有明確證據顯示作者未核查 AI 生成內容錯誤的論文,例如捏造的參考文獻或無意義的文字。
Q2:什麼構成 AI 濫用的「確鑿證據」?
例子包括幻覺式引用、引用不存在的來源,以及直接從 LLM 複製貼上的錯誤,這些均顯示未經任何人工審核。
Q3:作者可以對禁令提出申訴嗎?
可以,該政策包含申訴程序。審核人員必須標記問題,部門主席確認證據,作者可對決定提出異議。
本文 ArXiv 將對提交未經人工審核之 AI 生成論文的作者實施一年禁令 最初發表於 BitcoinWorld。


