
最近,港大社會科學院副院長葉兆輝教授因一篇引用大量AI虛構文獻的學術論文事件宣布卸任,這起風波不僅震動了學術圈,也引發了普羅大眾對「AI幻覺」現象的關注。你是否也好奇,AI生成的資料如何影響我們眼中的真實?當科技進步與學術誠信產生矛盾,會帶來什麼深遠的挑戰?本文將帶你深入探討這宗事件背後的故事及其啟示,讓我們一起理解AI時代下,如何守護知識的純粹與信賴。
隱藏危機:AI幻覺導致的學術誠信震盪
大家可能聽過「AI幻覺」(AI Hallucination)這個詞,實際上它描述的是AI系統會自信地「捏造」不存在的資訊。這次港大論文被揭發引用了24項不存在的文獻,正是這種幻覺的典型案例。葉教授與其博士生白逸銘當初使用AI協助整理引用文獻,結果未能徹底核實,讓虛構信息混入正式論文。
- 論文發佈於2024年10月的國際期刊,疑點被網友發現後引發熱議。
- 至少20-24項引用文獻的DOI無法查證,顯示為純虛構。
- 葉教授承認通訊作者責任並已道歉,論文非惡意造假,學校展開調查處理。
我自己的經驗也證實,AI雖然強大,但當你依賴它提供資料時,絕對不能鬆懈檢驗。就像朋友出門帶傘卻忘了確認天氣,那雨伞最後可能成為累贅。
超實用的學術應對策略:如何防止AI誤用?
說到這裡,你可能會想:「AI輔助檢索資料這麼方便,怎麼避免踩坑呢?」其實關鍵在於建立嚴謹的核查流程和心態轉變。港大已經宣布將強化所有研究人員的AI使用培訓,並要求通過考核以確保知識產出不失真。
- 多層次核實資料真偽,尤其是引用和數據來源。
- 定期舉辦AI操控與倫理研討,增強研究者風險意識。
- 制定AI使用指引,確立「人+AI」協同的負責任機制。
- 鼓勵跨學科合作,共同審核疑難文獻來源。
猶如搭飛機,你不會只相信機器自動駕駛,也要飛行員時刻監控狀態。AI也是一樣,輔助不是替代。
正面突破:AI技術對學術研究的長遠推動力量
當然,這次事件並非AI本身的失敗,而是提醒大家如何更明智使用AI。事實上,AI為學
相關連結:
Share this content:










