
問:校長好!最近我在寫一篇 meta-analysis,發現我把跑出來的森林圖和 funnel plots 丟給 ChatGPT,它就寫出 Results Section,很恐怖。蠻擔心未來 AI 發展下去,會不會變成一貫作業,就是 papers 丟進去,它連 study characteristics 那個 table 包括森林圖都做出來,這樣做研究有點無聊啊!請問校長,研究者該如何因應這些變化?
答:(蔡依橙)
首先幫各位讀者補充一下背景,問問題的這位,是我們的資深校友,已有多篇統合與臨床論文發表,表示即使有能力自己完成一切的研究者,還是會為了 AI 的迅速成長感到神奇。
事實上,我們最近的 Office Hour,都有一半的同學會問到 AI 相關的問題。我們之後也會盡量利用電子報的機會,整理相關資源分享。
如果你有能力驗證的,就可以用。
目前 AI 的確是可以加速很多,但麻煩的就是,不管說對還是說錯,他都很有自信。所以重點還是我們的檢查能力,如果你有能力驗證的,就可以用。
你會覺得神奇,是因為當他不準確時,你就笑笑,並重新問。但當他的回答,竟然八成是可以用的,只需要局部調整,你會為了「以前這樣的東西我要寫好幾個小時,他怎麼幾秒鐘就搞定」而讚嘆。
但對於初學者,或者我們沒有能力揪錯,或失去耐心揪錯的地方,事情也是很恐怖,不過不是稱讚意味的那邊。
其實 AI 還是會幻想,列出來的文獻根本不存在。
我們就以請 AI 找參考文獻並論述來說好了,其實 AI 還是會幻想,列出來的文獻根本不存在。從以前的錯八成,到現在好的時候大概只錯兩成。但問題是,那剩下的兩成錯誤,如果沒抓出來,還是會壓上我們的名字,放到 PubMed 上去給全世界恥笑與攻擊。
偏偏現在他有時的錯誤,不是整篇都是編造的,而是 A 題目配上 B 作者。或者第一作者跟標題都對,卻自己換掉第二作者以後的名字。甚至有時生出人模人樣的卷期資訊,但你去查會發現根本沒有這一卷這一期。
也就是說,要找出那兩成錯誤,非常花時間,也非常花心神。所以我都還是自己用 PubMed 找,用 EndNote 管理跟加註。
有幾篇真的都萃取正確,但其他的就亂七八糟。
至於你說的,給 paper 後,他自己作統合分析,這點問題更大。我實際用自己寫過的論文去測試,跟參考文獻的問題是一樣的。有幾篇真的都萃取正確,但其他的就亂七八糟(但他的回覆一樣有自信)。
統計部份,他一定可以畫出一個「能唬住一般人與初學者」的森林圖,但仔細檢查,就會問題百出。你叫他改,他常常亂改。而且你今天問,跟明天問,回答就不一樣。用不同的提示詞去問,結果也不一樣。這種不穩定性,學術界是不能接受的。
目前的原則是:「AI 只能用在自己有能力揪錯的領域」。你擁有獨立寫作的能力,AI 對你來說會如虎添翼。但萃取資料跟跑統計,還是建議用原本的手動流程比較安全。
最新活動
