Mayo Clinic 研究團隊開發的 AI 模型 Redmod,號稱可在胰臟癌確診前平均 475 天,從常規 CT 掃描中識別出人眼無法察覺的細微變化。研究顯示 AI 整體識別率 73%,放射科醫師為 39%;對兩年以上早期掃描,差距擴大至 68% 對 23%。
(前情提要:AI「篩檢癌症」準確率達98%!劍橋研究只要DNA,就能加速早期診斷與治療)
(背景補充:Anthropic 豪擲 4 億美元收購 AI 生技新創 Coefficient Bio,正面決戰 OpenAI)
本文目錄
- 475 天的空窗
- AI 看見了,醫師沒看見
- 倖存率翻倍的前提
胰臟癌最令人婉惜的問題往往是發現得太晚。全球超過 85% 的病例在確診時腫瘤已進入晚期,手術的機會早已關閉;五年存活率徘徊在 10% 附近,是所有常見癌症中最沉重的數字之一。
不過一項 4 月底發表於醫學期刊 Gut 的最新研究,正試圖從問題根源切入:不等症狀出現,不等腫瘤現形,而是讓 AI 在常規 CT 掃描中找到那些人眼看不見的早期訊號。
475 天的空窗
全美頂尖醫院梅約診所(Mayo Clinic)研究團隊開發了一套名為 Redmod 的 AI 模型,目標是在常規腹部 CT 影像中識別出放射科醫師無法察覺的細微變化。訓練資料集包含超過 1,400 名受試者,其中關鍵的一組是 219 名曾被判定「掃描正常」,卻在日後確診胰臟癌的患者。
Redmod AI 回頭重新分析這批當年看似無異常的影像,結論是:它能在確診前平均 475 天就辨識出異常特徵。
475 天,大約是一年四個月。在這段時間裡,腫瘤通常仍處於區域性、可切除的階段。也就是說臨床上:一名尚未出現任何症狀的患者,有機會在外科手術仍能介入之前就被識別出來。
胰臟癌的核心困境在於它「沉默」:早期既不引起症狀,也不在影像中顯現,等到患者因不適就醫時,腫瘤往往早已突破區域性邊界。Redmod AI 所做的,正是試圖在這段沉默期介入。
AI 看見了,醫師沒看見
研究讓 AI 與放射科醫師在同一批影像上進行頭對頭比較。結果是:Redmod 整體正確識別率 73%,醫師為 39% — 差距將近兩倍。
對於距離確診超過兩年的掃描,差距更為懸殊:Redmod 識別出 68% 的案例,醫師只有 23%。換句話說,當一個腫瘤距離被「看見」還有兩年以上時,AI 的偵測能力達到醫師的三倍。
排除能力同樣值得關注:在未發展成癌症的對照組影像中,Redmod 正確分類率超過 80%。它不只是試圖捕捉所有癌症,也不輕易製造假陽性(誤報)。
研究同時確認,模型在不同醫院與不同廠牌的 CT 裝置上均有穩定表現,具備進一步部署的基本條件。
倖存率翻倍的前提
研究引用了一項建模估算:若胰臟癌的區域性化病例比例,也就是確診時腫瘤尚未擴散的案例,能從目前的 10% 提升至 50%,五年存活率有望翻倍以上。
邏輯很直接:早期診斷不只是提早知道壞訊息,而是改變多少患者還能接受根治手術的機率。
然而研究者明確表示,Redmod 目前仍需前瞻性臨床試驗驗證:也就是在真實篩查場景中持續追蹤患者結果,才能確認它確實改善了存活率,方可進入常規使用。回溯性資料中的優異表現,是必要條件,但不是充分條件。
團隊提出的近期應用方向,是針對高風險族群施行:年齡較大、合併不明原因體重驟降與新發糖尿病的患者。這是一個精準而可操作的切入點,不是大規模全民篩查,而是在現有臨床資訊基礎上,讓 AI 協助辨識哪些人需要更密集的追蹤。
研究者在論文中寫道,475 天的時間「具有深刻意義」,因為在這個視窗內,治癒不是例外,而是可能的常態。AI 能不能看見這個問題已經有了答案;下一個問題,是它能不能早到足以讓後來的治療有意義。
📍相關報導📍
故事》不懂生物學的工程師,用AI做疫苗救了癌末愛犬
研究發現:AI 給的醫療建議近半數有問題,Grok 最糟、OpenAI 仍在擴張醫療野心
Anthropic 豪擲 4 億美元收購 AI 生技新創 Coefficient Bio,正面決戰 OpenAI
挑戰馬斯克的 Neuralink!腦機介面新創 Neurable 開放「讀心術」授權,主打非入侵式 AI 穿戴裝置








