從FDA到歐盟AI Act的新時代挑戰
AI/ML(人工智慧/機器學習)正迅速成為醫療器材軟體的核心技術,美國 FDA 最新統計顯示,目前通過審查的 AI/ML 醫療軟體產品中,以影像類應用(超過330項)為大宗,其次為放射科的電腦輔助分流提醒(94項)。AI 不再只是研發階段的想像,而是已經大量投入臨床,改變醫療決策流程的實質工具。
美國:FDA 正引導 AI/ML 醫療軟體進入「全生命週期管理」階段
美國 FDA 於 2025 年 1 月發佈了新的指導草案:《Artificial Intelligence-Enabled Device Software Functions: Lifecycle Management and Marketing Submission Recommendations》官方連結,此草案強調:
AI 軟體的「可學習性(learning)」與「模型版本更新」須有完善管理程序,應說明 AI 是否會在上市後持續學習(continual learning / real-world updating)或只在訓練階段學習(locked model);
不同開發階段的變更(如訓練資料來源、模型參數微調等)是否需再申請上市,必須有清楚的風險管理與提交策略;
FDA 鼓勵開發者事先提交Predetermined Change Control Plan(PCCP)作為產品監管的一環,描述變更範圍、評估程序,以及接收條件等。看這篇:<預定變更控制計畫(PCCP),讓變更不再卡關>
歐盟:AI Act 將於 2026 年 8 月 2 日全面生效,醫療器材AI納入高風險系統
歐盟在 2024 年正式通過《人工智慧法案(AI Act)》,這是全球第一部針對人工智慧制定的橫向立法,涵蓋所有行業領域。任何進入歐洲市場的醫療器材,只要使用AI系統,均需同時符合AI Act與MDR/IVDR。
在AI Act中,根據風險被劃分為四大等級:
風險等級 | 說明 | 合規義務 |
---|---|---|
Unacceptable Risk | 威脅人民基本權利的AI,例如操控人類行為的程式、社會評分應用程式等 | 禁止進入市場 |
High Risk | 可能對人民安全與基本權利帶來不利影響,對健康或基本權利有顯著風險,例如醫療診斷、治療決策支持 | 透明度義務,並需要合格評定 |
General-purpose AI | 直接與使用者互動的AI系統,例如基礎的ChatGPT基礎模型 | 透明度義務(讓用戶知道自己與人工智慧互動) |
Minimal Risk | 具有透明度義務,例如AI濾鏡、垃圾郵件過濾器 | 無須承擔AIA義務 |
根據 AI Act 附件 III 的定義,用於診斷、治療建議或作為醫療器材安全元件AI系統,一律視為「高風險AI系統」,須接受嚴格的技術要求與合規評估程序。
Conformity Assessment 將成未來審查大挑戰:AI Act + MDR 一起看
目前各個公告機構(NB)也正在規劃如何結合 MDR 與 AI Act 的符合性評估流程,意謂:
AI軟體開發商不能只考慮醫療器材法規,還必須納入 AI 法的風險等級與技術要求;
未來 NB 可選擇由同一家單位進行 AI Act 加上 MDR 的雙合規審查,或由兩家不同機構分別處理。
小提醒:選擇有 AI 審查能力的 NB,將會可簡化後續整合與時程安排。AI 醫療軟體正在成為「雙軌合規」的新要求。無論是開發、上市還是後續更新,廠商必須建立「跨法規」的合規策略,才能在全球市場穩健擴展。
參考資料:
- Regulation (EU) 2024/1689
- Artificial Intelligence-Enabled Device Software Functions: Lifecycle Management and Marketing Submission Recommendations