衛福部推動成立國內醫院成立負責任AI執行中心,依據九大透明性原則,結合可解釋性分析(Explainability Analysis),強化醫療AI決策過程之透明度與可信賴度,並提供醫療機構明確的監管框架。
透過定期監測機制,針對AI系統之可量化指標(如模型準確度、偏差率、解釋性評估分數等)進行評估,並建立異常應變與停用機制,當AI系統未達標準時,即由主責單位啟動模型調校或停用程序,確保病患安全。
持續推廣並逐步擴大負責任AI落地管理機制導入範圍,進而確保AI醫療應用於臨床環境之資訊透明、醫療團隊可理解,讓技術真正提升醫療品質與效益,而非增加風險。
圖、適用AI醫療產品的九大透明性原則
- AI詳情及輸出
- AI目的
- AI的警告範圍外使用
- AI開發詳情及輸入特徵
- 確保AI開發公平性的過程
- 外部驗證過程
- 模型表現的量化指標
- AI實施與使用的持續維護
- 更新和持續驗證或公平性評估計畫