按 Enter 到主內容區
:::

衛福部推動成立國內醫院成立負責任AI執行中心,依據九大透明性原則,結合可解釋性分析(Explainability Analysis),強化醫療AI決策過程之透明度與可信賴度,並提供醫療機構明確的監管框架。

透過定期監測機制,針對AI系統之可量化指標(如模型準確度、偏差率、解釋性評估分數等)進行評估,並建立異常應變與停用機制,當AI系統未達標準時,即由主責單位啟動模型調校或停用程序,確保病患安全。

持續推廣並逐步擴大負責任AI落地管理機制導入範圍,進而確保AI醫療應用於臨床環境之資訊透明、醫療團隊可理解,讓技術真正提升醫療品質與效益,而非增加風險。

適用AI醫療產品的九大透明性原則

圖、適用AI醫療產品的九大透明性原則

 

  1. AI詳情及輸出
  2. AI目的
  3. AI的警告範圍外使用
  4. AI開發詳情及輸入特徵
  5. 確保AI開發公平性的過程
  6. 外部驗證過程
  7. 模型表現的量化指標
  8. AI實施與使用的持續維護
  9. 更新和持續驗證或公平性評估計畫
  • 發布日期:
  • 更新日期: