透明性原則
可運用九大透明性原則之架構說明,確保所有使用AI工具的醫院必須在一個專門的網站上公開重要資訊,包括AI的資料來源、訓練模型、驗證資料、適用的臨床情境、以及FDA或其他醫學審核機構的驗證結果等。
可解釋性分析
運用可解釋性分析,解釋和理解人工智慧模型如何做出預測或決策的技術和方法,在醫療領域至關重要,可提供對人工智慧系統決策過程的洞見,確保臨床醫師能夠理解和驗證其輸出結果,常見的解釋性分析方法,以SHAP值(SHapley Additive Explanations)和顯著性圖(Saliency Maps)為例。

圖、適用AI醫療產品的九大透明性原則
1.AI詳情及輸出 2.AI目的 3.AI的警告範圍外使用
4.AI開發詳情及輸入特徵 5.確保AI開發公平性的過程 6.外部驗證過程
7.模型表現的量化指標 8.AI實施與使用的持續維護 9.更新和持續驗證或公平性評估計畫