按 Enter 到主內容區
:::

負責任AI執行中心

提高臨床應用的透明度與效率,增進公眾對於AI技術在醫療領域應用的信任與接受度

成立目標

隨著人工智慧(AI)技術快速發展,其在醫療領域的應用已從疾病診斷、風險預測、醫學影像判讀,進一步擴展至醫療文書撰寫,顯著減少醫護人員的病歷撰寫時間。

然而,AI應用並非毫無風險,如何確保其自主性、當責性、隱私、透明、安全、公平與永續,已成為國際關注的議題。世界衛生組織(WHO)及台灣《人工智慧基本法》草案均強調,若缺乏適當引導,AI可能引發倫理與監管挑戰。

為解決此問題,衛福部資訊李建璋處長推出「負責任AI中心」,研擬出一套符合七大倫理價值的AI應用指引,期望在智慧醫療的發展的同時,確保倫理與安全。

 

人工智慧發展的七大原則

為確保人工智慧技術的發展符合社會需求並促進產業創新,行政院提出《人工智慧管理基本法》,並依據其核心精神訂定AI發展七大核心原則。

人工智慧發展的七大原則:自主

應以支持人類自主權、尊重人格權等人類基本權利與文化價值,並允許人類監督,落實以人為本並尊重法治及民主價值觀。

人工智慧發展的七大原則:當責

應確保承擔相應之責任,包含內部治理責任及外部社會責任。

人工智慧發展的七大原則:透明

人工智慧之產出應做適當資訊揭露或標記,以利評估可能風險,並瞭解對相關權益之影響,進而提升人工智慧可信任度。

人工智慧發展的七大原則:安全

人工智慧研發與應用過程,應建立資安防護措施,防範安全威脅及攻擊,確保其系統之穩健性與安全性。

人工智慧發展的七大原則:公平

人工智慧研發與應用過程中,應盡可能避免演算法產生偏差及歧視等風險,不應對特定群體造成歧視之結果。

人工智慧發展的七大原則:永續

應兼顧社會公平及環境永續。提供適當之教育及培訓, 降低可能之數位落差,使國民適應人工智慧帶來之變革。

人工智慧發展的七大原則:隱私

應妥善保護個人資料隱私,避免資料外洩風險,並採用資料最小化原則;同時促進非敏感資料之開放及再利用。

三大落地實施策略

隨著人工智慧技術應用於醫療領域越發普及,衛生福利部持續推動負責任AI落地管理,確保AI醫療應用符合資安與隱私保護規範、透明可解釋原則,以及AI使用全生命週期管理等三大要求,以提升臨床醫療安全與信賴度。

醫院成功案例

前往列表

醫院窗口及申請管道

各家醫院的窗口聯絡資訊及線上申請連結

北部
中部
南部
負責任 AI 執行中心所在縣市 負責任 AI 執行中心所在縣市:臺北市 負責任 AI 執行中心所在縣市:新北市 負責任 AI 執行中心所在縣市:桃園市 負責任 AI 執行中心所在縣市:臺中市 負責任 AI 執行中心所在縣市:彰化縣 負責任 AI 執行中心所在縣市:嘉義縣 負責任 AI 執行中心所在縣市:臺南市 負責任 AI 執行中心所在縣市:高雄市