online gambling singapore online gambling singapore online slot malaysia online slot malaysia mega888 malaysia slot gacor live casino malaysia online betting malaysia mega888 mega888 mega888 mega888 mega888 mega888 mega888 mega888 mega888 WHO:富國建立的AI模型不見得適用於窮國

摘要: WHO發布《人工智慧用於健康照護的倫理及治理》報告,對AI設計及實作提供5大倫理原則及指引


images/who_medical_ai.jpg

▲圖片標題(來源:WHO)

世界衛生組織(World Health Organization,WHO)本周指出,人工智慧(Artificial Intelligence,AI)雖然具有促進人類社會健康及醫療普及的潛力,但是可能存在偏誤(bias),以富國蒐集的資料訓練的AI預測模型,用在經濟較落後的國家上可能會不準確。

本周WHO發布關於《人工智慧用於健康照護的倫理及治理》報告,說明以AI改善世界公共衛生有很大潛力,像是提升診斷和臨床治療、推動醫藥研究及提供疾病監控、疫情回應及醫療系統管理,理論上能縮小窮、富國之間的醫療鴻溝,但AI要為病患或社區居民帶來好處,AI設計及實作上必須將倫理及人權等問題放在最前面。本報告也包含全球20位公衛、醫學、法律、人權、科技及倫理領域的專家,對AI設計及實作提供的5大倫理原則及指引。

WHO報告列出的倫理原則包括,AI應保護人類自主,不傷害人權;促進人類福祉、安全和公共利益;透通,可被用戶及開發人員及主管機關理解;應促進責任及可究責性。最後是AI的包容性及平等,即使各種種族、性別、性傾向、年齡層、收入,及能力的族群都能獲得蒙受AI福祉的權利。

根據包容性及平等原則,WHO點出,AI和其他科技一樣,必須儘可能普及共享、具包容性,顧及經濟、通訊及健康環境的多元性。AI的設計應不只用於高收入國家,建立適合這些高收入地區的使用情境,也應顧及中低收入國家,並且應適用於各種裝置、電信基礎架構及資料傳輸頻寬。AI開發人員因考慮語言的多樣性,以及人民不同通訊能力和技術形態以跨越數位落差,以免產生偏誤(bias)。

WHO相信,以高收入國家人民取得資料來訓練的系統,運用在中、低收入國家人民身上,效果可能會打折扣。例如一個以單一類膚色為資料源建立的皮膚癌病變AI診斷系統,用在有多種膚色的國家社會中,可能無法產生精確的判斷,進而提升這些國家人民的罹癌風險。

WHO建議AI系統的設計、實作和使用應留意此類問題。國家投資及相關的基礎架構支援有助於去除AI系統偏誤。最好能有使用族群參與設計,此外,使用開源軟體,或是將技術開源都有助於擴大參與。

其他議題中,本指引也提及「人類擔保」(human warranty)的概念,例如AI演算法的開發及部署需有病患和臨床醫生等人類的評估,而如果AI科技使用出錯,也應被究責。

科技界也已注意包括藝術生成、語音辨識、照片剪裁等AI應用,都發生在白人男性中的辨識率優於其他族群,也正致力於發展包容性AI。

轉貼自: Ithome

若喜歡本文,請關注我們的臉書 Please Like our Facebook Page: Big Data In Finance


留下你的回應

以訪客張貼回應

0
  • 找不到回應

YOU MAY BE INTERESTED