|

【負責任的AI】避免人工智慧誤用、濫用!已有國際標準可循

   

作者:陸向陽

負責任的AI(歐盟已開始要求AI開發與運用者,必須事先提出AI危害如何避免,以及真的發生危害時當如何解除危害、緩解危害、補救補償對策等,才准許使用)、可解釋的AI(拒絕黑箱)已成了熱門的精神運動。

推廣科技的人,經常是強調科技好的一面,但其實科技也有許多副作用,例如關鍵字搜尋從而更精準投放網路廣告,使業者用更低的行銷成本更快獲得潛在目標客群,相對卻有侵犯個人隱私的疑慮。

又或者,無人機雖然可以代替人進行許多登高的危險性作業,甚至運送緊急物資,但也可能被毒販用來運毒,或者無人機因意外墜落時,砸傷人或財務等也時有所聞,這些科技副作用如何透過新訂的法律規章加以管束約束,民眾又當如何自保,已是不容忽視的課題。

AI誤用、濫用的危害

同樣的道理,近年來人工智慧(AI)的各式運用日益普及,例如用於安全門禁、用於生產良率的把關等,但AI運用就必然正確運用、妥善運用嗎?是否有誤用或濫用呢?

對此答案是肯定的,2020年紀錄片Coded Bias(編碼歧視,程式開發撰寫的偏差)就詳實說明了數宗AI受害案,例如臉部識別系統的影像訓練資料有大程度為美國白人,如此在識別黑人女性時經常無法成功識別,西方機場的臉部識別系統也經常無法正確識別亞裔人士等。

更可怕的是,德州一名幾乎年年獲得教學獎的中學教師,在校方導入AI教學評核系統後,系統評核結果顯示他教學成效低落,應予以辭退,該名教師得知後還曾一度自我懷疑,但最終決定告上法庭,質疑AI系統的演算法為黑箱。

以上僅為AI誤用、濫用危害的冰山一角,有可能有更多隱性或長期的危害未被察覺,因此各國也開始重視AI演算法的透明性,例如訓練資料必須均衡、演算法不能帶有歧視性等,一時之間負責任的AI(歐盟已開始要求AI開發與運用者,必須事先提出AI危害如何避免,以及真的發生危害時當如何解除危害、緩解危害、補救補償對策等,才准許使用)、可解釋的AI(拒絕黑箱)成了熱門的精神運動。

由於是精神運動,每個機構與組織各行其是,有的只在訓練資料上尋求自律,有的則是在開發訓練的某個環節依循自訂的規範等,而沒有一套詳整、普遍認同適用的章法。

無論局部依循或鬆散自律都難以快速、普遍地避免AI危害,故開始有國際性標準的訂立,經過討論研議後,有關「可解釋、可信任的AI」以及「負責任的AI」等國際標準已相繼出爐。

ISO 國際標準

首先是2020年頒布的ISO 24028,也稱為Overview of Trustworthiness in Artificial Intelligence(AI可信度總覽);而後是2023年通過的ISO 42001,稱為AIMS(Artificial Intelligence Management System),即人工智慧管理系統,類似於資安管理領域有所謂的ISMS(Information Security Management System)標準,國際標準編號為ISO 27001。

ISO 24028規範的內容包含AI的透明度、可解釋控、可控制性、威脅與風險、可用性、韌性、穩定性、精準性、安全性、資安防護、隱私防護等。

Source;原文為英文)

ISO 42001則強調運用AI的企業必須明訂AI開發者、營運者、使用者的角色與責任,同時也必須訂立與執行AI相關的治理、風險管理、法遵合規工作,甚至與企業元原有的資安管理、隱私管理等管理活動相互扣合。

Source

既然是ISO國際標準,那就會如同過往的國際標準般,有諸多公正的第三方驗證機構,對有意導入新標準的企業或組織,提供導入輔導與正式驗證稽核等服務。

小結

對企業或組織而言,或許覺得依循國際標準會綁手綁腳,增加企業的導入成本與時間心力,但從另一面觀看,預先導入相關標準反而能減少未來的潛在危害風險,避免企業商譽損失,同時還可能增加競爭優勢,因為我國的公部門資訊相關專案,多數已開始要求必須取得ISO 27001資安管理認證的資訊服務商才有資格角逐,類似的要求估計會更多,因此獲得AI治理相關標準,可將尚未準備好的競爭者排除於外。

陸向陽
陸向陽

Author: 陸向陽

從電子科系畢業後,即以媒體人的角色繼續這段與「電子科技」的不解之緣。歷任電子技術專書作者、電子媒體記者、分析師等角色,並持續寫作不殆。近來投入Arduino、Raspberry Pi等開放硬體的研究與教程介紹。

Share This Post On

Submit a Comment

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *