來談談人工智慧倫理(AI Ethics)- 避免科技的誤用與濫用

作者:陸向陽

倫理要求在我們社會的各層面均需要,過去曾為了研究生長環境對人格造成的差異,為了盡可能降低實驗變數,把一對雙胞胎一出生後就刻意各自分配到極富與極貧的家庭,但也因此影響改變整個人的人生,這其實已牴觸研究倫理。

不能為了研究摧毀他人的人生,此即是倫理問題,也因此生物學界至今一直只能試驗複製羊,而不是去複製人。過去有許多實驗多已違反研究倫理,如知名的小艾伯特條件反應實驗,但在倫理觀念逐漸建立後,違反性的實驗已減少,甚至在實驗的提案審核階段就被拒絕。

圖1 上世紀20年代的小艾伯特實驗被後世認為違反研究倫理(圖片來源

類似的,企業倫理是企業家在追求利益的同時也必須照顧勞工權益、環境保育、避免與同業惡性競爭等。在資安領域也有所謂的倫理駭客,指的是擁有入侵滲透技術但卻不用於為惡,而用於找尋軟體或網站的漏洞,或與資安防禦方共同進行攻防模擬演練等。

同樣的,2016年再次火熱的人工智慧(AI,也廣泛包含機器學習ML、深度學習DL等)技術,其熱度持續至今,有愈來愈多的人工智慧已應用在我們的生活中,同時也有許多的新應用還在嘗試開發中。

但是,人工智慧技術是否被正確運用、適切恰當運用?是否可能被誤用?濫用?這即是人工智慧的倫理層面,今日的創客也經常運用AI技術,對此議題也必須有所了解與掌握。

各國各單位機構均開始主張AI倫理

現在世界各國政府均已關切AI倫理議題,並有各自的主張,以歐盟而言有七大原則:

  1. 應有人類監督AI技術的運用
  2. AI應穩健、安全、值得信賴
  3. 須重視隱私和資訊管理
  4. 須透明、具有可追溯性
  5. 確保多元和公平
  6. 尊重社會、環境維護
  7. 建立完善的究責制度

2016年IEEE(電子電機工程師協會)也提出AI倫理設計準則;2018年Microsoft(微軟)主張「公平、可靠安全、隱私保障、多元包容、透明責任」,同時成立AI倫理道德委員會;其他如Baidu(百度)、OECD(經濟合作暨發展組織)等均有論述,有些包含AI設計階段的要求,有些則較重視AI技術的實際運用。而我國科技部也對AI基本倫理有8項指引:

  1. 共榮共利
  2. 公平性與非歧視
  3. 自主權與控制權
  4. 安全性
  5. 個人隱私與數據治理
  6. 透明性與可追溯性
  7. 可解釋性
  8. 問責與溝通

若干負面案例

從正面談論AI倫理較難體會其價值,若以負面來談或許能更深刻。在疫情期間國外有老師運用AI技術來計算學生的成績,但AI是以歷史資料為基礎的,過去表現差的學生,運用AI技術計算的結果難有好成績,過去所謂的最佳進步獎將難以產生或難公允產生。

另外,近期在Netflix上知名的紀錄片《編碼偏見,Coded Bias,或稱編碼歧視,程式碼撰寫歧視等》就談及了AI訓練過程中的資料問題。以人臉辨識而言,過去累積的照片多為白人男性,導致訓練出來的AI模型較能精準識別白人男性。相對的,黑人、女性、黑人女性等的識別力相對弱,此即是一個「偏差」的例子。

圖2 紀錄片《編碼偏見》(圖片來源:Netflix官網

紀錄片中也提及英國警方直接在路上用攝影機拍攝路人臉孔,作為日後識別之用,有人不樂意自己的臉被拍照而刻意遮蔽,則會被警察上前詢問、關切。AI技術是否能侵犯他人的權利?在未經審核或授權就直接運用在現實生活中。

更明顯的例子即是Deepfake,惡意人士偽造他人聲音、照片、影像等進行詐騙,毫無疑問已是犯罪,更是明顯的AI技術惡用。

圖3 Deepfake技術示意圖,Elon Musk與Brad Pitt(圖片來源:Deepfake官網

現在,國外已開始對學童進行AI倫理的觀念推廣及教育,而比學童更快接觸、熟悉與運用AI技術的創客,更必須對此有所體悟,使創客作品專案能讓世界更美好閃亮,而非黯淡。

陸向陽
陸向陽

Author: 陸向陽

從電子科系畢業後,即以媒體人的角色繼續這段與「電子科技」的不解之緣。歷任電子技術專書作者、電子媒體記者、分析師等角色,並持續寫作不殆。近來投入Arduino、Raspberry Pi等開放硬體的研究與教程介紹。

Share This Post On

Submit a Comment

發佈留言必須填寫的電子郵件地址不會公開。