作者:陸向陽
倫理要求在我們社會的各層面均需要,過去曾為了研究生長環境對人格造成的差異,為了盡可能降低實驗變數,把一對雙胞胎一出生後就刻意各自分配到極富與極貧的家庭,但也因此影響改變整個人的人生,這其實已牴觸研究倫理。
不能為了研究摧毀他人的人生,此即是倫理問題,也因此生物學界至今一直只能試驗複製羊,而不是去複製人。過去有許多實驗多已違反研究倫理,如知名的小艾伯特條件反應實驗,但在倫理觀念逐漸建立後,違反性的實驗已減少,甚至在實驗的提案審核階段就被拒絕。
類似的,企業倫理是企業家在追求利益的同時也必須照顧勞工權益、環境保育、避免與同業惡性競爭等。在資安領域也有所謂的倫理駭客,指的是擁有入侵滲透技術但卻不用於為惡,而用於找尋軟體或網站的漏洞,或與資安防禦方共同進行攻防模擬演練等。
同樣的,2016年再次火熱的人工智慧(AI,也廣泛包含機器學習ML、深度學習DL等)技術,其熱度持續至今,有愈來愈多的人工智慧已應用在我們的生活中,同時也有許多的新應用還在嘗試開發中。
但是,人工智慧技術是否被正確運用、適切恰當運用?是否可能被誤用?濫用?這即是人工智慧的倫理層面,今日的創客也經常運用AI技術,對此議題也必須有所了解與掌握。
各國各單位機構均開始主張AI倫理
現在世界各國政府均已關切AI倫理議題,並有各自的主張,以歐盟而言有七大原則:
- 應有人類監督AI技術的運用
- AI應穩健、安全、值得信賴
- 須重視隱私和資訊管理
- 須透明、具有可追溯性
- 確保多元和公平
- 尊重社會、環境維護
- 建立完善的究責制度
2016年IEEE(電子電機工程師協會)也提出AI倫理設計準則;2018年Microsoft(微軟)主張「公平、可靠安全、隱私保障、多元包容、透明責任」,同時成立AI倫理道德委員會;其他如Baidu(百度)、OECD(經濟合作暨發展組織)等均有論述,有些包含AI設計階段的要求,有些則較重視AI技術的實際運用。而我國科技部也對AI基本倫理有8項指引:
- 共榮共利
- 公平性與非歧視
- 自主權與控制權
- 安全性
- 個人隱私與數據治理
- 透明性與可追溯性
- 可解釋性
- 問責與溝通
若干負面案例
從正面談論AI倫理較難體會其價值,若以負面來談或許能更深刻。在疫情期間國外有老師運用AI技術來計算學生的成績,但AI是以歷史資料為基礎的,過去表現差的學生,運用AI技術計算的結果難有好成績,過去所謂的最佳進步獎將難以產生或難公允產生。
另外,近期在Netflix上知名的紀錄片《編碼偏見,Coded Bias,或稱編碼歧視,程式碼撰寫歧視等》就談及了AI訓練過程中的資料問題。以人臉辨識而言,過去累積的照片多為白人男性,導致訓練出來的AI模型較能精準識別白人男性。相對的,黑人、女性、黑人女性等的識別力相對弱,此即是一個「偏差」的例子。
紀錄片中也提及英國警方直接在路上用攝影機拍攝路人臉孔,作為日後識別之用,有人不樂意自己的臉被拍照而刻意遮蔽,則會被警察上前詢問、關切。AI技術是否能侵犯他人的權利?在未經審核或授權就直接運用在現實生活中。
更明顯的例子即是Deepfake,惡意人士偽造他人聲音、照片、影像等進行詐騙,毫無疑問已是犯罪,更是明顯的AI技術惡用。
現在,國外已開始對學童進行AI倫理的觀念推廣及教育,而比學童更快接觸、熟悉與運用AI技術的創客,更必須對此有所體悟,使創客作品專案能讓世界更美好閃亮,而非黯淡。
- 創客積木M5Stack加入LLM戰局 - 2024/11/29
- MLPerf大語言模型、生成式AI測項觀察 - 2024/11/27
- Sony強力加持!樹莓派發表專屬AI攝影機 - 2024/10/28