|

【Arm的AI世界】運用黃隊演練與LLM助理打造「負責任」的AI產品 

   

作者:Zach Lasiuk,Arm首席解決方案設計工程師

生成式AI的功能極為強大且用途廣泛,AI產品嵌入經濟活動的情況越來越為普遍,並且是企業成功不可或缺的一環;此一科技的使用範疇、規模與影響需要我們細心地規劃部署,才能從中獲益且不至於擴大危害。

這篇部落格文章要向大家介紹黃隊演練(Yellow Teaming)。這是一套效力強大的方法學,可以讓軟體開發者與產品經理將負責任的AI原則植入其方案中。它可以幫助你打造更好的產品;短期或長期下來對你的公司會帶來好處,對使用者、乃至於整個社會也會更好。

需要黃隊演練的原因:打造正向偏差

沒有任何一項科技是中性(neutral)的。舉例來說,Arm的解決方案也不是中性的:它們專為安全性、低功耗與高效能而設計。AI驅動的應用也沒有什麼不同,原因是它會促成某些使用者行為,但也會防止其他行為的發生。

請把你的產品想像成指南針,這個指南針總會指到某個地方,但具體的方位,則視指南針的指針設定位置。在AI產品中,這個指針是由你的訓練資料偏差、創造出的誘因,以及你的產品介面中最簡易的路徑而定。如果你沒有刻意調整指針,可能會把使用者導引到錯誤的方向:這會對他們與社會帶來危害,最終也會對你的企業造成傷害。

對你的產品來說,黃隊演練就是指南針校準的過程,會促使你盡早提出更廣泛的「接下來會如何?」等問題,如此一來,你的產品核心吸引力才會符合長期價值,而不只是滿足短期的度量指標。

什麼是黃隊演練?

黃隊演練是建立在大家較為熟悉的紅隊演練(Red Teaming)概念基礎上,進行紅隊演練期間,團隊會扮演惡意使用者的角色,並試圖以各種惡毒的方式破壞或使用他們的產品。他們隨後將利用透過演練取得的洞察,於產品發表前進行產品強化。如果你還沒開始進行某種形式的紅隊演練,我們非常鼓勵你動手試試。

黃隊演練包括提出一套探測性的問題,以協助揭露你的產品對於你的企業、乃至於整個社會帶來的,更廣泛、非故意的衝擊。透過提出與回答這些問題學習到的心得,會回饋到設計需求與成功指標,助力打造出更好的產品。這個概念取自於非營利倡議The Consilience Project(編按:由一群學者與社會觀察家發起的專案,目標是解決現代社會中的資訊失真、極化與信任崩解問題,嘗試建立更健康、更具建設性的公共對話環境)的「進展中之發展(Development in Progress)」一文,以及非營利組織人性科技中心(Center for Humane Technology;編按:由一群矽谷科技人所創立,使命是推動科技業者重新設計產品,讓數位產品服務於人類的福祉與民主)的人性科技課程教材基礎(Module 3)。

利用AI助理對產品展開黃隊演練

我們之前曾在PyTorch社群一篇部落格文章,教導軟體開發者:(1)如何針對他們的產品展開黃隊演練,以及(2)如何打造客製化的GPT以協助黃隊演練流程;我們同時也把這套方法應用到一個假定的AI架構應用程式,它可以把群組對話轉換成朗朗上口的流行歌曲。

如果你有興趣針對你的產品或產品概念展開黃隊演練,建議先閱讀上述的PyTorch部落格文章,以取得實作細節,接下來就可以自己動手或與團隊夥伴一起展開黃隊演練,以PyTorch打造一個本地的Llama3-8B模型來提供協助,或是將所提供的系統提示詞運用在更強大的公用GPT中。

(參考原文:Build AI responsibly with the Yellow Teaming methodology and LLM assistant;本文中文版校閱者為Arm首席應用工程師林宜均)

 

 

 

簡化、加速嵌入式AI開發 ADI推CodeFusion Studio 2.0
用AI生成內容迭代訓練AI,終將走向「模型崩塌」?

訂閱MakerPRO知識充電報

與40000位開發者一同掌握科技創新的技術資訊!

Author: Arm作者群

來自各方的Arm開發者社群專家。

Share This Post On

Submit a Comment

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *