作者:創業小聚特約編輯 張育瑄
社群平台上的內容都是由使用者製作(UGC),平台該不該為這些內容負責?
不管是仇恨性言論、色情內容、假新聞等,儘管平台方都強調透過AI協助審查,仍有許多漏網之魚或誤刪內容的情況發生。
生成式AI背後的基礎大型語言模型(LLM),有沒有可能是解方?
曾在蘋果(Apple)擔任詐欺工程和演算法團隊工程師的Karine Mellata和Michael Lin,在去(2023)年創立Intrinsic正在嘗試這個可能性,並入選國際知名加速器Y Combinator(YC)。

Apple前員工的Karine Mellata和Michael Lin,解決企業在內容審查上花費的時間和人力成本,創辦Intrinsic。(圖片來源:Karine Mellata和Michael Lin Linkedln)
AI成為審查員的救命稻草?
社群媒體大佬Facebook曾在全球雇用幾萬名內容審查員,以人工的方式篩選平台貼文內容。
但人工審查不僅效率低、成本費用高,聘用的審查人員還需要承受巨大的精神壓力,例如經常目睹到暴力、血腥或是色情等影像,而每則貼文也只有幾秒鐘的時間讓他們決定是否符合發布規定。長時間來說,對這些審查員而言也是嚴重的工傷。

Facebook曾在全球雇用幾萬名內容審查員,以人為的方式篩選平台貼文內容。(圖片來源:pixels)
- 【創業小聚】不只輔助寫程式,還要「獨立寫程式」:Reflection AI怎麼實現超級人工智慧? - 2025/04/01
- 【創業小聚】「寫完程式,然後呢?」Zeabur用一鍵部署,解決AI時代開發者的最後一哩路! - 2025/03/28
- 【創業小聚】每秒回答千字、企業可自行部署,Mistral AI的AI助理Le Chat如何挑戰ChatGPT、DeepSeek? - 2025/02/24