作者:創業小聚特約編輯 張育瑄
社群平台上的內容都是由使用者製作(UGC),平台該不該為這些內容負責?
不管是仇恨性言論、色情內容、假新聞等,儘管平台方都強調透過AI協助審查,仍有許多漏網之魚或誤刪內容的情況發生。
生成式AI背後的基礎大型語言模型(LLM),有沒有可能是解方?
曾在蘋果(Apple)擔任詐欺工程和演算法團隊工程師的Karine Mellata和Michael Lin,在去(2023)年創立Intrinsic正在嘗試這個可能性,並入選國際知名加速器Y Combinator(YC)。

Apple前員工的Karine Mellata和Michael Lin,解決企業在內容審查上花費的時間和人力成本,創辦Intrinsic。(圖片來源:Karine Mellata和Michael Lin Linkedln)
AI成為審查員的救命稻草?
社群媒體大佬Facebook曾在全球雇用幾萬名內容審查員,以人工的方式篩選平台貼文內容。
但人工審查不僅效率低、成本費用高,聘用的審查人員還需要承受巨大的精神壓力,例如經常目睹到暴力、血腥或是色情等影像,而每則貼文也只有幾秒鐘的時間讓他們決定是否符合發布規定。長時間來說,對這些審查員而言也是嚴重的工傷。

Facebook曾在全球雇用幾萬名內容審查員,以人為的方式篩選平台貼文內容。(圖片來源:pixels)
- 【創業小聚】韓國AI晶片新創DEEPX押寶台灣:「我們將定義AI時代!」 - 2025/09/11
- 【創業小聚】這家公司讓「AI育兒」成真 - 2025/09/09
- 【創業小聚】一人獨角獸時代來臨:小型AI團隊也能創下億元營收奇蹟 - 2025/07/22
訂閱MakerPRO知識充電報
與40000位開發者一同掌握科技創新的技術資訊!



