
目錄
引言:當短影片成為社會鏡像
在這個指尖滑動便能吞噬時間的時代,TikTok 不僅是一款短影片應用程式,它已成為全球文化生產、資訊傳播、社會動員乃至意識形態交鋒的核心場域。每一天,海量的 UGC(用戶生成內容)在其演算法推波助瀾下,如潮水般湧現、擴散。然而,在這片看似自由創作的數位沃土上,一道無形而複雜的界線始終存在——何謂「不當內容」?何時該予以刪除?這道界線的劃定與執行,牽涉技術演算法的冰冷判斷、平台規範的條文解釋、在地法律的強制要求、全球地緣政治的壓力,以及深植於不同文化脈絡中的道德價值觀。每一次爭議性影片的刪除(或保留)決定,都是一次平台治理的微型實踐,也是一場關於言論自由、社會責任、文化差異與商業利益的艱難權衡。
本文將透過數個具代表性的 TikTok 爭議性影片刪除案例分析,深度剖析平台規範的形成、執行與其內在矛盾,並探討在全球化數位平台中,道德界線如何被定義、由誰定義,以及其對社會產生的深遠影響。
平台規範的建構——透明與模糊之間
TikTok 的《社群自律公約》是其內容治理的基石文件,條列了禁止或限制的內容類別,如仇恨言論、暴力極端主義、裸露與性行為、危險行為、虛假資訊、侵害未成年人等。這些類別看似明確,但在實際執行中卻充滿解釋空間。
首先,「危險行為」的模糊地帶。TikTok 禁止宣揚或描繪可能導致人身傷害的危險行為。然而,所謂「危險」的標準極具文化與情境相對性。例如,一段「蒙眼挑戰」的影片,在西方青少年眼中可能是刺激的遊戲,但在注重安全教育的東亞社會可能被視為不良示範。更複雜的是,某些極限運動(如跑酷、特技單車)本身帶有風險,但其社群文化視之為專業技能展現。平台如何區分「專業展演」與「不當危險示範」?這往往取決於審核人員的主觀判斷或輿論風向,標準時有浮動。
其次,「虛假資訊」的判定困境。尤其在公共衛生危機(如 COVID-19 疫情)或政治選舉期間,平台面臨巨大壓力需快速打擊不實資訊。但「虛假」的科學或政治聲明,有時與新興學說、未被主流接納的觀點或政治異議僅一線之隔。TikTok 常與事實查核機構合作,但其合作機構的選擇、查核標準本身,就可能隱含特定的意識形態或地域偏見。當平台依據特定查核結果刪除影片時,不僅是技術判斷,更是一種知識權威的行使,決定何者為「真」。
再者,「仇恨言論」的文化差異。不同社會對冒犯性言論的容忍度大相逕庭。一段涉及宗教諷刺的影片,在世俗化程度高的地區可能被視為言論自由範疇,在宗教社群則可能被視為嚴重褻瀆。TikTok 作為全球平台,試圖制訂一套通用標準,但執行時卻不得不考慮當地法規與社會敏感度,導致處理方式可能因地而異,引發「雙重標準」的質疑。
爭議案例深度剖析——界線的試金石
以下透過具體案例,呈現刪除決策背後的複雜考量。
案例一:政治敏感內容與地緣政治壓力
在印度,一段指控政府處理疫情不力的影片被大量刪除,引發輿論譁然。平台方可能援引「散播恐慌」或「虛假資訊」條款,但外界批評這是屈從於政治壓力,扼殺公民社會的監督聲音。相反地,在緬甸軍政府政變期間,TikTok 被指控未及時刪除煽動暴力攻擊反對派的內容,直到國際社會施壓後才加強審核。這兩個案例顯示,平台在面對威權政府時,其內容政策可能被工具化,成為政治壓迫的共犯,或至少暴露出其在人權保障與商業存續間的艱難取捨。
案例二:身體展演、性別與道德審查
TikTok 對身體與性的審查標準常引發巨大爭議。一方面,平台積極打擊露骨的性內容以保護未成年用戶;但另一方面,其審核機制被批評帶有系統性偏見:女性、酷兒、非白人族裔或非標準身材創作者的內容更容易被誤判或限流。例如,一名跨性別創作者分享其過渡經歷的影片可能因涉及身體或「成人主題」被刪除,而同樣是身體展示,符合主流審美的舞蹈影片卻可能暢行無阻。這揭示了平台規範並非中立,它可能不自覺地複製了現實社會中的性別與種族歧視結構,將特定群體的身體與經驗「病理化」或「邊緣化」。
案例三:社會運動與危險符號的雙面性
在 #BlackLivesMatter 運動期間,許多記錄抗議現場、甚至警方暴力行為的影片成為重要證據與動員工具。但其中部分影片因含有「暴力衝突」畫面而被移除。平台辯稱是防止煽動暴力或保護用戶免受創傷內容影響,但活動人士批評此舉抹除了重要的歷史記錄,壓制了社會正義的訴求。類似地,涉及 LGBT+ 平權的內容在某些國家被以「違反當地法律」為由限制。此時,平台的「遵守當地法律」原則,直接與其宣稱的「包容、多元」全球價值發生衝突,迫使它必須在價值觀與市場准入間做出選擇。
案例四:未成年創作者與剝削疑雲
TikTok 有大量未成年用戶,保護其安全是平台首要責任。然而,針對未成年創作者的內容審核尤其棘手。一段青少年參與舞蹈挑戰的影片,若服裝或動作被演算法或審核員判定為「性暗示」,便可能被刪除。這引發家長與兒童權益團體的兩極評價:一方讚賞平台嚴格把關,防止對未成年人的性化與剝削;另一方則認為這是一種「過度保護」或「汙名化」青少年的自然身體與表達,且審核過程可能對創作者造成心理傷害。更複雜的是,有些影片看似無害,但其幕後可能涉及家長或經紀公司的經濟剝削(如迫使孩子長時間拍攝以賺取流量),這種結構性剝削遠非內容審核工具所能偵測與處理。
案例三:社會運動與危險符號的雙面性(續)
平台的自動化審核系統依賴關鍵字與影像識別,常無法理解內容的脈絡與深層意義。一個和平舉起拳頭(象徵抗議與團結)的畫面,可能被誤判為「暴力姿勢」;一段引用歷史文獻討論殖民壓迫的影片,可能因出現某些詞彙被標記為「仇恨言論」。這種「去脈絡化」的審核,不僅可能傷害創作者,更可能削弱平台作為公共討論空間的潛力。
道德責任的歸屬——平台、用戶與社會的共構
TikTok 爭議性內容的治理難題,最終指向一個根本問題:誰該為劃定這條界線負責?
平台的角色與限制:TikTok 作為技術架構與規則制定者,無可否認擁有巨大的權力。它必須為其演算法設計、審核政策透明度和執行一致性負起主要責任。這包括:提供更清晰的審核準則、建立有效且尊重用戶的申訴與覆議機制、定期發布透明度報告披露刪除內容的數據與原因、以及投資更精準能理解語境(context-aware)的 AI 審核工具。然而,要求平台成為無所不知、價值中立的「數位上帝」是不現實的。其商業本質(追求用戶參與與增長)與治理角色(維護安全與公正)存在內在緊張關係。
用戶的能動性與教育:用戶不僅是內容消費者,也是平台的共同建設者。通過舉報機制、公共討論乃至創造性抵抗(如用特定標籤抗議審查不公),用戶能形塑社區規範。同時,提升數位素養——包括理解平台運作邏輯、識別不實資訊、尊重他人創作——是減少有害內容產生的根本。然而,將責任過度推向用戶個體,可能讓平台逃避其系統性責任。
監管與法律框架:各國政府正通過立法(如歐盟的《數位服務法》DSA 與《數位市場法》DMA)加強對大型平台的問責,要求其進行風險評估、接受獨立審計、並對其演算法決策提供解釋。這種外部監管旨在制衡平台權力,確保其符合公共利益。然而,過度或帶有政治目的的監管,同樣可能扭曲數位言論空間,成為國家控制工具。
尋找動態平衡——邁向更審慎的平臺治理
在道德與規範的鋼索上,並不存在一勞永逸的解決方案。但可以朝向更審慎、負責的治理模式努力:
- 脈絡化審核:投資技術與人力,使審核決策更能考慮文化、歷史與事件背景。建立由各地區專家組成的諮詢委員會,協助制定與審視敏感內容政策。
- 分層級管理:並非所有「有問題」的內容都需要刪除。可依據危害程度,採取限流、添加警告標籤、禁止營利、或僅對特定年齡層開放等分級措施,在降低潛在傷害的同時,保留資訊的可及性。
- 透明化與問責制:提供具體、可理解的刪除理由,並建立真正獨立、高效的申訴管道。定期發布詳細的透明度報告,接受獨立學術研究與公民社會組織的監督。
- 多元利益相關者對話:平台應常態性與創作者、人權組織、學者、心理學家、法律專家及在地社群代表進行對話,使政策制定不再是黑箱作業,而是納入多元視角的協商過程。
- 賦能用戶選擇:提供更細緻的個人化內容控制工具(如更強的過濾器、時間管理、特定主題迴避等),讓用戶在平台設定的基本安全框架內,擁有更多塑造自身數位環境的自主權。
結論:流動的界線與永恆的對話
TikTok 上的爭議性影片刪除案例,本質上是全球化數位時代社會衝突的縮影。那條區分「可接受」與「不可接受」的界線,從非固定不變,它隨著技術演進、社會價值觀流變、政治力量博弈而不斷漂移。平台規範的制定與執行,因而是一項持續進行的道德實踐,而非一次性的技術設定。
真正的挑戰不在於找到一條完美的界線,而在於建構一個能容納衝突、促進反思、並不斷修正錯誤的治理過程。這需要平台企業超越純粹的商業邏輯,承擔其作為「數位公共領域」管家的責任;需要用戶積極參與,而非被動接受;需要監管者智慧地劃定底線,而非粗暴地箝制;更需要全球社會持續進行關於自由、安全、尊嚴與正義的深刻對話。
在這場對話中,每一次爭議性影片的刪除,都不應只是事件的終點,而應成為檢視我們共同價值、協商我們期望的數位未來的新起點。在演算法的浪潮與人類複雜的道德星空之間,我們必須不斷校準航向,尋找那雖不完美、但始終追求更公正、更包容的動態平衡。

