當壓迫結合演算法與數位平台,我們需要新的自保思維。
近年來,系統性壓迫靠的不只是人力動員,更多透過
人工智慧與演算法 放大效果。例如:
- 推薦系統放大特定敘事,讓壓迫訊息更容易被看見。
- 自動化偵測與封鎖,使被害人的聲音更快消失。
- 數位監控與資料交叉比對,增加「無所遁形」的壓迫感。
這些現象並非巧合,而是實際正在發生的趨勢。那被害人或研究者能如何防禦?以下提出四個策略:
1. 多平台備份,保持敘事彈性
不要依賴單一平台。
AI 驅動的封鎖往往精準又迅速,因此內容必須在多個地方備份,並確保不同格式(文字、圖像、文件)能夠交叉保留。
2. 去中心化存證,確保紀錄長存
除了平台備份,也可考慮使用去中心化技術(如 IPFS 或區塊鏈存證)。
加害方可影響某些平台,但難以抹除分散式存證。
3. 冷靜記錄,避免觸發演算法封鎖
AI 通常靠關鍵詞或語氣判斷內容是否「違規」。適度使用中性、知識化的語言,避免過度情緒化或標籤化,可減少被自動判定為「不當內容」的風險。
這非妥協,而是戰術性隱匿。
4. 建立外部連結網路,突破平台圍牆
當單一平台出現「陰影化」時,外部連結(如獨立網站、開放知識平台、NPO 資源庫)能作為替代入口。把知識轉化成教材、研究或公益資源,就能讓 AI 難以將之單純標記為「個案爭議」。
📌 提醒:
AI 驅動的壓迫,本質上仍是「人」的決策,只是透過工具更快、更隱匿。防禦的核心,仍然是保持主體性
—— 由自己決定如何保存、何時公開、以什麼形式公開。
案例補充|演算法的「陰影化處理」
在部分平台,AI 驅動的封鎖並非直接刪文,而是更隱匿的 「陰影化」:
- 搜尋不到原文,但內文仍在。
- 部落格名稱消失,只剩零散文章。
- 不同地區、不同裝置,看到的結果不一致。
這種手法,對外看起來彷彿「一切正常」,實際上卻是
演算法在默默抹去目標的存在感。最諷刺的是:當被害人紀錄多年壓迫,結果演算法判定這些紀錄「太敏感」;而加害方的集體行動,因看似日常、不帶關鍵詞,反而能被視為「普通社交」。
於是,壓迫的痕跡被封存,加害方受到保護。這就是 AI 驅動壓迫最荒謬的地方:聲稱「中立」,卻往往只是更有效率地延續不公。
📚 本文為《開放型系統性壓迫知識庫》之一部分。
內部資源
·
〈這不是誤會,這是兩年系統性壓迫〉
· 《開放型系統性壓迫知識庫》目錄總覽|找到你需要的知識
外部資源
- The Electronic Frontier Foundation (EFF) — 關注數位自由與壓迫防禦的非營利組織
- Algorithmic Justice League — 研究AI偏見與監控危害的團體,關注公平與負責任的人工智慧發展
📌 本文為真實經歷之觀察與紀錄,完整免責聲明請見:本站首頁。
📌 本文同步發布於 Medium 平台,歡迎分享。
👉【主知識庫入口 Carrd】
