一、不是陰謀,而是集體「模式化」
許多人直覺會用「陰謀」來解釋龐大的壓迫:背後一定有人操縱、調度,否則不可能這麼多人一致行動。但實際上,這更像是人類行為的「演算法」在失控:
- 偏見被不斷重複 → 自動放大
- 集體跟風模仿 → 漸漸變成常態
- 缺乏校正或反省 → 持續走向極端
因此,壓迫看起來有劇本、像被排班,卻不需要「總導演」,這是人類的「自動化偏差」。
二、人類演算法的三大特徵
- 強化迴路
一次壓迫被看到,就有人模仿;模仿累積,就被視為「理所當然」。 - 低成本啟動
只需要眼神、姿勢、排班,代價極低,卻能持續施壓。 - 責任稀釋
每個人都覺得「我只是跟著做」,沒有人自認是加害者。
三、為什麼會「像機器一樣」?
當每個人都不去想「為什麼」,只管複製「怎麼做」,行為就會像自動化:
- 沒有誰特別惡毒,但行為卻一步步放大。
- 演算法本質不是邪惡,而是「無腦放大」。
- 這就是為什麼壓迫行動看起來像劇本、像排班。
四、真正的風險
這不只是單一事件,而是人類社會的結構性漏洞:
- 任何人、任何地方
- 只要有「可被標示的目標」+「群體偏見」
- 就可能重演這種荒唐場景。
五、結語
壓迫不是陰謀,而是「失控的人類演算法」。
破解方法不是去追捕「幕後黑手」,而是:
- 辨識模式:用語言命名現象,讓它現形。
- 冷靜紀錄:留下真相,避免被改寫。
- 打斷迴路:不模仿、不跟風,拒絕被帶走。
只有這樣,集體才有機會從自動化的荒唐裡清醒過來。
📚 本文為《開放型系統性壓迫知識庫》之一部分。
延伸閱讀
· 🌐《開放型系統性壓迫知識庫》目錄總覽|找到你需要的知識
·
Daniel Kahneman《快思慢想》──自動化思維與偏見放大
·
Zeynep Tufekci〈It’s the (Democracy-Poisoning) Golden Age of Free Speech〉──演算法如何推動社會極端化
📌 本文為真實經歷之觀察與紀錄,完整免責聲明請見:本站首頁。
📌 本文同步發布於 Medium 平台,歡迎分享。
👉【主知識庫入口 Carrd】
