訂閱
糾錯
加入自媒體

“憤怒誘餌”太多,算法沒法背鍋

 

文 | 佘宗明

你以為自己是不平,其實你只是鉆進了別人精心設(shè)計的“情緒陷阱”;你以為自己是不忿,其實你只是吞下了別人專門投下的“憤怒誘餌”……這層后真相時代的真相“窗戶紙”,被牛津詞典捅破了。

前不久,牛津詞典團隊公布了2025年牛津年度詞匯:憤怒誘餌(rage bait)。

什么是“憤怒誘餌”?簡單來說,就是故意用刺激性內(nèi)容引發(fā)網(wǎng)民憤怒,借機獲取流量。擺拍“兒媳給住院婆婆吃泡面”“外賣騎手被顧客羞辱”,皆在此列。

毫無疑問,“憤怒誘餌”現(xiàn)象值得警惕:當憤怒成為被批量生產(chǎn)的博流量工具,隨之而來的是社會戾氣的加重、輿論質(zhì)地的劣化。

可從輿論反應看,部分人又順著“遇事不決,量子力學;歸因無妨,信息繭房”的流行總結(jié)歸納法,將箭頭對準了算法,被順帶著提及的高頻詞還有“信息繭房”。

在他們看來,“憤怒誘餌”背后是算法捕網(wǎng),是算法編織的信息繭房提供了傳播溫床,“憤怒誘餌”才會潛滋暗長。

這不免讓人想起柏拉圖的“洞穴寓言”:許多人錯將墻上投影認成真實世界,卻對真正光源視而不見。

01

索維爾曾說過:如果你認為人類總是理性的,那么,至少一般的歷史是無法解釋的。

為什么網(wǎng)絡(luò)上會出現(xiàn)“憤怒誘餌”現(xiàn)象?原因也跟那三個字緊密相關(guān):非理性。

神經(jīng)學研究表明:大腦對壞刺激的反應比對好刺激更強烈,而且留下的痕跡更深,所以壞消息會讓我們產(chǎn)生更多的注意力。社會學中的注意偏向理論也與此相通:跟中性刺激比,情緒性刺激更容易捕獲個體注意力。

也就是說,當那些爭議性話題出現(xiàn)在公眾視野中時,用戶會本能地投以更多關(guān)注。

正是看到了這點,那些流量捕手玩起了情緒操控把戲:他們通常會先“選餌”,識別爭議性話題和沖突性元素(如性別對立、地域歧視、代際沖突、階層差距等);再“制餌”,將極端標簽、反差情節(jié)、失真細節(jié)等精心調(diào)配,糅在一塊;接著“下鉤”,通過標題黨、偽造截圖等手段,激起網(wǎng)民憤怒;最后“收網(wǎng)”,獲取流量后,想法子變現(xiàn)。

說到底,是人類注意力機制的非理性特征跟部分人流量饑渴下的行為扭曲,共同催生了“憤怒誘餌”現(xiàn)象。

在某些人的想象中,“憤怒誘餌”盛行離不開算法對“憤怒-互動-推薦-更多憤怒”的惡性循環(huán)的助推。

但這更多的是想當然。因為很多人腦補出的“傳播者-用戶-平臺”共生關(guān)系在“憤怒產(chǎn)業(yè)鏈”上并不存在。

事實一再表明,用戶頻繁刷到制造矛盾、渲染對立的內(nèi)容后,產(chǎn)生的負面情緒最終導向的不是停留,而是逃離,不是沉迷,而是卸載;而充滿戾氣的社區(qū)環(huán)境或平臺氛圍,也很難受到品牌方青睞,商業(yè)價值會驟減,還可能承受監(jiān)管層面壓力,風險系數(shù)會劇增。

這意味著,“憤怒誘餌”帶來的“惡流量”跟平臺在用戶體驗、內(nèi)容安全、商業(yè)利益上的追求,存在根本性沖突。在“憤怒誘餌”引發(fā)的社會撕裂、信任危機會導致平臺利益受損的背景下,平臺又有多少動力去擁抱其帶來的“惡流量”呢?

多家平臺出臺治理辦法,對為博取流量刻意制造沖突、煽動引戰(zhàn)等內(nèi)容,以及發(fā)布煽動蹭熱內(nèi)容的“惡意營銷號”等進行重點治理,就是在釋放信號:面對“憤怒誘餌”現(xiàn)象,平臺要充當“過濾器”而非“助推器”角色。

02

要看到,無論是“憤怒誘餌”,還是之前的“傻子共振”“算法離間”,這些新詞在輿論場激起的漣漪,本質(zhì)上都是“算法織繭說”的回響。

在民粹、飯圈、打拳等問題肆虐的當下,不少人已習慣了將問題歸咎于算法構(gòu)筑的信息繭房。這看似是化繁為簡,實則是化約慣性與思維惰性的反映。

在這問題上,我的主要看法是:

1,“信息繭房”是否存在還難說,但“認知繭房”真真切切存在。

“信息繭房”究竟是真實存在的“賽博囚籠”,還是想象出來的稻草人議題,學界至今都莫衷一是。畢竟,“信息繭房”的假說在學術(shù)性實證研究中從未被證實過。

但這不等于“認知繭房”就不存在。說白了,算法是放大器,它的放大效應會在“人塑造環(huán)境”和“環(huán)境塑造人”的雙向交互中倍數(shù)級還原出人的多面性來。算法會在同頻共振中放大向美向善的力量,也會暴露許多人獲取信息上路徑依賴,溝通信息上社交衰退、消化信息上感情用事的弊端……這些凝結(jié)成的,就是“思維繭房”“社交繭房”“認知繭房”。

2,信息偏食是依托人腦“過濾罩”的自我保護機制,沒那么可怕。

很多學者都傾向于認為,信息繭房是偽命題,信息偏食是真問題。就連“信息繭房”概念的提出者桑斯坦,都將“信息繭房”癥結(jié)歸于“信息偏食”。

信息偏食,其實是人腦基于喜同惡異、趨利避害本性自動開啟信息篩選的腦部減負機制,為的是避免信息過載。

3,真正可怕的,不是算法,而是信息的單一控制和限量供給。

信息匱乏時代的“繭房”是物理性的,因為沒得選——今天那些言必稱“信息繭房毀了下一代”的人,可能忘了在社交媒體出現(xiàn)之前大家只能聽“同一首歌”。

信息豐裕時代的“繭房”則是心理性的,它不是由分發(fā)渠道決定,而是由大腦的信息加工機制塑造。

03 

說這些,核心也是在回應兩個問題:“繭房”到底是怎么形成的?算法真的會筑繭嗎?

先來說第一個。

前不久,世界權(quán)威學術(shù)期刊《Science》發(fā)了篇論文《不要責怪算法:社交媒體可能天生就存在兩極分化》,介紹了來自阿姆斯特丹大學邏輯、語言與計算研究所的最新研究成果。

研究團隊搭建了無個性化算法的極簡社交平臺,僅保留發(fā)帖、轉(zhuǎn)帖和關(guān)注功能,投入500個帶有固定人格設(shè)定的AI機器人模擬人類行為。實驗結(jié)果顯示,無需算法干預,機器人在5萬次互動后便會自動形成陣營:立場接近的互相關(guān)注,極端觀點的傳播速度遠超中立內(nèi)容。

結(jié)論是:“信息繭房”的形成并非算法所致,而是人類趨同避異社交本能的自然產(chǎn)物,即便沒有算法,社交媒體也會存在極化現(xiàn)象。

這從社會心理學層面也能得到解釋:人類的注意力分配和記憶編碼機制,天生自帶“繭房”傾向。“確認偏誤”會讓我們更關(guān)注我們愿意關(guān)注的信息,“負面偏好”會讓我們對令人憤怒的事物記憶更深刻,“可得性啟發(fā)”會讓我們高估近期接觸信息的重要性……

算法給用戶推送了100條內(nèi)容,其中80條符合用戶興趣,15條是系統(tǒng)主動探索的多樣性內(nèi)容,5條是隨機噪音,可用戶大腦往往會選擇性遺忘那95條,牢牢記住那幾條讓自己憤怒或驚喜的“極端”信息,這已成常態(tài)。

在《打破社交媒體棱鏡》中,杜克大學教授克里斯·貝爾還通過實驗給出了另一個“反直覺”的結(jié)論:即便強制讓人接觸對立觀點,也不會使其變得溫和,反而會促使其強化自身立場,變得更加極端。

言下之意,在社交媒體上的認知封閉,本質(zhì)上是人類本性在網(wǎng)絡(luò)空間的延伸。與其說是算法在制造繭房,不如說是人類認知系統(tǒng)自身在編織濾網(wǎng)。

再來說第二個。

如果算法讓人們看到的都是自己想看到的、聽到的都是自己想聽到的,那確實會筑繭。

但事實上,算法早已從單一的興趣匹配進化為多目標優(yōu)化體系,抖音算法推薦不僅會考慮“用戶喜歡什么”,更會主動控制相似內(nèi)容的出現(xiàn)間隔、頻次上限,強制插入多樣性內(nèi)容,并通過隨機推薦、社交關(guān)系興趣拓展、搜索推薦聯(lián)動等方式,幫助用戶突破既有興趣圈。

有意思的是,著名傳播學者喻國明還認為,智能算法推薦具有反信息繭房的本質(zhì),“采用多種算法的信息分發(fā)平臺所具有的社會構(gòu)造,從信息流動來說,總體上能夠有效地避免‘繭房效應’的發(fā)生”。換句話說,算法非但不會筑繭,還能破繭。

這并非沒有依據(jù)。某平臺此前公布的“雙塔召回模型”,就是通過將用戶和內(nèi)容轉(zhuǎn)化為高維空間的數(shù)學向量,實現(xiàn)脫離具體語義的精準匹配,發(fā)掘用戶潛在興趣領(lǐng)域,讓用戶刷到意料之外但又在情理之中的內(nèi)容。

在著作《必然》里,凱文·凱利曾提出“理想的過濾器”設(shè)想:它應該推薦那些“我想知道我的朋友喜歡什么,而那又是我現(xiàn)在還不了解的”,以及“它將是一種會向我建議某些我現(xiàn)在不喜歡,但想嘗試著喜歡的東西的信息流”。

目前看,算法進化已經(jīng)讓這番暢想變?yōu)楝F(xiàn)實。

04

這倒不是說算法已經(jīng)臻于至善了,只是說很多人對算法有許多因不解而生的恐懼、因誤解而生的敵意。

怎么消除這些不解和誤解?用算法透明化去祛除“算法魔法化”的想象,是應有之方。

多年來,堵在算法透明化面前的那堵高墻叫“商業(yè)秘密”,但今年以來,有個明顯跡象是,很多中國互聯(lián)網(wǎng)公司在主動拆“墻”。有平臺就在構(gòu)建起包含規(guī)則闡釋、案例解析、互動答疑的多維溝通體系,讓算法走出黑箱、走向透明。

這其實就是用算法祛魅來消除大眾對“不受控制的技術(shù)權(quán)力”的擔憂:當平臺將如何通過“多目標建模”平衡短期互動與長期價值、如何設(shè)置“多樣性約束”避免內(nèi)容重復、如何引入“探索因子”突破興趣固化等呈現(xiàn)在公眾面前,算法的“可理解”本身就成了公共產(chǎn)品。

對算法污名化的最好阻擊,就是將其置于“可解釋、可參與、可監(jiān)督”的透明化治理框架下。那樣一來,用戶會逐漸明白:算法不是獨立的價值主體,而是人類行為的映射,不是神秘的巫術(shù)魔法,而是可被監(jiān)督可改進的工具,它并不全能,也非萬能。

循此看去,有兩點漸次明了:1,將那些復雜的社會結(jié)構(gòu)性問題簡單歸結(jié)為算法原罪,在自己作繭自縛后怪罪于算法織繭,都是選擇性遮蔽下的歸因偏差;2,很多時候,技術(shù)不是問題,放棄人的自主性才是。

拿“憤怒誘餌”現(xiàn)象來說,“憤怒誘餌”太多,算法沒法背鍋。不能因為算法“不會說話”,就讓它客串竇娥、充當標靶。

算法確實還有很多不足,但解決之道不是打倒算法,而是讓算法在陽光下運行,讓公眾理解算法原理,讓平臺承擔起治理責任,讓用戶重掌信息主權(quán)。當人們更多地承認其局限、發(fā)揮其價值,那個被迷霧籠罩的人機共處未來才會愈發(fā)清晰。

這其中,我們掌握自己的信息主權(quán)很重要。納薩尼爾·霍索恩說過:你關(guān)注什么,最終你就成為什么。

將其換成另一個表述就是:每個人,都是自己接收信息情況的第一責任人。

       原文標題 : “憤怒誘餌”太多,算法沒法背鍋

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號