農林漁牧網

您現在的位置是:首頁 > 畜牧業

資訊繭房,如何破除?

2022-06-25由 中國網信雜誌 發表于 畜牧業

繭是什麼原因形成

網際網路給我們製造了一個資訊海洋,但“演算法”和“自我選擇”卻在編織一個個資訊繭房。

資訊繭房,如何破除?

別被演算法困在“資訊繭房”。圖/視覺中國

演算法推薦,即利用演算法和大資料,對使用者進行畫像以實現資訊的個性化精準推送,目前在購物、社交、短影片、新聞分發等領域均已廣泛實踐。

“資訊繭房”

這一概念,最初是在桑斯坦的《資訊烏托邦——眾人如何生產知識》一書中提出的,意指在資訊傳播中,因公眾自身的資訊需求並非全方位的,公眾只注意自己選擇的和使自己愉悅的領域,久而久之,會將自身像蠶繭一般桎梏於“繭房”中。

資訊繭房既包括演算法推薦造成的繭房,也包括使用者的自身選擇將自我陷入繭房之中。

資訊繭房現象及其存在原因

資訊繭房現象在資訊傳播過程中較為普遍,其產生的主要原因在於個體追求個性化的主觀需求,而演算法推薦技術的發展則導致其更為顯著。

1

資訊繭房現象在演算法推薦中的表現

在購物平臺中,首頁基本是前一次搜尋物品的同款;在短影片平臺中,觀看某一影片時多看了幾遍,接下來刷到的影片內容都是相似的;在聚合類新聞平臺中,搜尋或者點贊、評論了某新聞,隨後接觸到的是大量關於該新聞的內容……

演算法推薦所想達到的目標是實現使用者的個性化體驗。資訊的確在演算法推薦技術的推動下變成了“千人千面”的狀態,滿足了使用者的偏好,但對於單個使用者來說,其接觸的資訊持續性地處於“單人單面”的狀態,導致使用者深陷資訊繭房而不自知。

一般而言,人工智慧的發展需要經歷弱人工智慧、強人工智慧和超人工智慧的發展階段。現階段內容演算法推薦的智慧化水平處於弱人工智慧階段,導致推送結果存在缺陷,如“今日頭條”現階段主要的推薦方法是基於內容的推薦系統,簡言之,推送的內容與受眾之前的閱讀內容類似程度較高,這可能導致使用者只能看到與上次閱讀主題相同的內容,無法突破特定的主題,這顯然無法與使用者全面的閱讀需求和興趣相匹配,造成資訊獲取的“繭化”。

1

資訊繭房產生和加劇的原因

個體主觀偏好

即使是在日常的生活中,“挑食”這一現象就足以洞見人們對自己的喜愛事物總是希望多加獲取,即如果餐桌上都是愛吃的菜,那也就不存在挑食的行為了。

資訊繭房的形成也是如此,人們對自己愛買的東西、愛看的新聞總是帶有一定的偏好,並樂於沉浸在這種同質化世界中。

個體的主觀偏好自然而然地引導人們儘量接觸與自己觀點相吻合的資訊,同時竭力避開相牴觸的資訊,這種選擇性接觸實際上造成的是一個又一個的資訊繭房,但由於此時仍是公眾自我選擇的結果,因此,雖然該資訊繭房已經產生,但稱不上是一個媒介倫理問題。

資訊繭房,如何破除?

演算法推薦技術的推動

演算法技術被運用於個性化推薦,這實際上也與個體的主觀需求有關。為了滿足公眾日益增長的個性化需求,“注意力經濟”之下,演算法技術被不斷地開發利用於個性化推薦之中,以增強使用者黏性。

短時間內人的注意力是有限的,若使用者被鎖定在由演算法精準推送的某類固定資訊中,久而久之,會造成思維固化、認知結構單一,甚至會模糊或淡化對現實社會的真實感知,間接地剝奪了使用者對其他資訊的“知情權”。

因此,

2

過去,使用者可能意識到是自己的主動選擇造就了所接觸資訊的同質性,對“資訊繭房”效應保有一份距離,而當下“資訊繭房”卻是使用者接收新聞即產生的,很難被察覺和意識到。

演算法推薦當中的演算法執行過程會按照計算機語言設定的程式執行,即透過編寫建模邏輯演算法,機械性的重複操作可被同樣機械性的計算機迴圈運算取代。

演算法推薦中“資訊繭房”加劇的主要原因在於演算法機械性,即演算法總是根據設定好的程式對使用者進行畫像,再向使用者進行新聞精準推送。

儘管演算法的模型有很多種,並且也可以採用切換式混合的方式去最佳化結果,但是不論如何,其所基於的演算法程式總是帶有一定的機械性,例如演算法總是基於使用者歷史行為,按照其預先設定的程式進行新聞推送,使得被推送的新聞在題材、體裁、內容上等均缺乏一定的新穎性。長此以往將會造成更堅固的資訊繭房。

2

當演算法介入公眾的選擇時,資訊繭房問題逐漸顯現出來了。

過度個性化

資訊繭房應當對演算法推薦中使用者盲目追求個性化以及平臺無條件滿足使用者個性化需求的行為提出一定要求。

使用者追求個性化是其自由,但過度追求資訊的個性化,一味尋求自我偏好的滿足,對於個人的資訊獲取以及成長髮展來說或許並非益事。另外,目前看來,所謂的“資訊繭房”並不全是使用者自身喜好所造成的,而是當下使用者注意力資源成為商業趨利競爭的物件所導致的,而這實際上侵害了公眾對除推送之外的其他資訊的知情權,並且很有可能因此而限制公眾個人視野,強化固有偏見,甚至導致社會分化加劇。

以國外某社交平臺為例,其演算法將會據此對民眾進行精準的資訊投放,在美國總統大選期間,支援共和黨的民眾無法接收到關於民主黨的新聞內容;在英國脫歐公投期間,支援脫歐的民眾無法看到有關英國留在歐盟有利的新聞言論。

民眾在看到的資訊都由自己的線上歷史行為決定,演算法會自動過濾使用者不感興趣的新聞,而自動推送使用者感興趣的新聞。

在演算法推薦機制下,透過演算法過濾處理的資訊在來源、題材、體裁等方面會被限制,使用者的資訊會被自身喜好不斷固化。久而久之,會使成使用者的視野越來越窄,甚至可能出現桑斯坦說的“不同群體之間無法溝通,造成群體極化現象”。

為何要破除演算法推薦中的資訊繭房?

在一定程度上與公共利益相悖

從社會層面來說,資訊繭房所帶來的是公共領域的逐步喪失和社會文化基本功能的削弱,“繭房”之中的同質化資訊,影響著公共事務的討論,呈現出封閉化的趨向,這與哈貝馬斯所闡釋的“公共領域具有開放性、平等討論性以及涉及的內容具有公共性”不一致。

與此同時,“繭房”內的資訊主要迎合了使用者的偏好,更多地是站在使用者贊成、支援的立場,缺乏一定的對抗和思辨,最終將進一步固化社會群體的刻板印象,阻礙社會共識的形成,影響社會的整體穩定。

這表明演算法推薦在一定程度上並未考慮到公共領域中絕大多數公民的利益,由演算法推薦加劇的資訊繭房問題更是在一定程度上限制了公眾接觸新知識和新觀點的範圍和途徑,使得公眾無法接觸到完整的資訊。

資訊繭房,如何破除?

1

1

強化企業責任,提高使用者素養

2

,作為演算法推薦技術的實際應用者,平臺企業應當對資訊繭房問題負起責任。目前一些演算法推薦平臺已經在反思演算法推薦技術帶來的倫理問題,對此也進一步明確了自身的立場,這是企業自身為打破使用者的資訊繭房所轉變的倫理立場。

2

,提高使用者演算法素養是掙脫資訊繭房的關鍵一步。使用者必須清楚地意識到“我在獲取資訊”,而拒絕沉浸於演算法推薦日復一日的同質化資訊內容當中。

與此同時,使用者演算法素養的提升還在於對演算法推送技術進行主動了解。根據凱西·戴維森的說法,使用者的受教育程度與演算法素養基本成正比,因此演算法應該融入教育哲學,作為第四個“R”(“閱讀”“書寫”“文學”“演算法”,即reading,riting,rithmetic,rithms),從而避免其被束縛在演算法推送所帶來的資訊繭房中而無法掙脫。

3大破除之道

改進演算法推薦機制,增設專業把關人

改進演算法推薦技術,主要目的在於打破資訊繭房的封閉空間,同時提高整個平臺空間的優質氛圍。

1

從形式來看,應當將個性化搜尋和個性化推薦相結合,這在絕大多數演算法推薦平臺中都得以應用,但在個性化推薦環節,主要適用的是協同過濾推薦演算法和基於內容的推薦演算法,資訊收集模式和依據資訊進行使用者畫像的模式均過於單一,應當在此基礎上進行完善,在滿足使用者個性化需求的同時力爭從更多的角度進行使用者畫像,防止資訊呈現的結果過於單一。

1

從該層面講,演算法推薦事實上真正要做的是在內容層面提高優質資訊的推送權重,透過演算法甄別和提取對使用者最有價值的資訊,並且能夠在更大的社會關係框架中提供相關知識和關係圖譜,滿足人們更深層次的認知需求。

首先

,特別是對於新聞行業來說,不能把傳播完全交由演算法運作,具有專業素養的把關人仍有存在的必要性。

在演算法推薦中,目前的人工編輯通常只能決定內容的推薦狀態,而無法決定其具體的呈現位置,即使用者最終能否看到此條內容基本由演算法決定,人工編輯干預較少。因此,從該層面來講,人工編輯在智慧媒體時代的把關職能比在傳統媒體時代要大大減弱。

演算法還引發了新聞分發標準的變革,即由傳統媒體時代新聞編輯與分發中判斷新聞價值所依據的“時效性、重要性、接近性、顯著性、趣味性”五要素轉變為演算法對使用者關聯度、新聞實用性和使用者興趣度的高度關注和依賴。

此外,以演算法應用為主的應用軟體是典型的技術驅動平臺,公司的核心利益指標主要由技術部門承擔,編輯團隊的話語權由此不可避免地被削弱,傳統意義上的把關職能弱化。

為此,必須考慮到人工編輯團隊把關功能弱化所帶來的弊端,採取一些創新舉措,如國外某社交平臺在新聞推薦上舍棄了原有的標籤演算法,推出了新聞聚合功能外掛Moments,以人工編輯篩選、整合資訊,形成當天熱點事件的整合推送。

其次

加強對演算法推薦規則的規制

在演算法推薦中,使用者將自身對資訊的選擇權和決策權在一定程度上讓渡給了演算法,這也意味著演算法將成為法律監管的核心。

針對資訊繭房問題,除了企業和相關技術人員的自律、演算法推薦技術的改進、人機協調等,還需要一定的法律制度予以規制,但法律並非無所不包,對於資訊繭房這樣的倫理問題,法律只能針對實際造成的損害進行規制。

因此,將演算法納入法律的渠道,不是資訊繭房問題的直接解決方式,而是期望能夠從宏觀上強化對演算法自身的法律監管,從源頭上防止資訊繭房負面效應的進一步擴大。透過分析演算法推薦技術的推薦傾向與推薦標準,評估其可能產生的一系列後果及影響,為演算法設定“底線”。

對此,在法律監管中應注意納入以下幾個方面:演算法決策規則的標準;演算法的審查程式及規則;演算法利用使用者資訊的底線。應用平臺如需利用演算法推薦技術,必須進行事前備案,相關部門需要不定期抽檢演算法推薦技術的執行情況,同時接收使用者的投訴舉報,在發現推薦決策規則異常後,立刻要求相關平臺進行解釋說明,並對其行為進行懲戒。此舉將有助於防止演算法推薦平臺濫用演算法推薦技術從而加劇資訊繭房問題。

總之,資訊繭房並非是新出現的問題,其歷史由來已久,只是演算法推薦技術的出現使得該問題更為凸顯。換言之,資訊繭房是必然存在的事物,也並非是一個全然負面的事物。我們要警惕的是隨著演算法推薦技術的深入發展,資訊繭房引發的資訊鴻溝擴大、群體偏見和刻板印象固化、間接操縱公共領域等負面問題。