尋夢新聞LINE@每日推播熱門推薦文章,趣聞不漏接❤️
摘要:第一,算法推薦新聞引發的新聞生產是一種「新聞內容+數據化精確制導」的生產方式,它在互聯網時代高效對接了受眾需求和信息。在完善算法技術層面,由人工訓練機器人,通過語義分析、關鍵詞分析等方法建立可以被人工智能識別的正能量模型、社會負面模型以及反低俗模型數據庫,並交由算法技術對平台內容進行過濾和篩選,從而有效剔除標題黨、抄襲和惡意信息。
本文來自微信公眾號: IPP評論(ID:IPP-REVIEW) ,作者:姬煜彤(華南理工大學公共政策研究院研究助理、政策分析師),封面:東方IC
隨著移動互聯網的廣泛普及與智慧型手機功能的深度開發,信息的內容分發打破了塔奇曼所說的「新聞常規」。 [1] 以人工編輯為核心的傳統分發模式逐漸衰落,以社交為核心的人際網路分發模式、以算法為核心的智能分發模式崛起興盛。
「算法型」分發模式的出現和普遍應用,意味著人類開始運用機器大規模地解決信息分發問題,人類社會信息分發的動力從人力轉向了部分自動化—— 從「人找信息」,到「信息找人」 ;受眾和媒體的關係也發生了轉變: 從「傳者為中心」轉向以「受眾為中心」 ,「注意力經濟」越來越不能被忽視。
1. 站在風口浪尖的算法
近年來,人工智能的開發讓算法推薦強勢崛起,成為當下最流行的內容分發方式。各大媒體亦在尋求人工智能技術與新聞報導的結合。但也正因為如此,「算法型」分發模式站在了風口浪尖上。當「算法為王」的價值觀念已成為平台的增長極之時,對算法的導向糾偏也迫在眉睫。
早在2015年,Facebook 就飽受用戶對其人工智能推薦內容存在政治偏見的指責,繼而加大了人工編輯在審批熱門話題方面的重要作用。 [2] 在大陸,算法推薦新聞近年來似乎也成了眾矢之的。2017年,《人民日報》連續發表三篇評論文章,指出,隨著人工智能的廣泛應用,部分商業網站、移動新聞客戶端都在運用算法這個「讀心術」;而技術往往是一把冰冷的雙刃劍,在價值和利益的天平上,所謂的算法成為了利益的砝碼。
公允地說,這些批判在現實狀況下不無道理。比如,在現在的算法還不足夠「聰明」的情況下,用機器智能去完全替代人的「把關」,這樣的資訊「守門人」是否可以完全信賴? [3] 再比如,由於「算法型」信息分發更多地建立在對於人們的直接興趣和「無意注意」的信息需求的挖掘上,它的直接後果是:忽略人們必需的那些非直接興趣和需要「有意注意」的信息,導致「信息繭房」、算法偏見、假新聞泛濫等問題。這些對於「算法型」信息分發的社會質疑是必須要面對與正視的。
相對於上述一些批判算法的觀點,也有學者持不同看法。他們認為,「算法推薦」對新聞傳播業的改革推動是巨大的。「算法型」信息分發模式強勢崛起,成為互聯網語境下新聞分發的主流模式,主要原因可歸納為以下三方面:
第一,算法推薦新聞引發的新聞生產是一種「新聞內容+數據化精確制導」的生產方式,它在互聯網時代高效對接了受眾需求和信息。算法通過對社交推薦機制進行二次過濾,優化推薦結果,從而提升了互聯網內容推送的精準度。例如,各大新聞媒體根據用戶的社交行為、地理位置、職業、年齡等推斷出用戶的興趣點,並判斷這些興趣的重要程度或者先後順序進行推送,從而做到個性化信息推送。
第二,個性化新聞推送下,通過對數據的挖掘,原來被忽視的大量長尾信息被挖掘。這些非主流、個性化的產品需求,雖然是需求的尾巴,但是經過散落在社會各個角落中的用戶的積累,能夠更好地適配「汝之毒藥,我之甘飴」的長尾信息。 [4] 「汝之毒藥,我之甘飴」意味著你覺得不感興趣甚至是垃圾的信息,對於我可能極有價值。於是,信息價值不再有統一的標準,不再有重要性的絕對的高低之分。
第三,在大數據技術和算法軟件的耦合作用下,算法新聞生產運作的高效性優勢凸顯。特別是在體育、財經等常規新聞生產領域,算法與機器寫作新聞可以減少新聞記者的機械勞力,使新聞生產者有更多精力用於深度報導和解讀。2016年里約奧運會期間,今日頭條的寫稿機器人「張小明」每天撰寫30篇以上的賽事報導和消息;騰訊的寫作機器人「Dreamwriter」可以根據算法以最快的速度生成新聞稿件,並能在一分鐘內將重要信息送達給用戶。
2. 「算法型」信息分發模式可能引發的風險
雖然人工智能技術為傳播領域帶來一場革命,但算法背後存在的隱患也逐漸凸顯。從技術邏輯與社會邏輯相結合的角度看,「算法型」信息分發模式出現的問題和隱憂主要集中在以下四大方面:
「算法」打造社群:「圈群文化」與「信息繭房」
社交媒體平台,算法技術通過精確的個性化描述打造社區,形成了新的人際交往形式——「圈群文化」。隨著圈子的黏性增強,圈子不可避免地會出現排他性,所以「圈群文化」的另一面是「排斥」。因此,社交媒體在經營的後期往往會出現「文化邊界」。因為「在能接納同一種或者幾種近似的文化的背景下,一大群人才能生活在一個社交網路或者說一個‘社會’中。
不調和到乃至產生衝突的文化,會自然的在人群與人群之間產生邊界」。[5]人們在自己選擇的圈子里活動,畫地為牢將自己封閉起來。久而久之,人們的關注視野變得越來越窄,最終形成「信息繭房」。
很大程度上,這是一種「自我」設限——用戶就像蠶一樣被自己吐的絲禁錮在自己製造的「信息繭房」里。長期生活在「信息繭房」之中,無疑會令用戶越來越沉溺於自己的回音,在信息繭房中越陷越深。「數據化」的人將會失去對整個社會的理解與全局批判的能力,甚至會造成群體「極化」現象。
倫理衝突:虛假新聞與低俗內容
虛假新聞和低俗內容也是算法推薦存在的顯著性問題。算法推薦最初在傳播倫理方面存在一定的缺陷。不同於人工編輯和人工篩選,純粹的個性化推薦系統缺乏對文章的質量與內容的把關,終極目標就是做到流量最大化。因此,用戶在獵奇心理驅使下點開的虛假新聞、低俗內容就會在網路環境中廣泛地傳播,如早孕網紅、暴力血腥等內容嚴重破壞了網路生態環境。
美國技術哲學家安德魯芬伯格指出,算法技術不是一個「中立性」的工具,它可以被商業、政治等非技術力量操縱和改變。當平台系統默認獵奇、低俗等需求並據此進行個性推薦時,算法便會被錯誤的價值觀俘獲,低質內容流行網路。不僅如此,社交媒體成為了假新聞泛濫的溫床,個性化推薦在不經意間成為了謠言滋生的幫兇。
更隱蔽的歧視:算法偏見
智能算法推薦有可能進一步加劇全球不平等現象與社會衝突。《自然》雜誌曾用BIBO表示Bias In,Bias Out (即偏見進,偏見出) 。可見,偏見從人類社會移植而來,隱秘地隱藏在算法之中。
算法在描繪社會現實的同時也體現出現實中的偏見,於是它們可能有利於白人男性,而不利於女性、老年人、單親父母、有色人種、非英語居民等。 [6] 事實證明,新生的人工智能Twitter機器人可以在幾個小時內成為白人至上主義者,自動生成的標籤將非裔美國人的照片標記為大猩猩。
在亞馬遜公司曾開發的一款用於篩選簡歷的算法中,意外被「培養」出歧視女性應聘者的偏好。顯然,算法從受相同偏見影響的內容中學習到更多偏見,這些認知偏見經網上廣泛傳播後導致更為廣泛的社會衝突。
把關權力的遷移:算法對把關權力的程序化收編
當信息分發從編輯中心轉向為機器中心,把關人的角色及其功能實際上被進一步弱化了,在信息環境的活力和豐富程度獲得加強的同時,信息環境的不可控性亦因此加強。
從本質上看,算法技術是Facebook等科技公司為了吸引更多的用戶群體,最大限度延長他們對公司產品的使用時間,從而獲取經濟效益而提出的。新聞的「標題黨」及低俗內容信息往往能為企業帶來巨大閱讀量,這便會利誘平台降低把關的「度」,讓打擦邊球的文章都可以通過審核。 [7]
在算法時代,把關需要基於質的判斷,因為 「新聞不應是一種被操縱和行銷的產品,而是歷史的精華」。
3. 算法時代內容生態良性發展的建議及對策
重視技術帶來的問題,並不是要拒絕技術,而是更需要保持技術敏感,學會「馴服」算法、駕馭技術。具體來說,智能時代「算法型」內容分發的優化策略可以從以下三個方面展開。
改進以算法為核心的分發模式,建立網路世界「人行道」
專業的媒體意識到「過濾氣泡」「信息繭房」的存在並通過技術手段,發起「戳泡」運動,幫助人們擺脫思維定勢的桎梏,開放包容地傾聽全方位的聲音。例如,瑞士報紙NZZ開發了一款APP——the Companion。這款APP通過機器學習生成個性化信息,但與眾不同的是,算法能夠保障在每一次給讀者所推薦的信息中包含一個「驚喜」,也就是超出讀者原本偏好範圍之外的內容。
Google推出了「逃離泡沫」插件,該插件根據用戶的閱讀習慣,反向推薦格調積極、易於接受的內容。 [8] 該模式不但可以對「信息繭房」等問題進行有效處理,同時還能夠在感官上給用戶帶來很好的體驗效果。
哈佛大學教授凱斯·桑斯坦認為,網路傳播的「回音室」局限同樣會產生群體「極化」的問題。因此,必須創建網路世界的「人行道」。在用戶無法想像的地方,為他們分發各種不在計劃內的信息,能夠讓社會上不同層次的人都可以對各種領域的信息有所接觸,從而擺脫「信息繭房」的束縛。
建立「人機結合」雙重審核機制,提升對算法權力的引導與規範
在完善算法技術層面,由人工訓練機器人,通過語義分析、關鍵詞分析等方法建立可以被人工智能識別的正能量模型、社會負面模型以及反低俗模型數據庫,並交由算法技術對平台內容進行過濾和篩選,從而有效剔除標題黨、抄襲和惡意信息。 [9]
此外,互聯網平台媒體應採取多元共治的思維,加強外部審核和監督。通過邀請政府機構、新聞媒體、傳播學界的知名專家組成專家團,充分考慮不同行業、不同領域的專家意見,同時,進一步擴大意見領袖和熱心網友的參與度,以發揮更大的作用。
近兩年,一些曾經完全依靠算法的內容分發科技公司已經開始了相應的轉變。例如,蘋果已經聘請了傳統記者來編輯和策劃其訂閱新聞應用Apple News,職業社交網站LinkedIn還聘請了記者從事內部編輯產品的工作。
因此,在算法技術之下,需要堅持「人工+技術」的雙重審查機制,確保受眾信息接收管道及形式的多樣性,避免算法壟斷新聞領域,構建傳統媒體、自媒體與算法媒體和諧共存的大眾傳播體系。
算法新聞用戶要提升「算法素養」,設計者要具有內心自律和社會責任
算法作為一種新技術,絕大多數人對它的認知都停留在「知其然而不知其所以然」的層面。提升算法素養,一方面,需要大力推動與算法有關的科普書籍進學校、進社區,使廣大受眾對算法的機制與運作原理有一個基本的認識;另一方面,算法新聞提供商要採用多種標註提醒方式以彌補新聞消費中的裂痕。 [10] 如今一些新聞APP會根據新聞傾向和用戶閱讀習慣標註出「左傾」和「右傾」的程度並做出警示。
具有社會影響力的算法新聞平台作為具有一定意義上公共屬性的機構,理應具有內心自律和社會責任。當前,大陸應積極建設算法新聞專業主義,加強對新聞推送算法運行團隊新聞價值觀的培養。將公共理性置於工具理性之上,確立一種新的公共傳播指導哲學。
文中註釋:
本文來自微信公眾號: IPP評論(ID:IPP-REVIEW) ,作者:姬煜彤(華南理工大學公共政策研究院研究助理、政策分析師),封面:東方IC
>算法推薦的倫理評價及反思