用戶在圖文、短視頻平臺連續(xù)閱覽某類話題內容時,平臺推薦算法會持續(xù)推送相關內容,由此產生的“信息繭房” 問題一直備受行業(yè)質疑 。4月15日,抖音“安全與信任中心開放日”現(xiàn)場,相關負責人拆解抖音算法邏輯與審核流程。 推薦算法作為人工智能機器學習技術的應用場景,本質是一套高效信息過濾系統(tǒng)。現(xiàn)場采訪環(huán)節(jié),抖音算法工程師劉暢表示,抖音推薦算法與國內外大部分內容推薦平臺相似,包含召回、過濾、排序等環(huán)節(jié),重點是學習用戶行為。 目前,抖音基于用戶行為的推薦方法包括協(xié)同過濾、雙塔召回、Wide&Deep等多種技術模型。算法可以在完全“不理解內容”的情況下,找到興趣相似的用戶,將其他人感興趣的內容推薦給該用戶。 但同質化選題的密集推送容易造成“信息繭房”現(xiàn)象,對此,抖音相關責任人回應稱:“信息繭房”概念在推薦算法成熟之前就出現(xiàn)了,算法不是“信息繭房”形成的先決因素?,F(xiàn)在行業(yè)對“信息繭房”的擔心本質是“信息偏食”,即信息來源單一。 當前各渠道分發(fā)信息都存在一定局限性,此前包括小紅書、微博、美團、嗶哩嗶哩等平臺均發(fā)布了算法治理相關內容。北京師范大學新聞傳播學院教授喻國明表示,“信息繭房”一直存在,本質是海量信息差異化消費的必然結果。 為引導算法打破“信息繭房”,抖音算法在多目標建模體系下,設置了專門的探索維度。一是盡可能推薦更多樣的內容,通過多樣性打散、多興趣召回、扶持小眾(長尾)興趣等方法控制相似內容出現(xiàn)的頻次。二是采用隨機推薦、基于用戶社交關系拓展興趣、搜索推薦聯(lián)動、“不感興趣”不再展現(xiàn)等方式,讓用戶的主動行為影響推薦系統(tǒng),使推薦更加個性化和多樣化。 但需注意的是,算法能學習、預估用戶行為,但無法理解內容語義,對內容的理解存在不足,可能導致違法違規(guī)、不良內容被推薦傳播。因此,算法必須由平臺治理對其進行約束和規(guī)范。抖音生態(tài)運營經理陳丹丹表示,抖音內容治理體系實行“人工參與+機器學習”模式,包含異常感知、標準定義、機器識別、人工研判、風險處置等過程。 創(chuàng)作者將內容上傳至抖音后,先進入機器識別環(huán)節(jié)。如果內容被識別出含有高危特征,將被直接攔截;若未命中高危特征但模型判斷有問題,會被送至人工審核;若問題概率較低,獲得基礎流量進入下一環(huán)節(jié)。當視頻被舉報、評論區(qū)出現(xiàn)集中質疑、流量激增等情況發(fā)生,則可能觸發(fā)“人工+機器”審核。相關內容在上述任一環(huán)節(jié)被處置,系統(tǒng)都會立即停止進一步推薦和分發(fā)。 |