人工智能生成內容與輿論生態(tài)治理
◆◆◆
文 | 王光輝 劉志遠
當今時代,人工智能(AI)正以前所未有的深度和廣度重塑輿論生態(tài),其影響力滲透至信息傳播的各個角落。從新聞報道的即時生成到社交媒體的互動交流,從廣告營銷的精準推送到政策信息的廣泛傳播,人工智能生成內容憑借其指數級生成效率、高度情境化的內容適配能力以及逼近人類水平的仿真度,已成為信息傳播領域的關鍵驅動力。多模態(tài)大模型不僅能即時生成結構嚴謹的新聞報道,更能融合文本、圖像、音頻、視頻進行“全息”敘事;視頻生成模型的突破,則使得高保真、長時序動態(tài)內容的合成門檻大幅降低。這些變革使得信息生產從傳統(tǒng)的專業(yè)機構主導,逐漸邁向“人機協(xié)同”的新階段。
人工智能生成內容的興起與媒介技術革新緊密相關,為輿論生產帶來革命性變革,憑借深度學習和自然語言處理能力,實現內容生產從“人主導”到“人機協(xié)同”的跨越,大幅提升效率與規(guī)模,能生成個性化內容,深度參與輿論形成、傳播和擴散,重塑輿論生態(tài)。首先,內容生產模式顛覆,人工智能生成內容借助大模型驅動的涌現能力,實現全模態(tài)內容自動化“生成”,顛覆以人類專業(yè)智慧和經驗為核心的傳統(tǒng)生產鏈,這種“生成即傳播”模式壓縮信息生產周期,導致信息環(huán)境“過載化”與“碎片化”,使大量用戶接收信息后無法消化。其次,傳播機制呈現個性化重構的特點,推薦算法與人工智能生成內容深度耦合重塑傳播邏輯,算法測繪用戶偏好圖譜,人工智能生成定制化內容,形成閉環(huán),雖提升信息獲取效率,卻構筑“信息繭房”與“情感回音壁”,人工智能生成內容放大此效應,加深不同群體數字鴻溝。最后,主體身份出現模糊化現象,人工智能生成內容催生的虛擬智能改變網絡參與方式,其能模擬人類語言和行為,在社交平臺互動,還能影響輿論走向。用戶難辨對話者身份,虛擬主體若被設計為“意見領袖”,會制造虛假共識,干擾公眾判斷。
人工智能生成內容對輿論生態(tài)的多維挑戰(zhàn)及深層影響。動搖信息真實性根基。人工智能生成內容技術的發(fā)展從根本上瓦解了傳統(tǒng)信息真實性的驗證基礎,給輿論生態(tài)帶來前所未有的挑戰(zhàn)。深度偽造技術的快速發(fā)展,已從模仿名人面容聲紋,演進到實時生成特定人物在非真實場景中的自然行為(如“換臉直播”)。這類虛假內容在社交媒體平臺的傳播往往呈現出病毒式擴散特征,傳播速度和廣度遠超傳統(tǒng)虛假信息。此外,人工智能生成內容往往帶有精心設計的敘事邏輯和情感渲染,使常規(guī)事實核查手段難以應對。
加劇輿論極化與情感操控風險。人工智能生成內容技術與推薦算法深度結合,加劇了輿論極化與情感操控風險,相關技術通過精準的情感識別及內容生成機制,形成信息繭房。人工智能生成內容通過情感分析精準識別用戶情緒狀態(tài)與立場傾向,隨后即時生成最能激發(fā)其情感共鳴或強化其偏見的定制內容,形成“情緒刺激——定制生成——互動反饋——算法再強化”的自我循環(huán)增強系統(tǒng)。溫和理性的聲音因缺乏“情緒爆點”而被算法邊緣化,極端觀點則因能引發(fā)強烈互動而獲得優(yōu)先推薦,導致不同群體數字鴻溝不斷加深。
異化認知方式和社交關系。人工智能生成內容正潛移默化地改變人類的認知模式和社交行為。當人們日益依賴算法推薦和人工智能生成內容時,其認知系統(tǒng)將發(fā)生變化,獨立思考能力和批判性思維能力可能有所下降。此外,人工智能生成內容擬人化交互設計易引發(fā)情感依賴,模糊人機界限。社交平臺上虛擬智能體泛濫,將改變人際互動本質,導致真實社會連接被稀釋。這種變化不僅影響個體心理發(fā)展,更會重塑整個社會的交往方式和信任機制。當越來越多的人陷入與算法的單向互動,可能導致真實人際連接質量降低與社會凝聚力弱化。
人工智能生成內容時代輿論生態(tài)治理的對策建議。構建技術治理體系。研發(fā)基于區(qū)塊鏈的數字水印和內容指紋技術,實現人工智能生成內容從生成、傳播到使用的全流程追蹤溯源,并要求人工智能生成內容平臺嵌入包含內容來源、生成時間、使用算法等核心信息的標準化元數據。設立人工智能生成內容安全檢測平臺,重點攻關“多模態(tài)一致性驗證”“生成模型指紋提取”“對抗性樣本攻擊檢測”等核心技術,開發(fā)適應各類場景的檢測工具包。此外,建立算法透明度評估機制和動態(tài)監(jiān)測系統(tǒng),實時捕捉虛假信息傳播鏈,對易導致信息繭房的推薦系統(tǒng),引入“認知多樣性注入”與“用戶可控性調節(jié)”機制,定期開展影響評估。
健全法律法規(guī)體系。構建多層次的人工智能生成內容法律治理體系,明確劃分內容生產者、傳播平臺和終端用戶的責任邊界,建立“生成者主責、傳播者把關、使用者監(jiān)督”的完整追責鏈條。在監(jiān)管措施上,將人工智能生成內容應用場景按風險等級實施差異化監(jiān)管。同時,建議完善相關法律法規(guī),將深度偽造技術納入特殊許可管理范疇,嚴禁未經明確同意的生物特征數據用于生成內容,建立平臺分級問責機制,對違規(guī)內容實施“平臺連帶責任+直接責任人追責”的雙重懲戒。
創(chuàng)新社會治理模式。打造“政府主導、平臺執(zhí)行、公眾參與”的共治模式,組建跨學科獨立評估委員會,定期發(fā)布社會穩(wěn)定性風險評估報告與治理建議。推動平臺建立“人工智能初篩+人工復核”的雙重審核機制,對敏感領域增加人工審核比例。開展公眾數字素養(yǎng)教育,將人工智能生成內容識別納入專門信息技術課程,鼓勵公眾舉報違規(guī)人工智能生成內容,形成全社會共同參與的治理網絡。
強化平臺主體責任。構建“分級分類”的平臺責任體系,對高風險領域實施白名單準入制,要求相關平臺建立專門的人工智能生成內容倫理委員會,配備專職合規(guī)官,積極推進建立“24小時快速響應”機制,對違法有害內容及時響應處理。此外,鼓勵行業(yè)組織制定人工智能生成內容倫理準則,建立行業(yè)黑名單共享平臺和聯合懲戒機制;支持平臺設立人工智能生成內容治理創(chuàng)新基金,并通過行業(yè)自律提升整體治理水平。
加強基礎能力建設。系統(tǒng)收集虛假信息、深度偽造、算法偏見等多模態(tài)、多場景典型案例,為研究、政策制定與檢測技術開發(fā)提供基準數據集。在重點高校設立“人工智能治理”交叉學科,通過整合計算機科學、法學、倫理學等學科資源,培養(yǎng)復合型人才。構建“監(jiān)測——評估——優(yōu)化”動態(tài)治理機制,通過建立人工智能生成內容技術發(fā)展監(jiān)測指標,及時識別技術演進的新風險點,形成動態(tài)平衡的新生態(tài)。