當前位置: 華文頭條 > 文化

人工智慧對國家文化安全的影響與對策

2024-06-21文化
在當下科技革命與產業轉型的浪潮中,人工智慧技術作為核心驅動力,正引導全球文明經歷一場根本性的轉變。依托行動網際網路、大數據、超級計算力、傳感器網路和腦科學等尖端技術,人工智慧呈現出深度學習、跨界融合、人機協同、群智開放和自主操控等一系列突出特性,這些特性正在對國家文化安全建設、治理體系變革以及國際格局變動產生深遠影響。在此變革時期,我們必須全方位洞察人工智慧對中國文化安全帶來的機遇與挑戰,主動識變、應變、求變,積極探索符合時代要求的治理新模式,進而為國家治理體系和治理能力現代化貢獻新動能和新思路。
提高國家文化安全治理效能
國家文化安全關涉國家或民族的文化自主性、完整性和創新性,反映了該國文化在全球舞台上的地位、影響力和競爭力,是滿足國家和民族發展需求的關鍵因素。隨著人工智慧時代的來臨以及產業革新的持續進展,中國的文化安全治理正面臨前所未有的發展機遇。這一趨勢為提高國家文化安全治理的效率和效果註入強大的推動力。
數據驅動的智慧分析能力使人工智慧成為對海量數據進行深入分析和挖掘的有效工具,為文化安全治理提供廣泛的數據支持。尤其是最新一代人工智慧技術,透過融合多樣的資訊型別,並依托於大數據模型與強大的計算能力,能夠對數據進行即時處理和分析,並迅速產出和釋出結果。這種高效及時的資訊處理方式極大地促進了文化傳播的便捷性和文化安全治理的及時性。此外,新一代人工智慧技術綜合運用整合語言、文字、圖片和視訊等多源數據,能夠為文化安全的決策制定提供強有力的數據支持。透過運用資料探勘、機器學習、自然語言處理等先進技術手段,人工智慧得以對與文化安全相關的數據進行細致分類、標註、歸納和推理,進而從海量數據中提取出具有重要價值的資訊,幫助決策者更好地理解文化安全的現狀和趨勢,進而制定出科學合理的解決方案。
人工智慧還可以用於對文化安全的即時監測和風險辨識,有效提升文化安全治理的前瞻性和精準性。透過部署先進的演算法和機器學習模型,人工智慧系統能夠不斷從互聯網、社交媒體以及其他資料來源中收集資訊,分析文化傳播的趨勢和模式。這種即時監測能力使得人工智慧能夠第一時間監測到可能對文化安全構成威脅的內容或行為。例如,它可以快速辨識網路上的極端主義宣傳、虛假資訊傳播、針對特定文化群體的不當言論等,並立即向監管部門或相關機構發出警報,從而使得響應措施更加迅速且精準。統計數據顯示,截至2023年底,中國部署的人工智慧系統平均每天能夠監測並分析大約10萬條與文化安全相關的敏感資訊,其中約80%的資訊被及時處理,有效地維護了國家的文化主權和尊嚴。總之,最新人工智慧技術的整合套用使得智慧預警和應急響應成為可能。依靠大數據模型和強大算力的支持,人工智慧得以迅速辨識並標記潛在的文化安全隱患,極大地提高了文化安全治理的主動性和針對性,為文化安全治理效能提升註入了強勁動力。
文化安全面臨深層技術風險
技術發展的雙刃劍特性在人工智慧時代尤為明顯。基於人工智慧的演算法權力代表了新的權力結構,依托這些演算法的平台正在逐漸形成一種能夠單方面施加影響的新勢力。由於演算法技術的復雜性和專業性,加之公共權力機構在授權和監管上的不足,以及當前對於演算法治理手段的相對落後,這種演算法驅動的權力正在迅速擴張。這一現象給文化安全治理帶來了多重風險挑戰。
「深度偽造」技術是伴隨人工智慧發展而出現的嚴峻挑戰之一。該技術涉及運用人工智慧演算法生成高度真實的虛假影像、音訊和視訊內容,從而增強了虛假資訊傳播的隱蔽性和欺騙性。透過模仿名人或權威人士的言論和行為,「深度偽造」技術不僅可能損害他們的名譽,還能捏造出從未發生過的事件或情境,造成公眾對實際發生事件的誤解,並可能引發誹謗、欺詐和社會恐慌等一系列問題。此外,它還有可能成為虛假新聞產生和傳播的催化劑,削弱公眾對媒體的信任並操縱公共輿論。最近幾年,利用「深度偽造」技術制造的新聞事件頻發,以至於虛假內容和真實情況難以區分,對社會輿論產生了不同程度的負面影響。人工智慧驅動的「深度偽造」技術,透過精準辨識並針對目標國家社交媒體使用者的心理弱點,為那些散播虛假資訊者提供了更為精確的攻擊手段。這極大地增加了資訊過濾和鑒別的難度,並可能對社會和諧穩定造成幹擾。
另一個嚴重問題是人工智慧可能加重「資訊繭房」效應並引發文化偏見。所謂「資訊繭房」,是指人們在網路上選擇性地接觸和吸收資訊,從而將自己置於一個狹小的資訊空間內,難以獲得多樣化的觀點。而人工智慧的演算法推薦系統可能會進一步加固這種「資訊繭房」,導致使用者只能看到與自己觀點相符的內容,同時忽視或排斥與自己立場不一致的資訊。這種現象可能引發幾個問題。一是造成文化封閉化趨向。在「資訊繭房」中,人們缺乏對多樣化觀點的接觸,容易形成偏見和誤解。二是容易導致文化誤解和刻板印象加深。由於「資訊繭房」中的資訊是同質化的,人們的思維和觀點也會變得封閉和單一。這會導致人們錯失與多元觀點進行交流的機會,從而加深對某些群體或事物的錯誤認知與固有偏見。三是群體觀點極化。在「資訊繭房」的環境下,個體或群體的觀點容易走向極端並缺乏批判性思考。不同群體之間難以形成共識和相互理解,甚至可能引發社會撕裂。
「技術操縱」和意識形態問題亦是不容忽視的風險之一。演算法是自動學習、自動決策的技術,但這並不意味著演算法是「技術中立」的,演算法的使用者、營運者賦予一定的目標從而發揮其效用。如果演算法被有意無意地用於宣揚某種特定的意識形態,可能會對公眾輿論產生操縱作用,引發多層面的意識形態風險。一方面,由於人工智慧語料庫的大規模流動、聚合和分析,可能導致前所未有的數據安全風險。這些風險涉及了數據輸入、運算、儲存與輸出的全過程,還可能威脅到數據主權、網路安全,引發個人私密保護的問題,甚至危及國家文化安全。另一方面,以ChatGPT為代表的生成式人工智慧技術仍然主要由西方已開發國家掌握,所需學習訓練的「底料」也大多來自歐美國家,這很有可能導致該技術成為西方塑造主流思想、制造「認知陷阱」的新工具。這意味著,生成式人工智慧技術有可能在不知不覺中傳播和強化西方國家的價值觀、思維方式、文化習慣等,對世界其他地區和國家的社會認同感、民族自信心以及文化多元性構成挑戰。進言之,這種技術可能變成意識形態領域內的「特洛伊木馬」,悄無聲息地影響和改變全球文化格局。
加強制度體系建設
一是堅持規劃引領,完善法律法規。加強前瞻布局,支持利用人工智慧技術防範人工智慧風險,積極推動人工智慧治理相關技術的開發與套用,同時遵循敏捷治理和多維治理的原則,構建多方參與的人工智慧治理體系。完善法規政策和行業規範,關註人工智慧重點領域的安全套用,保障人工智慧研發和套用過程中的個人私密與數據安全,確保人工智慧的安全、可靠和可控。強化人工智慧技術倫理規範的制定與實施,保障在文化行業內的道德標準和社會認可度,進而同社會價值和人類尊嚴相吻合。
二是加強監督監管,堅決打擊犯罪。設立專門的監管組織和管理體系,對人工智慧技術的使用進行評估,包括對人工智慧演算法的訓練數據、設計過程和輸出結果進行全方位的動態審查和監管,確保演算法的透明度和公正性,保障在文化領域的套用符合法律規範,防止技術被濫用於傳播有害資訊或損害他人合法權益。強化內容稽核流程,構建高效的內容稽核系統,對可能影響國家文化安全的內容進行周密檢查,並進一步完善快速辨識與違規處置響應機制。對於故意制造和傳播違法違規內容的行為,應當依法予以嚴懲,以此建立強有力的震懾機制,警示潛在的違法者,保護公眾免受不良資訊的影響。
三是發揮技術優勢,強化要素支撐。充分發揮人工智慧的核心優勢,推進文化安全治理向智慧化、精細化和效率化發展。一方面,利用人工智慧技術為傳統文化產業註入新活力,促進傳統文化的數位保存與繼承。同時,運用機器學習和資料探勘技術深入分析傳統文化資料,如文學作品、音樂作品和舞蹈等,增進人們對傳統文化的理解和鑒賞。另一方面,運用人工智慧技術構建國家文化安全資料庫,對相關數據進行系統性收集、有序整理和深入解析,對網路上的輿論動態進行智慧化分析與預測,實作以智慧化手段預測和防範國家文化安全方面的潛在風險。此外,依托人工智慧對文化安全監測數據和反饋資訊的深度分析,可以評估文化安全政策的執行成效,為政府政策的制定和最佳化提供重要參考。
四是加強人才培養,提供智力支持。一方面,加強人工智慧技術的教育和培訓。改進教育系統,把人工智慧相關課程納入學校標準教學大綱中,以塑造學生對該領域的基礎認知和技能,培養一批具有人工智慧理論基礎和實踐能力的青年人才。推動職業技能培訓和終身學習體系建設,為在職人員提供專業培訓和進修的機會,協助他們升級知識與技巧,滿足人工智慧技術廣泛套用的時代需求。另一方面,推動跨學科合作,鼓勵不同知識領域的相互合作與溝通,以此培育具有多元學科背景的綜合型人才。比如,電腦科學、數學和心理學等不同領域的專家可以攜手探索人工智慧技術的進展。透過實施與企業合作的研究計畫,將科研成果轉化為具體的技術套用,並打造出一支擁有實戰經驗的人工智慧專家團隊。
五是推動全球治理,共同應對挑戰。應加強資訊共享、經驗交流和合作機制建設,共同研究和制定相關政策規範,形成共識和合作框架,透過國際組織、論壇和峰會等平台,促進各國之間的對話與合作。設立國際監管組織和評審流程,共同制定人工智慧在文化產業中的套用標準,明確其合法合規的範圍和限制條件,確保人工智慧套用不僅遵循國內法律法規,同時也符合國際準則。加強技術合作與創新,透過聯合研究計畫、技術轉讓和人才交流等方式,共同研發先進的人工智慧技術,監督、偵測和預防文化領域的犯罪行為,加大智慧財產權保護力度,避免人工智慧技術被誤用和濫用。