研究背景:近期,世界人工智能大會在上海召開,重點討論了AI治理的相關問題。AI作為引領未來的戰(zhàn)略新興技術,已成為發(fā)展新質生產力和推動科技革命的核心引擎。然而,AI的高速發(fā)展也帶來了復雜效應,包括數(shù)據安全、倫理治理、算法歧視、能源環(huán)境和數(shù)智鴻溝等問題。這些問題不僅影響技術本身的發(fā)展,更對社會產生了深遠的影響。因此,如何有效治理AI成為當前及未來的重大課題。
一、AI發(fā)展的不平衡問題
1.AI發(fā)展不平衡的現(xiàn)狀
AI的廣泛應用在帶來效率提升的同時,也引發(fā)了就業(yè)結構的變化。傳統(tǒng)崗位被AI取代,可能導致大規(guī)模失業(yè),進而引發(fā)社會不穩(wěn)定。此外,AI技術的研發(fā)和應用集中在少數(shù)科技巨頭手中,加劇了經濟不平等和壟斷問題。正如包括新開發(fā)銀行行長羅塞夫、聯(lián)合國工發(fā)組織總干事穆勒、聯(lián)合國秘書長技術特使吉爾等重要人物在本次世界人工智能大會上所說的,當前全球AI治理的一大挑戰(zhàn),是要防止資源不平等造成發(fā)展差異進一步擴大;國際社會應采取措施,確保發(fā)展中國家不在人工智能時代掉隊。
2.AI發(fā)展不平衡的原因分析
引發(fā)“AI掉隊”的因素,包括技術依賴、科技封鎖、數(shù)據泄露等??傮w上,和此前互聯(lián)網時代的“數(shù)字鴻溝”相似,在AI時代,發(fā)展中國家面臨“AI鴻溝”的擠壓,并且,因為相對的弱勢地位,這些國家更容易受到AI的負面影響。有專家表示,發(fā)達國家一方面努力向發(fā)展中國家推廣AI技術,但并不關心這些國家人民真正需要什么。這種出于利益驅動而形成的不平等關系,是AI全球治理最值得關注的問題之一。
3.AI發(fā)展不平衡的解決方法
AI治理迫切需要解決的,就是形成平衡的發(fā)展格局,先進國家不可忽視發(fā)展中國家AI發(fā)展的不平等問題。否則,AI就會影響聯(lián)合國可持續(xù)發(fā)展愿景的實現(xiàn),進而給世界帶來新的不安定因素,成為構建人類命運共同體的障礙。在這個意義上,中國政府在聯(lián)合國框架內提出《全球人工智能治理倡議》,倡導國際社會更關注發(fā)展中國家,倡導權利、機會、規(guī)則的平等。并且在今年的世界人工智能大會上,聯(lián)合國工發(fā)組織還宣布將與工業(yè)和信息化部、上海市一道,在上海建設一個制造業(yè)AI卓越中心,面向發(fā)展中國家、特別是最不發(fā)達國家,用中國的AI最佳實踐提升他們的AI能力。在這一層面上,中國起到了很好的帶頭示范作用。
長三角國創(chuàng)中心主任劉慶在世界人工智能大會上也表示,培育新質生產力一方面依賴科技創(chuàng)新占據前沿賽道,同時也要兼顧傳統(tǒng)產業(yè)的轉型升級,讓“新”與“舊”找到互相賦能的通道、齊頭并進,而人工智能可以成為“鑰匙”。人工智能領域近年來出現(xiàn)了多個現(xiàn)象級的技術突破,這些突破,正在引領新的商業(yè)形態(tài)并賦能千行百業(yè)。本次會上就展出了諸如“AI+辦公”“AI+醫(yī)療”“AI+教育”“AI+社交”……人工智能正在加速融入這些傳統(tǒng)項目,引領其走向未來。
二、AI發(fā)展的安全危機
1.AI發(fā)展的安全性問題
當下,人工智能正在不斷地引發(fā)它的創(chuàng)造者——全球科技界的擔憂,或者更準確地說是喜憂參半,因為它有明顯造福人類的特性,但也有難以回避的風險和不確定性。有研究表明,在經濟發(fā)展、社會發(fā)展和環(huán)境可持續(xù)發(fā)展三大領域中,人工智能會對134個具體目標產生促進作用,但也可能對59個具體目標產生阻礙作用。上海人工智能實驗室主任、首席科學家周伯文也展示了一張坐標圖,顯示人工智能發(fā)展安全技術滯后于性能提升。目前99%的算力用于模型預訓練,只有不到1%用于價值對齊或更多安全優(yōu)先的考量。包括馬斯克在內的多名科技界知名人士曾發(fā)表公開信,呼吁6個月內暫停研發(fā)人工智能技術。對人工智能的擔憂首先來源于它在某些方面超越人類的卓越表現(xiàn)。例如AlphaZero從零開始自行學習國際象棋、將棋和圍棋,最終在每個領域都擊敗了人類世界冠軍。下棋,只是人工智能小試牛刀的游戲。它在人類引以為豪的思維疆域里,還在不斷地挑戰(zhàn)邊界。
更令人憂慮的是,人們尚無法索解人工智能的智能從何而來。人工智能的核心技術——深度學習常常被稱為“黑盒子”,意思是說,雖然它的代碼、參數(shù)、訓練方法是公開透明的,但人們仍然難以追蹤、理解和預測它們如何從特定的輸入生成特定的輸出。不僅是普通人、使用者無法理解,即使那些書寫人工智能代碼的程序員也無法預測。這種不確定性更加增強了人們對AI發(fā)展的擔憂。
2.對于AI安全問題的反思
哲學家海德格爾曾反思過現(xiàn)代技術的危險性。他認為現(xiàn)代技術強調效率,在這種效率觀念的促逼下,人類反而被技術所控制和占有,成為了技術的奴隸,收到技術發(fā)展的支配。雖然當下加速了發(fā)展進程,但是盲目的發(fā)展最終會導致一系列的社會危機,這是人類不可忽視的問題。
例如,近年來,一些不法分子利用AI深度偽造新工具實施電信詐騙、散布虛假視頻、激化社會矛盾,給安全領域帶來了諸多風險。AI深度偽造是一種利用人工智能技術合成、修改或替換圖像、視頻和音頻內容的技術,可以將一個人的面部表情、言辭和動作應用到其他人的圖像或視頻上,使生成的內容看似原始內容。這項技術讓假新聞和虛假信息更具迷惑性,嚴重威脅公眾的信任和社會穩(wěn)定。
此類安全產生的主要原因在于,技術發(fā)展速度過快而法律法規(guī)和倫理規(guī)范未能及時跟進。首先是法律問題,現(xiàn)有的法律框架往往難以適應AI的快速發(fā)展,導致監(jiān)管滯后。例如,AI自動駕駛汽車的責任認定問題,目前尚無明確的法律規(guī)定。當AI系統(tǒng)出現(xiàn)故障導致事故時,如何界定制造商、開發(fā)者和用戶的責任,成為法律界亟待解決的難題。其次是倫理問題,AI的決策機制和數(shù)據處理方式存在不透明性,可能導致偏見和歧視的擴散。例如,面部識別技術在執(zhí)法中的應用可能帶來隱私侵害和種族偏見的問題。經濟基礎決定上層建筑,上層建筑反作用于經濟基礎,當上層建筑為適合生產力發(fā)展的經濟基礎服務時,它就成為推動社會發(fā)展的進步力量;反之則成為阻礙社會發(fā)展的力量。當前的法律法規(guī)和倫理規(guī)范已經落后于AI技術發(fā)展水平,亟需改良進步。
3.解決AI安全問題的方法
首先,政府應當與各個社會組織共同制定和實施關于AI技術發(fā)展相關的法律法規(guī)體系,并加強對AI技術的監(jiān)管力度,建立起有效的監(jiān)管制度和執(zhí)法體系,明確AI技術的研發(fā)、應用、監(jiān)督等方面的法律責任與義務,以確保AI的發(fā)展和應用可以在合法的框架下進行。同時,應當建立起明確的問責機制,確保AI系統(tǒng)在出現(xiàn)問題時可以追溯和糾正。
其次,在完善法律法規(guī)的基礎上,應當制定科學合理的AI倫理規(guī)范體系,使得AI技術符合社會的倫理要求和行為準則。不僅需要讓倫理規(guī)范覆蓋AI技術的多個方面,如數(shù)據隱私、算法公正、人機關系等,還應當對AI技術的從業(yè)人員進行倫理教育,提高相關從業(yè)人員的倫理意識和責任感。此外,也要鼓勵社會各界積極參與到對AI的監(jiān)管中來,共同推動AI技術的倫理發(fā)展。
最后,推動技術層面創(chuàng)新。問題的解決也往往需要有更高水平的發(fā)展,因此需要鼓勵和支持科研機構與科技企業(yè),加大對AI技術研發(fā)的投資,推動AI技術的不斷創(chuàng)新與突破。技術創(chuàng)新可以更好地解決AI技術發(fā)展過程中問題與矛盾,由此提高AI技術的安全性、可靠性和效率。在此基礎上,還應當積極探索AI技術在各個領域內的適用性,擴大AI技術的使用范圍,尤其是要積極推動AI技術與實體經濟的深度融合發(fā)展,讓AI技術能更好地促進實體經濟發(fā)展。
三、AI治理的全球性挑戰(zhàn)
當前,人工智能技術的快速發(fā)展,為人類社會發(fā)展帶來了諸多紅利,同時也出現(xiàn)了不少風險挑戰(zhàn)。如何在全球范圍內通過協(xié)同共治,實現(xiàn)人工智能發(fā)展與安全并重,成為各方亟需對話與合作的重大課題。
1.AI全球治理的必要性
AI技術的快速發(fā)展和廣泛應用已經超越了國界和地域的限制,成為全球性現(xiàn)象。國內外有多家科技公司都已經都推出了自己的大數(shù)據模型,如OpenAI的GPT-4o、字節(jié)跳動的豆包以及智譜的GLM。AI技術發(fā)展帶來的風險也早已成為全球性挑戰(zhàn)。因此,AI治理不能各自為營,也需要從全球視角出發(fā),加強國際合作與交流。各個國家和科技公司之間共同制定國際標準和規(guī)范,可以有效應對AI技術帶來的全球性挑戰(zhàn),如跨國數(shù)據流動、網絡安全、人工智能武器等。同時,全球性的AI治理還可以促進各國之間的互利共贏和共同發(fā)展,推動構建人類命運共同體。
2.AI全球治理的困難
首先,不同國家在政治制度、文化背景和社會價值觀上存在顯著差異,這些差異導致各國對AI治理的優(yōu)先事項和方法存在分歧。
其次,AI技術的發(fā)展涉及巨大的經濟利益,各國之間在技術研發(fā)、市場份額和產業(yè)布局方面存在激烈競爭。一些國家和科技公司在AI領域占據領先地位,不愿意在國際治理框架中受到限制,擔心影響自身的競爭優(yōu)勢;AI技術的應用涉及廣泛的商業(yè)利益,各國可能會為了保護本國企業(yè)的市場份額而抵制統(tǒng)一的國際規(guī)范;不同國家在產業(yè)政策上也會有不同的側重點,一些國家可能會更傾向于保護本國的AI產業(yè),制定有利于自身發(fā)展的政策,而不是參與全球性的治理框架。
再次,AI技術本身的復雜性和快速發(fā)展使得全球治理更加困難。AI技術涉及深度學習、自然語言處理、計算機視覺等多個領域,每個領域都有其獨特的技術挑戰(zhàn)和應用場景,治理的復雜性大大增加。并且AI技術更新速度快,傳統(tǒng)的立法和監(jiān)管手段難以跟上技術進步的步伐。即使制定了相關政策和法規(guī),也可能很快變得過時,需要不斷更新和調整。
然后,AI技術的發(fā)展依賴于大量數(shù)據的收集和共享,但數(shù)據隱私和安全問題卻成為全球治理的重要難題。許多國家對本國數(shù)據的控制權有很強的保護意識,不愿意輕易共享數(shù)據。而且各國對數(shù)據隱私保護的標準和要求不同,一些國家可能對數(shù)據的跨境流動設置嚴格的限制。
最后少數(shù)科技巨頭公司在AI技術和市場上占據主導地位,導致全球治理面臨技術壟斷和不平等問題。大型科技公司在AI技術研發(fā)和應用方面占據主導地位,擁有巨大的經濟和政治影響力,可能會影響政策的制定和執(zhí)行。AI技術的發(fā)展還可能加劇全球范圍內的經濟不平等,發(fā)展中國家在技術和資源方面處于劣勢,難以在全球治理中發(fā)揮有效作用。
3.AI全球治理的方法探究
實現(xiàn)AI全球治理需要各國共同努力,目前已有多個國際組織和倡議在推動AI治理方面做出了重要努力和貢獻。例如聯(lián)合國教科文組織在2021年通過了《人工智能倫理問題建議書》,這是首個全球性的AI倫理框架,旨在確保AI技術的發(fā)展和應用符合倫理標準。在此基礎上,各國政府、國際組織、企業(yè)和學術機構應加強對話與合作,分享AI技術的研究成果和治理經驗。通過舉辦國際會議和論壇,促進不同國家和地區(qū)之間的交流與合作,共同制定全球性的AI治理標準和規(guī)范,其中包括倫理標準、法律框架與技術標準。在制定AI治理政策和法規(guī)時,廣泛聽取公眾意見,確保政策制定過程的透明度和公眾參與度。通過公開咨詢、聽證會和調查問卷等形式,鼓勵公眾對AI治理問題發(fā)表意見和建議。
對于AI技術本身,則應當繼續(xù)加大對AI研究的投入,開發(fā)更為先進的加密技術和防火墻,防范黑客攻擊和數(shù)據泄露。同時,推動AI技術的安全測試和評估,確保其在各種環(huán)境下的穩(wěn)定性和可靠性。與此同時,各國政府也應加強對公眾的數(shù)字教育,提升其對AI技術的理解和應用能力。通過宣傳和培訓,提高公眾對AI技術的認知,確保更多人能夠享受AI帶來的便利和機遇。在國際組織的引導下,幫助發(fā)展中國家提升AI技術的研發(fā)和應用能力,縮小全球范圍內的數(shù)字鴻溝。提供專項資金和技術支持,促進AI技術在發(fā)展中國家的普及應用。
實現(xiàn)AI全球治理需要各國共同努力,共同應對AI技術帶來的全球性挑戰(zhàn)。只有通過全球共治,才能在平衡發(fā)展與風險的基礎上,實現(xiàn)AI技術的可持續(xù)發(fā)展,為人類社會帶來更多福祉。