習(xí)近平總書記指出,“人工智能是引領(lǐng)這一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術(shù),具有溢出帶動性很強的‘頭雁’效應(yīng)。”人工智能的快速發(fā)展不僅推動經(jīng)濟社會的深刻變革,同時也為政府決策模式的變革提供了新路徑,對于建立健全大數(shù)據(jù)輔助科學(xué)決策機制、全面提升政府決策科學(xué)化民主化水平具有重要意義。
信息是決策的基礎(chǔ),但信息規(guī)模越大,結(jié)構(gòu)性越復(fù)雜,意味著處理難度也越大。與人類決策相比,人工智能技術(shù)可以更加高效、快速、準(zhǔn)確地搜集和處理海量非結(jié)構(gòu)化數(shù)據(jù),并將主次矛盾、因果關(guān)系、約束條件等呈現(xiàn)出來,為確定政策目標(biāo)提供有價值的參考,便于決策者把握決策需求、認(rèn)清問題癥結(jié)、抓準(zhǔn)主要矛盾、科學(xué)制定對策。
人工智能的機器學(xué)習(xí)方法可以通過分析數(shù)據(jù)中的模式和規(guī)律,自動訓(xùn)練和模擬模型,更加精準(zhǔn)地預(yù)測潛在問題和風(fēng)險的發(fā)生概率、復(fù)雜性與嚴(yán)重程度,事前預(yù)估不同政策方案實施后果,從而幫助決策者設(shè)置政策議程、優(yōu)選政策方案。同時,人工智能的自然語言處理技術(shù)和文本情感分析技術(shù)使政府與公眾可利用文字、聲音、圖片等多種形式進行互動,這不僅拓寬了公眾參與決策的渠道,還豐富了政府回應(yīng)民眾訴求的途徑,提高政府決策的透明度。政府還可利用計算機識別技術(shù)和深度學(xué)習(xí)技術(shù)對海量民意進行識別、整理、分析,了解公眾共同的利益訴求、把握“最大公約數(shù)”,進而制定更符合民意的政策,實現(xiàn)價值聚合,提高政府信任度。
盡管人工智能提高了政府的決策能力,但也給政府決策帶來諸如決策失靈等相關(guān)問題。
一是公平性風(fēng)險。公平是政府決策的核心價值之一,但數(shù)據(jù)偏見和算法偏見使人工智能輔助政府決策面臨公平性風(fēng)險。一方面,大數(shù)據(jù)雖是海量數(shù)據(jù),但卻不是全數(shù)據(jù)。與理想化的全數(shù)據(jù)相比,大數(shù)據(jù)反映的現(xiàn)實是不完備的,例如,一些數(shù)字素養(yǎng)較弱群體的數(shù)據(jù)信息就難以被人工智能抓取。在帶有“參與者偏差”的不完備數(shù)據(jù)基礎(chǔ)上進行的決策可能會延續(xù)數(shù)據(jù)本身蘊含的價值偏差,加劇社會不公平。另一方面,算法決定了海量數(shù)據(jù)的應(yīng)用方向及其計算效果,而算法設(shè)計過程中難免受到研發(fā)者價值傾向的影響。當(dāng)前絕大多數(shù)算法由經(jīng)營主體開發(fā),其價值導(dǎo)向與公共部門未必完全一致,加之算法黑箱的存在使政府決策的公平性難以得到有效保證。
二是安全性風(fēng)險。利用人工智能技術(shù)輔助政府決策通常需要收集大量數(shù)據(jù),其中包含涉及個人隱私、商業(yè)機密、國家安全等敏感信息。有些信息單個或少量的存在并不敏感,但海量匯聚和挖掘分析后可能具有一定的敏感性。如果這些數(shù)據(jù)未能受到足夠保護,可能會造成數(shù)據(jù)濫用甚至泄露,不僅損害個人和企業(yè)的隱私權(quán),還可能對國家安全構(gòu)成威脅。
三是倫理風(fēng)險。算法和技術(shù)的加入使政府決策的影響因素日益復(fù)雜,原有的權(quán)責(zé)配置發(fā)生變化,造成責(zé)任主體虛化,帶來倫理風(fēng)險。運用人工智能輔助政府決策在一定程度上賦予了算法與技術(shù)決策權(quán),一旦出現(xiàn)算法失靈,就會導(dǎo)致決策失誤,公共利益受損。由于人工智能算法并不擁有責(zé)任主體地位,因此,決策失靈的責(zé)任追究和政治問責(zé)出現(xiàn)困境。
為防范人工智能技術(shù)給政府決策帶來的風(fēng)險,更好地推動人工智能賦能政府決策,需要在審視現(xiàn)行決策模式和制度基礎(chǔ)上,針對人工智能技術(shù)的特點,采取多方面措施。
一是建立參與式算法決策框架。公共的價值觀既包括決策結(jié)果的公平公正,也包括決策過程的公開參與。為化解因數(shù)據(jù)偏見和算法偏見帶來的公平性風(fēng)險,一方面,吸納政策利益相關(guān)主體代表參與算法設(shè)計與構(gòu)建,提高算法的公開性和透明性,將公共價值融入到算法設(shè)計中去。另一方面,加強對算法決策的前期審核與后期評估,建立人工智能輔助政府決策的倫理審查機制,組織技術(shù)專家、公眾和協(xié)會等定期參與倫理審查,防范人工智能輔助政府決策的倫理風(fēng)險。
二是加強適配算法決策的制度建設(shè)。一方面,建立算法救濟制度。算法的不透明性與不可解釋性客觀上壓縮了公眾遭遇算法不公時的申訴與反饋渠道。為此,在制度上保障公眾的知情權(quán)、選擇權(quán)與要求人工介入權(quán),暢通算法決策的救濟渠道,及時根據(jù)公眾意見修正算法缺陷,矯正價值偏差。另一方面,建立算法問責(zé)制度。當(dāng)基于特定算法決策嚴(yán)重?fù)p害公眾利益時,立即開展算法問責(zé),清晰判定算法開發(fā)者、審查者和實施者責(zé)任,倒逼各方以更高價值標(biāo)準(zhǔn)開發(fā)、審查和執(zhí)行決策算法。
三是注重復(fù)合型人才的分散化儲備。兼具技術(shù)能力和決策能力的復(fù)合型人才是推動人工智能賦能政府決策的關(guān)鍵,可以有效降低決策人員與技術(shù)專家之間的溝通成本,預(yù)估并規(guī)避算法決策的潛在風(fēng)險。而復(fù)合型人才在少數(shù)組織的過度集中可能阻礙技術(shù)進步,更可能導(dǎo)致掌握人工智能前沿技術(shù)的大企業(yè)不當(dāng)介入和影響政府決策。為此,政府積極設(shè)立專門的人工智能技術(shù)部門,促進復(fù)合型人才的分散化儲備,建立與經(jīng)營主體的日常性互動及合作,掌握前沿技術(shù)進展,增強利用人工智能技術(shù)輔助決策的主動性。
四是動態(tài)選擇決策模式。根據(jù)算法對決策過程主導(dǎo)性的高低,可將決策模式分為算法主導(dǎo)型、算法輔助型和算法咨詢型三類。雖然人工智能為提高政府決策能力提供了重要的技術(shù)價值,但目前的算法決策仍然是一種有限理性的決策輸出,還需要發(fā)揮人類決策在價值判斷和自由裁量上的優(yōu)勢。因此,既要在制度上明確算法決策的地位和權(quán)限,賦予算法決策應(yīng)有的權(quán)威,也要根據(jù)決策任務(wù)的復(fù)雜性審慎選擇決策模式,實現(xiàn)人類決策與算法決策的耦合協(xié)同,有效防范政府決策風(fēng)險。