中職學(xué)校招生網(wǎng)_55px.com.cn

騰訊發(fā)布國內(nèi)首份可解釋 AI 報(bào)告:詳解打開算法黑箱的理念與實(shí)踐|附報(bào)告下載

2025-09-04 18:31:44

原標(biāo)題:騰訊發(fā)布國內(nèi)***可解讀AI報(bào)告:詳細(xì)講解打開算法黑盒的思路與實(shí)踐|隨報(bào)告下載

隨著社會(huì)各界對(duì)人工智能***的日益重視,人工智能系統(tǒng)的可解釋性逐漸成為***,甚至上升到立法和監(jiān)管的要求。許多人工智能領(lǐng)域的專家將往年視為“AI可解釋性的比較好年”。今年不僅***出臺(tái)了相應(yīng)的監(jiān)管要求,很多國內(nèi)外的科技公司,如谷歌、微軟、IBM、美團(tuán)、微博、騰訊等,也推出了相應(yīng)的措施。

在此背景下,由騰訊研究院、騰訊田燕實(shí)驗(yàn)室、騰訊優(yōu)圖實(shí)驗(yàn)室、騰訊AI實(shí)驗(yàn)室等組成的跨學(xué)科研究團(tuán)隊(duì)。,用了近一年時(shí)間預(yù)測(數(shù)據(jù)為往年僅供參考)完成了行業(yè)首部可解釋性AI發(fā)展報(bào)告《2021——打開算法黑箱的理念與實(shí)踐》,全面梳理了可解釋性AI的概念、監(jiān)管政策、發(fā)展趨勢(shì)和行業(yè)實(shí)踐,并提出了未來發(fā)展建議。

在1月11日線上舉行的騰訊科技創(chuàng)新周“透明可解釋性AI論壇”上,由騰訊研究院秘書長張、騰訊優(yōu)圖實(shí)驗(yàn)室人臉技術(shù)負(fù)責(zé)人丁守紅發(fā)布。

而學(xué)界和業(yè)界專家普遍認(rèn)為,《可解釋性AI發(fā)展報(bào)告2021》非常必要和及時(shí)。這份報(bào)告開了個(gè)好頭,推動(dòng)了人工智能向可解釋性這一極其重要的方向發(fā)展。

專家意見

“可以解釋的是,AI是一個(gè)復(fù)雜的領(lǐng)域,這份報(bào)告開了一個(gè)非常好的頭。在此基礎(chǔ)上,需要長期研究。目前,各種算法在效率和可解釋性上都不能滿足高要求,需要根據(jù)不同的需求進(jìn)行選擇。而且AI的可解釋性是一個(gè)長期的問題,不會(huì)很快有一個(gè)通用的可解釋框架。我們可以先在一些重要領(lǐng)域探索解決方案,指出未來的發(fā)展方向?!?/p>

——加拿大皇家科學(xué)院院士&加拿大工程院院士

***微眾銀行首席人工智能官楊強(qiáng)

“解釋性AI和透明性AI是現(xiàn)階段非常迫切需要解決的問題。這份報(bào)告是***邁出的比較好步,是開創(chuàng)性的,具有重要的意義和價(jià)值。未來這一領(lǐng)域的進(jìn)一步討論需要不同學(xué)科和領(lǐng)域的學(xué)者參與。哲學(xué)和科技哲學(xué)已經(jīng)探索和積累了近百年,未來可以提供很多參考?!?/p>

——廈門大學(xué)人文學(xué)院院長朱靜

“這份報(bào)告非常及時(shí),充分反映了各領(lǐng)域?qū)<业囊庖姟2煌娜?、不同的?yīng)用場景對(duì)AI算法有不同的可解釋性期望,不應(yīng)該一刀切,對(duì)所有情況都適用統(tǒng)一的標(biāo)準(zhǔn)。在深度學(xué)習(xí)普遍缺乏可解釋性的情況下,透明性就顯得尤為重要,需要適當(dāng)披露AI算法的相關(guān)信息?!?/p>

——騰訊杰出科學(xué)家實(shí)驗(yàn)室負(fù)責(zé)人鄭

“透明性和可解釋性對(duì)于AI系統(tǒng)的落地至關(guān)重要,研究前景非常好;然而,AI的透明性、可解釋性和性能之間存在著內(nèi)在的矛盾。一個(gè)可能的方向是根據(jù)不同的場景和可解釋的目的找到不同的折中方案,從而推動(dòng)AI技術(shù)的落地?!?/p>

——***南方科技大學(xué)計(jì)算機(jī)科學(xué)與工程系主任姚鑫

“這份報(bào)告闡述了騰訊在AI技術(shù)研發(fā)和實(shí)踐過程中對(duì)可解釋性AI的剛剛思考,是踐行騰訊倡導(dǎo)的AI為善、技術(shù)為善理念的重要舉措。報(bào)告從多個(gè)維度展示了AI的發(fā)展現(xiàn)狀和未來趨勢(shì),并提出了切實(shí)可行的建議,對(duì)AI研究人員和工程師、監(jiān)管機(jī)構(gòu)和用戶都將具有很高的參考價(jià)值?!?/p>

——香港中文大學(xué)(深圳)副教授

騰訊AI實(shí)驗(yàn)室顧問吳寶元

“AI系統(tǒng)的指令路徑需要考慮商業(yè)秘密的保護(hù)。更好的辦法是建立可解釋性、健壯性、準(zhǔn)確性、隱私保護(hù)、公平性等方面的量化標(biāo)準(zhǔn),并進(jìn)行評(píng)估,形成AI系統(tǒng)的說明書,讓用戶清晰直觀地知道AI系統(tǒng)是否符合可信要求。未來,可信AI和可解釋性需要各個(gè)學(xué)科和領(lǐng)域的人共同努力,推動(dòng)這一領(lǐng)域的發(fā)展?!?/p>

——JD.COM勘探院算法科學(xué)家何鳳祥

以下是報(bào)告的核心觀點(diǎn)(在騰訊研究院后臺(tái)回復(fù)關(guān)鍵詞“可解釋性AI”獲取完整報(bào)告PDF):

人工智能***和可解釋的人工智能成為強(qiáng)制性的。

目前,人工智能已經(jīng)成為一種通用技術(shù),以深度學(xué)習(xí)為代表的機(jī)器學(xué)習(xí)加速滲透到各行各業(yè),產(chǎn)生了非常豐富的應(yīng)用。作為引領(lǐng)AI技術(shù)加速變革的重要法寶,機(jī)器學(xué)習(xí)是一把雙刃劍。

一方面,以深度學(xué)習(xí)為主要技術(shù)模型的機(jī)器學(xué)習(xí)可以幫助AI擺脫對(duì)人類干預(yù)和設(shè)計(jì)的依賴,形成AI自主學(xué)習(xí)、自我創(chuàng)造和自動(dòng)迭代的機(jī)制,使AI在學(xué)習(xí)和思考上無限接近人腦。

另一方面,機(jī)器學(xué)習(xí)日益暴露出人工智能在自動(dòng)化決策中不可回避的困難和黑箱?;谌斯ど窠?jīng)網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜的層次結(jié)構(gòu),AI深度學(xué)習(xí)模型的輸入數(shù)據(jù)和輸出結(jié)果之間存在著人們無法理解的“黑箱”,即使是專家用戶也無法完全理解這些“黑箱”。

于是,可解釋AI應(yīng)運(yùn)而生,可解釋AI可分為全局可解釋(讓公眾理解算法模型本身)和局部可解釋(讓公眾理解算法模型的輸出結(jié)果)。如果這兩個(gè)問題得不到解決,不僅會(huì)影響用戶對(duì)AI應(yīng)用的信任,還會(huì)帶來算法判別、算法安全、算法責(zé)任等相關(guān)問題。

在這種背景下,可以解釋為AI已經(jīng)成為AI***乃至立法和監(jiān)督的一個(gè)必不可少的選擇。從往年的《IEEE人工智能設(shè)計(jì)***指南》,到往年4月的《歐盟可信AI***指南》,再到往年11月的《美國人工智能應(yīng)用監(jiān)管指南》,再到往年9月的《***新一代人工智能***規(guī)范》,以及往年的《聯(lián)合國關(guān)于人工智能***問題的建議》,都強(qiáng)調(diào)了可解釋性和透明性的問題。

我國《個(gè)人信息保護(hù)法》、網(wǎng)信辦等九部委發(fā)布的《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》、《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理?xiàng)l例(征求意見稿)》等相關(guān)立法也開始對(duì)人工智能算法應(yīng)用的透明性和可解釋性提出要求。

探索可解釋人工智能的行業(yè)實(shí)踐

在此背景下,可解釋性AI也成為各大主流科技公司的新研究領(lǐng)域。學(xué)術(shù)界和工業(yè)界探索了理解人工智能系統(tǒng)行為的方法和工具。目前主流科技公司探索和實(shí)踐可解釋AI的主要路徑有兩條。比較好條路徑是建立“模型規(guī)范”標(biāo)準(zhǔn),促進(jìn)算法模型本身的透明性和可理解性,第二條路徑是創(chuàng)建可解釋工具,促進(jìn)可解釋AI模型的構(gòu)建(XAI)。

比較好條路徑旨在提升模型的透明度,增加相關(guān)主體的理解和信任。例如,谷歌的模型卡機(jī)制描述了模型的輸入、輸出、模型架構(gòu)、性能和局限性,旨在讓人們以簡潔易懂的方式理解和認(rèn)識(shí)算法的運(yùn)行過程。又如,IBM的AI概況介紹機(jī)制旨在提供與AI模型或服務(wù)的創(chuàng)建和部署相關(guān)的信息,包括目的、預(yù)期用途、訓(xùn)練數(shù)據(jù)、模型信息、輸入和輸出、性能指標(biāo)、偏差、健壯性、領(lǐng)域轉(zhuǎn)移、***條件、不良條件、解釋、聯(lián)系信息等。

國內(nèi)互聯(lián)網(wǎng)行業(yè)也開始采取類似措施,推動(dòng)算法模型的透明化。比如往年美團(tuán)兩次發(fā)文解釋其外賣配送算法的相關(guān)規(guī)則,提升其算法的透明度;同年8月,微博也***公開了其熱搜的算法規(guī)則。這些做法都是從受眾的角度出發(fā),增強(qiáng)用戶對(duì)人工智能系統(tǒng)的理解和信任。騰訊還致力于提升人臉識(shí)別和醫(yī)療AI應(yīng)用的可解釋性,打造負(fù)責(zé)任、可信的AI算法應(yīng)用。

第二條路徑主要是可解釋工具和可解釋模型的研究,可以從技術(shù)層面解決可解釋問題。隨著可信AI和AI監(jiān)管越來越受到重視,業(yè)界越來越重視可解釋性AI的研究,并尋求技術(shù)解決方案來解決AI的可解釋性問題。越來越多的可解釋工具被發(fā)布,可以解釋不同的統(tǒng)計(jì)機(jī)器學(xué)習(xí)模型和深度學(xué)習(xí)模型,包括一般的泛線性模型、集成學(xué)習(xí)模型、圖像識(shí)別模型和自然語言處理模型等。

近年來,***的人工智能公司,包括微軟、谷歌等。,推出了更加強(qiáng)大和豐富的可解釋工具,包括許多可解釋方法和可解釋方法,為解決實(shí)際的可解釋問題提供了很大的幫助。

說明AI的發(fā)展建議

透明度和可解釋性,以及公平性評(píng)估、安全性考慮、人工智能協(xié)作和責(zé)任框架,是人工智能領(lǐng)域的基本問題。我們需要找到一條能夠解釋AI的平衡路徑,從而打造一個(gè)可信的、負(fù)責(zé)任的AI,確??萍际呛玫摹>唧w來說,在設(shè)計(jì)可解釋需求時(shí),需要考慮可解釋需求與其他重要的***價(jià)值和目的(如公平、安全、隱私、網(wǎng)絡(luò)安全等)之間的平衡。).因?yàn)榭山忉屝员旧聿皇悄康?,而是?shí)現(xiàn)其他目的的手段。因此,在設(shè)計(jì)可解釋的需求時(shí),我們首先需要考慮我們想要實(shí)現(xiàn)什么目標(biāo),然后我們需要考慮如何在特定情況下更好地匹配這些目標(biāo)。

一是立法和監(jiān)管要遵循基于風(fēng)險(xiǎn)的分級(jí)分類和情景治理的思路,在鼓勵(lì)科技創(chuàng)新、追求良好科技和維護(hù)社會(huì)公共利益之間找到平衡點(diǎn)。首先,公開AI算法模型的源代碼是一種無效的方式,不僅無助于理解AI算法模型,還可能威脅數(shù)據(jù)隱私、商業(yè)秘密和技術(shù)安全。其次,不區(qū)分應(yīng)用場景和時(shí)間預(yù)測(數(shù)據(jù)為往年僅供參考)空?qǐng)龊?,要求解釋所有算法決策結(jié)果是不合適的;再次,注重申請(qǐng)過程中的披露義務(wù);***,避免強(qiáng)制披露用于訓(xùn)練AI模型的數(shù)據(jù)集,這樣不僅不可操作,還容易與版權(quán)保護(hù)發(fā)生沖突,侵犯用戶數(shù)據(jù)隱私或違反合同義務(wù)。

第二,探索建立適合不同行業(yè)和場景的可解釋標(biāo)準(zhǔn)。具體來說,可以從三個(gè)方面入手:一是可以為AI系統(tǒng)的一些示范應(yīng)用場景提供可解釋標(biāo)準(zhǔn)的指南,可以為行業(yè)和企業(yè)提供有益的參考;第二,值得嘗試發(fā)布AI可解釋的***實(shí)踐案例集和負(fù)面實(shí)踐,包括為專家和審計(jì)人員提供解釋的有效用戶界面和記錄機(jī)制(如詳細(xì)的性能特征、潛在用途、系統(tǒng)限制等)。);三是創(chuàng)建不同層次的可解釋圖譜,可用于為不同行業(yè)和應(yīng)用場景提供***可接受的測量標(biāo)準(zhǔn)。

三是探索可解釋的替代機(jī)制,多措并舉,共同實(shí)現(xiàn)可信負(fù)責(zé)的AI。雖然可解釋性是提高人工智能技術(shù)的***解決方案之一,但并不是所有的人工智能系統(tǒng)及其決策都能得到解釋。當(dāng)AI系統(tǒng)過于復(fù)雜,難以滿足可解釋性要求,或者導(dǎo)致解釋機(jī)制失效、效果不樂觀時(shí),需要積極轉(zhuǎn)變監(jiān)管思路,探索更加多元化、實(shí)用化的技術(shù)路徑。目前技術(shù)上提倡采用合適的替代機(jī)制,如第三方標(biāo)簽反饋、用戶投訴和人工審核、常規(guī)監(jiān)控、審計(jì)等。這些替代機(jī)制可以監(jiān)督和保證人工智能算法的決策。

第四,提升算法***素養(yǎng),探索人機(jī)協(xié)同的智能范式。開發(fā)者和用戶是AI生態(tài)的核心參與者,他們需要提升自己的算法***。一方面,加強(qiáng)科技***教育,提高AI從業(yè)者的算法***素養(yǎng);另一方面,通過教育、***報(bào)道、揭秘等手段,提高公眾的算法素養(yǎng),構(gòu)建和諧的人機(jī)合作關(guān)系。

***,引導(dǎo)和支持產(chǎn)業(yè)強(qiáng)化可以說明AI的研究和落地。由于AI技術(shù)的快速發(fā)展和迭代,可以說明AI的工作應(yīng)以企業(yè)和行業(yè)主導(dǎo)為主,采用自愿機(jī)制代替強(qiáng)制認(rèn)證。因?yàn)槭袌隽α繒?huì)鼓勵(lì)可解釋性和可再現(xiàn)性,并將推動(dòng)可解釋AI的發(fā)展和進(jìn)步。為了保持自身的市場競爭力,企業(yè)將積極提高其AI相關(guān)產(chǎn)品和服務(wù)的可解釋性。

從長遠(yuǎn)來看,***、社會(huì)、企業(yè)、行業(yè)、科研機(jī)構(gòu)、用戶等主體需要共同探索科學(xué)合理的可解釋性AI落地方案和相關(guān)保障保護(hù)機(jī)制,推動(dòng)科技向善。

在騰訊研究院后臺(tái)回復(fù)關(guān)鍵詞“可解釋性AI”,獲得完整報(bào)告PDF。

研究顧問:

小吳文達(dá)鄭張

研究規(guī)劃:

張周

寫作團(tuán)隊(duì):

騰訊研究院:曹建峰王煥超

騰訊田燕實(shí)驗(yàn)室:黃衛(wèi)東張瑜李賢孫旭

騰訊優(yōu)圖實(shí)驗(yàn)室:丁守紅尹邦杰陳超皇宇歌

廈門大學(xué):占豪

研究團(tuán)隊(duì):

馬子非劉勁松吳寶元邊兵者黃軍塞布麗娜田辛凱胡金浩梁祝

研究鏈接:

曹建峰騰訊研究院(電子郵件:jeffcao@tencent)

點(diǎn)擊“在看”分享見解,返回搜狐看更多。

負(fù)責(zé)編輯:

文章標(biāo)題:騰訊發(fā)布國內(nèi)首份可解釋 AI 報(bào)告:詳解打開算法黑箱的理念與實(shí)踐|附報(bào)告下載

本文地址:http://balticsea-crewing.com/show-65315.html

本文由合作方發(fā)布,不代表中職學(xué)校招生網(wǎng)_55px.com.cn立場,轉(zhuǎn)載聯(lián)系作者并注明出處:中職學(xué)校招生網(wǎng)_55px.com.cn

免責(zé)聲明:本文僅代表文章作者的個(gè)人觀點(diǎn),與本站無關(guān)。其原創(chuàng)性、真實(shí)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實(shí),請(qǐng)讀者僅作參考,并自行核實(shí)相關(guān)內(nèi)容。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)聯(lián)系郵箱:dashenkeji8@163.com,我們將在第 一 時(shí) 間進(jìn)行核實(shí)處理。軟文/友鏈/推廣/廣告合作也可以聯(lián)系我。
展開全文

獲取招生簡章

  • 姓名:
  • 專業(yè):
  • 層次:
  • 電話:
  • 微信:
  • 備注:

相關(guān)推薦

剛剛文章

熱門推薦