科技日報記者 張佳欣
說到黑匣子,許多人會聯(lián)想到飛機上用于記錄飛行數(shù)據的設備或充滿懷舊氣息的小劇場。然而,在人工智能(AI)領域,黑匣子同樣是個不可忽視的重要術語。
西班牙《國家報》指出,當AI神經網絡運行時,即便是最資深的研究人員也對其內部運作一無所知。這里討論的無關生物學,而是AI算法,特別是那些基于深度學習、模仿神經元之間連接的算法。這些系統(tǒng)宛如黑匣子,數(shù)據科學家、學術界頂尖人才,以及榮獲諾貝爾獎的OpenAI和谷歌的工程師們,也難以窺探其內部奧秘。
模型與數(shù)據具有不透明性
《科學美國人》雜志報道稱,AI黑匣子指的是內部運作方式對用戶完全不可見的AI系統(tǒng)。用戶可以向這些系統(tǒng)輸入信息并獲得輸出,但無法檢查其代碼或了解產生輸出的邏輯。
機器學習作為AI的主要分支,是ChatGPT等生成式AI系統(tǒng)的基石。機器學習包含算法、訓練數(shù)據和模型3個核心部分。算法是一系列程序指令,在機器學習中,算法通過大量訓練數(shù)據,學會識別數(shù)據中的模式。當機器學習算法完成訓練,其產物便是機器學習模型,這也是用戶實際使用的部分。
機器學習系統(tǒng)這3個部分中,任何一個都可能被隱藏起來,即被置于黑匣子中。通常情況下,算法是公開的。但為了保護知識產權,AI軟件開發(fā)者通常會將模型或訓練數(shù)據放進黑匣子。
模型架構復雜到難以解釋
盡管許多AI算法背后的數(shù)學原理已被人們充分理解,但由這些算法構成的網絡所產生的行為,卻難以捉摸。
ChatGPT、Gemini、Claude、Llama以及任何如DALL-E這樣的圖像生成器,以及任何依賴神經網絡的系統(tǒng),包括面部識別應用和內容推薦引擎,都面臨這樣的問題。
相比之下,其他AI算法,如決策樹或線性回歸(常用于醫(yī)學和經濟等領域),則更具可解釋性。它們的決策過程易于理解和可視化。工程師可順著決策樹的分支,清晰地看到特定結果是如何得出的。
這種清晰性至關重要,因為它為AI注入了透明度,并向算法的使用者提供了安全保障。值得注意的是,歐盟《人工智能法案》強調了擁有透明且可解釋系統(tǒng)的重要性。然而,神經網絡本身的架構卻阻礙了這種透明性。要理解這些算法的黑匣子問題,人們必須想象一個由相互連接的神經元或節(jié)點構成的網絡。
西班牙國家研究委員會AI研究所教授胡安·安東尼奧解釋道,當你把數(shù)據輸入網絡,節(jié)點中的值會觸發(fā)一系列計算。信息從第一批節(jié)點開始傳播,以數(shù)值形式傳遞到后續(xù)節(jié)點,每個節(jié)點都會計算一個數(shù)字,并將其發(fā)送到所有連接,同時考慮每個連接的權重(即數(shù)值)。接收到這些信息的新節(jié)點會再計算另一個數(shù)字。
值得注意的是,當前深度學習模型包含數(shù)千到數(shù)百萬個參數(shù)。這些參數(shù)代表了訓練后的節(jié)點和連接數(shù)量,數(shù)量龐大且變化多端,因此很難手動得出有意義的方程。
據業(yè)內人士估計,GPT-4擁有近1.8萬億個參數(shù)。根據這一分析,每個語言模型將使用約2200億個參數(shù)。這意味著,每當提出一個問題時,就有2200億個變量可能影響算法的回應。
科技公司嘗試打開黑匣子
系統(tǒng)不透明性讓糾正偏見變得更難,也加劇了不信任感。目前,AI領域的主要參與者意識到了這一局限性,并正在積極開展研究,以更好地了解其模型的工作原理。例如,OpenAI用神經網絡觀察分析另一神經網絡,Anthropic研究節(jié)點連接和信息傳播電路等。
解碼黑匣子對語言模型大有裨益,能避免錯誤推理和AI產生誤導信息,解決答案不一致問題。然而,由于不了解網絡內部機制,科技公司通常會讓模型進行大量訓練,通過測試后即發(fā)布產品。這種方法也可能會存在問題,如谷歌Gemini在初發(fā)布時就生成了錯誤的圖像。
與黑匣子相對的一個概念是玻璃盒。AI玻璃盒是指它的算法、訓練數(shù)據和模型都可以被任何人看到。解碼黑匣子的最終目標是保持對AI的控制,特別是將其部署在敏感領域時。假設一個機器學習模型已經對人類的健康狀況或財務狀況做出了診斷,人們會希望該模型是黑匣子還是玻璃盒呢?答案顯而易見。這不僅是對算法內部工作原理的高度關注,也不僅是出于科學的好奇心,更有對用戶隱私的保護。