圖片來源:視覺中國
科技日報記者?劉霞
北京時間5月14日凌晨,美國開放人工智能研究中心(OpenAI)發(fā)布了其下一代大型語言模型GPT-4o,人工智能(AI)領域再起硝煙。
盡管AI一詞已很普及,但其內部運作方式仍像黑箱操作一樣,是一個謎。因為AI依賴機器學習算法,而先進的機器學習算法使用模擬人腦結構的神經(jīng)網(wǎng)絡,信息在不同神經(jīng)元間傳遞,以人類不易理解的方式內化數(shù)據(jù),缺乏可視化和透明度。
這個問題對ChatGPT等大型語言模型(LLM)來說尤其嚴重,部分原因在于它們規(guī)模龐大,有些LLM擁有數(shù)千億甚至上萬億個參數(shù)。
英國《自然》雜志網(wǎng)站在15日的報道中指出,為洞悉LLM的黑箱操作,科學家正對AI系統(tǒng)進行逆向工程。他們掃描LLM的“大腦”,以揭示它們在做什么、如何做以及為什么這樣做等謎團。
談話療法
由于聊天機器人可以進行對話,一些研究人員就讓模型自我解釋,以了解其工作原理。這種方法類似于心理學中使用的“談話療法”。
德國斯圖加特大學計算機科學家蒂洛·哈根德夫表示,人腦和LLM都像是一個“黑箱”,而心理學有能力研究它。
去年,哈根德夫發(fā)表了一篇關于“機器心理學”的文章。他認為,通過將LLM視為人類主體,讓其參與對話,可以闡明其復雜行為。
面對復雜問題,人類在潛意識里會進行分步驟推理。受此啟發(fā),谷歌團隊2022年引入了“思維鏈提示”,以描述一種讓LLM展示其“思維”的方法。
簡單來說,思維鏈提示是一種特殊的上下文學習。不同于標準提示只給出輸入—輸出,思維鏈提示還會額外增加推理過程。
該方法在GPT-3等三個大型語言模型上都得到了驗證:對比標準提示,新方法在一系列算術推理任務上的準確率都有了顯著提高。但美國紐約大學研究人員的一項最新研究表明:LLM并沒有利用思維鏈的推理能力,它只是偷偷加了計算。
美國東北大學計算機科學家戴維·鮑表示,盡管以研究人類的方式研究LLM有點奇怪,但兩者的行為卻以令人驚訝的方式重疊。在過去兩年里,許多科學家將用于人類的問卷和實驗應用于LLM,測量了其人格、推理、偏見、道德價值觀、創(chuàng)造力、情緒、服從性等。結果顯示,在許多情況下,機器能復制人類行為。但在有些情況下,它們的行為與人類行為不一樣。例如,LLM比人類更容易受到暗示,其行為也會隨著問題措辭的不同而發(fā)生巨大變化。
腦部掃描
一些科學家從神經(jīng)科學領域汲取技巧,以此來探索LLM的內部工作原理。
為研究聊天機器人是如何進行欺騙的,美國卡內基梅隆大學計算機專家安迪·鄒及其合作者詢問了LLM,并觀察了它們神經(jīng)元的激活情況。鄒指出,這有點像對人類進行腦部神經(jīng)成像掃描,也有點像使用測謊儀。
研究人員多次讓LLM撒謊或說實話,并測量了神經(jīng)元活動模式的差異。然后,每當向模型提出一個新問題時,他們都可以觀察其活動,并判斷答案是否真實。在一個簡單任務中,該方法的準確率超過90%。鄒表示,此類系統(tǒng)可以實時檢測出LLM不誠實行為。
鮑及其同事則開發(fā)了掃描和編輯人工智能神經(jīng)網(wǎng)絡的方法,包括一種他們稱之為因果追蹤的技術,以確定AI“大腦”中以特定方式回答問題的部分。
鮑指出,人工神經(jīng)網(wǎng)絡的好處在于,可以在它們身上做神經(jīng)科學家夢寐以求的實驗,比如可以觀察每一個神經(jīng)元、運行數(shù)百萬次網(wǎng)絡、進行各種瘋狂的測量和干預,且做這些都不必獲得同意書。
打破不可解釋性
鄒和鮑等人提出LLM掃描技術采用自上而下的方法,將概念或事實歸因于潛在的神經(jīng)表征。還有一些科學家則使用自下而上的方法,即觀察神經(jīng)元并詢問它們代表什么。
神經(jīng)元的不可解釋性,一直是AI領域的“老大難”問題。2023年,來自Anthropic公司的一個團隊提出了一種方法,成功將512個神經(jīng)元分解成了4096個可解釋特征,從而讓其具有了可解釋性。
研究人員表示,他們這一方法很有可能克服AI不可解釋性這一巨大障礙。一旦人類了解LLM工作原理,就能很容易地判斷其是否安全,從而決定它是否應該被社會和企業(yè)采用。
不過,鄒表示,盡管這種方法很有價值,但不太適合解釋更復雜的AI行為。
盡管研究人員仍在努力弄清楚AI如何工作,但人們越來越達成一致意見:AI公司應該努力為其模型提供解釋,政府也應該制定相關法規(guī)來執(zhí)行這一點。