打破了語言矩陣!?謝爾蓋布林打了個激靈,視線馬上重新回到了螢幕上密密麻麻的曲線圖上。
搶過德米斯哈薩比斯手中的滑鼠,謝爾蓋布林不停地向下滑動著滑鼠滾輪。
大周語、普魯士語、高盧語、盎語、倭語、大毛語、西拜語、葡圖佳語、意呆利語、巴拉特語……
超過三百張曲線對比圖無一不是在說明這樣一個事實——
juzi2.5十五種語言的各種效能曲線,幾乎全都在同一水平線之上!無論是理解和記憶,推理與認知、自主規劃和決策、自我最佳化與學習、情緒與社交模擬、工具呼叫……
除了生成和表達存在較大的波動值之外,其他幾乎所有能力的效能,尤其是推理和認知,在各種語言環境下,幾乎是完全一樣的!
連百分之一的差距都沒有!
這怎麼可能!?這完全違背了大模型的原理!
“是不是透過引數調整,把所有語言的效能進行了拉齊操作?或者本身先翻譯成盎語後,用盎語思考,再翻譯回思維鏈?”
謝爾蓋布林感覺自己瞬間頭頂和腋下就冒出了汗。
人工智慧,所謂智慧,就是思考,而思考,就需要語言,無論人還是計算機,都不可能脫離語言來思考。
大模型ai更是如此。
這些大模型,可能掌握了全世界所有的語言,但使用不同語言進行思考時,大模型的在不同方面的效能表現都是不同的。
一來,是因為不同語言訓練資料的多寡和質量的差異。
在當今的網際網路時代,盎語語料當然是最豐富的,佔到網際網路整體資料量的百分之八十以上。
alphazero在使用盎語進行理解和推理的時候,正確率相對其他語言會高5%以上。
二來,各種不同的語言本身就存在不同的“表達偏重”和“效能差異”。
比如普魯士語,在結構推理方面的速度比盎語更快,西拜語則在感性類語料中優勢明顯。
而大模型在一次思考迴路中,通常使用單一語言構建其推理路徑。
雖然它可以在輸入階段識別多種語言,在輸出階段進行翻譯,但其內在的認知張量結構,仍舊傾向於使用輸入語言所構建的token空間進行語義演算。
說人話,就是大模型在思考問題的時候,在一個思考迴路中,基本只會使用一種語言來思考,你使用盎文,它就用盎文思考,你使用周文,它就用周文思考。
就算它在回覆中摻雜了其他語言,也只是一種資料引用或人類寫作風格的模仿,而不是真正的跨語種思考。
橘子大模型又怎麼可能使用不同語言思考的時候,各方面效能都差不多的?這完全不符合常理!
唯一的可能性,就是對各種語言的思考效能進行了拉齊操作。
說白了,就是一個木桶,以最短的那個板為基準,把高的板子都砍了。
但這樣做意義在哪?
德米斯哈薩比斯猶豫的搖搖頭:“應該不是,拉齊操作資源浪費太嚴重。”
“至於說是不是先把思維翻譯成盎語或其他語言……”
德米斯哈薩比斯停頓了一下。
“我一開始也是這麼認為的,但經過測試,並非如此。”
說罷,哈薩比斯把實驗報告翻到中間。
“你看‘抽象歸納’和‘形式推理’這一部分的能力,哪怕在應用‘馬拉亞語’時,juzi2.5依舊能夠準確進行抽象歸納和形式推理。”
“比如這個例項,在情感理解方面,我們的實驗人員要求juzi用馬拉亞語思考並使用盎語將結果輸出後,針對實驗人員的任務回覆中,橘子大模型並未簡單的將馬拉亞語中的‘manja’翻譯為‘pampered’或‘affectionate’。”
“而是採用了實際語義下的不同表達。”
“比如第一段,它對‘manja’的翻譯是‘可愛又粘人’。”
“而在第五段,思維鏈中同樣是‘manja’,但因為主體變了,在馬拉亞語中‘manja’的含義也產生了微妙變化,這時,它將這裡的‘manja’就轉化成了‘被寵溺’。”
德米斯哈薩比斯摘下眼鏡,擦了擦,眯著眼:“盎語中原本沒有對應manja這個詞的準確翻譯,但經過這樣轉化後,哪怕是一個從未學過盎語的馬拉亞人,說出的盎語也不再會讓人有任何的誤解。”
謝爾蓋布林看向德米斯哈薩比斯指的那張曲線圖,渾身汗毛都立起來了。
作為技術宅和古狗老闆之一,他現在肯定不是技術最好的,但對人工智慧的理解和認知絕對是世界上最頂尖的一批人。
這怎麼可能呢?馬拉亞語因為是孤立語種,語法結構較為扁平,文化語境偏重於口語化和情景驅動,這使得它們在抽象、哲學、技術等領域的表達中先天存在一定限制。
這導致部分高階概念性詞彙在語言本體中缺乏,往往只能依靠描述性轉譯或直接引入外來詞。
類似“意識”、“存在”、“主觀性”、“客觀性”這種哲學意象性的詞語,馬拉亞語中是不存在的,只能直接借用外來語或但同樣,馬拉亞語中也有相當數量的“柔性詞彙”是盎語和西方語系中沒有的。
這一部分詞語的含義往往非常微妙,詞典中對應的單詞其實或多或少都存在差異。
這也就造成了,用不同語料來訓練大模型,以及用不同的語言使用大模型時,ai對世界與關係的理解是存在微妙差異的。
這種“微妙的差異”看似無所謂,實則常是文化誤解與衝突的重要誘因之一。
“謝爾蓋,這裡有個更有代表性的,就是它對‘sin’的理解。”
德米斯哈薩比斯點著觸控板向上劃了劃:“你看這裡,這是juzi2.5g在同一個話題中,周文和盎文的思維鏈對照。”
“哦,可能你不知道,sin,在周文中,一般翻譯為‘罪’,但周文中‘罪’這個字的意思範圍和sin並不等同。”
德米斯哈薩比斯周裔混血,會一點周文,原本是分不清楚這裡面細微的語義差異的。
但對於他這樣的天才來說,只要他意識到其中的問題,開始研究這方面,不需要太長時間就能對這種概念性的差異一清二楚。
“可一直以來,無論任何翻譯者,基本都忽視了這一點,只是生搬硬套的直接把周文的‘罪’翻譯為‘sin’,把盎文的‘sin’翻譯為‘罪’。”
“juzi2.5則不同,在闡述法律問題的時候,它把sin正常翻譯成了周文中的‘罪’。”
“而在後面的信仰問題中,它視不同語境,對sin的不同語義表達至少用周文做了六種不同表達,分別是‘忤逆’、‘冒犯’、‘過錯’、‘忘恩負義’、‘邪道’和‘苦難’。”
“這些不同的表達,在各自語境中,恰恰捕捉了‘sin’一詞在那個語境下最貼近原意的表達,基本不會因為用詞遣句的微妙差異而導致另一方出現錯誤主觀判斷。”
“哦,對了,就連‘主觀’與‘判斷’這兩個常見詞,在周文與盎文中也呈現出微妙的語義偏移。”
德米斯哈薩比斯眼神中充滿了思索後的震撼。
謝爾蓋布林眉頭緊鎖。
他當然理解德米斯哈薩比斯的每一個術語。
但他還沒有在“哈薩比斯的語言學介紹”與“juzi2.5在多語言條件下思維表現趨同”之間建立起完全的因果對映。
這似乎只是……更好的翻譯軟體?
和橘子大模型的效能表現有什麼關係?不對,這種表現不在現有多語大模型能力範圍內——這背後,肯定藏著某種我們未曾掌握的機制。。
這個機制能讓橘子大模型深刻理解了不同語言在不同語境下的精確含義,在翻譯中甚至使用了“解釋替代”和“語氣擬合”來更加精準的原文翻譯。
等等,看這個實驗報告之前德米說的什麼來著?
突破語言矩陣?
之前自己還稍稍有些疑惑,這個語言矩陣是什麼。
這麼說來……