‘難道算力系統有擬人化?有時幹活快,有時幹活慢?’帶著這個疑問,林遠在不同的時候使用算力系統計算同樣的那份資料。
他試了在吃飯的時候、蹲坑的時候、睡覺前、甚至是,,,看片片的時候,可特麼的最終的算力值消耗是恆定的。
‘艹,你特麼這匯率還是波動的?’
林遠又轉而用算力系統去計算最初的那份tf32測試資料,可又偏偏獲得了最初的1比3的算力匯率。
他又不得不換了另外一份同樣是10個g左右的外賣配送資料,奇怪的事情發生了,算力匯率變成了1比6。
隨後林遠不停地變換資料樣本,最終他發現:隨著選用的資料樣本不同,算力匯率竟然是變化的。
特麼的,資料樣本不同所消耗的算力值變化是正常的。可是算力匯率變化是什麼鬼。算力匯率變化,意味著算力系統處理不同資料樣本時的效率是不同的。
這就好比同樣一臺電腦,在執行不同程式的時候,cpu佔比不同是很好理解的。可特麼這臺電腦執行不同程式的時候,cpu的最高主頻竟然是變化的。這就反科學了啊。
【喂,系統,告訴我,你特麼是不是高維生物。】
【三維世界的規則解釋不了你了呀。】
【啊啊啊~~~】
最後,林遠不得不深入去研究算力系統的ai模型訓練過程。因為當一個黑盒子表現出問題,但你又找不到問題的時候,那你就只有鑽進這個黑盒子去看。
雖然,這個黑盒子,很複雜。
林遠懷著忐忑的心情讓系統展示了詳細的訓練過程。
“這。。。”
林遠瞪大了眼睛,眼前虛空浮現的ar影像中,那代表模型的結構圖形竟然在變化。
ai模型訓練本質上是用算力卡將採集到的資料,扔進預設的一個模型裡頭計算。
模型可以被粗略的當成是一個公式。(反正只要你願意,你甚至可以把整個宇宙看成是一個公式)所以,ai模型訓練簡化到極致就是:y=f。
x代表取樣資料。
f代表模型。
y是計算結果。
現實中的ai模型訓練是在訓練過程中改變f的引數,比如:f=2x+1,跑著跑著就會變成:f=3x+1。但絕對不會跑著跑著變成f=3x+1/x+1。
除非人為改變模型後重新跑訓練。
但是,算力系統在訓練的時候特麼地把f的模型結構給改了。
也就是說,f這個公式隨著訓練原來一直都在變化。那既然是在變化,那算力匯率能固定就有鬼了。
這就好比,一臺電腦,竟然能跑著跑著更改自己的cpu結構。
這,,,林遠腦中頓時冒出一個難以置信的想法。
。