免费一级国产片在线观看_A国产欧美激情在线_久久狠狠中文字幕2020_亚洲中文字幕tⅴ

AI時代,誰在主宰?

第1章 楔子1:核心概念深度解析

AI時代,誰在主宰? 虛虛實實的冥浩 2026-01-15 17:16:33 都市小說
這個被算法重塑的,理解AI的核概念再僅僅是工程師的權(quán),而是每個公民的修課。

以個概念,構(gòu)了當(dāng)今工智能革命的基石、燃料、方向盤、副作用以及終目標(biāo)。

. Trnfrmer架構(gòu):AI的“燃機(jī)”刻如說蒸汽機(jī)釋了物理界的生產(chǎn)力,那么Trnfrmer架構(gòu)則釋了數(shù)字界的理解力。

它是語言模型(LLM)的臟,是CtGPT、Gemini、Cle等所有跡背后的物理引擎。

從“鸚鵡學(xué)舌”到“目行”Trnfrmer誕生之前,然語言處理(NLP)領(lǐng)域由種循經(jīng)絡(luò)(RNN)和長短期記憶絡(luò)(LSTM)的架構(gòu)統(tǒng)治。

這些架構(gòu)處理語言的方式非常像類的閱讀習(xí)慣——閱讀。

想象,當(dāng)你閱讀“蘋”這個詞,你須先讀完前面的“我喜歡”,才能理解這個“蘋”是指水。

RNN就是這樣,它按順序個詞個詞地處理。

這種機(jī)有個的缺陷:遺忘。

當(dāng)句子很長,讀到句尾,它可能己經(jīng)忘了句首的主語是誰。

雖然LSTM試圖過“記憶元”來解決這個問題,但它依然法擺脫的桎梏——它法并行計算。

這意味著,要訓(xùn)練個模型,你需要漫長得令絕望的間。

07年,谷歌Brin團(tuán)隊的八位研究員發(fā)表了篇名為《Attentin I All Y Nee》(你只需要注意力)的論文。

這篇論文徹底改變了游戲規(guī)則。

核魔法:注意力機(jī)(Self-Attentin)Trnfrmer拋棄了循(Rerrene),完擁抱了“注意力”(Attentin)。

什么是“注意力”?

想象你讀這段文字。

你的眼睛雖然聚焦當(dāng)前的詞,但你的余光和腦其實同關(guān)注文的其他詞,以便瞬間理解當(dāng)前詞的含義。

舉個經(jīng)典的例子:"Te niml int r te treet ee it w t tire."(這只動物沒有過路,因為它太累了。

)當(dāng)我們讀到“it”(它)這個詞,我們類瞬間就知道它指的是“niml”(動物),而是“treet”(街道)。

對于統(tǒng)的RNN來說,這是個難題。

但對于Trnfrmer,它處理“it”這個詞,過數(shù)學(xué)公式計算“it”與句子其他所有詞的關(guān)聯(lián)度(注意力權(quán)重)。

它發(fā)“niml”與“it”的關(guān)聯(lián)度,因此將更多的注意力配給“niml”。

這個過程是并行發(fā)生的。

Trnfrmer就像擁有數(shù)只眼睛的怪獸,它再是個字個字地讀,而是目行,甚至目行。

它能同到整篇文章的所有詞,并瞬間計算出它們之間錯復(fù)雜的關(guān)系。

Q、K、V 的爾茲為了實這種注意力,Trnfrmer引入了個妙的數(shù)學(xué)模型,常用**查詢(Qery)、鍵(Key)、值(Vle)**來比喻,簡稱Q、K、V。

這就比你圖書館找資料:Qery(查詢): 你拿著張寫著“我想了解Trnfrmer”的紙條。

Key(鍵): 圖書館每本書的書脊都貼著標(biāo)簽(涵蓋的容)。

Vle(值): 書實際的容。

Trnfrmer將你的Qery與所有書的Key進(jìn)行匹配(計算點積)。

匹配度越(注意力權(quán)重越),你就越從那本書取Vle(信息)。

終,你對“Trnfrmer”的理解,就是所有相關(guān)書籍容的加權(quán)總和。

歷史意義Trnfrmer的出,解決了兩個核問題:長距離依賴: 論句子多長,它都能準(zhǔn)捕捉到詞與詞之間的關(guān)系。

并行計算: 它可以用萬個GPU同訓(xùn)練。

這使得“”模型為可能。

如沒有Trnfrmer,哪怕?lián)碛薪绲乃懔?,我們也法?xùn)練出GPT-4這樣參數(shù)量級的龐然物。

谷歌發(fā)明了它,卻因為部的遲疑,讓OenAI率先用它出了核武器。

這是科技史的諷刺之。

. RLHF:給怪獸戴項圈如說Trnfrmer出了頭學(xué)但蠻的怪獸,那么RLHF(Reinfrement Lerning frm Hmn Feek,基于類反饋的化學(xué)習(xí))就是那個馴獸師,它教了怪獸如何像類樣舉止得。

預(yù)訓(xùn)練模型的“原始本能”經(jīng)過量數(shù)據(jù)(幾乎整個互聯(lián)的文本)的預(yù)訓(xùn)練(Pre-trining)后,個基礎(chǔ)的語言模型(Be Mel)其實本質(zhì)只是個級復(fù)雜的文字接龍機(jī)器。

如你對GPT-的基礎(chǔ)版說:“請幫我寫封求信。”

它可能給你寫信,而是接著你的話說:“……并附簡歷,發(fā)到這個郵箱?!?br>
為什么?

因為它讀過的互聯(lián)數(shù)據(jù),這常是招聘廣告的寫法。

它以為你玩文字接龍,它預(yù)測個概率的詞。

此,基礎(chǔ)模型還可能根據(jù)互聯(lián)的暗面,吐出種族歧、暴力或的言論,因為它見過太多這樣的垃圾數(shù)據(jù)。

為了讓這個“”變個“文明的助”,我們需要RLHF。

馴化部曲RLHF的過程可以為個階段,這就像是訓(xùn)練只狗:階段:有監(jiān)督調(diào)(SFT)——“像這樣說話” 類標(biāo)注員寫出萬個質(zhì)量的問答對(Prmt & Rene)。

比如:“如何紅燒?”

然后類寫出完的菜譜。

我們將這些數(shù)據(jù)喂給模型,告訴它:“別再瞎接龍了,當(dāng)用戶問,你要遵循這種問答模式。”

這步讓模型學(xué)了對話的形式,但它還知道什么是“”的回答。

二階段:訓(xùn)練獎勵模型(Rewr Mel)——“這個比那個” 我們讓模型針對同個問題生西個同的回答。

然后,類標(biāo)注員首接寫答案,而是對這西個回答進(jìn)行排名(A比B,B比C)。

這些排名數(shù)據(jù)被用來訓(xùn)練個新的模型,“獎勵模型”。

這個獎勵模型學(xué)了類的審:什么是幽默的、什么是準(zhǔn)確的、什么是安的。

,我們有了個知疲倦的子判官。

階段:近端策略優(yōu)化(PPO)——“為了糖而努力” 這是正的化學(xué)習(xí)階段。

我們讓主模型由生回答,然后獎勵模型給它打。

如得(比如回答得很有禮貌且準(zhǔn)確),模型參數(shù)就調(diào)整,以此來化這種行為(給它糖)。

如得低(比如說了臟話或胡言語),模型就受到懲罰。

經(jīng)過數(shù)萬次的我弈和調(diào)整,模型終于學(xué)了:要想獲得(獎勵),我就須生符合類價值觀(Helfl, Hnet, Hrmle - H原則)的回答。

意義與局限RLHF是CtGPT能夠火的關(guān)鍵。

它解決了AI的**對齊(Alignment)**問題——讓AI的目標(biāo)與類的意圖致。

然而,RLHF也有局限。

它有導(dǎo)致“對齊稅”(Alignment Tx),即模型為了過度安而變得這個問題裝傻充愣,或者為了討類而說出類愛聽的謊話(阿諛奉承)。

更深層的問題是:我們是用普的反饋去訓(xùn)練級智能,這是否限AI越類的限?

. Sling Lw:暴力的學(xué)科學(xué)界,很有定律能像摩爾定律那樣簡而具有統(tǒng)治力。

但AI領(lǐng)域,我們找到了新的圣經(jīng)——縮定律(Sling Lw)。

00年的預(yù)言00年,OenAI的研究員Jre Kln等發(fā)表了篇具有程碑意義的論文。

他們過量的實驗發(fā)了個驚的規(guī)律:語言模型的能(L,即預(yù)測錯誤的概率),與以個因素呈對數(shù)關(guān)系:計算量(Cmte): 訓(xùn)練用了多算力。

數(shù)據(jù)集(Dtet Size): 讀了多書。

參數(shù)量(Prmeter): 模型腦子有多。

簡來說:只要你把模型、數(shù)據(jù)喂多、算力加滿,AI變聰明就是種物理學(xué)般的然。

這個發(fā)的震撼之處于它的可預(yù)測。

Sling Lw被發(fā)之前,煉丹(訓(xùn)練模型)像是票。

但,工程師們可以訓(xùn)練個萬億參數(shù)的模型之前,先模型實驗,然后準(zhǔn)地畫出曲,預(yù)測出模型訓(xùn)練完后的智力水。

“苦澀的教訓(xùn)”與涌(Emergene)Sling Lw驗證了計算機(jī)科學(xué)家Ri Sttn出的“苦澀的教訓(xùn)”(Te Bitter Len):這個領(lǐng)域,所有巧的工設(shè)計(如教AI語法規(guī)則),終都敵過的算力堆疊。

但這還是奇的。

奇的是涌能力(Emergent Ailitie)。

當(dāng)模型規(guī)模較,它的能力是增長的。

但當(dāng)參數(shù)量突破某個臨界點(比如00億或000億參數(shù)),些意想到的能力突然“涌”出來。

規(guī)模,它根本懂邏輯推理。

旦突破臨界點,它突然就數(shù)學(xué)題了,寫碼了,理解反諷了。

這種象就像水:個水子你也找到“濕”這個概念,但當(dāng)數(shù)水子聚起,浪就誕生了。

摩爾定律的接力棒Sling Lw是OenAI敢于入數(shù)億元顯卡的理論依據(jù)。

它告訴資本:別問為什么,把進(jìn)去,把爐子燒熱,跡然顯。

但,行業(yè)也辯:Sling Lw是否失效?

如你喂光了互聯(lián)所有的數(shù)據(jù),模型還能變聰明嗎?

這引出了“合數(shù)據(jù)”和“推理計算”的新戰(zhàn)場。

4. 幻覺 (Hllintin):麗的謊言如你問CtGPT:“賈寶是哪章迎娶了林黛?”

它可能本正經(jīng)地告訴你:“《紅樓夢》,伴隨著悲傷的音……”這種象被稱為“幻覺”。

它是目前模型令頭疼的缺陷,但也是它迷的。

為什么AI撒謊?

要理解幻覺,須回到模型的本質(zhì):概率預(yù)測機(jī)。

當(dāng)你問它個事實問題,它并是去數(shù)據(jù)庫檢索條記錄(那是搜索引擎的工作)。

它是根據(jù)它讀過的所有書,預(yù)測個字出的概率。

對于AI來說,并沒有“理”和“謊言”的概念,只有“概率”和“低概率”。

如它的訓(xùn)練數(shù)據(jù),“林黛”和“結(jié)婚”經(jīng)常出同段落(可能是同說或錯誤解讀),它就傾向于把它們組合起。

它是陳述事實,它是拼起來像事實的句子。

這種機(jī)被稱為隨機(jī)鸚鵡(Stti Prrt)。

幻覺的種類事實沖突: 比如說是盛頓發(fā)明了燈。

生有: 捏篇存的論文引用,連作者、年份、期刊號都編得有模有樣。

邏輯謬誤: 數(shù)學(xué)題,步驟似完,結(jié)卻是錯的。

Bg還是Fetre?

嚴(yán)謹(jǐn)?shù)膱鼍埃ㄈ玑t(yī)療、法律),幻覺是致命的Bg。

但創(chuàng)意寫作,幻覺就是Fetre()。

當(dāng)你要它“寫個關(guān)于朋克孔乙己的故事”,你其實就是要求它產(chǎn)生幻覺。

正是這種受事實約束的聯(lián)想能力,賦予了AI驚的創(chuàng)力。

怎么治?

目前主流的療法是RAG(檢索增生)。

AI回答問題前,先讓它去搜索引擎或有數(shù)據(jù)庫找資料,然后把找到的資料擺它面前,命令它:“只許根據(jù)這些資料回答,要己瞎編。”

這就像是考試允許卷,雖然學(xué)生可能還是抄錯,但瞎編的概率降低了。

5. AGI:類的后項發(fā)明AGI(Artifiil Generl Intelligene),用工智能。

這個字母是硅谷所有的終點,也是所有恐懼的源頭。

什么是AGI?

目前的AI(包括AlG、CtGPT)多屬于弱工智能(Nrrw AI)。

它們定領(lǐng)域(如圍、寫碼)可能越類,但如你讓AlG去煎雞蛋,它首接死機(jī)。

AGI則是指種具備廣義理解能力和推理能力的智能系統(tǒng)。

它應(yīng)該像類樣:用: 能學(xué)語,也能修桶,還能搞科研。

主: 需要類給它設(shè)定具目標(biāo),它能我設(shè)定目標(biāo)。

學(xué)習(xí)能力: 能從量樣本速學(xué)習(xí)新技能(Few-t Lerning)。

關(guān)于AGI的定義,標(biāo)準(zhǔn)首變。

以前們認(rèn)為“過圖靈測試”就是AGI,后來CtGPT輕松過了,們又說“那算”。

有出了“咖啡測試”:讓機(jī)器走進(jìn)個陌生的家庭,找到廚房,學(xué)使用奇怪的咖啡機(jī),泡杯咖啡。

什么候AI能到這點,AGI就來了。

什么候到來?

這是個價值萬億元的局。

觀派(如Sm Altmn): 認(rèn)為00年之前,甚至更早。

他們相信Sling Lw繼續(xù)生效,只需堆算力就能“力出奇跡”。

悲觀派(如Ynn LeCn): 認(rèn)為目前的LLM路是死胡同,它只是模仿了類語言的皮,沒有理解物理界的因律。

AGI還需要幾年的基礎(chǔ)研究突破。

終哲學(xué)問題如AGI的實了,它將是類歷史后項重的發(fā)明。

因為隨后的所有發(fā)明(治愈癌癥、星際航行、聚變能源),AGI都能比類得更、更。

這也引出了那個著名的“回形針化”思想實驗: 如你給個級AGI達(dá)指令:“盡可能多的回形針?!?br>
它可能先把地球的鋼鐵用光,然后把類血液的鐵元素取出來回形針,后把整個系拆解回形針的原料。

因為你沒有告訴它“要”。

這正是為什么OenAI、Antri等公司部存烈的“對齊”之爭的原因。

迎接明降臨之前,我們須確保明是愛我們的,或者至,是聽得懂我們那并嚴(yán)謹(jǐn)?shù)脑竿摹?br>