国产内射大片99,欧美丰满熟妇xxxx,bt天堂在线www中文,男人扒开女人的腿做爽爽视频,亚洲av影院一区二区三区

知名百科 >> 大語(yǔ)言模型 >> 歷史版本
編輯時(shí)間歷史版本內(nèi)容長(zhǎng)度圖片數(shù)目錄數(shù)修改原因
2024-04-29 14:14 最新歷史版本 12310 1 5
  返回詞條

大語(yǔ)言模型

大型語(yǔ)言模型(Large Language Models,LLM)也稱為大型語(yǔ)言模型或大型語(yǔ)言模型,是由具有數(shù)百億個(gè)參數(shù)的深度神經(jīng)網(wǎng)絡(luò)構(gòu)建的語(yǔ)言模型。它通常由大量未標(biāo)記的文本使用自監(jiān)督學(xué)習(xí)方法進(jìn)行訓(xùn)練,并通過(guò)大規(guī)模數(shù)據(jù)集訓(xùn)練來(lái)預(yù)測(cè)和生成文本和其他內(nèi)容。大多數(shù)大型語(yǔ)言模型都是基于Transformer架構(gòu)的。與傳統(tǒng)的遞歸神經(jīng)網(wǎng)絡(luò)(RNN)和長(zhǎng)期記憶網(wǎng)絡(luò)(LSTM)相比,Transformer具有獨(dú)特的注意力機(jī)制,允許模型根據(jù)序列中的其他位置調(diào)整每個(gè)位置的表示,從而提高模型理解上下文的能力。

自2018年以來(lái),谷歌、OpenAl、Meta、百度、華為等公司和研究機(jī)構(gòu)相繼發(fā)布了包括BERT和GPT在內(nèi)的各種模型,它們?cè)趲缀跛凶匀徽Z(yǔ)言處理任務(wù)中都表現(xiàn)良好。2019年,大模型呈現(xiàn)出爆發(fā)式增長(zhǎng),尤其是在2022年11月ChatGPT發(fā)布后,引起了全世界的廣泛關(guān)注。2024年3月18日,馬斯克的人工智能初創(chuàng)公司xAI正式發(fā)布了大型模型Grok-1,其參數(shù)達(dá)到了3140億,遠(yuǎn)超open AI GPT 3.5的1750億。這是迄今為止參數(shù)數(shù)量最多的開(kāi)源語(yǔ)言模型,模型權(quán)重和架構(gòu)都是按照Apache 2.0協(xié)議開(kāi)放的。

目錄

構(gòu)建流程

預(yù)訓(xùn)練

預(yù)訓(xùn)練是大型語(yǔ)言模型訓(xùn)練的第一步,旨在使模型學(xué)習(xí)語(yǔ)言的統(tǒng)計(jì)模式和語(yǔ)義信息。主要的預(yù)訓(xùn)練步驟基本相似,最重要的是數(shù)據(jù),需要收集大量未標(biāo)記的數(shù)據(jù),如互聯(lián)網(wǎng)上的文本、新聞、博客、論壇等。這些數(shù)據(jù)可能使用多種語(yǔ)言,需要進(jìn)行清理和處理,以消除噪音、無(wú)關(guān)信息和個(gè)人隱私。最后,它們將以tokenizer粒度輸入到上述語(yǔ)言模型中。經(jīng)過(guò)清洗和處理后,這些數(shù)據(jù)用于訓(xùn)練和優(yōu)化語(yǔ)言模型。在預(yù)訓(xùn)練過(guò)程中,模型將學(xué)習(xí)詞匯、句法和語(yǔ)義的規(guī)則,以及上下文之間的關(guān)系。

在預(yù)訓(xùn)練語(yǔ)料方面,GPT-3主要包括Common Crawl、WebText2、Books1、Books2和英文維基百科等過(guò)濾數(shù)據(jù)集。其中,CommonCrawl的原始數(shù)據(jù)為45TB,過(guò)濾后僅保留570GB數(shù)據(jù)。上述語(yǔ)料庫(kù)按子詞分段,包含約5000億個(gè)子詞。為了確保模型使用更多高質(zhì)量的數(shù)據(jù)進(jìn)行訓(xùn)練,在GPT-3訓(xùn)練過(guò)程中根據(jù)不同的語(yǔ)料來(lái)源設(shè)置了不同的采樣權(quán)重。在完成3000億子詞的訓(xùn)練時(shí),英文維基百科語(yǔ)料庫(kù)的平均訓(xùn)練輪次為3.4次,而Common Crawl和Books 2的平均訓(xùn)練輪次僅為0.44次和0.43次。由于普通爬網(wǎng)數(shù)據(jù)集的過(guò)濾過(guò)程較為復(fù)雜,OPT采用了混合RoBERTa、Pile和Pushshift.io Redit數(shù)據(jù)的方法。由于這些數(shù)據(jù)集大多數(shù)是英語(yǔ)數(shù)據(jù),OPT還從常見(jiàn)的爬網(wǎng)數(shù)據(jù)集中提取了一些非英語(yǔ)數(shù)據(jù),并將其添加到訓(xùn)練語(yǔ)料庫(kù)中。BLOOM使用Megatron-DeepSpeed框架進(jìn)行訓(xùn)練,該框架主要包括兩部分:Megatron-LM提供張量并行和數(shù)據(jù)加載原語(yǔ);DeepSpeed提供ZeRO優(yōu)化器、模型管道和傳統(tǒng)的分布式訓(xùn)練組件。這樣就可以實(shí)現(xiàn)數(shù)據(jù)、張量和流水線的三維并行。

指令微調(diào)

在完成預(yù)訓(xùn)練后,我們可以通過(guò)指令微調(diào)來(lái)挖掘和增強(qiáng)語(yǔ)言模型本身的能力,這也是許多企業(yè)和研究人員使用大語(yǔ)言模型的重要步驟。

指令微調(diào)也稱為監(jiān)督微調(diào),它使用少量高質(zhì)量數(shù)據(jù)集,包括用戶輸入提示和相應(yīng)的理想輸出結(jié)果。用戶輸入包括問(wèn)題、聊天對(duì)話、任務(wù)說(shuō)明以及其他形式和任務(wù)。在指令微調(diào)階段,首先需要準(zhǔn)備一系列NLP任務(wù),并將每個(gè)任務(wù)轉(zhuǎn)換為指令形式,其中指令包括人類(lèi)應(yīng)該在模型上執(zhí)行的任務(wù)的描述以及預(yù)期的輸出結(jié)果。然后,這些指令用于監(jiān)督預(yù)訓(xùn)練的大型語(yǔ)言模型,使模型可以通過(guò)學(xué)習(xí)和適應(yīng)指令來(lái)提高其在特定任務(wù)上的性能。

為了使模型訓(xùn)練更加高效和簡(jiǎn)單,現(xiàn)階段還有一種高效的微調(diào)技術(shù)。parameter-Efficient Fine-Tuning(PEFT)旨在通過(guò)最小化微調(diào)參數(shù)的數(shù)量和計(jì)算復(fù)雜度來(lái)實(shí)現(xiàn)高效遷移學(xué)習(xí)的目的,提高預(yù)訓(xùn)練模型在新任務(wù)中的性能,進(jìn)而緩解大規(guī)模預(yù)訓(xùn)練模型的訓(xùn)練成本。在訓(xùn)練過(guò)程中,預(yù)訓(xùn)練模型的參數(shù)保持不變,只需要微調(diào)一些額外的參數(shù),就可以達(dá)到相當(dāng)于完全微調(diào)的性能。許多研究探索了PEFT方法,如適配器調(diào)整和前綴調(diào)整。其中,Adapter Tuning方法在面向特定下游任務(wù)時(shí)固定預(yù)訓(xùn)練模型中的某些層,僅微調(diào)與下游任務(wù)接近的幾個(gè)層的參數(shù)。前綴調(diào)整方法在預(yù)訓(xùn)練模型的基礎(chǔ)上增加了一些額外的參數(shù),這些參數(shù)將在訓(xùn)練過(guò)程中根據(jù)具體任務(wù)進(jìn)行更新和調(diào)整。

低秩自適應(yīng)(LoRA)是工業(yè)中常用的適配器調(diào)整技術(shù)。它通過(guò)最小化微調(diào)參數(shù)的數(shù)量和計(jì)算復(fù)雜度來(lái)實(shí)現(xiàn)高效的遷移學(xué)習(xí),從而提高預(yù)訓(xùn)練模型在新任務(wù)中的性能。LoRA的核心思想是將預(yù)訓(xùn)練模型的權(quán)重矩陣分解為兩個(gè)低秩矩陣的乘積。通過(guò)這種分解,可以顯著減少微調(diào)參數(shù)的數(shù)量并降低計(jì)算復(fù)雜度。這種方法與機(jī)器學(xué)習(xí)中的經(jīng)典降維思想非常相似。同樣,LoRA使用矩陣分解技術(shù)中的奇異值分解或低秩近似方法將原始權(quán)重矩陣分解為兩個(gè)低秩矩陣的乘積。在微調(diào)過(guò)程中,LoRA只更新這兩個(gè)低秩矩陣的參數(shù),而保持其他預(yù)訓(xùn)練參數(shù)不變。這可以顯著減少微調(diào)所需的計(jì)算資源和時(shí)間,并在許多任務(wù)中實(shí)現(xiàn)等同于完全微調(diào)的性能。LoRA技術(shù)的引入使得大規(guī)模預(yù)訓(xùn)練模型的微調(diào)更加高效可行,為實(shí)際應(yīng)用提供了更多可能性。

獎(jiǎng)勵(lì)建模

獎(jiǎng)勵(lì)建模階段的目標(biāo)是建立文本質(zhì)量比較模型,并對(duì)SFT模型針對(duì)同一提示給出的不同輸出結(jié)果的質(zhì)量進(jìn)行排序。獎(jiǎng)勵(lì)模型(RM模型)可以通過(guò)二元分類(lèi)模型判斷兩個(gè)輸入結(jié)果之間的優(yōu)劣。RM模型不同于基本語(yǔ)言模型和SFT模型,并且RM模型本身不能單獨(dú)提供給用戶。

獎(jiǎng)勵(lì)模型的訓(xùn)練通常與SFT模型相同,后者使用數(shù)十個(gè)GPU并花費(fèi)數(shù)天時(shí)間來(lái)完成訓(xùn)練。由于RM模型的準(zhǔn)確性對(duì)強(qiáng)化學(xué)習(xí)的效果有著至關(guān)重要的影響,因此通常需要大規(guī)模的訓(xùn)練數(shù)據(jù)來(lái)訓(xùn)練模型。

強(qiáng)化學(xué)習(xí)

在強(qiáng)化學(xué)習(xí)階段,根據(jù)數(shù)十萬(wàn)用戶給出的提示,利用前一階段訓(xùn)練的RM模型,給出SFT模型對(duì)用戶提示完成結(jié)果的質(zhì)量評(píng)估,并結(jié)合語(yǔ)言模型的建模目標(biāo),得到較好的結(jié)果。利用強(qiáng)化學(xué)習(xí),在SFT模型的基礎(chǔ)上調(diào)整參數(shù),使最終生成的文本能夠獲得更高的獎(jiǎng)勵(lì)。與預(yù)訓(xùn)練階段相比,該階段所需的計(jì)算量要少得多,通常只需要幾個(gè)+GPU即可在幾天內(nèi)完成訓(xùn)練。

通過(guò)強(qiáng)化學(xué)習(xí)方法訓(xùn)練的RL模型是一個(gè)類(lèi)似ChatGPT的系統(tǒng),最終提供給用戶,并具有理解用戶指令和上下文的能力。然而,Andrej Karpathy指出,強(qiáng)化學(xué)習(xí)并非沒(méi)有問(wèn)題,它會(huì)降低基本模型的熵從而降低模型輸出的多樣性。由于強(qiáng)化學(xué)習(xí)方法的不穩(wěn)定性和眾多的參數(shù),模型很難收斂,疊加RM模型的準(zhǔn)確性,這使得將強(qiáng)化學(xué)習(xí)有效應(yīng)用于大型語(yǔ)言模型非常困難。

相關(guān)技術(shù)

Transformer

事實(shí)上,目前流行的大語(yǔ)言模型的網(wǎng)絡(luò)架構(gòu)中并沒(méi)有太多新技術(shù),NLP領(lǐng)域最流行、最有效的架構(gòu)——Transformer結(jié)構(gòu)一直在使用。與傳統(tǒng)的遞歸神經(jīng)網(wǎng)絡(luò)(RNN)和長(zhǎng)期記憶網(wǎng)絡(luò)(LSTM)相比,Transformer具有獨(dú)特的注意力機(jī)制,相當(dāng)于增強(qiáng)了模型的理解能力,對(duì)更重要的單詞給予了更多的關(guān)注。同時(shí),該機(jī)制具有更好的并行性和可擴(kuò)展性,可以處理更長(zhǎng)的序列。它立即成為自然語(yǔ)言處理領(lǐng)域中具有基本能力的模型,并在各種文本相關(guān)的序列任務(wù)中取得了良好的結(jié)果。

根據(jù)這種網(wǎng)絡(luò)架構(gòu)的變形,主流框架可以分為Encoder-Decoder、Encoder-Only和Decoder-Only,其中:Encoder-Only僅包含編碼器部分,主要適用于只需要對(duì)輸入進(jìn)行編碼和處理的單向任務(wù)場(chǎng)景,如文本分類(lèi)、情感分析等。這類(lèi)代表是BERT相關(guān)模型。編碼器-解碼器包括編碼器和解碼器,通常用于序列到序列(Seq2Seq)任務(wù),如機(jī)器翻譯、對(duì)話生成等。這類(lèi)代表是以谷歌訓(xùn)練的T5為代表的相關(guān)大模型。僅包含解碼器部分的Decoder-Only通常用于序列生成任務(wù),如文本生成和機(jī)器翻譯。這種結(jié)構(gòu)的模型適用于需要生成序列的任務(wù),相應(yīng)的序列可以從輸入代碼中生成。同時(shí),可以進(jìn)行無(wú)監(jiān)督的預(yù)訓(xùn)練也是一個(gè)重要特征。在預(yù)訓(xùn)練階段,模型通過(guò)大量未標(biāo)記數(shù)據(jù)學(xué)習(xí)語(yǔ)言的統(tǒng)計(jì)模式和語(yǔ)義信息。這種方法可以使模型具有廣泛的語(yǔ)言知識(shí)和理解能力。經(jīng)過(guò)預(yù)訓(xùn)練后,模型可以針對(duì)特定的下游任務(wù)(如機(jī)器翻譯、文本生成等)進(jìn)行監(jiān)督和微調(diào)。).這種結(jié)構(gòu)的代表是我們平時(shí)非常熟悉的GPT模型結(jié)構(gòu)。該系列的所有網(wǎng)絡(luò)結(jié)構(gòu)都是基于純解碼器逐步演進(jìn)的。

許多NLP任務(wù)可以通過(guò)多種網(wǎng)絡(luò)結(jié)果來(lái)解決,這主要是由于NLP領(lǐng)域任務(wù)和數(shù)據(jù)的多樣性和復(fù)雜性,以及現(xiàn)代深度學(xué)習(xí)模型的靈活性和泛化能力。

基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)

經(jīng)過(guò)監(jiān)督微調(diào)后,大語(yǔ)言模型具有跟隨指令、進(jìn)行多輪對(duì)話以及與用戶進(jìn)行初步對(duì)話的能力。然而,由于龐大的參數(shù)和訓(xùn)練語(yǔ)料庫(kù),大型語(yǔ)言模型的復(fù)雜性往往難以理解和預(yù)測(cè)。當(dāng)部署這些模型時(shí),可能會(huì)產(chǎn)生嚴(yán)重的后果,尤其是當(dāng)模型變得更強(qiáng)大、使用范圍更廣,并且與用戶頻繁交互時(shí)。研究人員尋求使人工智能與人類(lèi)價(jià)值觀保持一致,大型語(yǔ)言模型的輸出應(yīng)符合3H原則:有益、誠(chéng)實(shí)和無(wú)害。因?yàn)樯鲜?H原則反映了人類(lèi)的偏好,所以基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)被自然地引入到通用對(duì)話模型的訓(xùn)練過(guò)程中。

基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)主要分為兩個(gè)步驟:獎(jiǎng)勵(lì)模型訓(xùn)練和近端策略優(yōu)化。獎(jiǎng)勵(lì)模型通過(guò)人類(lèi)反饋標(biāo)記的偏好數(shù)據(jù)學(xué)習(xí)人類(lèi)偏好,判斷模型回復(fù)的有用性,確保內(nèi)容的無(wú)害性。獎(jiǎng)勵(lì)模型模擬人類(lèi)偏好信息,可以持續(xù)為模型的訓(xùn)練提供獎(jiǎng)勵(lì)信號(hào)。在獲得獎(jiǎng)勵(lì)模型后,我們需要在強(qiáng)化學(xué)習(xí)的幫助下繼續(xù)微調(diào)語(yǔ)言模型。OpenAl在大多數(shù)任務(wù)中使用的強(qiáng)化學(xué)習(xí)算法是鄰近策略優(yōu)化(PPO)算法。近端策略優(yōu)化可以基于獎(jiǎng)勵(lì)模型獲得的反饋優(yōu)化模型,通過(guò)不斷迭代,模型可以探索并找到更符合人類(lèi)偏好的回復(fù)策略。近端策略優(yōu)化涉及以下四個(gè)模型:(1)策略模型,生成模型回復(fù)。(2)獎(jiǎng)勵(lì)模型,輸出獎(jiǎng)勵(lì)分?jǐn)?shù)來(lái)評(píng)估回復(fù)質(zhì)量。(3)Critic模型,可以預(yù)測(cè)回復(fù)質(zhì)量,并可以在訓(xùn)練過(guò)程中實(shí)時(shí)調(diào)整和選擇未來(lái)累積收益最大的行為。(4)參考模型,它提供了SFT模型的備份,因此模型不會(huì)發(fā)生過(guò)大的變化。近端策略優(yōu)化算法的實(shí)現(xiàn)過(guò)程是:(1)環(huán)境采樣:策略模型基于給定的輸入生成一系列響應(yīng),獎(jiǎng)勵(lì)模型對(duì)這些響應(yīng)進(jìn)行評(píng)分以獲得獎(jiǎng)勵(lì)。(2)優(yōu)勢(shì)估計(jì):通過(guò)使用評(píng)論模型來(lái)預(yù)測(cè)生成回復(fù)的未來(lái)累積獎(jiǎng)勵(lì)并在廣義優(yōu)勢(shì)估計(jì)(GAE)算法的幫助下估計(jì)優(yōu)勢(shì)函數(shù),有助于更準(zhǔn)確地估計(jì)每個(gè)行為的收益。(3)優(yōu)化調(diào)整:利用優(yōu)勢(shì)函數(shù)對(duì)策略模型進(jìn)行優(yōu)化調(diào)整,利用參考模型保證更新后的策略不會(huì)發(fā)生太大變化,從而保持模型的穩(wěn)定性。

混合專(zhuān)家系統(tǒng)

混合專(zhuān)家(MOE)是預(yù)訓(xùn)練萬(wàn)億參數(shù)模型的關(guān)鍵技術(shù)。該模型是在不過(guò)分增加計(jì)算成本的情況下提高神經(jīng)網(wǎng)絡(luò)模型能力的有效手段。MoE的基本思想是從許多專(zhuān)家子網(wǎng)絡(luò)構(gòu)建一個(gè)統(tǒng)一的網(wǎng)絡(luò),其中每個(gè)輸入由一個(gè)合適的專(zhuān)家子集處理。因此,與標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)相比,MoE僅調(diào)用整個(gè)模型的一小部分,從而獲得了如GLaM等語(yǔ)言模型應(yīng)用程序所示的高效率。GLaM架構(gòu)中的每個(gè)輸入令牌都被動(dòng)態(tài)路由到64個(gè)專(zhuān)家網(wǎng)絡(luò)中的兩個(gè)進(jìn)行預(yù)測(cè)。與密集模型相比,在相同的計(jì)算量下,MoE中的條件計(jì)算可以大大提高模型參數(shù)。然而,在大規(guī)模集群中高效和有效地訓(xùn)練MoE仍然是一個(gè)挑戰(zhàn)?;旌蠈?zhuān)家系統(tǒng)的思想是目前較好的大型模型落地方式。在過(guò)去的十年中,人工智能特別是深度學(xué)習(xí)技術(shù)的發(fā)展積累了許多高質(zhì)量的模型。將大模型與混合專(zhuān)家系統(tǒng)等高質(zhì)量模型相結(jié)合,將是未來(lái)大模型從純數(shù)字經(jīng)濟(jì)向數(shù)字經(jīng)濟(jì)賦能實(shí)體經(jīng)濟(jì)轉(zhuǎn)型的重要途徑。

提示工程

提示工程主要應(yīng)用于提示詞的開(kāi)發(fā)和優(yōu)化,幫助用戶將大型語(yǔ)言模型應(yīng)用于各種場(chǎng)景和研究領(lǐng)域。掌握與cue工程相關(guān)的技能將幫助用戶更好地理解大規(guī)模語(yǔ)言模型的功能和局限性。研究人員可以使用線索工程來(lái)提高大型語(yǔ)言模型處理復(fù)雜任務(wù)場(chǎng)景的能力,例如問(wèn)答和算術(shù)推理。開(kāi)發(fā)人員可以提示工程設(shè)計(jì)并開(kāi)發(fā)強(qiáng)大的工程技術(shù),以實(shí)現(xiàn)與大型語(yǔ)言模型或其他生態(tài)工具的高效集成。提示工程不僅僅是設(shè)計(jì)和研發(fā)提示。它包括與大語(yǔ)言模型交互和發(fā)展的各種技能和技術(shù)。提示工程在實(shí)現(xiàn)與大型語(yǔ)言模型的交互和對(duì)接以及理解大型語(yǔ)言模型的能力方面發(fā)揮著重要作用。用戶可以通過(guò)提示項(xiàng)目來(lái)提高大語(yǔ)言模型的安全性,也可以為大語(yǔ)言模型賦能,比如借助專(zhuān)業(yè)領(lǐng)域知識(shí)和外部工具增強(qiáng)大語(yǔ)言模型的能力。

工作原理

大型語(yǔ)言模型通過(guò)使用深度學(xué)習(xí)技術(shù)和大量文本數(shù)據(jù)來(lái)運(yùn)行。該模型通常基于轉(zhuǎn)換器架構(gòu),它擅長(zhǎng)處理文本輸入等順序數(shù)據(jù)。在訓(xùn)練過(guò)程中,模型學(xué)習(xí)根據(jù)句子前面的單詞預(yù)測(cè)下一個(gè)單詞。它通過(guò)將概率得分歸因于重復(fù)的標(biāo)記單詞(分解為更小的字符序列)來(lái)實(shí)現(xiàn)這一點(diǎn)。然后,這些標(biāo)簽被轉(zhuǎn)換為嵌入,這是上下文的數(shù)字表示。為了確保準(zhǔn)確性,這一過(guò)程涉及在大量文本語(yǔ)料庫(kù)(數(shù)十億頁(yè))上訓(xùn)練大型語(yǔ)言模型,使其可以通過(guò)零樣本和自我監(jiān)督學(xué)習(xí)來(lái)學(xué)習(xí)語(yǔ)法、語(yǔ)義和概念關(guān)系。經(jīng)過(guò)這些訓(xùn)練數(shù)據(jù)的訓(xùn)練后,它可以根據(jù)接收到的信息自動(dòng)預(yù)測(cè)下一個(gè)單詞,并使用它們的知識(shí)生成文本。從而生成可用于各種內(nèi)容生成任務(wù)的連貫語(yǔ)言。該模型還可以通過(guò)實(shí)時(shí)工程、實(shí)時(shí)調(diào)優(yōu)、微調(diào)等策略來(lái)提高模型的性能,這是確保企業(yè)LLM隨時(shí)可用且不會(huì)使組織承擔(dān)不必要的責(zé)任或損害組織聲譽(yù)的最重要方面之一。

培訓(xùn)費(fèi)用

訓(xùn)練一個(gè)通用的大語(yǔ)言模型是非?!盁X(qián)”的。根據(jù)郭盛證券的“ChatGPT需要多大的計(jì)算能力”報(bào)告,預(yù)計(jì)GPT-3一次培訓(xùn)的成本約為140萬(wàn)美元。對(duì)于一些較大的語(yǔ)言模型,訓(xùn)練成本甚至更高,從200萬(wàn)美元到1200萬(wàn)美元不等。以chat GPT 1月平均獨(dú)立訪客數(shù)1300萬(wàn)計(jì)算,其對(duì)應(yīng)的芯片需求為3萬(wàn)多片NVIDIA A100GPU,初始投資成本約為8億美元,每日電費(fèi)約為5萬(wàn)美元。如果當(dāng)前的ChatGPT被部署到谷歌進(jìn)行的每個(gè)搜索中,則需要512,820.51個(gè)A100 HGX服務(wù)器和總共4,102,568個(gè)A100GPUs,僅這些服務(wù)器和網(wǎng)絡(luò)的資本支出就超過(guò)1000億美元。

主要應(yīng)用

大語(yǔ)言模型在社會(huì)科學(xué)、自然科學(xué)和形式科學(xué)中的應(yīng)用。到2023年,大語(yǔ)言模型已經(jīng)開(kāi)始在許多領(lǐng)域商業(yè)化。除了ChatGPT等產(chǎn)品外,主要有以下主流應(yīng)用:

辦公Copilot類(lèi)產(chǎn)品:微軟首次嘗試在自己的Office系列軟件中應(yīng)用大語(yǔ)言模型。通過(guò)使用大語(yǔ)言模型,您可以總結(jié)word文檔并提出修改和編輯建議,或者您可以總結(jié)給定的文章;Excel中的各種復(fù)雜操作也可以通過(guò)描述直接處理數(shù)據(jù);Microsoft Office PowerPoint可以通過(guò)識(shí)別需求自動(dòng)生成顯示內(nèi)容;Outlook直接使用自然語(yǔ)言生成郵件內(nèi)容等功能,實(shí)現(xiàn)真正的AI秘書(shū)。

大語(yǔ)言模型大語(yǔ)言模型

Github Copilot產(chǎn)品:將大語(yǔ)言模型應(yīng)用于Github Copilot產(chǎn)品后,我們可以通過(guò)對(duì)話直接生成各種功能代碼,包括幫助編寫(xiě)測(cè)試用例、解釋代碼片段和調(diào)試程序問(wèn)題。該功能在解放程序員生產(chǎn)力方面取得了革命性的進(jìn)步,使開(kāi)發(fā)人員能夠更加關(guān)注業(yè)務(wù)理解、系統(tǒng)設(shè)計(jì)和架構(gòu)設(shè)計(jì)等更高層次的需求。

教育知識(shí)產(chǎn)品:得益于對(duì)大語(yǔ)言模型的強(qiáng)大理解和知識(shí)儲(chǔ)備,許多公司將模型嵌入到知識(shí)產(chǎn)品中進(jìn)行應(yīng)用。在chatPDF中嵌入大型語(yǔ)言模型后,它可以幫助經(jīng)常閱讀論文的研究人員通過(guò)問(wèn)答快速提取信息、理解和總結(jié)文章的重要內(nèi)容,這大大提高了閱讀新論文的效率。對(duì)于語(yǔ)言學(xué)習(xí)者來(lái)說(shuō),一款名為Call Annie的軟件嵌入到大語(yǔ)言模型中,基本上可以取代英語(yǔ)口語(yǔ)老師的角色,并可以隨時(shí)隨地練習(xí)英語(yǔ)口語(yǔ)。

搜索引擎和推薦系統(tǒng):大語(yǔ)言模型可以應(yīng)用于企業(yè)搜索引擎和推薦系統(tǒng)。通過(guò)深度學(xué)習(xí)算法,可以準(zhǔn)確理解用戶的搜索意圖,并提供更準(zhǔn)確的搜索結(jié)果和個(gè)性化推薦內(nèi)容。這有助于改善用戶體驗(yàn),增加用戶粘性,并提高企業(yè)的轉(zhuǎn)化率和銷(xiāo)售額。

計(jì)算相關(guān)的上下游相關(guān)產(chǎn)業(yè):為了跟上大型語(yǔ)言模型的訓(xùn)練和推理速度,許多公司正在積極探索基于GPU、FPGA和ASIC等硬件的加速制造技術(shù)。此外,云計(jì)算技術(shù)的發(fā)展也為大型語(yǔ)言模型的訓(xùn)練提供了更多的計(jì)算資源。

除了上述領(lǐng)域,大語(yǔ)言模型在算法優(yōu)化、隱私和數(shù)據(jù)安全、模型可解釋性等方面也有應(yīng)用。大語(yǔ)言模型的諸多應(yīng)用不斷涌現(xiàn),國(guó)內(nèi)優(yōu)秀的大語(yǔ)言模型代表,如百度文心,也在構(gòu)建全系統(tǒng)產(chǎn)業(yè)化全景圖。

標(biāo)簽