Llama 3.1 發(fā)布 包含8B、70B 和 405B 版本 媲美GPT4o等閉源模型
發(fā)布日期:2024/7/25 7:08:04 瀏覽量:
- Meta發(fā)布了新的Llama 3.1模型,包括期待已久的405B。
- 這些模型具有改進(jìn)的推理能力、128K token上下文窗口,并支持8種語(yǔ)言。
- Llama 3.1 405B在多項(xiàng)任務(wù)上與領(lǐng)先的閉源模型競(jìng)爭(zhēng)。
- 訓(xùn)練405B模型使用了超過(guò)16K的NVIDIA H100 GPU,歷時(shí)數(shù)月。
- Llama 3.1 8B和70B模型在性能和安全性上優(yōu)于前代。
- 更新的許可證允許使用Llama模型的輸出改進(jìn)其他模型。
模型大小:
- 8B: 適用于消費(fèi)者級(jí)GPU的高效部署和開(kāi)發(fā)
- 70B: 適用于大規(guī)模AI本地應(yīng)用
- 405B: 適用于合成數(shù)據(jù)、LLM作為評(píng)審和蒸餾
新特性:
- 128K的長(zhǎng)上下文長(zhǎng)度(之前為8K)
- 多語(yǔ)言支持,涵蓋英語(yǔ)、德語(yǔ)、法語(yǔ)、意大利語(yǔ)、葡萄牙語(yǔ)、印地語(yǔ)、西班牙語(yǔ)和泰語(yǔ)
- 工具使用能力,支持搜索和Wolfram Alpha的數(shù)學(xué)推理
- 更寬松的許可,允許使用模型輸出改進(jìn)其他LLMs
模型亮點(diǎn)
-
Llama 3.1 405B:
- 參數(shù)規(guī)模:4050億參數(shù)。
- 上下文長(zhǎng)度:支持長(zhǎng)達(dá)128K的上下文。
- 多語(yǔ)言支持:支持八種語(yǔ)言。
- 功能優(yōu)勢(shì):在一般知識(shí)、可控性、數(shù)學(xué)、工具使用和多語(yǔ)言翻譯方面表現(xiàn)優(yōu)異。
-
增強(qiáng)版8B和70B模型:
- 多語(yǔ)言:提供強(qiáng)大的多語(yǔ)言支持。
- 上下文擴(kuò)展:上下文長(zhǎng)度顯著延長(zhǎng)至128K。
- 高級(jí)用例:支持長(zhǎng)文本總結(jié)、多語(yǔ)言對(duì)話代理和編程助手等高級(jí)應(yīng)用。
-
多功能支持多語(yǔ)言支持:
- Llama 3 天然支持多語(yǔ)言處理,預(yù)訓(xùn)練數(shù)據(jù)包括了大約 50% 的多語(yǔ)言 token,能夠處理和理解多種語(yǔ)言。
編程和推理:
- Llama 3 擁有強(qiáng)大的編程能力,可以生成高質(zhì)量的代碼。它能夠理解編程語(yǔ)言的語(yǔ)法和邏輯,生成復(fù)雜的代碼結(jié)構(gòu),并在編程任務(wù)中表現(xiàn)出色。
- Llama 3 具備出色的推理能力,能夠處理復(fù)雜的邏輯推理任務(wù)。它在解答問(wèn)題、分析和推斷方面表現(xiàn)優(yōu)異,能夠解決涉及邏輯和推理的復(fù)雜問(wèn)題。
工具使用:
- 模型能夠集成和使用多種工具,支持在零樣本條件下進(jìn)行工具調(diào)用和操作。
- Llama 3 能夠集成和使用多種工具來(lái)完成任務(wù)。這使得模型可以進(jìn)行多種功能的組合應(yīng)用,如文本分析、代碼生成、數(shù)據(jù)處理等,提升了任務(wù)處理的靈活性和效率。
4. 長(zhǎng)上下文處理
上下文窗口擴(kuò)展:
- 最大支持 128K 個(gè) token 的上下文窗口,使得模型能夠處理非常長(zhǎng)的文本輸入。
長(zhǎng)上下文預(yù)訓(xùn)練:
- 在預(yù)訓(xùn)練的最后階段,模型逐步適應(yīng)更長(zhǎng)的上下文窗口,以提高長(zhǎng)文本處理的能力。
5. 多模態(tài)擴(kuò)展
圖像、視頻和語(yǔ)音功能:
- 通過(guò)組合方法將圖像、視頻和語(yǔ)音功能整合到模型中,初步實(shí)驗(yàn)表明在圖像、視頻和語(yǔ)音識(shí)別任務(wù)上具有競(jìng)爭(zhēng)力的表現(xiàn)。
多模態(tài)模型:
- 開(kāi)發(fā)了支持圖像識(shí)別、視頻識(shí)別和語(yǔ)音理解能力的多模態(tài)模型,這些模型仍在開(kāi)發(fā)中,尚未廣泛發(fā)布。
-
模型評(píng)估與架構(gòu)
模型評(píng)估
Meta對(duì)Llama 3.1系列模型進(jìn)行了全面的評(píng)估,使用了150多個(gè)基準(zhǔn)數(shù)據(jù)集,涵蓋了多種語(yǔ)言和任務(wù)。這些評(píng)估包括對(duì)比Llama 3.1與市場(chǎng)上領(lǐng)先的AI模型(如GPT-4、Claude 3.5 Sonnet)的性能。實(shí)驗(yàn)結(jié)果表明,Llama 3.1不僅在通用知識(shí)、可控性、數(shù)學(xué)、工具使用和多語(yǔ)言翻譯等方面表現(xiàn)出色,而且在多個(gè)實(shí)際場(chǎng)景中與閉源模型表現(xiàn)相當(dāng)。

-

-

-
模型架構(gòu)

- 訓(xùn)練規(guī)模:Llama 3.1 405B是Meta迄今為止最大的模型,訓(xùn)練數(shù)據(jù)量超過(guò)15萬(wàn)億個(gè)token。為了實(shí)現(xiàn)這一規(guī)模的訓(xùn)練,Meta優(yōu)化了整個(gè)訓(xùn)練堆棧,使用超過(guò)16,000個(gè)H100 GPU進(jìn)行訓(xùn)練,使405B成為首個(gè)在如此規(guī)模上訓(xùn)練的Llama模型。
-
設(shè)計(jì)選擇:
- 模型結(jié)構(gòu):采用標(biāo)準(zhǔn)的解碼器-僅變換器模型架構(gòu),避免了專家混合模型,以確保訓(xùn)練的穩(wěn)定性。
- 迭代后訓(xùn)練:每輪迭代使用監(jiān)督微調(diào)和直接偏好優(yōu)化,生成高質(zhì)量的合成數(shù)據(jù),逐步提高各項(xiàng)能力的性能。
-
數(shù)據(jù)質(zhì)量:
- 預(yù)訓(xùn)練數(shù)據(jù):改進(jìn)了預(yù)處理和數(shù)據(jù)篩選流程,確保了更高質(zhì)量的預(yù)訓(xùn)練數(shù)據(jù)。
- 后訓(xùn)練數(shù)據(jù):采用嚴(yán)格的質(zhì)量保證和過(guò)濾方法,提高后訓(xùn)練數(shù)據(jù)的質(zhì)量。
-
量化技術(shù):
- 數(shù)值優(yōu)化:將模型從16位(BF16)量化到8位(FP8),有效降低了計(jì)算需求,使模型能夠在單個(gè)服務(wù)器節(jié)點(diǎn)上運(yùn)行。
-
指令和對(duì)話微調(diào):
- 多輪對(duì)齊:通過(guò)多輪對(duì)齊,包括監(jiān)督微調(diào)、拒絕采樣和直接偏好優(yōu)化,提高模型在響應(yīng)用戶指令時(shí)的詳細(xì)性和安全性。
- 合成數(shù)據(jù)生成:使用合成數(shù)據(jù)生成技術(shù),生產(chǎn)出高質(zhì)量的微調(diào)數(shù)據(jù),支持模型在128K上下文窗口內(nèi)的高效表現(xiàn)。
關(guān)鍵技術(shù)突破
- 模型量化:通過(guò)將模型量化到8位,提高了推理效率,降低了計(jì)算成本。
- 多語(yǔ)言支持:增強(qiáng)了模型在多語(yǔ)言環(huán)境中的適用性,支持跨語(yǔ)言任務(wù)。
- 上下文長(zhǎng)度擴(kuò)展:大幅擴(kuò)展了上下文長(zhǎng)度,提高了長(zhǎng)文本處理和復(fù)雜任務(wù)的能力。
馬克·扎克伯格(Mark Zuckerberg)發(fā)文強(qiáng)調(diào)了為什么他認(rèn)為開(kāi)源AI對(duì)開(kāi)發(fā)者、Meta和整個(gè)世界都有好處。他指出,開(kāi)源軟件,如Linux,已經(jīng)證明了其在性能、安全性和生態(tài)系統(tǒng)方面的優(yōu)勢(shì)。扎克伯格認(rèn)為,AI的發(fā)展將類似于Linux的發(fā)展,開(kāi)源AI將逐漸成為行業(yè)標(biāo)準(zhǔn)。
他認(rèn)為開(kāi)源軟件如Linux已經(jīng)證明了其在許多方面的優(yōu)勢(shì),AI也會(huì)走上類似的道路。Meta推出了新的開(kāi)源AI模型Llama 3.1,并與多家公司合作提供支持服務(wù),推動(dòng)開(kāi)源AI成為行業(yè)標(biāo)準(zhǔn)。開(kāi)源AI不僅對(duì)Meta有利,還能促進(jìn)全球技術(shù)的平等發(fā)展和應(yīng)用。
-
馬上咨詢: 如果您有業(yè)務(wù)方面的問(wèn)題或者需求,歡迎您咨詢!我們帶來(lái)的不僅僅是技術(shù),還有行業(yè)經(jīng)驗(yàn)積累。
QQ: 39764417/308460098 Phone: 13 9800 1 9844 / 135 6887 9550 聯(lián)系人:石先生/雷先生