百川智能發(fā)布開(kāi)源中英文大模型 免費(fèi)可商用
發(fā)布日期:2023/6/16 7:52:56 瀏覽量:
由王小川組隊(duì)創(chuàng)辦的AI大模型創(chuàng)企百川智能今日宣布推出70億參數(shù)量的中英文預(yù)訓(xùn)練大模型baichuan-7B。
baichuan-7B不僅在C-Eval、AGIEval和Gaokao中文權(quán)威評(píng)測(cè)榜單上,以顯著優(yōu)勢(shì)全面超過(guò)了ChatGLM-6B等其他大模型,并且在MMLU英文權(quán)威評(píng)測(cè)榜單上,大幅領(lǐng)先LLaMA-7B。目前baichuan-7B大模型已在Hugging Face、Github以及Model Scope平臺(tái)發(fā)布。baichuan-7B在C-Eval、AGIEval和Gaokao三個(gè)最具影響力的中文評(píng)估基準(zhǔn)進(jìn)行了綜合評(píng)估,并且均獲得了優(yōu)異成績(jī),它已經(jīng)成為同等參數(shù)規(guī)模下中文表現(xiàn)最優(yōu)秀的原生預(yù)訓(xùn)練模型。在中文C-EVAL的評(píng)測(cè)中,baichuan-7B的綜合評(píng)分達(dá)到了42.8分,超過(guò)了ChatGLM-6B的38.9分,甚至比某些參數(shù)規(guī)模更大的模型還要出色。在AGIEval的評(píng)測(cè)里,baichuan-7B綜合評(píng)分達(dá)到34.4分,遠(yuǎn)超LLaMa-7B、Falcon-7B、Bloom-7B以及ChatGLM-6B等其他開(kāi)源模型。在GAOKAO評(píng)測(cè)中,baichuan-7B的綜合評(píng)分達(dá)到了36.2分,顯著領(lǐng)先于同參數(shù)規(guī)模的各種其他預(yù)訓(xùn)練模型。

baichuan-7B在英文上表現(xiàn)同樣亮眼。在MMLU的評(píng)測(cè)中,baichuan-7B綜合評(píng)分高達(dá)42.5分,大幅領(lǐng)先英文開(kāi)源預(yù)訓(xùn)練模型LLaMA-7B的34.2分以及中文開(kāi)源模型ChatGLM-6B的36.9分。秉持開(kāi)源精神,baichuan-7B代碼采用Apache-2.0協(xié)議,模型權(quán)重采用了免費(fèi)商用協(xié)議,只需進(jìn)行簡(jiǎn)單登記即可免費(fèi)商用。baichuan-7B此次開(kāi)源的內(nèi)容包含推理代碼、INT4量化實(shí)現(xiàn)、微調(diào)代碼,以及預(yù)訓(xùn)練模型的權(quán)重。據(jù)了解,北京大學(xué)和清華大學(xué)兩所頂尖高校已率先使用baichuan-7B模型推進(jìn)相關(guān)研究工作,并計(jì)劃在未來(lái)與百川智能深入合作,共同推動(dòng)baichuan-7B模型的應(yīng)用和發(fā)展。
開(kāi)源地址:
Hugging Face:
https://huggingface.co/baichuan-inc/baichuan-7B
Github:
https://github.com/baichuan-inc/baichuan-7B
Model Scope:
https://modelscope.cn/models/baichuan-inc/baichuan-7B/summary 馬上咨詢: 如果您有業(yè)務(wù)方面的問(wèn)題或者需求,歡迎您咨詢!我們帶來(lái)的不僅僅是技術(shù),還有行業(yè)經(jīng)驗(yàn)積累。
QQ: 39764417/308460098 Phone: 13 9800 1 9844 / 135 6887 9550 聯(lián)系人:石先生/雷先生