ChatGLM3-6B正式發(fā)布,10B以下最好開源模型
發(fā)布日期:2023/10/30 23:04:33 瀏覽量:
評測顯示,在44個中英文公開數(shù)據(jù)集測試中,ChatGLM3在國內(nèi)同尺寸模型中排名首位,甚至超過眾多13B的模型等。同時開源的ChatGLM3-6B、ChatGLM3-6B-Base、ChatGLM3-6B-32K三個模型已經(jīng)發(fā)布在wisemodel.cn社區(qū),歡迎大家前往wisemodel.cn社區(qū)注冊使用。

ChatGLM3-6B模型地址:
https://wisemodel.cn/models/%E6%99%BA%E8%B0%B1AI/chatglm3-6b
ChatGLM3-6B-Base模型地址:
https://wisemodel.cn/models/%E6%99%BA%E8%B0%B1AI/chatglm3-6b-base
ChatGLM3-6B-32K模型地址:
https://wisemodel.cn/models/%E6%99%BA%E8%B0%B1AI/chatglm3-6b-32k
ChatGLM3全新技術(shù)升級 更高性能更低成本
1. 更強大的性能:今年以來,這是我們第三次對ChatGLM基座模型進行了深度優(yōu)化。我們采用了獨創(chuàng)的多階段增強預(yù)訓(xùn)練方法,更豐富的訓(xùn)練數(shù)據(jù)和更優(yōu)的訓(xùn)練方案,使訓(xùn)練更為充分。評測顯示,與 ChatGLM 二代模型相比,在44個中英文公開數(shù)據(jù)集測試中,ChatGLM3在國內(nèi)同尺寸模型中排名首位。其中,MMLU提升36%、CEval提升33%、GSM8K提升179% 、BBH提升126%。
2. 瞄向GPT-4V的技術(shù)升級:瞄向GPT-4V,ChatGLM3 本次實現(xiàn)了若干全新功能的迭代升級,包括:多模態(tài)理解能力的CogVLM,看圖識語義,在10余個國際標(biāo)準(zhǔn)圖文評測數(shù)據(jù)集上取得SOTA;代碼增強模塊 Code Interpreter 根據(jù)用戶需求生成代碼并執(zhí)行,自動完成數(shù)據(jù)分析、文件處理等復(fù)雜任務(wù);網(wǎng)絡(luò)搜索增強WebGLM,接入搜索增強,能自動根據(jù)問題在互聯(lián)網(wǎng)上查找相關(guān)資料并在回答時提供參考相關(guān)文獻或文章鏈接。ChatGLM3的語義能力與邏輯能力大大增強。
3. 全新的 Agent 智能體能力:ChatGLM3 本次集成了自研的 AgentTuning 技術(shù),激活了模型智能體能力,尤其在智能規(guī)劃和執(zhí)行方面,相比于ChatGLM二代提升 1000% ;開啟國產(chǎn)大模型原生支持工具調(diào)用、代碼執(zhí)行、游戲、數(shù)據(jù)庫操作、知識圖譜搜索與推理、操作系統(tǒng)等復(fù)雜場景。
4. Edge端側(cè)模型:ChatGLM3 本次推出可手機部署的端測模型 ChatGLM3-1.5B 和 ChatGLM3-3B,支持包括Vivo、小米、三星在內(nèi)的多種手機以及車載平臺,甚至支持移動平臺上 CPU 芯片的推理,速度可達20 tokens/s。精度方面 ChatGLM3-1.5B 和 ChatGLM3-3B 在公開 Benchmark 上與 ChatGLM2-6B 模型性能接近。
5. 更高效推理/降本增效:基于最新的高效動態(tài)推理和顯存優(yōu)化技術(shù),我們當(dāng)前的推理框架在相同硬件、模型條件下,相較于目前最佳的開源實現(xiàn),包括伯克利大學(xué)推出的 vLLM 以及 Hugging Face TGI 的最新版本,推理速度提升了2-3倍,推理成本降低一倍,每千 tokens 僅0.5分,成本最低。
馬上咨詢: 如果您有業(yè)務(wù)方面的問題或者需求,歡迎您咨詢!我們帶來的不僅僅是技術(shù),還有行業(yè)經(jīng)驗積累。
QQ: 39764417/308460098 Phone: 13 9800 1 9844 / 135 6887 9550 聯(lián)系人:石先生/雷先生