OpenAI組織架構(gòu)參考
發(fā)布日期:2023/3/24 14:37:21 瀏覽量:
OpenAI組織架構(gòu)參考
研發(fā)人員占絕大多數(shù)
從組織架構(gòu)的設(shè)置上看,GPT-4 幕后的研發(fā)團(tuán)隊(duì)大致可分為七個部分:預(yù)訓(xùn)練(Pretraining)、長上下文(Long context)、視覺(Vision)、強(qiáng)化學(xué)習(xí) & 對齊(RL & alignment)、評估 & 分析(Evaluation & analysis)、部署(Deployment),以及其他貢獻(xiàn)者(Additional contributions)。
預(yù)訓(xùn)練部分的工作細(xì)分為:
-
計算機(jī)集群擴(kuò)展(Compute cluster scaling)
-
數(shù)據(jù)(Data)
-
分布式訓(xùn)練基礎(chǔ)設(shè)施(Distributed training infrastructure)
-
硬件正確性(Hardware correctness)
-
優(yōu)化 & 架構(gòu)(Optimization & architecture)
-
Training run babysitting
長上下文部分的工作細(xì)分為:
-
長上下文研究(Long context research)
-
長上下文內(nèi)核(Long context kernels)
視覺部分的工作細(xì)分為:
-
架構(gòu)研究(Architecture research)
-
計算機(jī)集群擴(kuò)展(Compute cluster scaling)
-
分布式訓(xùn)練基礎(chǔ)設(shè)施(Distributed training infrastructure)
-
硬件正確性(Hardware correctness)
-
數(shù)據(jù)(Data)
-
對齊數(shù)據(jù)(Alignment Data)
-
Training run babysitting
-
部署 & 后訓(xùn)練(Deployment & post-training)
強(qiáng)化學(xué)習(xí) & 對齊部分的工作細(xì)分為:
-
數(shù)據(jù)集貢獻(xiàn)(Dataset contributions)
-
數(shù)據(jù)基礎(chǔ)設(shè)施(Data infrastructure)
-
ChatML 格式(ChatML format)
-
模型安全(Model safety)
-
Refusals
-
基礎(chǔ) RLHF 和 InstructGPT 工作(Foundational RLHF and InstructGPT work)
-
Flagship training runs
-
代碼功能(Code capability)
評估 & 分析部分的工作細(xì)分為:
-
OpenAI Evals 庫
-
模型等級評估基礎(chǔ)設(shè)施(Model-graded evaluation infrastructure)
-
加速預(yù)測(Acceleration forecasting)
-
ChatGPT 評估
-
能力評估(Capability evaluations)
-
編碼評估(Coding evaluations)
-
真實(shí)世界用例評估(Real-world use case evaluations)
-
污染調(diào)查(Contamination investigations)
-
指令遵循和 API 評估(Instruction following and API evals)
-
新功能評估(Novel capability discovery)
-
……
馬上咨詢: 如果您有業(yè)務(wù)方面的問題或者需求,歡迎您咨詢!我們帶來的不僅僅是技術(shù),還有行業(yè)經(jīng)驗(yàn)積累。
QQ: 39764417/308460098 Phone: 13 9800 1 9844 / 135 6887 9550 聯(lián)系人:石先生/雷先生