職責(zé)描述:
● 模型微調(diào)與優(yōu)化:負(fù)責(zé)基于行業(yè)領(lǐng)先的大模型(如DeepSeek R1/ QwQ)進(jìn)行領(lǐng)域大模型的微調(diào)訓(xùn)練工作,包括但不限于知識(shí)蒸餾等技術(shù)的應(yīng)用,以滿足不同業(yè)務(wù)場(chǎng)景的需求。
● 模型訓(xùn)練部署:基于 HuggingFace/ LLaMA-Factory 等開源平臺(tái),搭建端到端大模型微調(diào)、訓(xùn)練和部署工具鏈,維護(hù)服務(wù)器訓(xùn)練集群,實(shí)現(xiàn)大模型在云端的高效部署
● 技術(shù)創(chuàng)新:探索和實(shí)施有效的模型微調(diào)方法,提高模型性能的同時(shí)優(yōu)化資源利用效率,推動(dòng)技術(shù)進(jìn)步和成本效益。
● 訓(xùn)練數(shù)據(jù):依據(jù)業(yè)務(wù)需求、流程,可根據(jù)現(xiàn)有的數(shù)據(jù)和資料并加工為AI可識(shí)別的訓(xùn)練材料;
● 團(tuán)隊(duì)協(xié)作:分享專業(yè)知識(shí),支持非技術(shù)團(tuán)隊(duì)成員理解技術(shù)方案.高效協(xié)同業(yè)務(wù)和開發(fā)團(tuán)隊(duì),推動(dòng)定制化AI如期交付,并持續(xù)提升協(xié)作質(zhì)量與效率;
● 持續(xù)學(xué)習(xí):緊跟AI領(lǐng)域的最新發(fā)展,尤其是大模型微調(diào)和訓(xùn)練方面的技術(shù)革新,不斷提升自身技能,保持技術(shù)前沿地位。
任職要求:
● 教育背景:計(jì)算機(jī)、大數(shù)據(jù)、人工智能或相關(guān)領(lǐng)域的本科及以上學(xué)歷。
崗位需求:
1、熟練掌握 Python 和常見的機(jī)器學(xué)習(xí)庫(kù):Tensorflow、PyTorch等
2、精通主流開源大模型的技術(shù)原理和典型應(yīng)用場(chǎng)景,包括不限于deepseek,llama2,chatGLM等
3、精通主流 PEFT 微調(diào)技術(shù),包括但不限于 LoRA、Prompt-tuning 等,并熟練運(yùn)用至主流開源模型
4、深刻理解深度學(xué)習(xí)算法的訓(xùn)練,可根據(jù)不同業(yè)務(wù)場(chǎng)景對(duì)模型本身進(jìn)行調(diào)優(yōu),精通訓(xùn)練數(shù)據(jù)的構(gòu)造、訓(xùn)練超參的調(diào)整;
5、熟悉LLM相關(guān)技術(shù)及CV領(lǐng)域常用算法,對(duì)相關(guān)技術(shù)落地有自己的理解,有LLM業(yè)務(wù)應(yīng)用經(jīng)驗(yàn)者優(yōu)先;
6、有復(fù)現(xiàn)論文模型的相關(guān)經(jīng)驗(yàn)優(yōu)先;
7、有1-2個(gè)訓(xùn)練成果優(yōu)先