崗位職責(zé):
1. 研發(fā)與優(yōu)化基于RAG(檢索增強(qiáng)生成)架構(gòu)的智能問答、知識庫系統(tǒng),提升信息檢索準(zhǔn)確率和生成內(nèi)容質(zhì)量
2. 負(fù)責(zé)大語言模型(LLM)的領(lǐng)域適配微調(diào),包括但不限于Prompt Engineering、LoRA/QLoRA、P-Tuning等高效微調(diào)技術(shù)
3. 構(gòu)建多源異構(gòu)數(shù)據(jù)處理管道,設(shè)計知識庫embedding優(yōu)化方案,提升向量檢索效率
4. 與產(chǎn)品、數(shù)據(jù)團(tuán)隊協(xié)作,將算法能力轉(zhuǎn)化為實際業(yè)務(wù)價值
5. 跟蹤大模型前沿技術(shù)動態(tài),探索模型壓縮、推理加速等落地實踐
6. 負(fù)責(zé)制造領(lǐng)域AI項目資產(chǎn)管理沉淀,包括文檔、代碼、模型等,持續(xù)場景能力運(yùn)營。
技能要求:
1. 計算機(jī)/數(shù)學(xué)/人工智能相關(guān)專業(yè)本科及以上學(xué)歷,3年以上NLP研發(fā)經(jīng)驗
2. 理解Transformer架構(gòu),熟悉BERT、GPT、LLaMA等大模型技術(shù)原理
3. 具備RAG系統(tǒng)實戰(zhàn)經(jīng)驗,精通LangChain、LlamaIndex等框架,熟悉FAISS/Chroma等向量數(shù)據(jù)庫
4. 掌握大模型微調(diào)全流程,具有Hugging Face Transformers、DeepSpeed、PEFT等工具鏈項目經(jīng)驗
5. 具備良好的邏輯思維能力和數(shù)據(jù)敏感度,能獨(dú)立完成技術(shù)方案設(shè)計與落地