1、负责强化学习算法的研究和创新,设计针对大模型训练的高性能强化学习下算法。探索奖励系统设计,针对不同的目标问题,研发高效的奖励机制,来更好的控制强化学习和模型后训练的过程;
2、面向大模型的开发者,开发模型后训练和服务框架;
3、负责设计并实现大模型可解释性(XAI)框架,突破现有黑盒模型限制,研发多层级(神经元/模块/任务)的解释工具,实现对LLM模型决策逻辑、安全风险(幻觉、偏见)的可视化溯源与归因;
4、研发模型量化、精准微调与可解释性的协同优化技术,解决低精度推理/训练场景下模型行为漂移问题,保障优化后模型的可靠性、安全性与透明度;
5、设计支持多语言场景的可解释性方案,解决低资源语言的可解释性瓶颈与文化偏见检测问题,确保全球化部署中模型的公平性与决策透明;
6、研究动态演化的AGI系统持续可解释性机制,应对自进化学习、新型算力架构下的未知风险。
职位要求1、计算机科学、人工智能、数学或相关领域的博士学历,研究方向涵盖强化学习,模型推理,高性能计算,可解释AI(XAI)、AI安全、模型机理分析、形式化验证等;
2、熟悉模型量化与精准微调技术,理解其对模型安全性、鲁棒性和可解释性的影响机制;
3、精通Python/PyTorch/TensorFlow 生态,具备开发AI可解释性工具链的工程能力;
4、跨语言与开源经验是加分项: 拥有多语言大模型研究经验,熟悉低资源语言的可解释性挑战与跨文化偏见缓解方案;拥有高star github开源库,有较强工具链开源经验;
5、前沿技术研究:跟踪AGI领域的最新研究进展,探索新的可解释性和大模型优化技术;在顶级会议(NeurIPS, ICML, ICLR, ACL)发表AI可解释性、模型下一代训练范式相关论文。