岗位职责:
1. 自动评估体系建设:设计并搭建大模型自动评估体系,覆盖通用能力及专项能力(如推理、写作、语音、VLM 等);构建评测指标体系与自动化评测流程,推动评测体系标准化、模块化、可扩展化;
2. Benchmark 研究与落地:跟踪国内外前沿大模型评测方法与 Benchmark,研究其评测维度与自动化机制;复现与改造高质量评测集,结合业务场景定制评测任务,确保评测的真实性与可复现性;
3. 模型效果分析与策略优化:定期对不同版本模型进行系统评测与对比,输出详细分析报告,识别模型优势与薄弱点;针对记忆、写作、语音、多态(VLM)等专项能力,设计细粒度评测指标与分析策略支撑模型迭代方向;
4. 用户数据分析与体验优化:持续监测与分析真实用户交互数据,挖掘模型表现的 badcase 与典型问题与算法及产品团队协作,将用户侧问题转化为可量化的评测指标与优化方案;建立用户体验反馈与评测体系联动机制,推动模型效果持续提升与体验闭环优化;
5. 跨团队协作与产品规划:与算法、工程、产品团队紧密配合,定义评测需求与指标体系,推动自动评测体系在实际业务与模型研发中的落地,形成评测—>分析 一,优化的完整闭环。
岗位要求:
1. 本科及以上学历,计算机科学、人工智能、数据科学、语言学或相关专业优先;
2. 熟悉 Python/LLM API/LangChain 流程,有独立搭建自动评估或数据分析管线经验;
3. 有 benchmark 构建或论文发表经验(参与自动评估、评测集复现或指标体系设计)者优先;
4. 熟悉 A1搜索、对话评估、生成质量、语音、VLM 等领域评测或策略者优先;
5. 具备 用户行为数据分析能力,能基于交互日志识别模型缺陷、抽象问题类型并制定优化方案;
6. 能独立产出评测报告与用户体验分析文档,将技术评估结果转化为产品优化策略;
7. 具备良好的英文论文阅读能力和跨团队沟通协调能力。