01
新闻动态
NEWS
光明实验室亮相光明区新质生产力发展大会
2026年3月6日,光明区产创融合引领新质生产力发展大会在国家超级计算深圳中心二期举行。光明实验室主任田奇在大会上作主题演讲,他指出,光明实验室已完成战略升级,与华为形成实质共建关系,正以“世界模型”为牵引,构建通用AI基座,推动具身智能、智能制造等领域应用落地。
签约环节,光明实验室与深智城集团、麦捷微电子、湾测技术签署合作协议,聚焦国产算力迁移适配、具身智能核心部件、智能感知与主动安全等领域开展深度合作,为区域新质生产力发展注入新动能。
阅读更多
共筑创新高地,共谋产业发展:光明实验室亮相光明区新质生产力发展大会
光明实验室牵头举办NeuroMM 2026活动
首届多模态神经生理智能国际研讨会暨挑战赛(NeuroMM 2026)即将于多媒体领域顶级会议ACM Multimedia 2026期间举办。活动由光明实验室牵头,联合网易、北京协和医院、深圳大学、大湾区大学及广东省图象图形学会情感计算专委会共同主办,以多模态神经生理智能为核心主题,涵盖学术研讨与技术挑战赛两大板块。本次挑战赛基于真实临床数据构建,设置三个官方赛道,鼓励参赛者探索多模态神经信号与视觉上下文联合建模的新方法,推动 IED 检测与定位从传统单一信号分析迈向更鲁棒、更贴近临床应用的智能推理范式。
重磅发布 | NeuroMM 2026:首届多模态神经生理智能国际研讨会暨挑战赛将于 ACM MM 2026 举办
昇腾研究院主办“生态人才建设活动”
由大湾区昇腾算力应用创新研究院、大湾区多样性算力应用创新研究院联合主办的“生态人才建设活动”分别在深圳大学、深圳技术大学顺利举行。活动以“深耕昇腾鲲鹏全栈技术,培育异构计算新生力”为主题,采用“技术解析、案例分享、实战演练、生态研讨”相结合的形式,系统赋能百余名高校学子掌握国产异构算力核心能力。
培训活动期间,研究院专家围绕昇腾AI全栈技术体系开展教学,设置实战演练环节,学员独立完成环境搭建、模型迁移等任务并成功通过考核。通过培训,学员不仅提升了专业技能,更建立起对国产化技术的坚定信心,为国产算力生态发展注入动能。
大湾区昇腾算力应用创新研究院赴高校开展生态人才建设——深耕昇腾全栈技术 培育异构计算新生力
02
科研成果
ACHIEVEMENTS
光明实验室正式开源CamoClaw框架
光明实验室生成式大模型团队正式开源AI协作框架CamoClaw,旨在解决智能体能力静态固化、面对业务变化需频繁人工微调提示词的痛点。该框架采用“执行—学习—再执行”闭环机制,实现有条件触发学习、从失败中提炼结构化规范,并经由再次交付验证后沉淀有效经验。
经10个真实任务A/B测试,启用持续学习组较未启用组期末净值提升约28%,累计报酬提升约28%,并成功固化13条有效经验。该框架已在舞台示意图制作等场景中验证了“吃一堑、长一智”的能力沉淀效果,显著降低了智能体在真实业务中的适配成本。
拒绝死板提示词!光明实验室生成式大模型团队开源 CamoClaw:让 AI 智能体在真实业务中“自我进化”
光明实验室提出OddGridBench评测基准
光明实验室生成式大模型团队提出OddGridBench——首个系统性评估多模态大模型细粒度视觉差异感知能力的评测基准,并进一步提出OddGrid-GRPO强化学习框架,通过课程学习与距离感知奖励机制提升模型辨别能力。实验表明,当前最先进模型(如Qwen3-VL-32B准确率68.07%)在该任务上仍明显落后于人类水平(87.47%);而OddGrid-GRPO将基准模型准确率从17.14%提升至82.64%,并在MVTec-AD、VisA等真实异常检测数据集上展现出良好泛化能力,为多模态模型感知能力研究提供了新工具与方向。该研究成果已被人工智能领域顶级会议 CVPR 2026 正式接收。
CVPR 2026 | OddGridBench:首个可控的细粒度视觉差异识别评测基准
光明实验室提出几何感知基准与强化学习框架
光明实验室生成式大模型团队提出GEOPERCEIVE——首个解耦几何感知与推理能力的评测基准,并在此基础上提出GEODPO结构化强化学习框架,通过翻译器将自然语言输出转为形式化表示并构造偏好对进行DPO训练,系统提升视觉语言模型的几何感知能力。实验表明,GEODPO使Qwen2.5-VL等三个模型的感知得分提升14.2%-26.46%,域外数据集平均提升约8.0%,下游推理任务中InternVL3模型从29.06提升至40.39,相对增长39.0%,显著减少了几何描述中的幻觉现象。该成果已机器学习领域顶级会议 ICLR 2026 接收。
ICLR 2026 | 面向几何感知能力的新型基准与结构化强化学习框架
光明实验室
地址|深圳市光明区玉塘街道科润大厦
官方网站|http://www.gml.ac.cn
招聘联系|hr_office@gml.ac.cn
投稿建议丨gmlab@gml.ac.cn