OpenMOSS Lab

构建值得信赖的开放基础模型,服务社会

邱锡鹏教授的带领下,OpenMOSS Lab 推进跨越语言、多模态智能和具身智能体的大规模 AI 系统研究。我们设计开源模型、工具和理论,将 AI 与现实世界影响相结合。

我们的研究重点

  • 开源基础模型
  • 多模态学习与推理
  • 具身智能与智能体
  • 负责任的安全部署

160+

发表于 NeurIPS、ICML、ACL、EMNLP、CVPR、ICCV 等顶会

30+

开源项目,包括 MOSS、FastNLP、CoLLiE 等

关于实验室

OpenMOSS Lab 源于复旦大学 FudanNLP 团队,致力于开放和负责任的 AI 研究。我们的使命是推进大规模 AI 系统的理论、方法和应用——从预训练和推理到多模态和具身智能——同时确保切实的社会影响。

我们与全球研究合作伙伴和行业领导者合作,将基础研究转化为可部署的系统。校友遍布顶尖大学(MIT、UC Berkeley、CMU)和公司(ByteDance、Alibaba、AWS、Optiver),许多人创办了初创公司或担任教职。

研究方向

AI 基础设施

优化器、微调框架和推理扩展,使开放模型更高效、稳健和易用。

  • LOMO、AdaLomo 优化器
  • CoLLiE:协作微调
  • 大规模训练流程

多模态基础模型

跨越语音、视觉和语言的统一模型,用于基础理解和推理。

  • SpeechGPT、SpeechTokenizer
  • AnyGPT、Visuothink、UnifiedVisual
  • 跨模态对齐

推理与智能体

能够规划、推理并安全地与人类和工具交互的大语言模型智能体。

  • Exchange-of-Thought 对话智能体
  • ConvSearch-R1 检索增强推理
  • 工具增强工作流

具身与交互式 AI

将模型与物理环境连接的视觉-语言-动作系统和模拟器。

  • VLA-bench、D²PO
  • VehicleWorld 模拟
  • 以任务为中心的具身规划

模型安全与可解释性

负责任开放模型部署的透明度、评估和治理框架。

  • 注意力分解分析
  • 偏见和鲁棒性评估
  • 价值对齐的后训练

新型架构

基于扩散的 LLM、长上下文建模和内存高效的 Transformer,用于下一代系统。

  • Sparse-dLLM、LongLLaDA
  • LongWanjuan、LongSafety
  • 自适应 KV-cache 设计

团队成员

核心成员

学生与访问学者

研究生、访问学者和行业研究员共同推动大规模 AI 系统和社会应用的边界。

查看完整团队

校友网络

我们的校友遍布学术界和工业界—MIT、UC Berkeley、CMU、ByteDance、Alibaba、AWS、Optiver 等知名机构。

了解更多

资源与软件

学术论文

探索我们在基础模型、可解释性和具身智能体方面的最新研究。

查看论文

开源工具

FastNLP、CoLLiE、SpeechGPT、UnifiedToolHub 等开源项目为全球 AI 生态系统提供支持。

访问 GitHub

学习中心

为使用开放模型构建应用的学生和从业者精心策划的阅读清单、教程和基准。

浏览资源

实验室亮点

开源领导力

我们发布了 MOSS——中国最早的开放对话式大语言模型之一,并持续推动以社区为先的开发,提供开放数据、基准和 API。

产业影响

与华为、荣耀、字节跳动和全球合作伙伴的协作,加速了基础模型在实际产品中的应用。

学术卓越

我们的团队在顶级会议(NeurIPS、ICML、ICLR、ACL、EMNLP、NAACL、ICCV)发表论文,并经常获得杰出论文和演示奖。

人才培养

校友在顶尖大学担任教职,并以创始人、CEO 和 CTO 的身份加入知名 AI 初创公司。

加入 OpenMOSS Lab

我们正在招募对开放系统和负责任 AI 充满热情的研究生、博士后、访问学者和合作者。