Lyn 是首个开源的基础视频模型和超级代理多模态生态系统,旨在向世界提供一个开放的梦想机器。Lyn 的旗舰开源模型 Everlyn-1 正在从输出时长、交互性、生成延迟和超逼真的视觉质量等方面重塑视频人工智能的能力。Lyn 的视频创作引擎和平台 Everworld 正在彻底改变人类通过能够执行任何任务的个性化和交互式视频代理与自己的照片级逼真虚拟表示互动的方式。Everlyn-1 和 Everworld 将共同深刻地改变人类在线上可以实现的目标,接管个人不愿做或无法完成的任务和活动。
Lyn 由一个由生成式 AI 领域的顶尖专家组成的团队创立,其中包括来自 Cornell University、Oxford University、Stanford University、University of Central Florida (UCF)、Hong Kong University of Science and Technology (HKUST)、Mohamed bin Zayed University of Artificial Intelligence (MBZUAI) 和 Peking University (PKU) 的教授,以及来自 Meta、Deepmind、Microsoft、Google 和 Tencent 的前领导者,以及目前在生成式 AI 领域攻读博士学位的学生。Lyn 团队由 AI 研究领域的杰出人物组成,他们在该行业一些最重要的创新中发挥了关键作用,包括 Google 的基础视频模型 Video Poet、Facebook 的基础视频模型 Make-a-Video、Tencent 的基础视频模型、Meta Movie Gen 中被引用最多的基准模型 Seeing and Hearing、行业领先的开源视频模型 'Open-Sora-Plan' 以及 OpenAI 的首个实时端到端人形代理视频模型 Body of Her。