Lyn は、世界にオープンな夢の機械を提供するために設計された、初のオープンソースの基盤となるビデオモデルであり、超エージェント的なマルチモーダルエコシステムです。Lyn の主力オープンソースモデルである Everlyn-1 は、出力時間、インタラクティビティ、生成レイテンシ、および超現実的な視覚品質の点で、ビデオ人工知能の能力を再構築しています。Lyn のビデオ作成エンジンおよびプラットフォームである Everworld は、人間がタスクを実行できるパーソナライズされたインタラクティブなビデオエージェントを通じて、自分自身のフォトリアリスティックな仮想表現とどのように関わるかを革新しています。Everlyn-1 と Everworld は共に、人間がオンラインで達成できることを大きく変え、個人が単独で行うことを好まない、または行うことができないタスクや活動を引き継ぎます。
Lyn は、コーネル大学、オックスフォード大学、スタンフォード大学、セントラルフロリダ大学 (UCF)、香港科技大学 (HKUST)、モハメド・ビン・ザイード人工知能大学 (MBZUAI)、北京大学 (PKU) の教授、Meta、Deepmind、Microsoft、Google、Tencent の元リーダー、および生成 AI の現役 PhD 学生など、生成 AI の主要な専門家チームによって設立されました。Lyn チームは、Google の基盤となるビデオモデルである Video Poet、Facebook の基盤となるビデオモデルである Make-a-Video、Tencent の基盤となるビデオモデル、Meta Movie Gen の最も引用されたベンチマークモデルである Seeing and Hearing、業界トップのオープンソースビデオモデル「Open-Sora-Plan」、OpenAI の最初のリアルタイムエンドツーエンドヒューマノイドエージェントビデオモデルである Body of Her など、業界で最も重要なイノベーションにおいて重要な役割を果たしてきた AI 研究の著名な人物で構成されています。