Lyn est le premier modèle vidéo fondamental open source et un écosystème multimodal super-agentiel conçu pour offrir une machine à rêve ouverte au monde. Le modèle phare open source de Lyn, Everlyn-1, remodèle les capacités de l'intelligence artificielle vidéo en termes de durée de sortie, d'interactivité, de latence de génération et de qualité visuelle hyperréaliste. Le moteur et la plateforme de création vidéo de Lyn, Everworld, révolutionnent la façon dont les êtres humains interagissent avec des représentations virtuelles photoréalistes d'eux-mêmes grâce à des agents vidéo personnalisés et interactifs capables d'effectuer n'importe quelle tâche. Ensemble, Everlyn-1 et Everworld modifieront profondément ce que les humains peuvent accomplir en ligne, en prenant en charge des tâches et des activités que les individus seuls préfèrent ne pas faire ou sont incapables de faire.
Lyn a été fondée par une équipe d'experts de premier plan en IA générative, comprenant des professeurs de l'Université Cornell, de l'Université d'Oxford, de l'Université Stanford, de l'Université de Floride centrale (UCF), de l'Université des sciences et technologies de Hong Kong (HKUST), de l'Université Mohamed bin Zayed d'intelligence artificielle (MBZUAI) et de l'Université de Pékin (PKU), ainsi que d'anciens dirigeants de Meta, Deepmind, Microsoft, Google et Tencent, et des doctorants actuels en IA générative. L'équipe de Lyn est composée de personnalités éminentes de la recherche en IA qui ont joué un rôle essentiel dans certaines des innovations les plus importantes du secteur, notamment le modèle vidéo fondamental de Google, Video Poet, le modèle vidéo fondamental de Facebook, Make-a-Video, le modèle vidéo fondamental de Tencent, le modèle de référence le plus cité de Meta Movie Gen, Seeing and Hearing, le meilleur modèle vidéo open source du secteur 'Open-Sora-Plan' et le premier modèle vidéo d'agent humanoïde de bout en bout en temps réel d'OpenAI, Body of Her.