Lyn é o primeiro modelo de vídeo fundamental de código aberto e ecossistema multimodal superagencial que foi projetado para entregar uma máquina de sonhos aberta ao mundo. O principal modelo de código aberto da Lyn, Everlyn-1, está remodelando as capacidades da inteligência artificial de vídeo em termos de duração da saída, interatividade, latência de geração e qualidade visual hiper-realista. O mecanismo e plataforma de criação de vídeo da Lyn, Everworld, está revolucionando a forma como os seres humanos se envolvem com representações virtuais fotorrealistas de si mesmos através de agentes de vídeo personalizados e interativos capazes de realizar qualquer tarefa. Juntos, Everlyn-1 e Everworld alterarão profundamente o que os humanos podem alcançar online, assumindo tarefas e atividades que os indivíduos sozinhos preferem não fazer ou são incapazes de fazer.
A Lyn foi fundada por uma equipe de especialistas líderes em IA generativa, incluindo professores da Cornell University, Oxford University, Stanford University, University of Central Florida (UCF), Hong Kong University of Science and Technology (HKUST), Mohamed bin Zayed University of Artificial Intelligence (MBZUAI) e Peking University (PKU), bem como ex-líderes da Meta, Deepmind, Microsoft, Google e Tencent, e atuais estudantes de doutorado em IA generativa. A equipe da Lyn consiste em figuras proeminentes na pesquisa de IA que desempenharam um papel fundamental em algumas das inovações mais significativas do setor, incluindo o modelo de vídeo fundamental do Google, Video Poet, o modelo de vídeo fundamental do Facebook, Make-a-Video, o modelo de vídeo fundamental da Tencent, o modelo de benchmark mais citado do Meta Movie Gen, Seeing and Hearing, o principal modelo de vídeo de código aberto do setor 'Open-Sora-Plan' e o primeiro modelo de vídeo de agente humanoide end-to-end em tempo real da OpenAI, Body of Her.