Happy Horse Generator, propulsé par Happy Horse 1.0, est un modèle open source de génération vidéo IA pour le texte-vers-vidéo et l’image-vers-vidéo, combinant audio synchronisé, réalisme physique et synchronisation labiale multilingue.
Sur la base de milliers de comparaisons à l’aveugle évaluées par des humains dans Artificial Analysis Video Arena, Happy Horse 1.0 domine régulièrement les classements mondiaux en qualité visuelle, réalisme physique et alignement avec le prompt, en texte-vers-vidéo comme en image-vers-vidéo.
Développé et publié début 2026, Happy Horse 1.0 repose sur une architecture Transformer à auto-attention de 40 couches.
La publication est entièrement open source avec licence commerciale. Elle inclut le modèle de base, le modèle distillé en 8 étapes, notre module propriétaire de super-résolution et un code d’inférence optimisé, prêt pour une infrastructure on-premise.
Réseau à auto-attention de 40 couches avec traitement mono-flux robuste et gating par tête pour un entraînement stable à grande échelle.
Génère nativement dialogues, ambiance et bruitages en même temps que les images vidéo, sans post-production supplémentaire.
Réduit fortement les étapes de débruitage sans CFG et accélère la génération jusqu’à 10x grâce à l’environnement MagiCompiler.
Prend en charge nativement 7 langues (EN, ZH, JP, KO, DE, FR) avec des résultats de premier plan sur le taux d’erreur des mots dans les arènes ouvertes.
Produit nativement des clips de 5 à 8 secondes, ensuite upscalés en 1080p, pour les formats 16:9 et 9:16.
Modèle open source permissif conçu pour fonctionner en interne, avec un code transparent au service de la confidentialité des équipes.
Le code source et les poids du modèle Happy Horse 1.0 sont actuellement en phase finale de préparation.
Les cibles de quantification FP8, les checkpoints distillés et la documentation publique sont en cours de finalisation pour la première publication ouverte.