Seedance 2.0: ByteDance macht ernst
ByteDance hat mit Seedance 2.0 nachgelegt: 2K Video, bis zu 12 Referenzdateien, native Audio-Generierung und Physik die funktioniert. Das Internet baut Breaking-Bad-Szenen nach – und Hollywood ist nicht begeistert.
By Thomas Fenkart · 3 min read
Sechs Tage nach Kling 3.0 hat ByteDance am 10. Februar nachgelegt. Seedance 2.0 ist da, und das Internet dreht durch – vor allem wegen Walter White. Das Breaking-Bad-Phänomen Was als technische Demo hätte enden können, wurde zum viralen Moment. Dutzende Creator haben mit Seedance 2.0 Breaking-Bad-Szenen nachgebaut, und @MimoCrypto17 bringt es auf den Punkt: "What is scaring me the most was that I thought I missed an episode in Breaking Bad. Turns out this is AI generated." @Simply__Digital zeigt einen hyper-realistischen Bryan Cranston als Walter White im Supermarkt – dramatischer Monolog, perfekte Lippensync, natürliche Mikro-Mimik, cinematische Kameraführung. Der Prompt dahinter ist fast schon unheimlich simpel für das Ergebnis. Das ging so weit, dass SAG-AFTRA reagiert hat. Ein virales Video mit einem Kampf zwischen Brad Pitt und Tom Cruise – komplett KI-generiert – hat laut @Kwame_SN "a massive backlash from Hollywood unions" ausgelöst. Die Gewerkschaft nennt es "unacceptable and a clear violation of digital likeness rights." @harshDevAI fasst zusammen: "Seedance 2.0 is rewriting everything we thought we knew about animation and fan films. It's not just good — it's terrifyingly good." Was technisch dahintersteckt Die Specs sind beeindruckend: 2K Auflösung, 4-15 Sekunden Videolänge, native Audio-Generierung mit Lippensync in 8+ Sprachen. Aber der eigentliche Gamechanger ist das Reference-System. Seedance 2.0 akzeptiert bis zu 12 Referenzdateien gleichzeitig – 9 Bilder, 3 Videos, 3 Audio-Files. Per @-Tags im Prompt steuert man, was wofür verwendet wird: "@Image1 für den Charakter-Look, @Video1 für die Kamerabewegung, @Audio1 für den Soundtrack." Das fühlt sich weniger nach Prompting und mehr nach Regie an. Die Dual-Branch Diffusion Transformer Architektur generiert Video und Audio in einem Pass statt nachträglich zusammenzukleben. Laut den Tests bei seedancevideo.com liegt die "usable output rate" bei über 90% beim ersten Versuch. Physik, die funktioniert Wo Seedance 2.0 wirklich auffällt: Bewegung und Physik. ByteDance hat "physics-aware training" integriert – das Modell wird bestraft wenn es unmögliche Bewegungen generiert. In der Praxis heißt das: Schwerkraft funktioniert korrekt, Stoffe fallen natürlich, Wasser verhält sich wie Wasser. Kampfszenen haben Gewicht, Charaktere reagieren auf Impacts mit realistischem Momentum. In standardisierten Physik-Tests – Saltos, Jonglieren, Einradfahren – schlägt Seedance 2.0 laut den Testern sowohl Sora 2 als auch Kling 3.0. Ehrlich gesagt: Nicht perfekt. Komplexe Multi-Objekt-Interaktionen können Artefakte produzieren, und in etwa 10% der komplexen Action-Generierungen tauchen noch "Extra-Gliedmaßen" oder verschwindende Objekte auf. Die Copyright-Frage Das Breaking-Bad-Phänomen zeigt auch das Problem: Seedance 2.0 ist so gut darin, existierende Charaktere und Celebrities nachzubauen, dass rechtliche Grenzen verschwimmen. Japan hat laut Berichten bereits eine Untersuchung eingeleitet. Für professionelle Produktion ist das relevant – die Qualität ist da, aber die rechtlichen Grauzonen sind es auch. ByteDance hat (noch) keine offiziellen Richtlinien zur Celebrity-Likeness veröffentlicht. Was bleibt: Seedance 2.0 setzt einen neuen Standard. Die Kombination aus Physik-Realismus, Multi-Reference-System und nativer Audio-Generierung ist aktuell unübertroffen. Ob das sechs Wochen hält? Bei dem Tempo wahrscheinlich nicht.