Movieside

Registriere Dich um ein Mitglied der Movieside-Community zu werden. Du kannst Dich an Diskussionen beteiligen und eigene Themen einbringen sowie Dich mit anderen Mitgliedern über die private Inbox vernetzen.

Talk  Filmrestauration mit Hilfe von KI - Fluch oder Segen?

Generell: es gibt stand heute keinen technischen Grund, nicht für fast alle Filme eine deutsche Tonspur des Backcatalogs herzustellen, die dem O-Ton in deutsch entspricht. Mit den real (und sogar kostenlosen) verfügbaren KI-Tools dafür und genügend Zeitaufwand (und damit entweder privatem Engagement oder Label-Finanzierungswille) ist dies immer möglich, solange irgendwo halbwegs vernünftige deutsche Dialoge verfügbar sind - egal ob diese als VHS, LD, DVD oder kinorolle… getrennte Stems dafür sind völlig unnötig …

Danke dir für diese tolle Arbeit! Darf mensch erfahren mit welchen Tools du das gemacht hast?
Danke schön
 
Mit Hilfe von KI wäre es sicherlich möglich irgendwann die deutsche Tonspur von "Die Spur des Falken" von der eher unpassenden Jazzmusik zu trennen und mit der Originalmusik der amerikanischen Tonspur zu versehen.
Das geht jetzt schon ziemlich gut, da muss man gar nicht weit in die Zukunft denken.

Es hängt aiuch immer ein bisschen vom Film/Material ab, aber prinzipiell geht das schon - vielleicht noch nicht perfekt und in allen Fällen. Citizen Kane wäre ja auch noch so ein Fall.
 
"ziemlich gut" ist nach meinem Dafürhalten sogar etwas untertrieben - und ja, es hängt tatsächlich etwas vom jeweiligen akustischen Material ab, aber prinzipiell ist alles da, was man braucht, um eine Ergebnis zu erstellen, das zwischen sehr gut und nahezu perfekt liegt: die KI-Modelle, die entsprechende Software oben drüber und trotz aller KI viel Zeit und Engagement, denn die KI liefert nur eine tolle Absprungbasis, dann geht die manuelle Feinpolitur los...
Und wenn ich sehe, wie sehr sich allein in den letzten 2 Jahren die KI-Modelle und deren Separierungsqualität substantiell verbessert haben und welches Niveau damit stand heute schon erreicht ist und erreichbar macht, dann behaupte ich: in 2 bis max 5 Jahren reden wir nicht mehr von "nahezu perfekt" sondern von perfekt...

und- diese kleine Nebenbemerkung sei gestattet: TOTE SCHLAFEN FEST mit dem kompletten O-Ton und dessen Original Score von Max Steiner, nur eben in deutsch hat schon was......................................... hebt den Genuß dises Films in neue (deutsche) Sphären... :zwinker:

Jemand fragte, ob man mittels KI auch tot gefilterte Spuren wieder zum audiophilen Leben erwecken kann: ehrlich gesagt, ich weiß es nicht... aber ausschließen würde ich es nicht - letztendlich fehlen durch das Filtern bestimmte Frequenzen und Frequenzanteile - wenn man eine KI dafür trainieren kann, wie für solche Schäden das optimale Ziel aussieht, dann spricht zumindest theoretisch nix dagegen, dass eine KI diese Frequenz-Teile wieder ergänzt...wenn natürlich durch brutalste Filter ganze Geräusche komplett eliminiert wurden (zB. leise atmer, leise schritte oder was auch immer), dann wirds schwierig, dann müßte die KI ausgreichtet am Bild lernen, was da gerade an Geräusch fehlt- puhhhh - die Zeit und findige Köpfe werden es zeigen...

Was mit sicherheit gehen wird, in nicht allzu ferner Zukunft: lästige Nachsynchros mit anderen Sprechern durch KI erzeugte Dialoge der original Kinosynchrosprecher zu ersetzen, daran hab ich keinerlei Zweifel. eine KI braucht nicht viel mehr als qualitativ hochwertige Sprechproben und gesprochene Wörter von einem Gerd Günther Hoffmann, um seine Stimme als GenAI zur Verfügung stellen für Texte aller Art...

Und zum Abschluß: Der Beruf des Synchronsprechers ist definitiv (so wie auch der des Dolmetschers) und unzweifelhaft ein Dinosaurier und der Meteoriteneinschag ist nicht mehr fern - es gibt Demo-Videos, in denen ein David Attenborough akzentfrei in deutsch kommentiert...

Und wenn das alles für Ton möglich ist, dann sind bei Bild natürlich auch wenig Grenzen gesetzt, in jede Richtung: weg vom original (so wie Cameron gerade eben), aber auch hin zum mehr Original...

just my 2 ct...
 
Zuletzt bearbeitet:
Bei „Krieg der Sterne“ würde ich mal gerne den „Kaiser“-Dialog von Friedrich Schoenfelder (Tarkin) mit dem Wort „Imperator“ hören, schade, dass das damals in den 90ern nicht neu eingesprochen wurde.
Das wäre mal eine sinnvolle Änderung gewesen, und nicht so bescheuert wie die anderen hinzugefügten Peinlichkeiten.
 
"ziemlich gut" ist nach meinem Dafürhalten sogar etwas untertrieben - und ja, es hängt tatsächlich etwas vom jeweiligen akustischen Material ab, aber prinzipiell ist alles da, was man braucht, um eine Ergebnis zu erstellen, das zwischen sehr gut und nahezu perfekt liegt: die KI-Modelle, die entsprechende Software oben drüber und trotz aller KI viel Zeit und Engagement, denn die KI liefert nur eine tolle Absprungbasis, dann geht die manuelle Feinpolitur los...
Und wenn ich sehe, wie sehr sich allein in den letzten 2 Jahren die KI-Modelle und deren Separierungsqualität substantiell verbessert haben und welches Niveau damit stand heute schon erreicht ist und erreichbar macht, dann behaupte ich: in 2 bis max 5 Jahren reden wir nicht mehr von "nahezu perfekt" sondern von perfekt...

und- diese kleine Nebenbemerkung sei gestattet: TOTE SCHLAFEN FEST mit dem kompletten O-Ton und dessen Original Score von Max Steiner, nur eben in deutsch hat schon was......................................... hebt den Genuß dises Films in neue (deutsche) Sphären... :zwinker:

Jemand fragte, ob man mittels KI auch tot gefilterte Spuren wieder zum audiophilen Leben erwecken kann: ehrlich gesagt, ich weiß es nicht... aber ausschließen würde ich es nicht - letztendlich fehlen durch das Filtern bestimmte Frequenzen und Frequenzanteile - wenn man eine KI dafür trainieren kann, wie für solche Schäden das optimale Ziel aussieht, dann spricht zumindest theoretisch nix dagegen, dass eine KI diese Frequenz-Teile wieder ergänzt...wenn natürlich durch brutalste Filter ganze Geräusche komplett eliminiert wurden (zB. leise atmer, leise schritte oder was auch immer), dann wirds schwierig, dann müßte die KI ausgreichtet am Bild lernen, was da gerade an Geräusch fehlt- puhhhh - die Zeit und findige Köpfe werden es zeigen...

Was mit sicherheit gehen wird, in nicht allzu ferner Zukunft: lästige Nachsynchros mit anderen Sprechern durch KI erzeugte Dialoge der original Kinosynchrosprecher zu ersetzen, daran hab ich keinerlei Zweifel. eine KI braucht nicht viel mehr als qualitativ hochwertige Sprechproben und gesprochene Wörter von einem Gerd Günther Hoffmann, um seine Stimme als GenAI zur Verfügung stellen für Texte aller Art...

Und zum Abschluß: Der Beruf des Synchronsprechers ist definitiv (so wie auch der des Dolmetschers) und unzweifelhaft ein Dinosaurier und der Meteoriteneinschag ist nicht mehr fern - es gibt Demo-Videos, in denen ein David Attenborough akzentfrei in deutsch kommentiert...

Und wenn das alles für Ton möglich ist, dann sind bei Bild natürlich auch wenig Grenzen gesetzt, in jede Richtung: weg vom original (so wie Cameron gerade eben), aber auch hin zum mehr Original...

just my 2 ct...
Ja. Ich habe es etwas eingeschränkt, weil ich an "schwierigen Stellen" tlw. noch digitale Artefakte höre. Man muss ja oft nicht nur den deutschen Dialog freistellen, sonderrn die Originalspur vom engl. Original-Dialog befreien. Es funktioniert aber z.B. beim Falken so gut, dass man das mit vertretbarem Aufwand "ziemlich gut" machen kann. (Völlig anderer Film ohne den krawalligen Jazz-Sound.)

Was Nacvhsynchros angeht, habe ich da auch Hoffnung, dass da Stimmunterschiede geglättet werden können. Ob Sprecher aber wirklkich so schnell obsolet sind, glaube ich noch nicht. CGI gibt es für Bilder seit Jahrzehnten und sie sind viel(!) echter geworden. Dennoch haftet ihnen oft auch heute noch etwas lebloses und künstliches an. Dieses sterile Ergebnis habe ich auch noch bei geklonten Stimmen. Über kurze Strecken (Nachsynchro) geht das, bei ganzen Filmen wird das denke ich doch noch dauern bis es überzeugt und lebendig wirkt. (Mal davon abgesehen, dass Synchros selbst mit Sprechern immer steriler und künstlicher werden, weil immer weniger ihr Handwerk wirklich beherrschen.)
 
"schwierigen Stellen" tlw. noch digitale Artefakte höre. Man muss ja oft nicht nur den deutschen Dialog freistellen, sonderrn die Originalspur vom engl. Original-Dialog befreien.

Klar… und ja, solche artefakte kommen zwar vor, allerdings lassen sie sich in den allermeisten Fällen z.B. dadurch beheben, dass man z.B. verschiedene KI-Modelle kombiniert, so dass sich die jeweiligen Schwächen aufheben… bei TOTE SCHLAFEN FEST (auch anderer Film mit Steiner-Score ;-) funktionierte es in 95% des Films hervorragend, in nem anderen Film war es mühseliger …. Kommt immer drauf wie viel Zeit man bereit ist zu investieren… hat man viel Zeit und Energie, um ggf. nachzuarbeiten, dann geht schon jetzt fast alles… nur an wenigen Stellen muss man noch kapitulieren… zumindest wenn man keine Kompromisse will…

Der Vergleich mit der CGI hinkt etwas, da diese nicht lernt… ;-) … aber im wesentlichen stimme ich dir schon zu und ich denke, wir liegen in der Einschätzung der Potentiale nicht weit auseinander… bleibt spannend ;-)

In jedem Fall ist das Mischen von O-Ton mit deutschen Dialogen seit den jüngsten Tools und Modellen eine andere Sportart geworden I. Vgl. zum Zeitalter vor KI…

Aber das gilt ja für viele lebensbereiche: es gibt eine Zeit vor und eine nach der KI-zeitenwende…. ;-)
 
"schwierigen Stellen" tlw. noch digitale Artefakte höre. Man muss ja oft nicht nur den deutschen Dialog freistellen, sonderrn die Originalspur vom engl. Original-Dialog befreien.

Klar… und ja, solche artefakte kommen zwar vor, allerdings lassen sie sich in den allermeisten Fällen z.B. dadurch beheben, dass man z.B. verschiedene KI-Modelle kombiniert, so dass sich die jeweiligen Schwächen aufheben… bei TOTE SCHLAFEN FEST (auch anderer Film mit Steiner-Score ;-) funktionierte es in 95% des Films hervorragend, in nem anderen Film war es mühseliger …. Kommt immer drauf wie viel Zeit man bereit ist zu investieren… hat man viel Zeit und Energie, um ggf. nachzuarbeiten, dann geht schon jetzt fast alles… nur an wenigen Stellen muss man noch kapitulieren… zumindest wenn man keine Kompromisse will…

Der Vergleich mit der CGI hinkt etwas, da diese nicht lernt… ;-) … aber im wesentlichen stimme ich dir schon zu und ich denke, wir liegen in der Einschätzung der Potentiale nicht weit auseinander… bleibt spannend ;-)

In jedem Fall ist das Mischen von O-Ton mit deutschen Dialogen seit den jüngsten Tools und Modellen eine andere Sportart geworden I. Vgl. zum Zeitalter vor KI…

Aber das gilt ja für viele lebensbereiche: es gibt eine Zeit vor und eine nach der KI-zeitenwende…. ;-)
Mit mehr Zeit, als ich aufgewendet habe, kann man das wahrscheinlich wirklich sehr gut hinbekommen und nicht "nur" zufriedenstellend. Es ist ja schon erstaunlich, was mit einem Modell in relativ knapper Zeit (von einem Laien) machbar ist. Wenn ich das vergleiche mit der Bastelei, die ich da vor wenigen Jahren noch machen musste: Viel mehr Zeit verwendet und viel schlechteres Ergebnis erzielt.

Bei CGI hast du recht, dass diese Modelle keine KI waren, aber trotzdem: Diese kleine Spur, die sehr realistische CGI von echten Bildern trennt, muss man eben auch beim Ton überwinden. Man ist in beiden Fällen sehr dicht dran. Wahrscheinlich dichter als einem lieb sein kann, weil vieles was geht vielen noch gar nicht klar ist.
 
@Kumbbl :Was für Tools hast Du für diese Arbeit genutzt? Mich würde mal interessieren, ob man die deutschen Dialoge in der Klangqualität noch anpassen kann. Sprich, die reine Synchro klanglich an die Originalstimmen anlegen/trimmen kann. Wäre interessant zu hören, wie das Ergebnis ausfällt, da diese in der jetzigen Form natürlich viel klarer klingen.
 
Da die deutschen Dialoge nach der KI-Separierung und etwas manueller Nacharbeit ja völlig isoliert vorliegen, kann man mit denen dann alles mögliche machen - man kann dann natürlich ein KI-Modell erstellen und antrainieren, welches die gesprochenen Wörter anders klingen läßt, wie auch immer....

so klingen die reinen isolierten Dialoge (bereits im Pitch korrigiert) - ne gute Minute aus meinem Casablanca Showcase:

Link: https://voca.ro/1fT0wmvHvbiw

du hast dann wirklich nur reine Dialoge vorliegen mit nix außen rum (die WAV-Form des obigen kleinen Auszugs):
isoliert.JPG


ab da steht einer wie auch immer gearteten Bearbeitung der Dialoge nix mehr im Weg... und damit natürlich auch nicht, sie noch mehr mit dem Klanghintergrund verschmelzen so lassen - ich habe in meinem Showcase ja quasi wie ein Synchronstudio gearbeitet, bzw. dieses "simuliert" - ich habe mir aus dem O-Ton selbst via KI ein M&E erstellt, aus dem deutschen Ton quasi das erzeugt, was auch im Synchronstudio damals ursprünglich angelegt wurde, nämlich ein Band mit den reinen eingesprochenen Dialogen, diese dann in etwa so in der Lautstärke (nicht simpel overall, sondern präzise am jeweiligen SzenenDialog ausgerichtet) angepasst, wie auch im O-Ton gesprochen wird, minimal via EQ optimiert und dann in das M&E gemischt - was dann schon ziemlich cool klingt ;-) - aber insbesondere für den letzten Schritt kann man sich natürlich alles mögliche an nifty Misch- und Anpassspielereien vorstellen (aber das hat dann eher nix mehr mit KI zu tun, das wird ja auch heute in modernen Synchros gemacht....)

Und: natürlich kann man diese "freigestellten" Dialoge via KI dann so klingen lassen wie die Original-Schauspieler, so dass dann die Synchronstimme von Rick Joachim Kemmer eben wie Bogart in deutsch etc. klingt - das ist auch nix anderes, als umgekehrt einen David Attenborough deutsch sprechen zu lassen via KI - in nicht ferner Zukunft werden so Filme sehr wahrscheinlich internationalisiert werden: die Schauspieler werden nicht mehr synchronisiert, sondern ihre Stimme wird via KI schlichtweg "eingedeutscht"...

BTW: letztendlich gibts dann auch keinen Grund mehr, O-Ton zu hören und all die O-Ton Liebhaber verlieren ihr Hauptargument (kleines Späßle) :zwinker:

Letztendlich läuft alles auf eins hinaus: wie viel Zeit und Aufwand ist man bereit zu spendieren, um welches Ergebnis zu erreichen - stand heute ist quasi fast 100% Perfektion möglich, wenn man das denn will (und bezahlen kann :zwinker: ) - Jemand wie ich macht so was aus privatem Interesse für MEINE Lieblingsfilme, Firmen/Labels wollen dafür bezahlt werden und dann einen ROI sehen, sprich Geld verdienen, was ja auch nicht verwerflich ist :48: - und KI hin oder her: der persönliche Aufwandsinvest ist immer noch enorm, wenn man Top-Qualität will - nur früher - also vor KI - wars schlichtweg unmöglich, nicht mit 100 Mannjahren Aufwand, jetzt IST es möglich, allerdings nicht für lau...

@Forcekeeper : war das in etwa das, was du hören wolltest? ;-)
 
Zuletzt bearbeitet:
in nicht ferner Zukunft werden so Filme sehr wahrscheinlich internationalisiert werden: die Schauspieler werden nicht mehr synchronisiert, sondern ihre Stimme wird via KI schlichtweg "eingedeutscht"...
...und zusätzlich die Mundbewegungen per K.I. dem deutschen Dialog angepasst. Dann sieht es tatsächlich auch so aus, als ob Bogey deutsch spricht (oder Schwarzenegger - was erstaunlich wäre, denn das konnte er nie :zwinker:).
Zukunftsmusik? Ja, aber keine sehr weit entfernte Zukunft, glaube ich.
 
in nicht ferner Zukunft werden so Filme sehr wahrscheinlich internationalisiert werden: die Schauspieler werden nicht mehr synchronisiert, sondern ihre Stimme wird via KI schlichtweg "eingedeutscht"...
...und zusätzlich die Mundbewegungen per K.I. dem deutschen Dialog angepasst. Dann sieht es tatsächlich auch so aus, als ob Bogey deutsch spricht (oder Schwarzenegger - was erstaunlich wäre, denn das konnte er nie :zwinker:).
Zukunftsmusik? Ja, aber keine sehr weit entfernte Zukunft, glaube ich.

Link: https://youtu.be/9kz0Oq6Othg?si=6fgEFy2POcdfC8Ei

Link: https://youtu.be/ekKm0NzfOiY?si=MfoC1529YWLbSEQ3
 
… klar, die Abstimmung der deutschen Silben mit dem sichtbaren Mund gehört auch dazu… dazu müsste man übrigens nicht zwingend ins Bild eingreifen, sondern die KI kann genau das machen, was ja auch ein deutsches synchron-Dialogbuch macht: die Wortwahl so treffen, dass es vernünftig zu den Lippen passt… sowas ist für GenAi ein Klacks, das auch noch zu lernen und zu trainieren… aber auch die Lippen anpassen ist für ne KI nix dramatisches.

So rum oder so rum: meinem Sohn würde ich abraten, synchronsprecher zu werden :48:
 
Dann freue ich mich schon darauf Captain Future endlich ungekürzt mit all den fehlenden Dialogen aus der original japanischen Fassung in Deutsch mit den Synchronsprechern von damals erleben zu dürfen.
Ob die KI es schafft auch die Musik von Christian Bruhn in den fehlenden Szenen sinnvoll zu ergänzen, wage ich zu bezweifeln.
Aber es gibt den kompletten Soundtrack auf CD und es gibt zahlreiche Fan-Edits von diversen Filmen mit selbst gewählter akustischer Untermalung. Vielleicht kriegt das irgendwann jemand hin.
 
in nicht ferner Zukunft werden so Filme sehr wahrscheinlich internationalisiert werden: die Schauspieler werden nicht mehr synchronisiert, sondern ihre Stimme wird via KI schlichtweg "eingedeutscht"...
...und zusätzlich die Mundbewegungen per K.I. dem deutschen Dialog angepasst. Dann sieht es tatsächlich auch so aus, als ob Bogey deutsch spricht (oder Schwarzenegger - was erstaunlich wäre, denn das konnte er nie :zwinker:).
Zukunftsmusik? Ja, aber keine sehr weit entfernte Zukunft, glaube ich.

Link: https://youtu.be/9kz0Oq6Othg?si=6fgEFy2POcdfC8Ei

Link: https://youtu.be/ekKm0NzfOiY?si=MfoC1529YWLbSEQ3

Ach komm, das ist doch Jochen Busse, der da Trump mit Akzent fakt.
 
Da die deutschen Dialoge nach der KI-Separierung und etwas manueller Nacharbeit ja völlig isoliert vorliegen, kann man mit denen dann alles mögliche machen - man kann dann natürlich ein KI-Modell erstellen und antrainieren, welches die gesprochenen Wörter anders klingen läßt, wie auch immer....

so klingen die reinen isolierten Dialoge (bereits im Pitch korrigiert) - ne gute Minute aus meinem Casablanca Showcase:

Link: https://voca.ro/1fT0wmvHvbiw

du hast dann wirklich nur reine Dialoge vorliegen mit nix außen rum (die WAV-Form des obigen kleinen Auszugs):
Anhang anzeigen 212854

ab da steht einer wie auch immer gearteten Bearbeitung der Dialoge nix mehr im Weg... und damit natürlich auch nicht, sie noch mehr mit dem Klanghintergrund verschmelzen so lassen - ich habe in meinem Showcase ja quasi wie ein Synchronstudio gearbeitet, bzw. dieses "simuliert" - ich habe mir aus dem O-Ton selbst via KI ein M&E erstellt, aus dem deutschen Ton quasi das erzeugt, was auch im Synchronstudio damals ursprünglich angelegt wurde, nämlich ein Band mit den reinen eingesprochenen Dialogen, diese dann in etwa so in der Lautstärke (nicht simpel overall, sondern präzise am jeweiligen SzenenDialog ausgerichtet) angepasst, wie auch im O-Ton gesprochen wird, minimal via EQ optimiert und dann in das M&E gemischt - was dann schon ziemlich cool klingt ;-) - aber insbesondere für den letzten Schritt kann man sich natürlich alles mögliche an nifty Misch- und Anpassspielereien vorstellen (aber das hat dann eher nix mehr mit KI zu tun, das wird ja auch heute in modernen Synchros gemacht....)

Und: natürlich kann man diese "freigestellten" Dialoge via KI dann so klingen lassen wie die Original-Schauspieler, so dass dann die Synchronstimme von Rick Joachim Kemmer eben wie Bogart in deutsch etc. klingt - das ist auch nix anderes, als umgekehrt einen David Attenborough deutsch sprechen zu lassen via KI - in nicht ferner Zukunft werden so Filme sehr wahrscheinlich internationalisiert werden: die Schauspieler werden nicht mehr synchronisiert, sondern ihre Stimme wird via KI schlichtweg "eingedeutscht"...

BTW: letztendlich gibts dann auch keinen Grund mehr, O-Ton zu hören und all die O-Ton Liebhaber verlieren ihr Hauptargument (kleines Späßle) :zwinker:

Letztendlich läuft alles auf eins hinaus: wie viel Zeit und Aufwand ist man bereit zu spendieren, um welches Ergebnis zu erreichen - stand heute ist quasi fast 100% Perfektion möglich, wenn man das denn will (und bezahlen kann :zwinker: ) - Jemand wie ich macht so was aus privatem Interesse für MEINE Lieblingsfilme, Firmen/Labels wollen dafür bezahlt werden und dann einen ROI sehen, sprich Geld verdienen, was ja auch nicht verwerflich ist :48: - und KI hin oder her: der persönliche Aufwandsinvest ist immer noch enorm, wenn man Top-Qualität will - nur früher - also vor KI - wars schlichtweg unmöglich, nicht mit 100 Mannjahren Aufwand, jetzt IST es möglich, allerdings nicht für lau...

@Forcekeeper : war das in etwa das, was du hören wolltest? ;-)


Ja, absolut ;) Wenn man bedenkt, dass die Technik ja erst quasi erst am Anfang der Entwicklung steht, dann denke ich, dass man als Synchro-Liebhaber noch ganz andere Ergebnisse erwarten kann. Man denke nur an die vielen tollen Stimmen der großen, verstorbenen Sprecher. Kein Wunder, dass auch in Hinsicht auf diese Technologie in Hollywood gestreikt wurde.

Seher das Ganze zuallererst aber mehr als Chance als eine Bedrohung an.
 
Letztendlich läuft alles auf eins hinaus: wie viel Zeit und Aufwand ist man bereit zu spendieren, um welches Ergebnis zu erreichen - stand heute ist quasi fast 100% Perfektion möglich, wenn man das denn will (und bezahlen kann :zwinker: ) - Jemand wie ich macht so was aus privatem Interesse für MEINE Lieblingsfilme, Firmen/Labels wollen dafür bezahlt werden und dann einen ROI sehen, sprich Geld verdienen, was ja auch nicht verwerflich ist :48: - und KI hin oder her: der persönliche Aufwandsinvest ist immer noch enorm, wenn man Top-Qualität will - nur früher - also vor KI - wars schlichtweg unmöglich, nicht mit 100 Mannjahren Aufwand, jetzt IST es möglich, allerdings nicht für lau...
Wobei man hier auch sagen muss, dass Qualitäten von 100% wahrscheinlich gar nicht nötig sind - man bedenke, dass die alten Tonspuren ohnehin Macken haben - und 90% bekommt man in erstaunlich kurzer Zeit hin und auch noch mit Gratis-Tools.

Was benutzt du denn genau?

Noch eine Anmerkung: Man muss natürlich ein bisschen aufpassen, was man nun so alles umrechnet. Zum einen, weil man natürlich evtl. urheberrechtliche Probleme bekommt, aber auch weil man natürlich erstmal hochgradig begeistert ist. Wenn man mit etwas Abstand dann nochmal hineinhört, ist es auf einmal deutlich weniger überzeugend. Als Beispiel wieder eine CGI-Animation: Was war man begeistert, als die digitale Titanic damals über die Leinwand schipperte. Heute sieht das alles sehr mau aus und auch sehr unecht. Man konnte es damals nicht besser, aber man ist auch manchmal ein bisschen selbstbesoffen vor Begeisterung. Man ist am Anfang und es wird sich zurechtruckeln.
 
Noch eine Anmerkung: Man muss natürlich ein bisschen aufpassen, was man nun so alles umrechnet. Zum einen, weil man natürlich evtl. urheberrechtliche Probleme bekommt, aber auch weil man natürlich erstmal hochgradig begeistert ist. Wenn man mit etwas Abstand dann nochmal hineinhört, ist es auf einmal deutlich weniger überzeugend.
Das ist schon was dran… ich sehe es etwas differenzierter: derzeit ist wirklich noch viel manueller Aufwabd dabei:
- verschiedene KI-Modelle und Algorithmen einsetzen (eine gute software erlaubt eben gebau das unter einem Dach) und dann letztendlich bei schwierigen Stellen aufwändig hin und her mit Kopfhörer vergleichen, welches Modell dann doch ein gutes Ergebnis liefert
- somit muss man sowohl das M&E als auch die Dialogspur in Teilen aus verschiedenen separierungen verschiedener Modelle zusammenstellen in einen master
- in den Dialogen muss man auch öfter mal auf Silben-Ebene präzise nacharbeiten

Tut man aber all das , dann erreicht man aber auch jetzt schon eine so gute Qualität, die durchaus den „später mit Abstand noch mal hinhören“-Test besteht……. ;-)

Somit erwarte ich mit fortschreitender Technik bzw. noch intensiver trainierten Modellen weniger noch bessere Qualität aus dem Blickwinkel des Endergebnisses (schon auch aber keine Quantensprünge) sondern mehr eine deutlich höhere Out-of-the-Box Qualität, die weniger manuellen nachbearbeitungsaufwand erfordert

Aber ja; das Ende der Fahnenstange ist noch längst nicht erreicht…
 
Noch eine Anmerkung: Man muss natürlich ein bisschen aufpassen, was man nun so alles umrechnet. Zum einen, weil man natürlich evtl. urheberrechtliche Probleme bekommt, aber auch weil man natürlich erstmal hochgradig begeistert ist. Wenn man mit etwas Abstand dann nochmal hineinhört, ist es auf einmal deutlich weniger überzeugend.
Das ist schon was dran… ich sehe es etwas differenzierter: derzeit ist wirklich noch viel manueller Aufwabd dabei:
- verschiedene KI-Modelle und Algorithmen einsetzen (eine gute software erlaubt eben gebau das unter einem Dach) und dann letztendlich bei schwierigen Stellen aufwändig hin und her mit Kopfhörer vergleichen, welches Modell dann doch ein gutes Ergebnis liefert
- somit muss man sowohl das M&E als auch die Dialogspur in Teilen aus verschiedenen separierungen verschiedener Modelle zusammenstellen in einen master
- in den Dialogen muss man auch öfter mal auf Silben-Ebene präzise nacharbeiten
Vom Prozedere würde ich dir zustimmen. Da kann man viel kombinieren und optimieren. Die Frage ist dann immer wieviel Zeit man investieren kann bzw. will. Machbar ist da wirklich sehr viel. Das betrifft aber eher Filme bei denen die Musik geändert wurde oder die Stimmen (oder auch nur eine - siehe Indiana Jones III) die falsche Tonhöhe haben. Da kann man perfekte Ergebnisse erzielen.

Das "selbstbesoffene" bezog sich eher auf das nachahmen von Stimmen (Nachsynchro an Original anpassen oder ähnliches). Da kann man schnell in die Irre gehen. Deswegen funktionieren ja Stimmenimitatoren so gut, weil man sie in dem Moment überzeugend findet. Hört man dann mal genau oder im Vergleich mit dem Original zerplatzt die Illusion ganz schnell wie eine Seifenblase. Das ist ja jetzt z.B. auch teilweise beim neuen Pumuckl passiert (und der hat ja eine heftige Comicstimme von Hans Clarin bekommen).
 
so klingen die reinen isolierten Dialoge (bereits im Pitch korrigiert) - ne gute Minute aus meinem Casablanca Showcase:

Link: https://voca.ro/1fT0wmvHvbiw


Ich hab grad mal ne Frage zu dem sample.
no front, aber klingen die Dialoge wirklich so scheiße auf der Blu-ray oder kommt das durch die AI Filter- / Generierungsmethode?
Klingt einfach nur dumpf und Artefakte durchtränkt.
 
Zurück
Oben