Archiv verlassen und diese Seite im Standarddesign anzeigen : Das Aufnahmeformat 16:9
rittergig
13.04.2007, 23:57
Habe heute mal Planet_Wissen aufgenommen und gedownloaded. Ich habe richtig gestaunt: 16/9 - Seitenverhältnis :eek: :eek:
Erstmal eine Frage:
Wird das automatisch erkannt, dass Aufnahmen im 16/9-Verhältnis sind oder wird das manuell für jede Sendung festgelegt?
Ich finde das super, dass endlich mal mit 16/9 Aufgenommen wird und ich wünsche mir das für alle Aufnahmen (besonders HQ). So könnte man doch auch die Bitrate verringern, da die Streifen oben und unten wegfallen, oder?
Aber wenn man schon das 16/9 Seitenverhältnis verwendet, dann sollte man aber auch die Auflösung 16/9 wählen und nicht im 4/3-Verhältnis aufzeichnen und dann die Aufnahme einfach strecken. Weil eine 4/3 Aufnahme als 16/9 gestreckt verschlechtert die Bildqualität. Außerdem erkennen viele Player gar nicht, dass das Video im 16/9 Seitenverhältnis dargestellt werden soll.
Bei der Aufnahme: Planet_Wissen_07.04.12_15-00_wdr_60_TVOON_DE.mpg.cut.avi war die Bitrate sehr hoch (808 kbps), aber dafür war die Bildqualität sehr schlecht (man sieht viele Artefakte). Im Vergleich haben standart Serienaufnahmen (die man so im Internet findet ;) - 42 min, 360 MB) mit einer Bitrate von 1024 kbits ein perfektes Bild.
Deswegen mein Format Vorschlag:
Für alle Aufnahmen in 16/9:
- Auflösung: 608 x 336
(oder: 512 x 288)
- Seitenverhältnis: 16/9
Damit wäre die Bildqualität bei gleichbleibender Dateigröße deutlich besser! Versprochen! Und man hätte endlich mal ein Standart-Format, mit dem es Spaß macht, Serien und Filme zu archivieren.
Was ich gar nicht leiden kann, wenn man Serien archiviert, dass sich dann ständig das Format wechselt.
rittergig
14.04.2007, 09:03
Ich habe folgende Erfahrungen gemacht: Lieber eine kleinere Auflösung verwenden, als eine größere (bei gleicher Bitrate). Denn zu große Auflösungen erzeugen Artefakte.
Ich denke auch, dass man 16/9 auch als solches Codieren soll (sprich 512 x 288). Die Fläche wäre im Vergleich zu 512 x 384 kleiner und jeder einzelne Pixel bekommt somit mehr Bitrate. Es muss ja auch einen Grund haben, warum man für Filme (die man so im Internet finden) standartmäßig immer Auflösungen wie 640 x 352 haben. Wenn man nachträglich das Seitenverhältnis ändert/ resized, dann entstehen auch Artefakte.
Das größte Problem dürfte allerdings sein, zu erkennen, welche Sendung in 16/9 und welche in 4/3 ausgestrahlt wird (Werbepausen, Overlap im jeweils anderen Format).
Könnte man leicht erkennen. Wenn mehr als 50% der Frames einer Aufnahme oben und unten einen schwarzen Rand haben, dann: 16/9.
Oder wird etwa in Echtzeit codiert? Ich würde einfach nach der Aufnahme in regelmäßigen Abständen mir 100 Frames rausnehmen und überprüfen ob oben und unten ein Streifen ist. Ist nicht besonders rechenaufwendig. Dann kann codiert werden.
Ich habe folgende Erfahrungen gemacht: Lieber eine kleinere Auflösung verwenden, als eine größere (bei gleicher Bitrate). Denn zu große Auflösungen erzeugen Artefakte.
Das ist sicher richtig, je höher die codierte (!! s.u.) Auflösung, desto höher muss auch die Bitrate sein, um keine Artefakte zu erhalten. Aber darum ging es mir nicht.
Ich denke auch, dass man 16/9 auch als solches Codieren soll (sprich 512 x 288). Die Fläche wäre im Vergleich zu 512 x 384 kleiner und jeder einzelne Pixel bekommt somit mehr Bitrate. Es muss ja auch einen Grund haben, warum man für Filme (die man so im Internet finden) standartmäßig immer Auflösungen wie 640 x 352 haben. Wenn man nachträglich das Seitenverhältnis ändert/ resized, dann entstehen auch Artefakte.
Das liegt z.B. daran, dass das häufig das Ausgangsmaterial nicht in 16/9 vorlag. Oder daran, dass häufig DivX / Xvid im avi-Container verwendet wird und dieser das Resizen beim abspielen eben nur unzureichend unterstützt. Ich glaube aber, wir reden hier gründlich aneinander vorbei. Denn: Nicht alles, bei dem man schwarze Streifen oben und unten auf einem 4/3-Schirm sieht, wird in 16/9 gesendet. Noch sind die meisten Filme in 4:3 letterboxed, d.h. die Sendung wird künstlich auf 4/3 aufgebläht, indem oben und unten schwarze Balken angehängt werden. Dadurch wird natürlich reichlich Platz verschenkt, den die Balken einnehmen und nicht der eigtl. Film. Echtes 16/9 wird anamorph ausgestrahlt. Das gewünschte Bild wird also in der Breite zusammengestaucht und nimmt die gesamte codierte Fläche ein. Beim Abspielen wird dann wieder in die Breite gestreckt. Mehr dazu findest du bei Wikipedia (http://de.wikipedia.org/wiki/Anamorphe_Bildaufzeichnung), unter anderem auch dieses Bild, das das ganze gut veranschaulicht:
http://upload.wikimedia.org/wikipedia/commons/thumb/4/4b/Illustration_anamorph_letterbox.jpg/355px-Illustration_anamorph_letterbox.jpg
Von unten nach oben:
- ausgestrahltes und abgespieltes Bild in 4:3 Letterboxed
- ausgestrahltes (also codiertes) Bild einer 16/9 Sendung
- abgespieltes Bild einer 16/9 Sendung. Die Auflösung ist um 70% größer als bei einer 4/3 letterboxed Sendung, bei gleicher codierter Fläche.
Könnte man leicht erkennen. Wenn mehr als 50% der Frames einer Aufnahme oben und unten einen schwarzen Rand haben, dann: 16/9.
Bei echtem 16/9 gibt es eben keine Rand, der erkannt werden könnte. Man könnte nur erkennen, welches Seitenverhältnis zum Abspielen vorgegeben wird. Aber wie das in Echtzeit und mit Wechseln während der Aufnahme klappen soll, weiß ich nicht.
Oder wird etwa in Echtzeit codiert? Ich würde einfach nach der Aufnahme in regelmäßigen Abständen mir 100 Frames rausnehmen und überprüfen ob oben und unten ein Streifen ist. Ist nicht besonders rechenaufwendig. Dann kann codiert werden.
Ja, es wird in Echtzeit codiert, sonst würde man ja nichtmehr hinterherkommen mit dem Codieren...
rittergig
15.04.2007, 19:04
Denn: Nicht alles, bei dem man schwarze Streifen oben und unten auf einem 4/3-Schirm sieht, wird in 16/9 gesendet. Noch sind die meisten Filme in 4:3 letterboxed, d.h. die Sendung wird künstlich auf 4/3 aufgebläht, indem oben und unten schwarze Balken angehängt werden.
Das macht doch nix. Das kann man doch erkennen und dann Cropping anwenden, so das die Balken abgeschnitten werden und es bleibt ein 16/9-Format übrig.
Echtes 16/9 wird anamorph ausgestrahlt. Das gewünschte Bild wird also in der Breite zusammengestaucht und nimmt die gesamte codierte Fläche ein. Beim Abspielen wird dann wieder in die Breite gestreckt.
Das heißt, aber nicht, dass Anamorphe Bildaufzeichnung besser ist. Ich habe so immer das gefühl, dass Seitlich Bewegung deutlich schlechter aussehen.
Und da sowieso noch viel Analog aufgenommen ist, ist es doch sowieso egal.
Außerdem ist der PAL-Standart veraltet und das DVD-Format auch. Also brauch man daran sich nicht zu orientieren. Ich glaube auch, dass bei HD-TV jetzt auch die echte 16/9-Auflösung übertragen wird - ohne zu stauchen.
Und da die meisten OTR-Nutzer sowieso die Filme auf den PC angucken, bietet sich ein Widescreen besser an.
Die beiden Hauptargument sind:
1. Ein ordentliches Standart-Format mit dem die OTR-Aufnahmen gut ins Archiv passen
2. Abspielprobleme bei DivX DVD-Player und Softwareplayer.
Aber danke für den Link, so ist einiges klarer :) !
Bei echtem 16/9 gibt es eben keine Rand, der erkannt werden könnte. Man könnte nur erkennen, welches Seitenverhältnis zum Abspielen vorgegeben wird. Aber wie das in Echtzeit und mit Wechseln während der Aufnahme klappen soll, weiß ich nicht.
Ich würde das Echtzeitcodieren sowieso aufgeben. Lieber danach auf einen extra Server einen Erkennungslauf (stichprobenhaft Frames untersuchen) durchführen und dann auch anschließend codieren. So könnte man die Rechenkapazitäten auch besser aufteilen. Gute Filme zur gleichen Sendezeit könnten so in 2 Pass codiert werden, während die anderen Aufnahmen mit geringerer Bitrate (spart Rechenpower) codiert werden.
Wenn man den Ansatz (mit dem Erkennungslauf) wählt könnte man auch noch gleich gucken, wo das Senderlogo da ist und somit eine sehr sehr zuverlässige Werbeerkennung (das andere System zu Werbeerkennung soll ja nur mangelhaft zuverlässig sein) haben. Dann könnte man die Bitrate bei den Werbeblöcken drastisch reduzieren (jetzt ist die sogar höher als der Film, weil sich da meist mehr bewegt) und die Bytes besser verteilen und außerdem Rechenleistung sparen + die Dateigröße reduzieren.
Ja, es wird in Echtzeit codiert, sonst würde man ja nichtmehr hinterherkommen mit dem Codieren...
Warum nicht? Das wäre dann doch alles nur ebend um ca. 2 Stunden Zeitversetzt, aber das Codieren dauert deswegen doch nciht länger?
MfG
Peter
Ich kann mich rittergig nur anschließen. Eine Codierung auf einem externen Server wäre viel sinnvoller. Ich würde das so lösen, dass die Dinger auf aufzeichnungsservern unkomprimiert aufgezeichnet werden, dann über das interne Netz des Rechenzentrums erstmal auf einem Pufferserver landen und derdie Videos dann auf Codierungsserver verteilt. Diese überprüfen dann erst auf Balken, schneiden ggf. auch Werbung aus und komprimieren das dann angemessen. Dann landet das komprimierte auf den DL-Servern, die noch ihre hashs dazupacken für die Decodierung am heimischen Rechner. Die Rohdateien werden dann gelöscht, sobald alle nötigen Formate erzeugt wurden.
Fenriswolf
30.07.2007, 07:34
@AndreR:
Auch dafür reichen die vorhandenen Kapazitäten nicht aus :)
Die ganzen Files werden On-The-Fly geschnitte, komprimiert und anschließend codiert. (So hat das zumindest mal einer erzählt hier im Forum :) )
rittergig
30.07.2007, 13:51
Diese überprüfen dann erst auf Balken, schneiden ggf. auch Werbung aus und komprimieren das dann angemessen.
Werbung darf leider nicht rausgeschnitten werden.
Und das mit den Balken rausschneiden geht auch rechtlich leider nicht - das habe ich jetzt begriffen. Denn wenn die Balken wegcroppt, wird von der Werbung, die noch 4:3 ausgestrahlt wird, was abgeschnitten. Und das darf auch nicht sein.
Aber da habe ich eine Lösung:
Beim Überprüfen, wird einfach darauf geachtet, dass nur die Balken rausgeschnitten werden, wo welche sind. Wenn dann 4:3 Werbung kommt, wird vom Videomaterial an der Stelle nichts weggeschnitten und das 4:3 Bild wird dann auf 16:9 gestaucht. Sieht zwar scheiße aus, aber die Werbung ist immer noch vollständig vorhanden.
Falls das Stauchen ein Problem sein sollte, habe ich auch hierfür eine Lösung:
Man kann - soweit ich weiß - dem Container die Information des Seitenverhältnis in Echtzeit mitliefern. So könnte man es so machen, dass der Decoder automatisch wieder auf 4:3 umstellt, wenn Werbung kommt. Ist die 4:3-Werbung vorbei, wird die Information des 16:9 Seitenverhältnis übertragen.
Der VLC-Mediaplayer unterstützt das z.B.
Wenn z.B. eine Quarks & Co Aufnahme abspiele, wird erst nach ein paar Frames erkannt, dass das Seitenverhältnis 16:9 sein soll.
Also wie ich es gelesen habe, senden immer mehr Sender in irgendeiner Abtastlücke mit, in welchem Format das aktuelle Bild ist. Das nutzt mein Fernseher und schaltet dadurch immer zwischen 4:3 und 16:9 um, weil das mit der Balkenerkennung anscheinend patentiert ist.
Ds könnte man sich auch zu nutze machen.
JennyMiller
31.07.2007, 16:25
bei DVB gibt es sogar ein richtiges Flag dafür. Man muss es nur auswerten...
Administrator
02.08.2007, 12:01
Hallo,
Na dann... Ich meine, das Medallion wurde 221:100 und der Film dannach 16:9 aufgezeichnet. Die Balken verschwenden jede menge wertvollen Speicherplatz, mit dem man die Bildqualität erhöhen könnte. Scheidet also doch einfach die Balken weg.
? Dateinamen wären hilfreich, damit ich da durchblicke ;)
Übrigens glaube ich nicht, dass schwarze Balken allzuviel Speicherplatz beim Kodieren brauchen... kann ja mal jemand ausprobieren :confused:
Zumindest bei den Pooling-Einheiten sollte erkannt werden, ob die Sendung 16:9 oder 4:3 ausgestrahlt wurde und das entsprechende Flag gesetzt werden (vor einigen Wochen/ Monaten war´s ja so, dass die Sendung immer mit dem Seitenverhältnis wie zu Beginn der Aufnahme, d.h. beim Overlap kodiert wurde). Ausnahmen: evtl. Badfiles, wenn keiner vorher dran denkt :o
Die Auflösung ist aber trotzdem immer 512x384 (divx), aber das sollte doch dann auch bei 16:9 besser sein als 512x288 und wenn der Player das Flag auswertet sowieso richtig dargestellt werden?
Pro7/Sat1/RTL etc. strahlen meines Wissens zu 99% in 4:3 aus...
Pro7/Sat1/RTL etc. strahlen meines Wissens zu 99% in 4:3 aus...
99% sind übertrieben, denn so gut wie alle Filme und (US)-Serien, werden schon im Breitbildformat ausgestrahlt. 4:3 hat man noch bei Talkshows, Richtershows usw. aber wer nimmt sowas bitte auf?
Also ich habs noch nict ausprobiert, aber lat einiger Aussagen hier im Forum liesen sich dadurch rund 30% einsparen. Damit könnte die Bildqualität bei gleicher Dateigröße nochmal um 30% hochgekurbelt werden.
JennyMiller
05.08.2007, 20:13
Das Problem ist, dass für den Übergang von Schwarz zu einer anderen Farbe innerhalb eines Pixels eine sehr hohe Ortsfrequenz auftritt. Um diese zu codieren, wird eine hohe Bitrate benötigt. Deshalb treten entlang der schwarzen Ränder ca. 3-4 Pixel weit im Bild drin oft Doppelränder und Überschärfe auf. Schaut mal genau hin.
Aus genau diesem Grund werden bei Zeichentrickfilmen die Figuren nicht mehr mit hartem schwarzem Strich gezeichnet, sondern es gibt weichere Übergänge. Vergleicht mal die Simpsons der ersten Staffeln mit den jüngeren Staffeln - früher wurden die hart gezeichnet und man sieht deshalb JPEG-Artefakte im Bild. Bei den jüngeren Folgen ist das nicht mehr.
Um's kurz zu machen: Die schwarzen Ränder sind nicht das Problem, sondern der Übergang von schwarz zum farbigen Bild.
Lösung: Schwarze Ränder abschneiden und nicht mitcodieren. Ob das 30% erspart glaube ich nicht, aber es ist bestimmt ca. 10%. Ob das rechtlich möglich ist, weiß ich natürlich nicht.
Was aber OTR auf jeden Fall mal machen könnte, ist, am linken und rechten Bildrand jeweils 8 Pixel abschneiden. Da tritt nämlich dasselbe Problem auf mit dem Übergang und die dort eingesparte Bitrate käme dem gesamten Bild zugute.
Das inks und rechts ist mir auch aufgefallen... Da ist immer ein ganzes Stück unscharf. Und warum sollte das rechtlich nicht möglich sein? Wenn man alles ohne Balken zusammen schiebt, hat man die Probleme loß. Ein 16:9-Fernseher macht ja nix anderes und mein DVD-Recorder auch nicht.
Powered by vBulletin® Version 4.2.5 Copyright ©2024 Adduco Digital e.K. und vBulletin Solutions, Inc. Alle Rechte vorbehalten.