Welcome to our Community
Wanting to join the rest of our members? Feel free to sign up today.
Sign up

Frage Fragen zum Thema x265 (HEVC)

Mit was wappnet ihr euch für die Zukunft aus?

  • 264

  • 265


Die Ergebnisse sind erst nach der Abstimmung sichtbar.

Shinigami1337

Otaku Novize
20 März 2015
24
0
0
Hallo Leute,
ich habe bereits etwas google misshandelt und einigermassen verstanden wie das mit der Komprimierung funktioniert. Dennoch ist es meiner Meinung nach dennoch ein etwas anstrengendes Thema und da sind noch ein paar Fragen offen die mir die Profis hier hoffentlich beantworten könnten :)

Color depth
Die Tiefe wird doch durch das Rohmaterial von dem Macher auf eine entsprechende Tiefe definiert, oder? Sprich wenn ich ein Film machen würde habe ich eine riesige Rohdatei. Die komprimiere ich dann jenachdem in z.B. 8Bit und dadurch gehen die restlichen wieder verloren. Ich vermute mal, dass ein hochskalieren (von 8 auf 10) nichts mehr bringen wird, da die Infos bereits weg sind. Verbraucht nur unnötig mehr Platz, ändert jedoch nichts mehr an der Qualität der Farben. Korrigiert mich falls ich falsch liegen sollte.
Was ich jedoch nicht ganz weiss ist folgendes: Müssen es immer BluRay`s sein um hohe Tiefen speichern zu können, oder gibt es z.B. 10Bit auch bei DVDs?

264 / 265 subjektive Wahrnehmung
Wie es funktioniert ist mir einigermassen klar und es kommt ja auch darauf an auf was man es abspielt (Auflösung vom Output) etc. jedoch gehen wir von 1080p aus. Gelesen habe ich, dass man um die 40% - 50% an Grösse einsparen kann bei gleicher subjektiver Wahrnehmung. Habt ihr da auch Erfahrungen gemacht?
Meine richtige Frage nun ist:
Es gibt einen bestimmten User der alles auf x265 hochlädt und da war ich teils erstaunt über die niedrigen Video Bitrate wie z.B. 1100 Kbps. Andere wie die Gruppe von AST4u laden dieselbe Serie bei einer Video Bitrate von 8000 Kbps hoch.
Dies wäre ja schon fast nur noch 1/8. Klar, es spielt auch eine Rolle welches Format-Profil man verwendet, aber kann dies wirklich so viel ausmachen?

Habt ihr auch eine Mindestanforderungen an eine Video Bitrate? und wenn ja welche?

Freue mich auf Eure Meinungen.
 

XRA9

Assrape America!
Nolife
Uploader
2 Aug. 2013
670
5.642
93
Die Tiefe wird doch durch das Rohmaterial von dem Macher auf eine entsprechende Tiefe definiert, oder?
Ja, aber das bedeutet erst mal nicht so viel. Die Bittiefe ist einfach nur eine Angabe, wieviele Bit pro Farbkanal einem Pixel zugewiesen werden. Bei 3 Kanälen (YUV) sind das also z. B. 24 Bit pro Pixel oder 30 Bit pro Pixel. Mit einer größeren Bittiefe steht einem Pixel also eine größere Farbpalette zur Auswahl.

und dadurch gehen die restlichen wieder verloren
Welche restlichen? Wenn dein Rohmaterial eine Bittiefe von 8 hat (kommt öfter vor als man glaubt), geschieht mit der "Farbpalette" genau nichts.

ch vermute mal, dass ein hochskalieren (von 8 auf 10) nichts mehr bringen wird, da die Infos bereits weg sind
Doch, Farbverläufe können so besser dargestellt werden. Dadurch kann man z. B. das sogenannte "Banding" bekämpfen (ein sehr häufiges Problem bei Anime), und angeblich können dunkle Szenen so auch besser aussehen.

oder gibt es z.B. 10Bit auch bei DVDs?
Grundsätzlich kann man in jeder Bittiefe encoden, die der Standard zulässt. H.264 z. B. lässt 8, 10 und 12 Bit zu, d. h. du kannst auch einen DVD-Rip in 12-bit encoden (ob das sinnvoll ist, sei mal dahingestellt). Kommerzielle DVDs und Blu-rays haben grundsätzlich eine Bittiefe von 8, das wurde so im DVD- bzw. Blu-ray-Standard festgeschrieben. Gründe sind einerseits die schwachen CPUs der Standalone-Player (größere Bittiefe bedeutet mehr Rechenleistung beim Decodieren) und andererseits das Fehlen der Bildschirme, die eine höhere Bittiefe darstellen könnten. Erst 2016 war die Bildschirmtechnik so weit.

aber kann dies wirklich so viel ausmachen?
Das musst du selbst vergleichen, diesen Schritt wird dir niemand abnehmen können. Der Encoder, von dem du sprichst, hat sein Ergebnis gesehen und für gut genug befunden, es kann aber sein, dass du Bildfehler oder Ähnliches bemerkst, dann musst du dich halt nach einem anderen Encode umsehen.
 

Shinigami1337

Otaku Novize
20 März 2015
24
0
0
Vielen Dank für Deine Mühe für die Antwort.
Ahm, ich meinte, wenn mein Rohmaterial eben 8Bit ist und ich dann auf 10Bit umkonvertieren würde, dann würde dennoch die Qualität besser werden? Klar, man ist nicht mehr auf diese 8Bit sondern man hat 10Bit zur Verfügung was die Farbrange angeht. Dies bringt doch jedoch nichts wenn die Informationen gar nicht mehr vorhanden sind, oder? Woher soll von dem 8Bit dann auf die 10Bit wissen welche z.B. Graustufe es nun genau darstellen soll? Weiss gar nicht so ganz wie ich es erklären soll was ich meine :) Vielleicht das Du mich diesmal verstanden. Auch bei Photoshop z.B. ändert sich erstmal nichts wenn man einfach von 8 auf 16Bit umstellt. Das man aber nun im Falle einer Bearbeitung mehr Möglichkeiten hat, ist klar.

Du hast mich noch auf etwas aufmerksam gemacht, dass ich gar nicht bedacht hatte... Mein Fernseher kann wohl auch eh nur 8Bit somit werde ich dort wohl eh kein Unterschied erkennen...
 

XRA9

Assrape America!
Nolife
Uploader
2 Aug. 2013
670
5.642
93
dann würde dennoch die Qualität besser werden?
Entweder das oder man braucht ein kleines bisschen weniger Speicherplatz:
http://www.x264.nl/x264/10bit_01-ateme_pierre_larbier_422_10-bit.pdf

Woher soll von dem 8Bit dann auf die 10Bit wissen welche z.B. Graustufe es nun genau darstellen soll?
Farbverläufe werden meistens als "Gradienten" gespeichert: Startfarbe, Endfarbe, ggf. noch ein-zwei Werte dazwischen, und Bereich; der Encoder berechnet dann den Verlauf. Mit 10 Bit pro Farbkanal kann der Encoder dann mehr Abstufungen machen, außerdem kommt das sogenannte "Dithering" zum Einsatz. Beides zusammen sorgt für "weichere" Farbverläufe (wenn man's denn merkt) und das Banding verschwindet (hoffentlich).

Auch bei Photoshop z.B. ändert sich erstmal nichts wenn man einfach von 8 auf 16Bit umstellt.
Ja guuut, Photoshop wandelt jedes Format beim Öffnen erst mal in Rohdaten um, bei denen wirklich einem Pixel ein feste Position und ein fester Farbwert zugeordnet wird, da ist dann auch egal, ob das Programm in 16 Bit oder in 2048 Bit arbeitet. Du müsstest, um einen Effekt zu sehen, "physisch" an den verfügbaren Farben was ändern, durch Tontrennung z. B.

x264 arbeitet aber auch ähnlich, es wird erst mal in Rohdaten decodiert und diese Rohdaten werden dann neu berechnet, die Änderungen sieht man dann (vielleicht) nach dieser Berechnung.

Man muss natürlich dazusagen, dass wir hier von Sonder- bzw. Grenzfällen und von viel "vielleicht" und "kann" sprechen. Bei Anime hat man halt viele farbige Flächen, die anfällig für Fehler sind, deshalb bringt da ein 10-Bit-Encode durchaus was, bei Realfilmen lohnt sich das aber eher nicht.
 
Zuletzt bearbeitet:
  • Like
Reaktionen: Shinigami1337

Shinigami1337

Otaku Novize
20 März 2015
24
0
0
Oh da bin ich ja auf eine fähige Person gestossen :). Ok, wusste nicht, dass die Infos als Gradianten gespeichert werden. Dann verstehe ich nun auch wie es funktioniert. Lediglich wie man auf 1/8 kommen kann ist mir noch etwas unklar aber da muss ich wohl mal beide Versionen miteinander vergleichen.
Danke für Deine Hilfe.
 

XRA9

Assrape America!
Nolife
Uploader
2 Aug. 2013
670
5.642
93
Ich bin nicht fähig, ich weiß nur, wie Kompression grob funktioniert. Die richtigen Fachleute sitzen z. B. auf Doom9.

Ok, wusste nicht, dass die Infos als Gradianten gespeichert werden
Nicht alle. Nur Farbverläufe, nichts anderes.

Lediglich wie man auf 1/8 kommen kann ist mir noch etwas unklar
Du legst ja vor dem Encode ein paar Dinge fest, darunter auch die Qualitätsstufe bzw. Ziel-Bitrate, je nach Komprimierungsverfahren. Das wirkt sich dann direkt auf deine Ziel-Dateigröße aus.
 
  • Like
Reaktionen: Shinigami1337

mwpcfssh

Otaku Novize
21 Mai 2019
27
3
0
38
Hehe, also ich hab mich über die Eingangsfrage schon etwas gewundert. Wie soll man sich denn mit einem älteren, schlechteren Codec für die Zukunft wappnen? Stell Dir x264 oder x265 als Zip-Dateien vor. Was du reinpackst, also welches Ausgangsmaterial, und was dann nachher drin ist, ist irrelevant.Der Vorteil von x265: irgendwann (bald) soll der bei gleichbleibender Qualität die Hälfte des Speicherplatzes von x264 haben. Also, selbe Quali bei halber Größe. Der Nachteil von x265: für das Kodieren/Dekodieren in x265 ist im Vergleich zu x264 ein wesentlich höheres Maß an Rechenleistung/Systemleistung nötig. Die Frage ist halt, ob man diese Ressourcen aufbrungen kann/will.

Ich hab jahrelang über eine Billig-Linux-Streamingkonsole Mangas gekuckt. Die mußte ich irgendwann tauschen, da die von der Prozessorleistung mit x265 nicht mehr klarkam.

Ich kann Dir nur empfehlen, mit Handbrake mal testweise einfach mal 1-2 Kurzclips umzukodieren. Danach geht Dir ein Licht auf.
 
Zuletzt bearbeitet:

supersonik

Otaku König
7 Jan. 2018
223
26.971
98
solange abseits vom pc nicht gut genug x265 native supported wird, bleibe ich bei x264 8bit.
der läuft und gut ist.
ich meine jeder muss wissen wie viel speicherplatz er hat und haben kann und dementsprechend auf einsparen oder nicht angewiesen ist.
aber gibt lösung und weg abseits von HDDs/SSDs speicherplatz aufzubauen / zu besitzen wo einen 3-4GB mehr bei einem Movie nicht stören.


Im endeffekt muss man sich die zeit nehmen mit seinem material am anfang ein bisschen zu testen.
um settings für sich und seine ansprüche zu finde.
z.b. bin ich der meinung das man in handbrake mit NVEC die qp niedriger stellen muss (also bessere qualität) als wenn man nur mit software enkodiert.
[vergleich x264 zu x264NVEC]
 

mwpcfssh

Otaku Novize
21 Mai 2019
27
3
0
38
solange abseits vom pc nicht gut genug x265 native supported wird, bleibe ich bei x264 8bit. der läuft und gut ist.
Also wenns um die Kompatibilität mit unterschiedlichen Systemen geht ist x264 natürlich klar im Vorteil. Die Anzahl der Hardware, Smart-TVs, Smartphones usw. die x264 unterstützen ist natürlich enorm viel größer. Wenn die Eingangsfrage gewesen wäre "welchen Codec benutzt ihr" wäre für mich zwar die Antwort dieselbe, für viele andere wäre dann natürlich x264 der meistverwendete Codec.
Da aber die Frage nach "für die Zukunft" war, kann man ja schlecht für einen älteren Codec stimmen, da die Zukunft ja (für wahrscheinlich jeden von uns) über kurz oder lang x265 sein wird. Ich meine, man kann sich ja auch mit einer älteren Firefox-Version schlecht für die Zukunft wappnen, auch wenn diese noch oft und viel und gerne verwendet wird, oder?
 
Zuletzt bearbeitet:

supersonik

Otaku König
7 Jan. 2018
223
26.971
98
naja ich zum beispiel setze auf server 2012 r2 aus mehreren gründen die sich für mich auch nicht grundlegend ändern in zukunft.
das heißt das ich vor ablauf des supports nicht wechseln werde, somit ist das für mich auch noch zukunftssicher.

ebenso mit x264, ich sehe natürlich die effizienz und andere vorteile des codecs an, jedoch retrospektiv betrachtet was sich in den letzten 5 jahren getan hat an devices die x265 supporten war das nicht viel bemessen am marketshare.
somit sehe ich auch hier x264 als zukunftssicher.

vllt kommt auch in 5-10 jahren etwas anderes auf den markt wo das spiel von vorne anfängt nur dann x265 schon gut supported wird? who knows atm.
 

mwpcfssh

Otaku Novize
21 Mai 2019
27
3
0
38
ebenso mit x264, ich sehe natürlich die effizienz und andere vorteile des codecs an, jedoch retrospektiv betrachtet was sich in den letzten 5 jahren getan hat an devices die x265 supporten war das nicht viel bemessen am marketshare.
somit sehe ich auch hier x264 als zukunftssicher.
Naja, unter der Tatsache, dass x265 aktuell x264 offiziell noch nicht abgelöst hat und die 50% bei gleichbleibender Qualität auch eben noch nicht erreicht, kann ich das alles gut nachvollziehen. Und, ich stimme Dir zu, ich mußte auch einiges an Hardware-Software ausprobieren, bis ich Equipment gefunden habe, welches mir x265 problemfrei und komfortabel anzeigt. So gesehen stimme ich hier zu, dass x264 in der Hinsicht noch eine Weile State-Of-The-Art bleiben könnte. Wenn man in die Diskussion Kompatibilität mit reinnimmt, hast Du sicherlich recht mit x264.
 
Zuletzt bearbeitet:

blubbso

Otaku König
26 Juli 2014
166
74
28
z.b. bin ich der meinung das man in handbrake mit NVEC die qp niedriger stellen muss (also bessere qualität) als wenn man nur mit software enkodiert.
[vergleich x264 zu x264NVEC]
NVEC = NVENC?
In dem Fall hast du sicher Recht. Ich hab mal mit x265 vs. NVENC_HEVC oder wie es hieß rumgespielt (allerdings mit ffmpeg statt handbrake). Mit den Ergebnissen war ich aber recht unzufrieden. Das Kodieren geht zwar brachial schnell, aber das Qualität/Größe Verhältnis ist wesentlich schlechter. Hardware-Encoder sind leider vielfach auf den Einsatz on-the-fly, z.B. bei Streaming, angelegt. Da sind solche Latenzblocker wie CRF eher ein Nachteil, auch wenn sie viel zur Kompressionsrate beitragen.

@mwpcfssh Also mit nem TV, HDMI-Kabel und PC hat's bei mir auf Anhieb funktioniert... Wenn man sich auf was anderes als PC verlässt ist man ja eh verlassen. Selbst wenn ein Gerät h265 abspielen kann, dürfte es an komplexem Typesetting eh scheitern.
 

mwpcfssh

Otaku Novize
21 Mai 2019
27
3
0
38
@mwpcfssh Also mit nem TV, HDMI-Kabel und PC hat's bei mir auf Anhieb funktioniert... Wenn man sich auf was anderes als PC verlässt ist man ja eh verlassen. Selbst wenn ein Gerät h265 abspielen kann, dürfte es an komplexem Typesetting eh scheitern.
Vor 5 Jahren und vor 1 Jahr hätte ich Dir noch vehement widersprochen. Nachdem ich von der XBOX über die OUYA über die MINIX alles durchhab und spätestens bei x265 mit einer 4k-Auflösung überall an die Leistungsgrenzen gestoßen bin, stimme ich Dir voll und ganz zu: ich bin nach vielen Jahren mit vorübergehenden Lösungen auch wieder beim PC gelandet. Meine Config ist also ebenfalls TV, HDMI-Kabel und der PC.
 
Zuletzt bearbeitet:

supersonik

Otaku König
7 Jan. 2018
223
26.971
98
NVEC = NVENC?
In dem Fall hast du sicher Recht. Ich hab mal mit x265 vs. NVENC_HEVC oder wie es hieß rumgespielt (allerdings mit ffmpeg statt handbrake). Mit den Ergebnissen war ich aber recht unzufrieden. Das Kodieren geht zwar brachial schnell, aber das Qualität/Größe Verhältnis ist wesentlich schlechter. Hardware-Encoder sind leider vielfach auf den Einsatz on-the-fly, z.B. bei Streaming, angelegt. Da sind solche Latenzblocker wie CRF eher ein Nachteil, auch wenn sie viel zur Kompressionsrate beitragen.

@mwpcfssh Also mit nem TV, HDMI-Kabel und PC hat's bei mir auf Anhieb funktioniert... Wenn man sich auf was anderes als PC verlässt ist man ja eh verlassen. Selbst wenn ein Gerät h265 abspielen kann, dürfte es an komplexem Typesetting eh scheitern.
sry ja NVENC aufjedenfall die Nvidia Hardware basierte encoder unterstützung.