fbpx
DLF raw-Video Thumb

Mit raw-Video arbeiten: Gute Idee oder schlechte Idee?

In diesem Artikel schauen wir uns raw-Video und die Arbeit mit raw-Video in der Praxis an. Seitdem die erste Pocketkamera von Blackmagic auf dem Markt ist, filmen immer mehr Leute in raw-Video (bei der OG-Pocket in CDNG, bei den neueren Pockets und der neuen FullFrame CinemaCamera in BRAW). Ist raw-Video immer die bessere Wahl? Diese Frage möchte in diesem Artikel diskutieren. 

Für wen schreibe ich diesen Artikel

Ganz ehrlich. Ich schreibe diesen Artikel für mich. In letzter Zeit habe ich viel mehr Filme in ProRes aufgezeichnet. Mein letztes Projekt mit der Alexa Mini in ProRes4444, aber auch viel von meinem Stockfootage zeichne ich teilweise eher in ProRes422 mit der Pocket6K auf. Warum? 

Teilweise braucht das Material weniger Speicherplatz und bei 6K-Kameras muss man auch oft in ProRes aufzeichnen, wenn man den ganzen Sensor in 4K oder 2K auslesen will. Oft brauche ich einfach kein 6K, weil es teilweise echt zu viel Speicherplatz braucht. 

Daher habe ich mich in letzter Zeit wieder viel mehr mit dem Thema raw-Video beschäftigt und wollte es einfach noch einmal besser verstehen. Ich dachte eigentlich auch, dass ich die Grundzüge verstanden habe, aber teilweise liest man sich wieder mehr in ein Thema ein und merkt dann plötzlich, dass man es doch noch nicht so ganz verstanden hat. Oder teilweise einfach vereinfachtes Wissen verinnerlicht hat. 

Hilft mir dieser Artikel bessere Filme zu machen? Eher nicht, weil das meiste vom Film sowieso nicht ausschließlich von der Kamera abhängt. Es ist die Summe alle Gewerke. „Klar, sagt der Typ, der seinen letzten Film auf der Alexa Mini gedreht hat“. Ich hätte diesen Film aber auch ohne Probleme auf der Pocket4K oder KOMODO drehen können. Das war an sich auch zunächst der Plan. 

Die Alexa hat aber andere Vorteile neben der Bildqualität. Der Formfaktor und das Zubehör der Alexa spielt hier auch eine maßgebliche Rolle. Mehr dazu in meinem Artikel über die Alexa. 

Einführung

Vielleicht geht es euch wie mir und ihr habt eure ersten Erfahrungen mit raw im Fotobereich gemacht. Damals 2010 habe ich meine erste DSLR zum Filmen und zum Fotografieren gekauft. Bei dieser alten DSLR konnte man bei Fotos aber auch schon zwischen JPG (8Bit) und Canon-Raw (14bit) wählen. Im Videobereich war man leider auf H264 und 8Bit begrenzt. 

raw bei Fotos
Bei Fotos habe ich natürlich immer in raw fotografiert, weil man ja hier mehr Möglichkeiten in der Nachbearbeitung hatte (diese Möglichkeiten habe ich aber in der Regel nie ausgenutzt, aber das ist ein anderes Thema). Im Videobereich hatte man nur quasi eine verlustbehaftete JPEG-Komprimierung mit 8Bit und war sehr eingeschränkt bei der Farbkorrektur. Ich habe ja hier im Blog auch schon darüber geschrieben, dass es diese typische 8Bit-Banding im Himmel gab und dass man oft etwas Rauschen über das Bild gelegt hat, um dieses Banding zu kaschieren. 

Hier hat man sich natürlich sehr nach mehr Möglichkeiten und einem besseren Format gesehnt. raw-Video war irgendwie das Maß aller Dinge. Flüchtig hatte ich auch schon davon gehört, dass ja die Kameras von RED in einem raw-Format filmen. Jetzt wollte man diese Möglichkeit natürlich auch in der eigenen kleinen DSLR. Eine interne ProRes-Aufzeichnung hatte ich irgendwie nicht so auf dem Schirm.

MagicLantern 
Mit MagicLantern war die interne raw-Aufzeichnung ab ca. 2014 mit der 5D Mark III möglich (habe die genauen Zeiten nicht mehr so im Kopf). MagicLantern raw war damals eine Offenbarung, das Video-Material aus der Kamera sah plötzlich so viel besser aus. Eben wie ein Foto in raw. Irgendwie war das Format von Blackmagic aber immer eher eine Krücke, weil MagicLantern einfach nicht unbedingt so verlässlich war. Man musste das Material auch zunächst umständlich entwickeln und um konvertieren. Premiere konnte die Dateien aus der 5D nicht nativ bearbeiten. raw-Video von MagicLantern habe ich nie auf einem bezahlten Job verwendet, das war mir einfach immer zu unsicher. 

DLF raw-Video 5D h264
5D Mark 3 H264
DLF raw-Video 5D raw
5D Mark 3 raw mit Magic Lantern
DLF raw-Video 5D h264
5D Mark 3 H264
DLF raw-Video 5D raw
5D Mark 3 raw mit Magic Lantern

Hier sieht man die Unterschiede zwischen 8bit und 14bit. Die Farben im raw sehen angenehmer aus. Außerdem ist die Bitrate höher, dadurch werden die feinen Details etwas besser aufgelöst. Im Himmel sieht man auch etwas mehr Zeichnung in den Wolken.

Was bring raw?

Man hofft ja immer noch darauf, dass raw-Video in allen Kamera zur Verfügung steht, wenn das Patent von RED auf interne raw-Aufzeichnung ausläuft. Dies wird über kurz oder lang passieren, aber heute ist der Unterschied zwischen 10Bit 422 LOG und 12Bit raw tatsächlich nicht mehr so signifikant, wie es scheinen könnte. Wir schauen uns gleich ein paar Mythen von raw an und ich hoffe, dass ich es richtig verstanden habe und euch auch richtig vermitteln kann. Kurze Zusammenfassung: In Bezug auf die Nachbearbeitung gibt es keine Magie im raw, es bietet teilweise nicht mehr Bearbeitungsspielraum, lediglich der Speicherbedarf ist gegenüber einem gleichwertigen ProRes-Codec deutlich geringer. 

Mythen von raw-Video

Hier schauen wir uns die Mythen von raw-Video an.

Bei raw-Video kann man die ISO im Nachhinein verändern

In meinen Blogartikeln über die Blackmagic Pocket 4K oder RED KOMODO habe ich auch schon oft darüber geschrieben, dass man die ISO einfach in der Post ändern. Da sich meine Artikel oft an Anfänger richten, habe ich es hier auch dabei belassen. Die Belichtung einer Kamera ist am Anfang schon schwer genug und man ist oft nicht so fit mit den unterschiedlichen Begriffen Blende, Belichtungszeit und ISO und wie diese Werte zusammenhängen. Aber wirklich korrekt ist diese Aussage nicht und mit diesem Artikel kann ich auch einen Disclaimer in meinen alten Artikeln hinzufügen. 

An sich kann man die ISO nicht im Nachhinein ändern, bei einer raw-Datei wird immer der native ISO-Wert einer Kamera aufgezeichnet (siehe auch Artikel von abelcine) und in die Metadaten werden die EI-Daten (Exposure Index) geschrieben. Diese EI-Daten sagen uns, welche Belichtung die Person an der Kamera zum Zeitpunkt der Aufnahme auf dem Monitor gesehen hat. Der native ISO-Wert einer Kamera wird übrigens vom Hersteller festgelegt. Die Hersteller testen ihre Sensoren und finden den optimalen ISO-Wert für die Kamera. Der optimale ISO-Wert ist der Wert, bei dem der Sensor die maximale Qualität hat. Die Pocket4K hat den nativen ISO-Wert zum Beispiel bei ISO400 und ISO3200 (Dual-ISO-Sensor), eine Arri Alexa Mini bei ISO800. Wenn man jetzt beim Dreh von diesem Wert abweicht, wird an sich nur der Gain des Sensors angepasst. Der Gain ist die digitale Verstärkung.

Gain vs. Iso
Bei vielen digitalen Videokameras kann man auch den ISO-Wert auf Gain umstellen. An sich wäre das auch die bessere Darstellung, da man dann sofort die digitale Verstärkung sieht. Bei 0db gibt es einfach keine Verstärkung. Bei 6DB schon. Bei Dual-ISO-Sensoren gibt es zwei Gain-Werte für den Sensor. Das Umschalten zwischen den beiden ISO-Stufen verändert den Gain nicht. Die Pocket4K schaltet zum Beispiel ab ISO1250 auf den anderen Gain-Wert, so hat man bei wenig Licht trotzdem noch ein vergleichsweise rauscharmes Bild. Daher sind auch die neuen FX-Kameras von Sony so beliebt. Da man hier auch oft einen Dual-ISO-Sensor hat. 

TESTAUFNAHMEN

Hier habe ich jetzt ein paar Testaufnahmen für euch. Ich habe ProRes mit BRAW verglichen. Beide Formate habe ich stark unterbelichtet und dann in der Postproduktion die Helligkeit angepasst, so dass das Rauschen stark sichtbar wird. Einmal habe ich das mit ISO400 gemacht und einmal mit ISO3200.

DLF raw Video BRAW ISO 400
BRAW ISO 400
DLF raw Video ProRes ISO 400
PRORES ISO 400
DLF raw Video BRAW ISO 3200
BRAW ISO 3200
DLF raw Video BRAW ISO 3200
PRORES ISO 3200

Was fällt euch auf?
Also mir fällt auf, dass die ISO3200 von der Pocket6K deutlich rauschärmer gegenüber ISO400 ist. Das ist auch von Blackmagic und anderen Herstellern, die einen Dual-Gain-Sensor einbauen, so gedacht. ISO3200 soll man bei weniger Licht nehmen um ein rauschärmeres Bild zu erhalten.

Was fällt euch noch auf?
Mir fällt als Zweites auf, dass das BRAW nicht mehr Dynamik wie das ProRes hat. Also das BRAW sieht nicht besser aus.

Das BRAW 6K 5:1 File hat ca. 741MB bei 114Frames. Also pro Sekunde ca. 162,5MB, Blackmagic gibt hier 194MB an. Aber mein Bild war auch sehr dunkel und hatte kaum Bildinformationen. Das 4K ProRes 422 HQ File dagegen ca. 425MB bei 108Frames. Hier haben wir also ca. 98MB pro Sekunde. In meinem Beispiel haben wir also das ca. 1,5fache an Datenmenge bei 6K, dagegen aber die 2,5x Auflösung.

ISO bei der Fotokamera anpassen

Fotografiert auch mal mit eurer Fotokamera in raw. Hier könnt ihr die ISO auch nicht im Nachhinein ändern. Man kann aber die Belichtung in Lightroom anpassen und hier verhält sich die Anpassung teilweise wie eine ISO-Änderung in der Kamera. Lest euch auch mal diesen Artikel durch. Aber an sich wird auch einfach nur der Gain angepasst. Das steht auch hier in diesem Artikel: https://rawpedia.rawtherapee.com/White_Balance#Blue/Red_Equalizer

Augenwischerei von RED
Jetzt habe ich hier noch den Artikel von RED selber zum verlinken: ISO speed revisited.
Hier schreibt RED auch, dass die ISO bei RED-Kameras nicht unbedingt relevant für die Aufnahme ist, da RED-Kameras bei jeder ISO die gleiche Dynamik haben. Die ISO gibt nur an, wo 18% Grau auf dem Sensor liegt. Genau das, habe ich ja auch geschrieben. RED gibt leider keinen GAIN-Wert an. Also wo der Sensor 0DB Gain hat.

Mit raw-Video kann man den Weißabgleich im Nachhinein ändern

Leider stimmt das auch nicht so ganz. Der Weißabgleich ist die gleiche Verstärkungsfunktion wie die ISO-Einstellung, wird jedoch selektiv auf die roten und blauen Kanäle angewendet, bevor sie in der Bildkette weiterverarbeitet werden. Der Weißabgleich ist bereits in die RAW-Datei geschrieben. Keine Kamera kann gleichzeitig für alle möglichen Weißabgleich-Einstellungen kalibriert werden. Die Kamera hat einen „natürlichen“ Weißabgleich, und bei den meisten Kameras liegt dieser bei 5600K. Warum gerade 5600Kelvin fragt ihr euch? 

Silizium ist eher am roten Ende des Spektrums empfindlicher als für das blaue Ende. Daher liefert der Sensor in der Regel das beste Bild bei Licht mit viel Blau (um die mangelnde Empfindlichkeit für Blau auszugleichen) und nicht zu viel Rot. Natürlich gibt es Ausnahmen, aber die große Mehrheit der Kameras ist auf Tageslicht abgestimmt. In dieser Präsentation gibt es sehr viel zum Thema Farben und Weißabgleich bei digitalem Sensoren.

Wenn der Weißabgleich auf 3200K eingestellt wird, erhöht die Kamera die Verstärkung des blauen Kanals und verringert die Verstärkung des roten Kanals, um den Dynamikumfang ohne zu viel Rauschen im roten Kanal zu erhalten. Diese Anpassung erfolgt auf der Ebene des Analog-Digital-Umwandlers (ADC) und kann nicht deaktiviert werden. Daher sollte man auch bei der Aufnahme in raw den Weißabgleich immer anpassen, wenn man ein neutrales Bild haben möchte.

Weißabgleich-Test
Ihr könnte das ja auch mal in einem Testszenario ausprobieren. Filmt einfach mal eine Glühlampe mit 5600K und 3200K und korrigiert die Aufnahme mit 5600K auf 3200K. Ihr werden einen kleinen Unterschied auf den Kontrollmonitoren sehen, und zwar im Blau-Kanal. Ich habe dies auch ausprobiert und man sieht wirklich einen Unterschied im Histogram, obwohl ich mit den komplett gleichen Kamerawerten (ISO, Belichtungszeit, Blende) fotografiert habe. Habe hier auch Bilder mit höherer Auflösung hinterlegt, dann könnt ihr euch das Rauschen etwas genauer anschauen.
Ich muss aber auch sagen, dass es schon ein kleiner Unterschied ist.

DLF raw Video Fuji WB Test
Fuji raw WB 2750K
DLF raw Video Fuji WB Test
Fuji raw WB 10000K korrigiert auf 2750K
DLF raw Video Fuji WB Test
Blau Kanal - Fuji raw WB 2750K
DLF raw Video Fuji WB Test
Blau Kanal - Fuji raw WB 10000K auf 2750K

Hier sieht man, dass das raw-Material bereits mit einem festen Weißabgleich aufgenommen wurde. Jede Anpassung in der Farbkorrektur geht daher mit Qualitätsverlusten einher. Wie stark der Qualitätsverlust ist, seht ihr bei eurem vorherigen Testszenario. Hier muss ich auch sagen, dass sich der Unterschied schon sehr in Grenzen hält, aber es gibt ihn. Ich habe bei meinem Testszenario eine echte Glühbirne verwendet. Glühbirnen haben ja ein sehr gutes Farbspektrum, hier fällt dann die Weißabgleichanpassung meiner Meinung nach nicht so stark auf. 

Wir können uns aber noch ein Beispiel mit einer LED-Birne anschauen. Habe auch wieder die volle Auflösung (JPG) hinterlegt, dann könnt ihr die Bilder auch direkt in Photoshop oder Lightroom anschauen und vor allem das Histogram anschauen. Beide Bilder wurden natürlich wieder mit den exakt gleichen Kameraeinstellungen (bis auf den Weißabgleich) gemacht.

DLF raw Video Fuji WB Test
LED Birne Fuji raw WB 2750K
DLF raw Video Fuji WB Test
LED Birne: Fuji raw WB 10000K korrigiert auf 2750K

Bittiefe ist entscheidend
Wie weit ihr das Material verbiegen könnt, hängt auch von der aufgenommenen Farbtiefe (bit depth), der Komprimierung und des Rauschpegels ab. All diese Faktoren gelten auch bei nicht raw-material. Aber man sieht hier auch, warum man mit einer DSLRs unbedingt raw aufzeichnen wollte. Die DSLR hatten eben nur eine Farbtiefe von 8Bit und raw-Kameras 12Bit. Die zusätzlichen Bit machen eine Menge bei den Farben aus. Bei 8Bit hat man eben nur 256 Farben je Kanal (rot, grün und blau) und bei 12Bit 4096Farben je Kanal. Schauen wir uns hier einmal ProRes an. ProRes 4444 hat auch 12 Bit pro Kanal und macht kein Chromasubsampling. 

Der Vorteil von einem REDRAW ist hier nur die effektivere Komprimierung des Materials bei gleicher Qualität. Ein Videofile in 8K REDRAW mit einer Komprimierung von 5:1 hat ungefähr den gleichen Speicherbedarf wie ein 4K ProRes 4444. Man hat also deutlich mehr Auflösung bei gleichem Speicherbedarf. 

Warum hat raw so einen guten Ruf?

Warum wird raw also als der heilige Gral der Videoaufzeichnung gesehen. Älteres Filmmaterial wurde auch oft „nur“ mit Cineon-10bit LOG aufgezeichnet und dann in der Farbkorrektur mit diesem Digital Intermediate gemastert. Und hier gab es auch schon kein Farbbanding mehr, obwohl man eben nur 10Bit hatte und nicht wie raw 12bit oder 14bit. 

Anfängliche Probleme mit LOG-Footage
Ich denke, dass der schlechte Ruf von LOG-Material eher Unwissen in der Bearbeitung kommt. Viele Autodidakten im Filmbereich (zu denen ich mich auch zähle) hatten anfänglich schlechte Erfahrungen mit der LOG-Farbkorrektur. Unsere erste Kamera mit einem LOG-Profil war die Canon C300 und ich kann mich noch gut daran erinnern, dass ich es sehr schwer fand, ein schönes korrigiertes Bild mit der Kamera zu bekommen. Der Begriff LUT war mir auch noch ein Rätsel und damals war ich auch noch mit Premiere unterwegs und die Farbkorrektur in Premiere war ja schon immer sehr bescheiden. Hier habe ich dann versucht, das Material mit Sättigung und Kontrast so anzupassen, dass es einfach normal aussieht. Teilweise haben sie die Regler aber auch komisch verhalten. Weil das Material eben nicht richtig gehandhabt wurde. Das Problem ist, dass ein LOG-Format auch wie ein raw-Format zunächst in den richtigen Farbraum gebraucht werden muss, dazu gleich mehr. 

raw-Video in DaVinci Resolve
Bei raw-Video hingegen war ich oft schon mit Resolve unterwegs (auch, weil Resolve CDNG direkt unterstützt hat) und hatte auch schon Erfahrung mit LUTs und hatte so direkt ein deutlich schöneres Bild am Anfang und konnte mich dann ganz auf das Grading konzentrieren. Beim Canon LOG war ich am Anfang froh, wenn das Material halbwegs gut aussah. Bei raw war es irgendwie auch schon klar, dass das Material zunächst entwickelt werden muss. Fotosoftware wie Lightroom hat das eben bereits intern gemacht, man hat direkt das korrigierte Material gesehen. Bei Premiere war das eben nicht der Fall. 

Wie raw-Material muss auch ProRes Material, das in LOG aufgezeichnet wurde, erst einmal für die korrekte Anzeige vorbereitet werden. Heißt, man braucht eine für die Kamera passende LUT (Farbraum und Gamma müssen auch passen). Eine weitere Möglichkeit, das Material korrekt zu betrachten, ist auch einen ColorManaged Workflow.

In meinem Resolve Tutorial zur Farbkorrektur mit LUTs gehe ich näher auf die unterschiedlichen Möglichkeiten in Resolve ein. 

Darüberhinaus gibt es noch die HDR-Wheels von Resolve, hier kann und muss man auch den Farbraum und das Gamma einstellen und kann dann hier genau seine Kamera auswählen. Mit den HDR-Wheels hat man auch sehr genau Möglichkeiten, die Belichtung des Bildes in unterschiedlichen Zonen anzupassen. Und man kann sie auch speziell auf einer Node haben. Ich muss aber sagen, dass ich mich mit den HDR-Wheels noch nicht beschäftigt habe und meistens in den Primary Wheels bleibe.

Neben Resolve gibt es natürlich noch die raw-Entwicklungssoftware der Hersteller. Bei RED ist das REDCINE-X Pro bei Sony der Catalyst Browser. Wenn man jetzt mit der Sony in LOG aufgezeichnet hat und das Material im Catalyst-Browser bearbeitet, dann erkennt der Browser das Material direkt richtig und alle Regler verhalten sich normal. Im Gegensatz dazu erkennt Premiere das Material nicht und die Regler in der Lumetri-Engine verhalten sich sehr komisch. Das sieht man besonders am Weißabgleich, hier wird das Bild oft komplett Orange oder Blau. Das Problem mit der Hersteller-Software ist, dass man einen zusätzlichen Schritt vor dem Schnittprogramm hat. Für mich ist das kein guter Workflow. 

raw-Video ist nicht wichtig, die Bitdepth ist wichtig

In der Praxis besteht der Unterschied zwischen RAW und LOG nur in der Farbtiefe des Materials. Da die Kamera nicht drei Werte für jedes Pixel (Y, Cb, Cr), sondern nur einen (Y, d.h. Luma) aufzeichnen muss. Die übrige Bandbreite wird dann frei für eine viel feinere Farbabstimmung. Wie bereits geschrieben, hat ein 10Bit-Codec 1024 Werte für die Farben, ein 12Bit-Codec hingegen 4096. Also viermal so viel je Pixel. Für raw ist keine Farbunterabtastung erforderlich, da die Kamera nicht die Farbe der Pixel „denken“ muss.

Natürlich kann ein 12Bit-Bild aufgrund der viermal so großen Menge an Informationen wesentlich mehr Manipulationen standhalten als ein 10Bit-Bild. Aber es ist die Bit-Tiefe, nicht die raw-Eigenschaft. Das habe ich auch beim Material der ALEXA Mini festgestellt. Wir haben eben in ProRes 4444 aufgenommen, ein 12Bit-Log-Format, das genauso manipuliert werden kann wie ein raw-Format. Der einzige Haken sind die riesigen Datenmenge. ARRIRAW wäre aber noch einmal größer gewesene, weil es ja kein internes komprimiertes ARRIRAW gibt (geben darf -> Patent von RED).

Man neigt dazu raw mit größeren Dateien in Verbindung zu bringen, aber ein komprimiertes raw ist tatsächlich speichereffizienter als ein vergleichbares ProRes. Was ich auch schon festgestellt habe, das 12Bit-LOG der Alexa Mini ist sehr anspruchsvoll für meinen iMac von 2019. Hier habe ich das Gefühl, dass das REDRAW von meiner KOMODO deutlich flüssiger läuft.

Man muss sich seine Kamera und die Formate schon genau anschauen, bei der alten Canon C200 gab es zum Beispiel die Möglichkeit ein raw-Light und MP4 bzw. XF-AVC intern aufzuzeichnen. MP4 und XF-AVC ist jeweils ein 4:2:0 8Bit Codec. Das raw-Light dagegen 10bit und 12bit. Die Bitdepth hängt von den FPS ab. Bei 24p und 25p hat man 12Bit und bei 50P und 60P nur 10bit. Hier stellt sich nicht mehr die Frage, in welchem Format man an sich aufzeichnen sollte, wenn man möglichst viele Farbinformationen erhalten will. 

Bei einer Pocket4K sieht es schon etwas anders aus, weil sowohl der ProRes Codec als auch das BRAW eine sehr gute Bitdepth haben. Bei kleineren Projekten, bei denen ihr vielleicht weniger Zeit in der Farbkorrektur verbringen wollt oder könnt, könnte ProRes die bessere Wahl sein. Wenn ihr alle Möglichkeiten in der Farbkorrektur haben wollt, dann könnte wieder BRAW die bessere Wahl sein. 

Fazit

raw-Video ist und bleibt ein gutes Aufnahmeformat. Man muss aber wissen, wie man damit umgeht und dass raw-Video nicht automatisch bedeutet, dass das Material eine höhere Qualität hat. 

Soll ich jetzt in raw-Video aufnehmen oder nicht?

Ja, raw kann ein effizienteres Datenformat für die Aufzeichnung von Informationen sein. Wenn ihr im Nachhinein die Farben stark verändern wollt, dann kann euch die Aufnahme in raw dabei helfen, wenn die Kamera an sich sonst nur 8Bit oder 10Bit intern kann (siehe Canon C200). Das ist ja oft der Fall bei günstigeren DSLMs, die mithilfe von einem externen Recorder ein besseres Format aufzeichnen können.

Wenn eure Kamera hingegen ein ProRes422 oder sogar ein ProRes4444 und raw-Video kann (z. B. eine KOMODO-X) könnt ihr euch entscheiden. Teilweise werdet ihr mit raw weniger Speicherplatz brauchen und habt wahrscheinlich etwas mehr Auflösung. Dafür braucht man für das raw-Material in der Regel einen dedizierten Player, damit man das Material überhaupt abspielen kann. Die ProRes Dateien kann in der Regel jedes Betriebssystem ohne Probleme abspielen.

raw-Video ist keine Magie

Es gibt aber keine Magie im raw, es handelt sich nicht wie oft propagiert um die reinen Sensordaten, sondern um dasselbe Bild, das nur eine vorherige Interpretation für die Anzeige erfordert. 

Hinsichtlich des Bildes gelten immer noch dieselben Aufnahmeregeln – ihr braucht immer noch eine „korrekte Belichtung“ und den richtigen Weißabgleich. Diese beiden Punkte müsst ihr natürlich für euch entscheiden, ob ihr jetzt etwas überbelichtet oder unterbelichtet. Falls ihr aber ausgebrannte Stellen habt, dann hilft euch auch raw nicht beim zurückholen von diesen verlorenen Informationen bei einem gleichwertigen Codec. Ich dachte am Anfang auch immer, dass raw einem viel mehr Spielraum in der Postproduktion lässt. 

Bei gleicher Bit-Tiefe hat der raw-Status der Datei keinen Einfluss auf ihre Eignung für die Farbkorrektur. raw ist lediglich eine Möglichkeit, mehr Informationen in die gleiche Dateigröße zu packen.

Auch eine Erkenntnis für mich war, dass ISO an sich kein guter Wert ist, um die Empfindlichkeit eines Sensor zu bewerten, da ISO von den Herstellern unterschiedlich interpretiert werden kann und die Sensoren bei unterschiedlichen ISO-Werten die gleiche Performance haben können. Gain wäre hier die bessere Wahl.

Ich hoffe, dass euch dieser Artikel weitergeholfen hat. Ich habe bei der Recherche noch einmal mehr über raw-Video gelernt und dass raw auch nicht unbedingt gleich raw ist. 

*es handelt sich um Fotokoch-, Amazon-, EBay-, SmallRig oder Thomann-Affiliate Links.
Das bedeutet, ich bekomme eine Miniprovision, wenn jemand etwas kauft,
das Produkt wird dadurch nicht teurer.

Josef Sälzle DIE LICHTFÄNGER

Hi, ich bin Josef, Kameramann und Filmemacher.
Ich schreibe in meinem DIE LICHTFÄNGER Blog über die Theorie des Filmemachens,
schaue mir die Technik an und gebe euch Tutorials zu unterschiedlichsten Themen.

Ich möchte betonen, dass meine Artikel kostenlos sind und ich auf meinem Blog ausschließlich
Werbung für meine eigenen Produkte mache. Wenn ihr mich und meinen kostenlosen Blog
unterstützen möchtet, kauft gerne meine Produkte.

Mit meiner Filmproduktion DIE LICHTFÄNGER mache ich Filme
für Unternehmen sowie für Selbstständige.
Bei Fragen könnt ihr mir gerne eine Mail schreiben.

Wenn euch der Artikel gefallen hat, dann abonniert doch einfach den RSS Feed