DCTau Version 3.3

Erläuterungen zu den DCTau-Testprotokollen auf digitalkamera.de

2004-03-16 Aus Gründen der Übersichtlichkeit haben wir die Testprotokolle auf die sich jeweils von Modell zu Modell ändernden Diagramme, Tabellen und Kommentare beschränkt. In diesem Artikel haben wir die ergänzenden Informationen zusammengefasst, die der Leser benötigt, um die Testergebnisse zu verstehen und für seine eigenen Anforderungen zu bewerten.  (Anders Uschold, Jan-Markus Rupprecht)

Die Tests nach dem DCTau-Verfahren werden von Anders Uschold Digitaltechnik Frauenberg bei München durchgeführt, einem der international führenden Testlabore. Das Verfahren wird von bekannten Redaktionen und großen Kameraherstellern regelmäßig genutzt, um Digitalkameras, Videosysteme, Scanner und zukünftig auch Fotodrucker hinsichtlich ihrer Bildqualität zu beurteilen.

Die auf digitalkamera.de veröffentlichten Zahlen und Diagramme gehen weit über das hinaus, was Endanwendern normalerweise zur Verfügung gestellt wird. Aufgrund ihrer Komplexität eignen sich die Testergebnisse weniger für den flüchtigen Blick, denn sie sollten vom Leser verstanden und individuell bewertet werden. Nicht nackte Zahlen ohne Praxisbezug zu ermitteln ist das Ziel, sondern die jeweiligen Auswirkungen für den täglichen Einsatz zu vermitteln. Zwar ist bereits das bloße Messergebnis sehr gut geeignet, das jeweilige Gerät im direkten Vergleich zu betrachten, aber jedes Kriterium ist für verschiedene Anwender unterschiedlich wichtig. So ist die Verzeichnung für einen Architekturfotografen besonders kritisch, den Porträt-Fotografen lässt sie hingegen relativ kalt. Nachfolgend erklären wir deshalb die einzelnen Testkriterien genau, damit unsere Leser die Zahlen und Diagramme individuell für die eigenen Bedürfnisse bewerten können.

Aus der Prüfung an mehreren Messorten, auch von der Bildmitte zum Rand, resultiert das Diagramm Auflösung von der Bildmitte zum Rand. Ähnlich den klassischen Objektivmessungen prüft das DCTau-Testverfahren im gesamten Bildfeld. Das ist sehr wichtig für anspruchsvolle Fotografen, denn Ausschnitte jenseits der Bildmitte und flächig hochwertige Fotoabzüge verlangen eine konstante Auflösungsverteilung ohne kritischen Randabfall. Hier greift auch die Richtungsabhängigkeit der Auflösung. Die Digitalisierung von analogen Motiven auf das Bildraster sollte keine bevorzugten Richtungen haben. Nur so werden verschiedene Motivstrukturen oder fein verteilte Bilddetails gleich gut dargestellt. Eine niedrige Richtungsabhängigkeit garantiert homogene Bildergebnisse. Eine hohe Richtungsabhängigkeit deutet dagegen auf aggressive Bildbearbeitung in der Kamera hin, die richtungsabhängige Artefakte und eine unruhige Detailwiedergabe zur Folge hat.

Der Wirkungsgrad beschreibt die Effizienz, mit der eine Kamera Bilddetails darstellen kann. Im Vergleich zu einer definierten theoretischen Idealkamera mit einem Wirkungsgrad von 100 Prozent gibt ein Testgerät, je nach seiner Leistungsfähigkeit, mehr oder weniger Bilddetails wieder. Wirkungsgrade im Bereich von 80 bis 90 Prozent sind als gut bis ausgezeichnet. Ist ein Wert über 90 Prozent angegeben, ist es entscheidend, ob die Detailwiedergabe durch Artefakte gestört wird. Das Verhalten der Kameras in diesem Punkt ist im dann folgenden Absatz textlich beschrieben. Steigt der Wirkungsgrad über 100 Prozent, so enthält das Bild mehr Informationen als die Vorlage, was bis auf Ausnahmen durch intensives Aufpeppen des Bildes durch künstliche Manipulationen (mit Artefakten als Folge) und übertriebene Scharfzeichnung erreicht wird.

  
Linearer Wirkungsgrad Nettodateigröße
WW 93,63 % 12.539 KByte
Mitte 94,33 % 12.790 KByte
Tele 90,92 % 11.863 KByte
Unkomprimierte Bruttodateigröße: 14.400 KByte

Während der Wirkungsgrad gut geeignet ist Kameras gleicher Pixelzahl zu vergleichen, beschreibt die Nettodateigröße den echten Gehalt an Nutzinformationen im Bild. Sie ist damit ideal für den Vergleich verschiedener Kameras über Auflösungsklassen hinweg. So kann beispielsweise eine 4-Megapixel-Kamera mit sehr gutem Wirkungsgrad im Endeffekt eine höhere Nettodateigröße liefern als eine 5-Megapixelkamera mit niedrigem Wirkungsgrad. Übersteigt die Nettogröße die unkomprimierte Bruttodateigröße, so heißt das nichts anderes, als dass mehr Information in der Datei enthalten sind als sein dürften – ein Zeichen für Anreicherung mit Artefakten durch aggressive interne Bildverarbeitung der Kamera. Die Nettodateigröße wird übrigens nicht aus den JPEG-Komprimierungsstufen errechnet, sondern basiert auf einer sehr komplexen Berechnung der unidirektionalen Auflösung an mehreren im Bild verteilten Messpunkten.

Nicht zu unterschätzen ist die Scharfzeichnung. Die technische Eigenschaft der Auflösung kann per interner Bildbearbeitung in unterschiedliche subjektive Schärfeeindrücke umgerechnet werden. Das Spektrum reicht von einer weichen und langweiligen Wiedergabe, die jedoch alle Wege der Bildverarbeitung offen hält und für den anspruchsvollen Anwender die bessere Wahl ist, bis zu einer auf Anhieb knackigen, enorm scharfen Darstellung, die bei genauem Hinsehen überplastische Kanteneffekte und künstliche Störungen in feinen Details und Strukturen haben kann. Hier spaltet sich die Anwenderschaft in anspruchsvolle Bildbearbeiter und Shoot-to-Print-Fotografen mit dem Wunsch nach sofort druck- bzw. ausbelichtbaren Fotos. Besonders pikant wird die Scharfzeichnung, da sie in Tests auch manche Schärfemessungen "verbessern" kann. Mancher Hersteller greift deshalb etwas zu tief in den Softwaretopf. Ähnlich dem Rauschen sollte die Scharfzeichnung insgesamt niedrig, bei allen Bildhelligkeiten gleichmäßig verteilt sein und keine Dominanz bei nur einer Ausrichtung besitzen, andernfalls werden Bilder sehr ungleichmäßig.

Alt bekannt ist die Randabdunklung der Objektive. Anders als in der analogen Fotografie, bei der die Randabdunklung fast nur von der Optik bestimmt wird, spielen in einer Digitalkamera aber viele Komponenten mit. Der Objektiveinfluss ist geblieben, neu ist die gesteigerte Empfindlichkeit des digitalen Sensors auf schräg einfallendes Licht am Bildrand. Dem versucht man mit verschobenen Mikrolinsen auf dem Sensor und mit einer elektronischen Randabdunklungskorrektur zu begegnen. Dabei wird die ISO-Empfindlichkeit von der Bildmitte zum Rand einfach angehoben. Die gleichmäßigere Helligkeit hat jedoch ihren Preis: Grauwert- und Farbdifferenzierung nehmen ab und das Bildrauschen zu. So kann die Detaildarstellung durchaus unter der elektronisch verringerten Abdunklung leiden. Wichtig bei der Randabdunklung ist ein gleichmäßiger Verlauf der Messkurve ohne spontane Anstiege. Bei Einzelbildern sind Werte bis zu 1,0 Blenden zu vertreten, für Montagen (beispielsweise von Einzelbildern zu Panoramen) sollte die maximale Randabdunklung dagegen so niedrig wie möglich sein.

Die zweite Objektiveigenschaft ist die Verzeichnung. Bei kurzen, weitwinkligen Einstellungen dominiert die tonnenförmige Verzeichnung. Längere Brennweiten liefern neutrale oder kissenförmige Effekte. Die Verzeichnungskorrektur ist für den Hersteller sehr aufwendig und stellt häufig einen Kompromiss dar. Beginnt die Kamera in der Weitwinkelposition mit sehr starker Tonnenform, sind mittlere und lange Brennweite oft besser. Startet man hingegen mit einer guten Anfangskorrekter, leidet das Bild in den längeren Brennweiten. Verzeichnung ist besonders kritisch bei Architektur- und Landschaftsaufnahmen sowie bei der Reproduktion flächiger Bilder (Gemälde, Bücher, Stoff- oder Tapetenmuster usw.).

Das Rauschen hat seinen analogen Gegenspieler im Filmkorn. Als solches steigt es mit der eingestellten ISO-Empfindlichkeit und kann verschiedene Charaktere besitzen. Farbrauschen wirkt mit meist etwas größeren Flecken ganz anders als Helligkeitsrauschen mit einer sehr feinen Struktur. Auch liefert eine gleichmäßige Verteilung des Rauschens über allen Bildhelligkeiten ein homogeneres Bild als starkes Rauschen in den dunklen Teilen des Bildes (Schatten) neben rauschfreien hellen Bildpartien (Lichter). Unterscheiden sich die Farbkanäle stark, wird das Bild ebenfalls ungleichmäßig. Neben den Messkurven wird die Rauschscharakteristik stets im Text beschrieben.

  
Signalübertragung
Eingabeumfang 8,6 Blendenstufen
Schatten 3
Lichter 254
Ausgabeumfang 251

Die Helligkeiten des Motivs werden in einer Kamera vielfältig verändert und umgerechnet. Bei dem ständigen Kompromiss zwischen einer hohen und damit bei kontrastreichen Motiven flexiblen Eingangsdynamik und einer ansprechenden nicht zu weichen Ausgangsdynamik, sprich Bildkontrast, spielt die Signalübertragung eine zentrale Rolle. Beachten sollte man die Wiedergabe der Lichter, Mittelwerte und Schatten. Bei einer geraden Messkurve sind alle Bereiche sehr neutral. Ist der untere Bereich der Schatten sehr rund und weit auslaufend, wirken die Bilder dort matschig und die Mitten werden zu kontrastreich. Gleiches gilt (wenn auch oft weniger stark) für den oberen Kurvenbereich der Bildlichter. Der Eingabeumfang bzw. die Eingangsdynamik bestimmen den Belichtungsspielraum. Hier gilt: je mehr, desto besser. Ab 8,5 Blendenstufen erreicht man in etwa Vergleichbarkeit zur analogen Fotografie. Einen reduzierten Ausgabeumfang und die damit flauen Bildergebnisse kann man mit der Bildbearbeitung kontrastreicher ziehen. Allerdings macht eine häufig erforderliche nachträgliche Korrektur unnötig Arbeit und eine starke Korrektur reduziert die Tonwertdifferenzierung des Bildes.

Bilddaten benötigen unkomprimiert sehr viel Speicherplatz. Dieser steht auf einer Speicherkarte nicht beliebig zur Verfügung und die Übertragung auf die Speicherkarte ist zeitaufwendig und Strom fressend. Deshalb werden Dateien meistens mit Verlust behafteter Komprimierung als JPEG-Dateien gespeichert. Dabei hängt Risiko sichtbarer Qualitätseinbussen entscheidend vom Komprimierungsfaktor (Verkleinerungsgrad) ab. Bei Komprimierungsfaktoren bis 1:8 werden überwiegend nicht sichtbare Anteile reduziert, man spricht von Visually-Lossless-Komprimierung. Ausbelichtungen und Ausdrucke sind damit auch in großen Formaten kein Problem. Von 1:8 bis 1:15 zeigen sich Artefakte zuerst an scharfen, kontrastreichen Kanten, die von homogenen Bildflächen umgeben sind. Bei kleinen bis mittleren Abzügen werden solche Störungen oft vom Belichter oder Drucker ausgeglichen, bei größeren Formaten können Sie aber sichtbar werden. Steigert man die Komprimierung weiter, so entstehen 8 mal 8 Pixel große Kacheln im Bild, die besonders in Farb- und Helligkeitsübergängen unangenehm werden. Diese Strukturen werden sogar bei kleinen Anzügen sichtbar, weshalb solche Komprimierungsstufen nur in Ausnahmefällen verwendet werden sollten.

Artikel-Vorschläge der Redaktion

Das große Systemkamera-Handbuch 2019

Das große Systemkamera-Handbuch 2019

Eine ganzes Magazin über spiegellose Systemkameras – gedruckt im Handel, versandkostenfrei vom Verlag oder als PDF. mehr…

High-ISO-Auflösungs-Vergleich der Sony Alpha 9 und Alpha 7R III

High-ISO-Auflösungs-Vergleich der Sony Alpha 9 und Alpha 7R III

Ist eine niedriger auflösende Kamera bei hohen ISO-Empfindlichkeiten wirklich besser? Wir wagen den Vergleich. mehr…

digitalkamera.de Kaufberatung Outdoor-Kameras aktualisiert

digitalkamera.de "Kaufberatung Outdoor-Kameras" aktualisiert

Dank zweier Neuerscheinungen hat unser im Mai 2017 veröffentlichtes E-Book schon eine überarbeitete Neuausgabe verdient. mehr…

Vor- und Nachteile von elektronischem, Schlitz- und Zentralverschluss

Vor- und Nachteile von elektronischem, Schlitz- und Zentralverschluss

In diesem Fototipp erläutern wir die Vor- und Nachteile der drei in Digitalkameras zum Einsatz kommenden Verschlüsse. mehr…

News-Suche

von bis
Hersteller
Autor
Suche nach

Autor

Jan-Markus Rupprecht

Jan-Markus Rupprecht, 53, fotografiert mit Digitalkameras seit 1995, zunächst beruflich für die Technische Dokumentation. Aus Begeisterung für die damals neue Technik gründete er 1997 digitalkamera.de, das Online-Portal zur Digitalfotografie, von dem er bis heute Chefredakteur und Herausgeber ist. 2013 startete er digitalEyes.de als weiteres Online-Magazin, das den Bogen der digitalen Bildaufzeichnung noch weiter spannt.