CMOS-Sensoren sind prinzipiell genauso aufgebaut wie Prozessor- und Speicherchips. Ihre Weiterentwicklung folgt dennoch anderen Trends. Würde die Sensortechnologie dem mooreschen Gesetz gehorchen, das eine Verdoppelung der Schaltkreise alle anderthalb Jahre voraussagt, könnte man längst mit Gigapixel-Sensoren fotografieren oder Teile der Bildverarbeitung auf den Sensor verlagern.
Tatsächlich gab es bislang aber weder eine so starke Auflösungssteigerung noch einen Funktionszuwachs. Die Auflösung von Vollformatsensoren ist in 19 Jahren nur um den Faktor sechs gewachsen und als Zusatzfunktion enthalten aktuelle Sensoren zwar Tausende integrierter A/D-Wandler, aber diese liegen außerhalb des lichtempfindlichen Bereichs.
Eine allzu starke Miniaturisierung aller elektronischer Komponenten eines Sensorpixels wäre auch nicht wünschenswert, denn auf eine kleinere Fotodiode fiele weniger Licht und ein kleinerer Ladungsspeicher würde weniger Elektronen speichern – das Ergebnis wären weniger empfindliche Pixel mit stärkerem Rauschen und kleinerem Dynamikumfang. Auf einem Chip konkurrieren alle Komponenten um den Platz auf einer begrenzten Fläche und diese Beschränkung lässt sich nur aufheben, indem man in die dritte Dimension geht und den Sensor aus mehreren Schichten aufbaut.
Sensortechnik: Vom Silizium zum Sensorchip
Ausgangspunkt der Chip-Produktion sind monokristalline Siliziumbarren. Aus diesen werden dünne Scheiben, die Wafer geschnitten, das Grundmaterial für jeweils mehrere Chips. Die Schaltkreise auf den Chips entstehen in einem fotolithografischen Verfahren durch Ätzen und eine gezielte Dotierung mit Fremdatomen. Diese aktive Schicht an der Oberfläche eines Chips ist relativ dünn; der darunter liegende Teil des Siliziumkristalls hat keinerlei elektronische Funktion, sondern ist lediglich das Fundament, das den Chip zusammenhält.
Um die Schaltkreise in den einzelnen Sensorpixeln gezielt steuern und auslesen zu können, sind elektrische Leitungen nötig, die auf den Chip aufgebracht werden. Bei den meisten Chips ist diese Verdrahtung kein Problem, denn sie stecken am Ende in einem lichtundurchlässigen Gehäuse, aus dem nur die elektrischen Kontakte ragen – ihre Eingangs- und Ausgangssignale sind elektrische Spannungen.
Bei einem Bildsensor ist das Eingangssignal dagegen nicht elektrisch; es ist vielmehr das Licht, das durch ein Fenster im Sensorgehäuse auf den Chip fällt. Die Leiterbahnen verlaufen zwar zwischen den Sensorpixeln, aber je kleiner die Pixel werden, weil man immer mehr davon auf derselben Fläche unterbringen will, desto enger wird der Weg, auf dem ein Lichtstrahl die lichtempfindliche Fotodiode eines Sensorpixels erreichen kann. Im Extremfall wird das breite Strahlenbündel aus einem lichtstarken Objektiv von der Verdrahtung so weit abgeschirmt, dass Aufblenden keinen Vorteil mehr bringt.
Sensortechnik: Den Sensor wenden
Das Problem lässt sich ein wenig entschärfen, indem man das Aluminium der Leiterbahnen durch Kupfer ersetzt – Kupfer hat eine höhere Leitfähigkeit, sodass die Lestungen dünner ausgelegt werden können. Seit 2009 gibt es aber eine radikalere Lösung in der Sensortechnik: Man dreht den Sensorchip um. Die Seite des Chips, auf die die Schaltkreise geätzt werden, gilt als Vorderseite, und bei einem Sensorchip wurde früher stets diese Seite belichtet.
Für die Fotodioden ist es jedoch gleichgültig, von welcher Seite das Licht kommt und auf der Rückseite des Chips stehen ihm keine Hindernisse ent-gegen. Außer dem Siliziumsubstrat selbst, das deshalb bei einem von der bisherigen Rückseite belichteten Sensor so dünn geschliffen wird, wie es die mechanische Stabilität des Chips zulässt.
Die ersten dieser BSI-Sensoren (BSI steht für „Back-Side Illumination“, also eine Belichtung von der Rückseite) maßen nur 6,1 mm mal 4,6 mm und hatten ein Pixelraster von rund 1,7 µm. Heutzutage wird die BSI-Technologie bis hin zum Kleinbild- und Mittelformat und auch für deutlich größere Pixel genutzt.
Hochstapelei in der Sensortechnik
Nachdem immer mehr Kamerahersteller auf BSI-Sensoren setzen, ist der nächste große Entwicklungsschritt der gestapelte (englisch „stacked“) Sensor. Ein solcher Sensor besteht aus zwei (oder mehr) Scheiben von Siliziumkristallen, deren Schaltkreise miteinander verbunden sind. Das Sensorwachstum in der Höhe ermöglicht eine Optimierung des Chipdesigns und sorgt für mehr Geschwindigkeit.
Wenn man die Analog/Digital-Wandler, die sich sonst am Rand des Sensors – außerhalb der lichtempfindlichen Fläche – befinden, auf einen zweiten Chip verlagert, lassen sich beide Schichten jeweils optimal auslegen. Beispielsweise kann man die Sensorpixel in einem 90-Nanometer-Prozess fertigen, die stärker miniaturisierbaren A/D-Wandler aber mit einer kleineren Strukturgröße in einem 65-Nanometer-Prozess. Die Sensorpixel kommen wiederum mit relativ wenigen Schichten von Leiterbahnen aus, während die A/D-Wandler eine komplexere Verdrahtung erfordern.
Schneller zum digitalen Bild
Der wichtigste Vorteil gestapelter Sensoren ist ihre Geschwindigkeit, vor allem bei der Digitalisierung der Pixel. Die Analog/Digital-Wandlung soll mehrere, einander widerstreitende Anforderungen erfüllen. Einerseits ist eine hohe Geschwindigkeit der Digitalisierung erwünscht – für einen schnellen elektronischen Verschluss ohne störende Rolling-Shutter-Artefakte, eine hohe Serienbildgeschwindigkeit und eine hohe Bildfrequenz des elektronischen Sucherbilds sowie von Videoaufnahmen.
Andererseits sollen rauscharme Bilder mit einer feinen Auflösung der Tonwerte in 14 oder gar 16 Bit entstehen, was aber viel Zeit braucht – je mehr Zeit sich ein A/D-Wand-ler für die Digitalisierung nimmt (die sogenannte Integrationszeit), desto geringer ist das Rauschen und desto feiner die Tonwertauflösung.
Um diese Anforderungen miteinander zu vereinbaren, setzen die Sensorhersteller auf eine Parallelverarbeitung. Früher waren zwei oder vier A/D-Wandler üblich, während aktuelle CMOS-Sensoren meist je einen A/D-Wandler pro Pixelspalte haben. Ein typischer Sensor mit 24 Megapixeln enthält 6000 Wandler, die alle 6000 Pixel einer Reihe parallel digitalisieren. Obwohl sich jeder einzelne Wandler ein Vielfaches der Zeit für die Digitalisierung nimmt und daher rauschärmere Bilder entstehen, benötigt das Auslesen insgesamt nur ein Bruchteil der Zeit, verglichen mit einem Sensor mit zwei oder vier Wandlern.
Dennoch kann das vollständige Auslesen eines hochauflösenden Sensors immer noch recht lange dauern – Zeiten um 1/20 s sind nicht ungewöhnlich. Damit ist auch die Geschwindigkeit eines elektronischen Verschlusses nach dem Rolling-Shutter-Prinzip vorgegeben. Bei bewegten Motiven entstehen Verzerrungen, weil die letzte Zeile des Sensors in diesem Beispiel erst 1/20 s nach der ersten belichtet wird und eine Blitzsynchronisation ist unmöglich.
Eine höhere Geschwindigkeit erfordert entweder eine Verkürzung der Integrationszeit – mit den Nachteilen beim Rauschen und der Tonwertdifferenzierung, die damit einhergehen – oder eine noch stärkere Parallelisierung. Beispielsweise kann man statt einem A/D-Wandler pro Spalte zwei verwenden.
Prinzipiell wäre es in der Sensortechnik sogar möglich, mit einem Wandler pro Pixel alle Pixel gleichzeitig zu digitalisieren – vorausgesetzt, dass sich die A/D-Wandler in der unteren Schicht so weit miniaturisieren lassen, dass sie nicht mehr Platz benötigen als das zugehörige Sensorpixel in der Schicht darüber.
Wenn nun aber der Sensor immer schneller wird, also in immer kürzerer Zeit immer größere Datenmengen erzeugt, steigen die Anforderungen an den Prozessor der Kamera, der diese Daten verarbeiten soll. Bei jedem Schritt fallen die Daten vieler tausend oder gar Millionen von Pixel an, statt wie früher nur von zwei oder vier.
Das wird insbesondere in der Phase zum Problem, in der die Kamera ein gerade aufgenommenes Bild verarbeitet, der Prozessor aber gleichzeitig ein elektronisches Sucherbild ohne Blackouts oder eine Reduktion der Bildfrequenz erzeugen soll. Die Lösung besteht darin, neben den A/D-Wandlern einen schnellen Pufferspei-cher auf den Sensor zu integrieren, entwe-der neben den Wandlern auf der unteren der zwei Sensorschichten oder, falls der Platz dafür nicht ausreicht, auf einer dritten Schicht.
Für Videoaufnahmen mit 60 Bildern pro Sekunde oder ein elektronisches Sucherbild mit gleicher Bildfrequenz hat der Prozessor 1/60 s Zeit, die Pixel zu verarbeiten. Moderne Kameraprozessoren sind dem durchaus gewachsen, aber für einen elektronischen Verschluss ohne Rolling-Shutter-Artefakte ist das noch nicht schnell genug. Der Pufferspeicher auf dem Sensor kann nun die digitalisierten Daten mit einer viel höheren Geschwindigkeit aufnehmen, während dem Prozes-sor 1/60 s bleibt, um die Daten aus dem Puffer zu übernehmen.
So lassen sich die Anforderungen von geringem Rauschen, einer feinen Tonwertdifferenzierung, einem schnellen elektronischen Verschluss und einer hohen Bildfrequenz bei Serienbild- und Videoaufnahmen sowie beim elektronischen Sucherbild vereinbaren.
CMOS-Sensoren aus zwei übereinander gestapelten Chips werden seit 2015 genutzt, zunächst 1-Zoll-Sensoren in Kompaktkameras. 2017 führte Sony die Alpha 9 mit einem gestapelten Vollformatsensor ein; die neusten Modelle sind die Sony Alpha 1 und die Canon EOS R3. Bei diesen Sensoren sind spaltenparallele A/D-Wandler zusammen mit einem schnellen Pufferspeicher auf dem unteren Chip untergebracht. Sony hat 2018 den Prototyp eines Sensors mit 1,46 Millionen A/D-Wandlern, je einem für jedes Pixel, entwickelt, aber diese Sensortechnik hat noch keinen Eingang in vermarktbare Produkte gefunden.
Mehr Pixel?
Die Zahl der Sensorpixel ist in den vergangenen Jahrzehnten moderat gestiegen, verglichen etwa mit der Kapazitätssteigerung von Speicherchips, aber schon diese Steigerung wird von vielen Fotografen kritisch gesehen. Es gibt Bedenken, das Auflösungsvermögen der vorhandenen Objektive könnte einem neuen, höher auflösenden Sensor vielleicht nicht mehr genügen.
Das Objektiv erzeugt ein optisches Bild, das vom Sensor zu einem Digitalbild abgetastet wird. Je größer die Zahl der Sensorpixel, desto feiner ist diese Abtastung und eine feinere Abtastung ist der Bildqualität förderlich, unabhängig von der Auflösung des Objektivs. Im Audiobereich ist dies als Oversampling bekannt: Eine höhere Samplingfrequenz, als die höchsten Frequenzen eigentlich erfordern, führt zu einem besonders sauberen Klang der digitalisierten Musik.
Wenn man umgekehrt die Auflösung der Objektive immer weiter verbesserte, während der Sensor unverändert bliebe, würde Farbmoiré entstehen – es sei denn, man nutzte ein Tiefpassfilter, um die optische Auflösung zu begrenzen. Gegen eine allzu große Steigerung der Sensorauflösung spricht dagegen nur die gleichzeitig wachsende Datenmenge, die pro Bild zu bewältigen ist – die Kamera würde immer langsamer. Ab einem bestimmten Punkt wiegen die Vorteile, die eine feinere Abtastung für die Bildqualität bringt, die Nachteile einer geringeren Geschwindigkeit nicht mehr auf.
Wenn man die Sensorpixel verkleinert, um auf derselben Fläche mehr Pixel unterzubringen, fällt auf jedes einzelne Pixel weniger Licht. Die Folge sind ein stärkeres Rauschen, ein verringerter Dynamikumfang und eine gröbere Tonwertdifferenzierung – aber nur auf die einzelnen Pixel bezogen und daher nur sichtbar, wenn man am Computer in die 100-Prozent-Ansicht zoomt.
Vergleicht man die Bilder im Ganzen und aus einem einheitlichen Betrachtungsabstand, zeigen sich dagegen keine Verschlechterungen, dafür aber die Vorteile der feineren Abtastung. Jedenfalls gilt dies für die aktuellen, rauscharmen CMOS-Sensoren. Skaliert man die hochaufgelösten Aufnahmen auf eine niedrigere Auflösung herunter, entsprechen Rauschen, Dynamikumfang und Tonwertdifferenzierung den Werten einer Aufnahme mit einem von vornherein niedriger auflösenden Sensor, aber die Bilder erscheinen sauberer und frei von Artefakten.
Ein potentielles Hindernis steht allerdings der Pixelminiaturisierung entgegen. Wenn die Sensortechnik ansonsten gleich bleibt, kann die nötige Infrastruktur des Sensors wie beispielsweise die Leiterbahnen nicht im gleichen Maßstab schrumpfen. Der Anteil der Pixelfläche, der zum Sammeln von Licht übrig bleibt, nimmt daher ab.
Erst Fortschritte in der Sensorentwicklung wie die hier genannten, die eine weitere Verkleinerung ohne diesen Nachteil ermöglichen, machen eine weitere Vergrößerung der Pixelzahl sinnvoll. Auch deshalb steigt die Sensorauflösung zwar stetig, aber maßvoll.
Beitrage Teilen