WP's HP: HOME | SloMo: Links ~ FAQ ~ [Info] ~ Tipps ~ Daten ~ Clips ~ HYCAM ~ Freq. ~ f-Kalkulator ~ Trigger ~ Bildspeicher | Hilfe? | English


WP's SloMo CCD und CMOS Sensor Info

 

Sensortechnik

Auflösung - Schwarz/Weiß kontra Farbkameras

Die Großzahl der digitalen Kameras mit Halbleiterbildsensor (im Englischen solid state cameras, im Gegensatz zu auf Röhren oder Film basierten Systemen) sind Ein-Chip-Kameras. Daraus erklärt sich die geringere Lichtempfindlichkeit der Farbkameras. Denn gegenüber der jeweiligen nackten Schwarz/Weiß (besser: monochrom) Version ist die Oberfläche des entsprechenden Farbsensors mit einer Rot-Grün-Blau (kurz: RGB) Farbbeschichtung versehen. Und die schluckt etwa 50% der Lichtintensität. Oft geht sogar noch viel mehr verloren, da zur Farbtrennung und für einen genügend großen Aussteuerungsbereich (Dynamik) der Nah-Infrarotanteil (engl.: NIR, near IR) des Spektrums durch einen zusätzlichen IR-Sperrfilter (engl.: IR-cut, IR-stop) bis ca. 1,1 Mikrometer Wellenlänge unterdrückt werden muss. Die Farbmaskierung ist nämlich für langwelliges Licht durchlässig und gerade in diesem Spektralbereich sind die Sensoren ziemlich wirkungsvoll. (Filterlose Schwarz/Weiß CCD Kameras könnte man praktisch als behelfsmäßige Nachtsichtgeräte einsetzen.)

Filterlinien
RGB Streifenfilter

 

Bayer Filter
Bayer Mosaikfilter

Da diese Befilterung im Streifen- oder Mosaikmuster aufgebracht ist, ergibt sich dadurch noch ein weiterer Nachteil: Bei einem Schwarz/Weiß Sensor kann jede lichtempfindliche Zelle direkt zur Auflösung beitragen. Jeder einzelne der Zellen kann einen Farbton mit seinem Grauwert zwischen schwarz und weiß abdecken, also jede Zelle ist ein Pixel (= picture element; dt.: Bildelement). Ein Farbsensor mit der gleichen Zellenzahl benötigt jeweils eine rot, eine (oder zwei) grün und eine blau maskierte Zelle zur Darstellung der Farbtöne. Jedes Pixel setzt sich also aus einem RGB-Subpixeltripel aus drei Zellen zusammen. Rein rechnerisch ist die Auflösung bezogen auf die Zellenzahl dann nur noch ein Drittel. Dieser Sachverhalt wird bei der Angabe der Auflösung gerne unterschlagen und die Zellenzahl mit der Pixelzahl gleichgesetzt. Mittels aufwändiger Algorithmen kann aber der Auflösungsverlust durch die Farbmaskierung schon in Echtzeit aufgefangen werden. Jedoch erreicht man kaum mehr als 2/3 der Auflösung des entsprechenden Schwarz/Weiß Sensors.

Die Bilder links zeigen Ausschnitte aus Farbfiltern. Jede Zelle entspricht einem (Sub-) Pixel. Die doppelt so häufigen grünen Zellen dienen zur Erzielung einer höheren Auflösung entsprechend dem menschlichem Wahrnehmungsvermögen (Mitte des Spektrums; Empfindlichkeit). Die Elektronik für die Ansteuerung und Adressierung wird meist in den schwarzen, hier nur dünn dargestellten Pixel-Rahmen positioniert. Je nach Typ des Sensors kann so ein blinder optisch passiver Bereich dann größenmäßig der Fläche des jeweiligen echten optisch aktiven Pixels entsprechen oder diese sogar noch übertreffen. Mosaikfilter bieten dabei eine höhere Auflösung als Streifenfilter, die Farbinterpolation ist jedoch komplizierter.

Die Pixelanzahl ist also nicht alles. Sie ist allenfalls so aussagekräftig wie der Prozessortakt als alleiniges Kriterium für die Leistungsfähigkeit eines Rechners. Es kommt auch auf Kontrast, Empfindlichkeit, Dynamik, Farbseparation und vieles andere mehr an. Ein Megapixel Monster mit flauen Bildern bläht nur den Speicherbedarf mit einer Unmenge, im Endeffekt nutzloser, Daten auf.
Abgesehen davon bedeuten mehr Pixel pro Fläche auch kleinere Zellen, und damit reduzierte Lichtempfindlichkeit bei höherer Rauschneigung.
In diesem Zusammenhang kann man auch einmal schauen was die Kamera- bzw. Sensorhersteller ihren Kunden an Fehlpixel zumuten. Normalerweise sieht man sie nicht, da sie einfach »übertüncht« (mappen, vom engl. Fachbegriff: map, mapped) werden, indem man den interpolierten Wert von benachbarten Pixel heranzieht. Bei Qualitätsherstellern muss man sie regelrecht suchen, während andere einem Sensoren mit Aberdutzenden von Fehlern aufs Auge drücken.

Es gibt unterschiedlichste Farbfiltermuster und -anordnungen, nicht nur Streifen- und Bayer-Muster. In der Regel werden sie fotolithografisch aufgebracht. Auch kann man andere Farbaufteilungen als RGB, z.B. Magenta statt Rot und Gelb statt Blau oder zwei verschiedene Grüntöne finden. Auch zusätzliche unbefilterte Pixel können in den Verbund integriert sein, usw.
In der Tat gewinnt jede elektronische Farbkamera ihre Bilder durch Interpolation, denn es gibt keinen bunten Strom. (Nicht einmal von Yello ;-). Da der Farbalgorithmus die entsprechende Filterfarbe über der jeweiligen Grauwert-Zelle kennt, kann er die Farbe an dieser Stelle errechnen. Üblicherweise werden mehrere benachbarte Zellen zur Berechnung herangezogen.

Nebenbei: Teure Drei-Chip-Kameras (auch 3 CCD genannt), die hauptsächlich in Standard-Videoanwendungen verwendet werden, haben dagegen für jeden Farbkanal jeweils einen einheitlich rot, grün und blau maskierten Sensor. Die Strahlaufteilung erfolgt durch eine Prismengruppe.
Mittlerweile gibt es für Fotoapparate auch Sensoren mit vertikalem statt lateralem Aufbau, d.h. zur Farbseparation nutzt man die wellenlängenabhängige Eindringtiefe des Lichts, siehe Foveon (www.foveon.com).
Ist die Anwendung nicht zeitkritisch kann man auch Farbfilter oder Farbräder, wie man sie ähnlich von professionellen Scheinwerfern her kennt, verwenden. Manche Studio-Fotokameras machen so drei Aufnahmen unmittelbar nacheinander mit jeweils einem anderen Farbfilter vor dem Sensor oder Objektiv.

 

Filtereffekte - Moiré, aliasing und fix pattern noise

Die Streifen- oder Mosaikfilter sind auch für Farbartefakte an Kanten oder Gittern verantwortlich. Entspricht das Abbild einer Struktur auf dem Sensor etwa der Gittergröße seines Filters (bzw. seiner Zellenstruktur) kann es zu Moiré und aliasing Effekten kommen. Das kann man schön an den Fehlfarben bei Aufnahmen von Jalousien oder Lüftergittern sehen. Einfach einmal mit der Kamera auf die Suche gehen. Auch vom Scannen von gerasterten Zeitungsbildern her ist der Effekt wohl bekannt.
Hier steckt im Prinzip das Abtasttheorem dahinter. Man kann sich das leicht vor Augen halten: Nimmt man z.B. einen weißen (oder grauen) Gartenzaun auf, so muss das Bild einer Latte mindestens eine Reihe roter, grüner und blauer Pixel abdecken, sonst kann der weiße Farbton nicht »gemischt« werden. Er entsteht nur bei gleichmäßiger Aussteuerung der Farbkanäle. Selbst bei Monocolor-Kameras kann es wegen der festen Pixelanordnung zu vergleichbaren Fehlern kommen. Aufgrund der unterschiedlichen Teilüberdeckung/-abschattung der Pixel entstehen »Schwebungen«, Schattenbilder, sprich Strukturen, wo eigentlich keine sind - aliasing eben. (Auf den Effekt stößt man auch gerne beim Scannen von Zeitungs- und Zeitschriftenbildern. Auflösungs- und vergrößerungsabhängig zeigen sich plötzlich drastische Muster wegen des Rasterdrucks (~ Gitter) der Vorlage.)
Moiré entsteht, wenn zwei Gitter im Strahlengang gegeneinander verschoben, speziell, zueinander verdreht, sind. Dann kommt es zu breiten, formatfüllenden Schlieren, deren Anzahl und Richtung vom Verdrehwinkel der Gitter abhängt. Dagegen ist auch das menschliche Auge nicht gefeit: Legen sie doch einmal zwei feinmaschige Fliegengitter übereinander und verdrehen Sie sie langsam gegeneinander.

Da jeder Pixel einen anderen Dunkelstrom (d.h. im unbelichteten Zustand nicht »0«) liefert, werden unterhalb eines bestimmten Schwellwerts alle Pixel zwanghaft auf schwarz herabgezogen. Ansonsten würde man verteilte bunte Pixel in einer dunklen Fläche finden. Das beschränkt die Dynamik und führt zum als »Absaufen im Schwarzen« bezeichneten Effekt - dunkle Flächen und Schattenpartien werden nicht durchgezeichnet, Unregelmäßigkeiten werden weg gebügelt. Anfangs litt ein Großteil der digitalen Fotoapparate an dieser typischen Krankheit. Aktuell sind besonders (billige) CMOS Kameras und speziell solche mit kleiner Pixelfläche davon betroffen.

Man hat bereits versucht Sensoren mit unregelmäßig bzw. zufällig verteilten Farbpixel, also keinem festen Schema bei der Anordnung der einzelnen RGB-Farfilter, einzusetzen.
Selbst Drei-Chip-Kameras können bei nicht richtig justierten oder getrennten Flächen der Strahlteilerprismen oder bei intensivster Beleuchtung farbige Linien, Flecken oder Keile zeigen. Bei rotierenden Farbrädern kann es zu schwankender Helligkeit und Falschfarben kommen, wenn die Transmission nicht einheitlich ausfällt oder die Synchronität nicht perfekt ist.

 

Spektrale Empfindlichkeit (oder Farbensehen)

Spektrale Empfindlichkeit: Aussteuerung als Funktion der Wellenlänge
Spektrale Empfindlichkeit, Vergleich
menschliches Auge und CCD/CMOS Sensoren

Spektraler Quantenwirkungsgrad
Farbseparation der Kanäle eines CMOS Sensors;
Notwendigkeit eines IR Dämpfungsfilters

Das für das menschliche Auge sichtbare Farbspektrum (VIS) reicht allenfalls von 380 Nanometer (violett) bis 780 Nanometer (dunkelrot). Mit der größten Empfindlichkeit im Grün-Gelben bei ca. 550 Nanometer. CCD und CMOS Sensoren besitzen ein breiteres Spektrum. Speziell sehen sie noch im nahen Infrarot jenseits von 780 Nanometer bis zur sogenannten Bandlücke des Grundmaterials Silizium bei etwa 1 100 Nanometer, mit der höchsten Empfindlichkeit zwischen 600 und 900 Nanometer. Ihr Empfindlichkeitsmaximum ist verglichen mit dem menschlichen Auge mehr zum Roten verschoben. (Übrigens: Für Wellenlängen jenseits der Bandlücke ist Silizium »durchsichtig«.)

Im Bild rechts oben ist die spektrale Sensitivitätskurve des menschlichen Auges im hell adaptierten Zustand im Vergleich zu der von unbeschichtetem, einkristallinem Silizium, dem Ausgangsmaterial von CCD und CMOS Sensoren, für den Bereich des sichtbaren Spektrums und des nahen Infrarots dargestellt. (Die Kurven sind auf ihren jeweiligen Spitzenwert normiert.)
Die Charakteristik von CCD Sensoren wird durch die Kurve für blankes Silizium recht gut wiedergegeben. CMOS Sensoren zeigen eine Verschiebung und Verbreiterung des Maximums hin zu kürzeren Wellenlängen verursacht durch ihre flachere Struktur und die geringere Eindringtiefe kurzwelligen Lichts.

Im Bild darunter ist die jeweilige spektrale Empfindlichkeit der drei RGB Farbkanäle eines entsprechend maskierten (= beschichtet mit rot-grün-blau Filtern) CMOS Farbsensors dargestellt. Man sieht deutlich die Transparenz der Polymere im roten und speziell im IR Bereich und damit verbunden die Notwendigkeit diesen Spektralbereich zu dämpfen bzw. zu blocken, um damit ein Übergewicht von Rot zu vermeiden und um Rauschen, Fehlaussteuerung oder Übersteuerung zu reduzieren.

Im gewissen Umfang lässt sich die Rotempfindlichkeit bei Farbsensoren durch die Wahl der Transmissionscharakteristik der Farb-Befilterung und der rechnerischen Gewichtung der Farbkanäle manipulieren. Farbkonversionsfilter (Reduzierung der Rotempfindlichkeit; häufig bei Farb-Videokameras aus Schott BG 39 oder BG 40 Glas) helfen hier ebenfalls.
Im kurzwelligen Bereich des Spektrums (UV, blau) sind die Sensoren dagegen vergleichsweise unempfindlich. Hier wirken außerdem zusätzlich die Gläser begrenzend.

Die spektrale Empfindlichkeit einer Kameras ist allerdings nicht nur durch den Sensor oder den Film und die Filter limitiert, sondern auch durch die optische Abbildung, speziell die Objektive und die oben erwähnten IR-Sperrfilter. Denn die Ausnutzung eines zu großen spektralen Empfindlichkeitsbereiches kann zu matten/unscharfen Bildern führen. Da die Brennweite wellenlängenabhängig ist, entstehen die einzelnen Farbbilder in unterschiedlicher Entfernung vom Objektiv und damit vom Film bzw. Sensor (chromatische Aberration). Achromate (Linsensysteme mit Schichtaufbau) helfen diesen Effekt zu vermeiden.

Oft sind Filter (und Objektive) zur Reflexionsverminderung im sichtbaren Spektrum noch vergütet. Der Reflexionsverlust beträgt pro Luft/Glas Grenzfläche ca. 4% bis 5%:

ΔR = (1 - n)² / (1 + n)²

mit dem Brechungsindex n des Linsenmaterials in Luft (nLuft ≡ 1).

Also ca. 8% bis 10% pro Durchgang durch eine Glasplatte. Mit der Vergütung ist eine Reduktion auf 1% bis 2% möglich. Manchmal kann man das an den im schrägem Auflicht bunt schillernden Oberflächen erkennen, da ΔR leicht vom Einfallswinkel abhängt.
Höherwertige Objektive besitzen manchmal auch einen IR-Umschalter für die Arbeit speziell mit Wellenlängen im nahen Infrarot bei 780 Nanometer und mehr. Dann stimmt auch die Abstandskala auf dem Fokusring wieder. (Das IR Bild entsteht wegen der geringeren Brechung größerer Wellenlängen tiefer in der Kamera.)

Nebenbei: Die Transmission von normalem Objektivglas fällt bei Wellenlängen um die 320 Nanometer und darunter stark ab. Im langwelligen Bereich liegt der Abfall weit außerhalb von dem, was ein Sensor auf Siliziumbasis noch sieht. Übrigens besteht auch die Deckschicht eines Sensors aus Quarzglas (Siliziumdioxid). Darüber liegt noch eine dünne Schicht Siliziumnitrid.
Will man Aufnahmen in einem anderen Spektralbereich machen, muss man andere Sensor- und sogar Linsenmaterialien einsetzen. Beispielsweise finden in IR-Kameras und speziell in Wärmebildkameras, die im Wellenlängenbereich um und über 3 Mikrometer arbeiten, u.a. Sensoren aus Indium-Gallium-Arsenid (InGaAs) Verwendung.

 

CCD kontra CMOS Sensoren

Funktionsprinzipien

Die beiden gängigen Festkörper-Sensortechnologien, CCD (Charge Coupled Device; dt.: Ladungsgekoppelte Schaltung) und CMOS (Complementary Metal Oxide Semiconductor; dt.: Komplementärer Metall-Oxid-Halbleiter), basieren auf Silizium als Ausgangsmaterial. Beide haben ihre Vor- und Nachteile, die in ihrer Funktionsweise begründet sind. Sie nutzen den inneren fotoelektrischen Effekt - im Prinzip arbeiten die Pixel wie eine Anordnung von Solarzellenpanelen auf dem Hausdach oder einer Wiese: ein Pixel = eine Solarzelle, mehr Licht = mehr Ladung bzw. Strom.

CCD und CMOS Zellenbeschaltung
CCD und CMOS Schaltungsprinzipien

Das Bild links zeigt die Grundfunktion von CCD und CMOS Zelle im Vergleich.
Die durch Lichteinfall erzeugte Ladung in der CCD Zelle wird direkt von jeder Zelle ausgelesen. Diese Ladungen werden schrittweise aus dem fotoaktiven Gebiet transportiert. Außerhalb werden sie analog/digital gewandelt bzw. verstärkt.
In jeder CMOS Zelle generiert das einfallende Licht einen zu seiner Intensität proportionalen Fotostrom und reduziert den Sperrwiderstand der Fotodiode. Diese Sperrströme durch die Fotodioden (d.h. die generierten Ladungen) werden weiterverarbeitet.

Die Zellen eines CCD Sensors funktionieren wie Belichtungsmesser, die Ladungen sammeln und in bestimmten Abständen ausgelesen werden. Die »schnellen« CCD Sensoren gibt es in drei Ausführungen: FT ((Full) Frame Transfer), ILT (Interline Transfer) und FIT (Frame Interline Transfer). Für Standbildaufnahmen genügt das Full Frame Prinzip: Die Ladungen bleiben bis zum Auslesen im aktiven Bereich gespeichert, zentral abgeschattet durch einen mechanischen Verschluss.
Bei FTs wird das komplette Bild durch die aktiven Zellen in einen separaten lichtgeschützten Bereich außerhalb des fotosensitiven Gebiets verschoben und dort verarbeitet. Wegen der unterschiedlichen Struktur kann man die beiden Bereiche oft schon mit bloßen Auge erkennen. Bei ILTs alternieren fotosensitive und Auslesezeilen im vom Objektiv ausgeleuchteten Bereich. Die Ladung jeder Fotozelle wird direkt in die zugehörige lichtgeschützte benachbarte Zelle geschoben und diese Zeile dann ausgelesen. FITs sind eine Kombination der beiden Designs.
FTs erreichen einen Füllfaktor von nahezu 100%, sind aber anfällig gegen Zweitbelichtung im Auslesezeitraum (engl.: smear). ILTs und FITs weisen einen reduzierten Füllfaktor auf, sind aber in der Auslesephase nicht so empfindlich.
Als Füllfaktor bezeichnet man das Verhältnis von optisch sensitiver Fläche zur Fläche für die Ansteuerelektronik einer Zelle. Dadurch wird er auch ein Maß für die Lichtempfindlichkeit, vorausgesetzt die Basistechnologie ist vergleichbar.

CMOS Sensoren messen kontinuierlich den vom Licht induzierten Fotostrom. Man nutzt die Proportionalität von induzierter Ladung bzw. Sperrstrom und Beleuchtungsstärke an einer Fotodiode. (Korrekt ausgedrückt, misst man den Strom zur Umladung der Sperrschichtkapazität am pn-Übergang der Fotodiode. Man kann sich einen Kondensator parallel geschaltet zur Diode vorstellen, der durch Lichteinfall entladen wird. Es gibt verschiedene Realisierungsmöglichkeiten für entsprechende Schaltungen.)
Die Zellenstruktur und Beschaltung ähneln sehr stark dem Aufbau eines DRAMs, und so sind auch schon mit aufgeschabten Speicherbausteinen experimentelle Aufnahmen gemacht worden.
Ein PPS (Passive Pixel Sensor) funktioniert ähnlich einem CCD ILT. Die durch Beleuchtung in einer fotosensitiven Zelle, meist eine Fotodiode, generierten Ladungen werden Zelle für Zelle direkt ausgelesen und außerhalb des fotoaktiven Bereichs verstärkt und analog/digital gewandelt.

CMOS APS Pixelzelle
CMOS APS mit globalem shutter

Heutzutage geht der Trend zum APS Prinzip. (Active Pixel Sensor. Das Akronym hat nichts mit dem APS-C Format zu tun.) Hier arbeiten die fotosensitiven Zellen praktisch nach dem indirekten Prinzip eines CCD Sensors: Die Belichtung einer Fotodiode steuert über einen CMOS Transistor (Verstärker) die Verbindung zur Versorgungsspannung Vcc. Jede Zelle enthält gleich ihre eigene Verstärkerschaltung.
Da Lichteinfall die Fotozelle entlädt, könnte man das mit dem Negativverfahren beim Fotografieren mit Film vergleichen.

Das Bild links zeigt die Struktur einer CMOS APS Zelle. Ablaufbeschreibung: Über den Schalter reset wird eine Vorladung eingebracht. Danach öffnet sich der Schalter wieder und über die Fotodiode D fließt belichtungsabhängig Ladung ab. Damit ändert sich die Ansteuerspannung am Verstärker T und damit die Spannung V. Durch den optionalen Schalter t shutter (falls vorhanden) kann man den Entladevorgang unterbrechen, der Kondensator C steuert den Verstärker dann ganz alleine.

Die Vorspannung (hier über den Schalter reset eingebracht), die jedes Mal bei der Belichtung über die Fotodiode abgebaut wird, ist der Grund für die Sättigungsunempfindlichkeit von CMOS APS im Gegensatz zu CCD Sensoren. Mehr als völlig entladen geht nicht.
Die einfachste Zelle besteht aus drei Transistoren, nämlich dem Schalter für die Initialisierung zu Bild-/Belichtungsbeginn (reset), dem Schalter für das Auslesen (read) und dem eigentlichen Verstärker (T). Diese Schaltung erlaubt nur einen rollierenden Verschluss. Fügt man in die Ansteuerung des Verstärkers eine Art Abtast-Halteglied ein (t shutter und Kondensator C), erhält man einen globalen shutter. Das ist ein elektronischen Verschluss, der auf den ganzen Sensor zum selben Zeitpunkt wirkt.
Mit weiteren Transistoren erhält man zusätzliche Möglichkeiten der Ansteuerung und Verbesserungen der Signalqualität. So kann man mit einer 5- oder 6-Transistor-Zelle Aufnahme und Auslesen voneinander entkoppeln, also bereits wieder einlesen bzw. belichten, während der Ausleseprozess noch läuft.

 

CCD Sensoren

CCD Sensor
EG&G Reticon Frame-Transfer CCD Sensor
HS0512JAQ; 512x512 Pixel auf 8,19x8,19 mm²;
Keramik DIP-Gehäuse; >1 000 fps, monochrom

 

CMOS Sensoren

150 mm Wafer auf blue tape
6-Zoll Wafer mit 45 CMOS Sensoren auf blue tape

 

Farb-Matrixsensor Gehäuster Sensor
Offener CMOS Sensor (die) für die COB Montage
1536x1024 Pixel auf 16,9x11,3 mm²; >1 000 fps, color

 

Diagonales RGB-Farbfiltermuster
Farbfilter in Schräganordnung (Vergrößerung 1 000 x)

Stand der Technik

Doch viele digitale Fotoapparate und Überwachungskameras nutzen offensichtlich noch CCD Sensoren, während bei aktuellen Foto- und Videokameras die CMOS Sensoren nicht wegzudenken sind. In Mobiltelefonen mit Kamerafunktion gelangen praktisch ausschließlich CMOS Sensoren zum Einsatz. Generell geht der Trend hin zur CMOS Technik, zur Kamera auf einem Chip.
Bei hochwertigen Spezialkameras tendiert man manchmal noch dazu die Integration in Grenzen zu halten, um die einzelnen Bereiche wie Analog-, Digitalelektronik, Ansteuerung, Versorgung, ... individuell optimieren zu können.
Im normalen Einsatz schenken sich die beiden Techniken kaum noch etwas. Allerdings liegen bei rauschempfindlichen Spezialanwendungen die CCD Sensoren vorn. Gegebenenfalls gekühlt. Bei Gegenlichtaufnahmen und möglichen Überstrahlungseffekten (spiegelnde Oberflächen, ...) sind wohl CMOS Sensoren die bessere Wahl.
Übrigens: Die oft aufgestellte Behauptung CCD Sensoren seien prinzipiell langsamer als CMOS Sensoren, ist so nicht richtig, schließlich gibt es auch CCD-Hochgeschwindigkeitskamera Sensoren, siehe das Bild ganz oben rechts.

In den Bildern rechts oben: Ungehäustes Silizium Plättchen (engl.: die), ca. 20 mm x 15 mm x 0,5 mm in 0,5 Mikrometer-Technik. Der grünliche Bereich ist der Mosaikfilter. Im umlaufenden dunklen Rand erkennt man 137 kleine Quadrate, engl.: bond lands oder pads, für die spätere elektrische Kontaktierung durch Bonddrähte.
Dieser die wird direkt, also ungehäust, auf die Leiterplatte geklebt und dann gebondet (chip on board; COB). Anschließend wird zum Schutz ein Deckel mit Glasboden übergestülpt und mit der Leiterplatte verklebt. (Natürlich sind auch traditionell gehäuste Chips verfügbar.)

Im Bild rechts unten: 1 000-fache Detailvergrößerung aus der Filtermatrix des CMOS Sensors. Die lichtempfindliche Fläche der Fotozelle, im Bild gelb markiert, weist mit 11 Mikrometer die halbe Weite der Zellgröße von 22 Mikrometer auf. Die um 45° gekippte Schachbrettmuster-Anordnung aus »Bienenwaben« Zellen, wie sie auch Fuji und Sony erfolgreich in ihrer »Super-CCD« bzw. »ClearVid« Anordnung nutzen, ermöglicht gegenüber dem weit verbreiteten Bayermuster eine höhere Auflösung speziell senkrechter und waagrechter Strukturen.

Auch bei Hochgeschwindigkeitskameras machte sich der Wandel bemerkbar. Während typische Systeme aus den 1990ern noch größtenteils gegebenenfalls modifizierte CCD Sensoren nutzten, verfügten Systeme ab Ende der 1990er überwiegend über CMOS Sensoren. Nichtsdestotrotz gibt es weiterhin Systeme mit CCD Sensoren.
Bekannte High-Speed Kamera Sensorschmieden sind Dalsa/Teledyne (Kanada), EG&G Reticon (USA), Fillfactory/Cypress (Belgien), Photobit/Micron/Aptina (USA) oder CSEM (Schweiz).

 

Verbesserungsmöglichkeiten

Mikrolinsen

Das Letzte herausholen. Durch einen Füllfaktor, d.h. dem Verhältnis fotoaktiver zur Steuerelektronikfläche, kleiner eins geht Fläche und damit Empfindlichkeit verloren.
Bei der Struktur von CMOS Sensoren bietet sich der Versuch an mit Mikrolinsen zumindest teilweise für eine Kompensierung zu sorgen. Die Linsen sollen Licht, das auf die »blinden« Stege fällt, zum lichtempfindlichen Teil der Zelle leiten. Speziell bei sehr kleinen Zellgrößen und Füllfaktoren (10 Quadratmikrometer und 30% Füllfaktor und kleiner) werden sie gerne eingesetzt. Die Mikrolinsen werden fotolithografisch direkt auf der Sensoroberfläche aufgebracht. Wegen der Kleinheit der Linsen, Durchmesser wenige hundertstel Millimeter, und ihrer großen Anzahl - pro Zelle (= Pixel) eine Linse - ist das aber ein gewisses Unterfangen und die optischen Eigenschaften sowie die Gleichförmigkeit werden dadurch nicht unbedingt besser. Das führt dazu, dass man eine unterproportionale Steigerung der Lichtempfindlichkeit erreicht. Erkauft wird das durch einen deutlich höheren Aufwand und eventuell sogar durch eine reduzierte Bildqualität aufgrund optischer Fehler und parasitärer Effekte.

 

Rückseitenbeleuchtete CMOS (BSI, engl.: back-side illuminated)

Die Augen und speziell CMOS Sensoren zeigen einen ähnlichen Aufbau. Bei beiden muss das Licht abschattende Versorgungsschichten passieren - Blutgefäße bzw. elektronische Schaltkreise - bevor es auf die lichtempfindliche Schicht trifft. Füllfaktor und Bildqualität werden dadurch reduziert. Mehr noch, mit weiter verkleinerten Strukturen im Halbleiterdesign muss man zwischen Anforderungen der Elektronik und der Optik abwägen. Weitere Miniaturisierung und kürzere Schaltzeiten sowie Stromsparmaßnahmen führen zu kleinen, rauschenden Fotozellen. Beispielsweise klafft zwischen den Standard Designregeln (Strukturgröße, Leiterbahnbreite, Gateweite) der aktuellen DRAM- und CPU-Technologien und den CMOS Sensor Anforderungen eine Lücke von Faktor 50 oder mehr. (Aktuell in 2013 beträgt die Strukturbreite 28 nm!) Zudem sind die Transistoren in der Schaltungslogik auf Schnelligkeit getrimmt und schalten digital mit (Über-) Sättigung (Bang-Bang oder Ein-/Aus Schalter), während die fotoelektrischen Elemente analog auszulesen sind und eine Übersättigung möglichst vermieden werden soll.

Deswegen die Idee den Sensor von unten her abzutragen, zu »dünnen« (engl.: grinding), und dann zu stürzen. Die Versorgungselektronik liegt dann unten, die Fotozellen in der Mitte und obenauf kommen die Farbmaskierung und etwaige Mikrolinsen.
Die Lücke zwischen immer kleiner werdenden CMOS Standarddesigns und Sensoranforderungen lässt sich dadurch verringern, was die Sensoren auch durch die Integration von weiterer Elektronik preiswerter macht und Defizite, wie z.B. die inzwischen für die Eindringtiefe der Lichtstrahlen nicht mehr tief genug liegende p/n-Übergangsschicht, kaschiert.
Herstellungstechnisch nicht gerade ganz ohne (u.a. muss der Wafer sehr dünn geschliffen werden), aber ähnliches gab es schon mit ausgewählten CCD Sensoren.
Für mehr Info siehe:

Oft werden die Sensoren jedoch noch in Technologiefamilien mit größerer Strukturbreite als aktuelle DRAMs oder Prozessoren gefertigt. Das gilt vor allem bei hochwertigen Kameras.

 

Gekrümmte Sensoren (engl.: curved sensors)

Die Abbildung des Objektives findet traditionell auf einer ebenen Fläche, der Filmebene, statt. Die mathematisch korrekte Abbildung erfolgt aber auf einer minimal gekrümmten Fläche, der sogenannten Petzval Schale, speziell bei einfachen Objektiven (Astigmatismus und Bildfeldwölbung). Zur Optimierung u.a. der Tiefenschärfe werden deshalb aktuell kreisbogenförmig gekrümmte Sensoren angeboten.
Sei es, dass der Sensor tatsächlich gekrümmt ist, oder eine ortsabhängige wegverlängernde Beschichtung oder entsprechende Optiken angebracht sind.

 

Objektive und Optiken

Objektivanschluss, Auflagemaß, Brennweite und Crop-Faktor

Das wichtigste Kriterium bei der Wahl des Objektives ist zunächst welcher Objektivanschluss (engl.: mount) vom Kameragehäuse vorgegeben wird. Der Mount oder Adapter bestimmt das Auflagemaß (engl.: flange-back, back focus). Es wird zwischen dem letzten zylindrischen Absatz des Objektivgehäuses vor dem Gewinde und der Film- bzw. Sensorebene gemessen. Somit ist also der Abstand zwischen Optik und Bildebene mount-spezifisch. Bei einem Objektiv aus einer anderen Mount-Familie stimmt möglicherweise die Brennweitenaufschrift des Objektives nicht mehr, soweit es sich überhaupt scharfstellen und befestigen lässt. Bei C-Mount beträgt das Auflagemaß z.B. 17,526 mm und bei CS-Mount 12,5 mm. Sieht man auf einmal die Irisblende mehr oder weniger scharf abgebildet und sonst nichts, hat man ein CS-Mount Objektiv auf eine C-Mount Kamera geschraubt. (Mit einem 5 mm Zwischenring passt aber ein C-Mount Objektiv auf eine CS-Mount Kamera.)

Crop Faktor
Bildkreis, Format und Crop-Faktor

Innerhalb einer Mount-Familie gibt es diese Probleme nicht. Alle zugehörigen Objektive besitzen das gleiche Auflagemaß, das jeweilige Bild entsteht somit am selben Ort. Der Unterschied besteht lediglich in den verschiedenen Größen der kreisförmigen Bilder, welche die Objektive in der Bildebene liefern. Angegeben wird das Format des Sensors, der vom Objektiv noch ausreichend und ohne zu große optische Verzeichnungen ausgeleuchtet wird. Liegt der Sensor also komplett innerhalb dieses Bildkreises ist alles in Ordnung. Ist er größer, sind die aufgenommenen Bilder weitestgehend scharf, die Ecken neigen jedoch zur Unterbelichtung (Schlüssellocheffekt, Vignettierung). So können insbesondere die C-Mount Objektive der großen Formate für eine C-Mount Kamera mit kleinerem Format meist ohne Probleme verwendet werden, z.B. ein 1 Zoll-Objektiv auf einer 2/3 Zoll-Kamera. Umgekehrt eben nur eingeschränkt, siehe Sensor C im Bild links.

Die Abbildung links illustriert den Crop-Faktor, auch Brennweitenverlängerung genannt. Das ist eigentlich ein Pseudoeffekt, denn die Brennweite ist eine unveränderliche Eigenschaft des jeweiligen Objektives. Der unterschiedliche Bildeindruck, speziell der Bildwinkel (auch Öffnungswinkel, Blickfeld), entsteht lediglich dadurch, dass bei der Darstellung auf einem Monitor (oder Ausdruck) das Bild eines kleineren Sensors (B) stärker vergrößert wiedergegeben wird. Seine Pixel liegen enger beieinander als die beim großen Sensor (A) und werden sozusagen gespreizt dargestellt, freilich ohne dass dadurch die Qualität leidet. Entsprechende Auflösung (Pixelanzahl) vorausgesetzt.
Der Sensor muss zumindest innerhalb des Bildkreises des Objektives, bezeichnet als »Format«, liegen, sonst tritt Vignettierung auf (C).

Vergleicht man zwei formatfüllende Aufnahmen eines Objekts, z.B. eine von einer C-Mount Kamera mit 1/3 Zoll Sensor und eine von einer mit 2/3 Zoll Sensor, sieht man eigentlich keinen Unterschied. Am Monitor sind sie beide gleich groß.
Da die Bilder aber auf unterschiedlich großen Sensorflächen entstehen, muss die Vergrößerung beim kleineren Sensor (hier B) kleiner sein, damit das Bild noch auf ihn passt. Das selbe »XY Millimeter«-Objektiv vor einem größeren Sensor (hier A) wirkt deshalb beim Einsatz an einer Kamera mit kleinerem Sensor, als hätte es eine längere Brennweite und umgekehrt. Aber nur wenn man die Aufnahmen auf Basis der Öffnungswinkel vergleicht (= was beim selben Objektiv auf den jeweiligen Sensor passt). In soweit gehören Brennweite und Bildformat zusammen und bestimmen den Abbildungsmaßstab. Der Bildkreis ist jedoch allein abhängig vom Objektiv. Und die Brennweite ebenfalls.

Allenfalls könnte man den Begriff »effektive Brennweite« einführen, aber worauf beziehen? Oft wird im allgemeinen Sprachgebrauch dieser Pseudoeffekt der Brennweitenverlängerung, wenn man das selbe Objektiv auf eine Kamera mit kleinerem Sensor schraubt, als (digitaler) Crop-Faktor bezeichnet:

Crop-Faktor = 43,3 mm / Sensordiagonale [mm]

Der Wert (ca. 1,5 ... 2 beim Vergleich typischer digitaler SLR-Kameras gegenüber Kleinbildkameras mit 24 mm x 36 mm und damit 43,3 mm Diagonale; daher dann manchmal auch der Ausdruck »XY mm Kleinbildäquivalent«) gibt an, um wie viel sich die Brennweite anscheinend verlängert, weil die Sensordiagonale letztlich um diesen Faktor kleiner ist. Die englische Bezeichnung (crop = zurechtschneiden) wird dem Vorgang also eher gerecht, als der deutschsprachige Begriff. Beim kleineren Sensor geht eben viel Bild daneben. Man sieht nur das Zentrum und interpretiert das als Tele/Zoom Effekt, wenn der Monitor den Sensor Bildschirm füllend darstellt, siehe obiges Bild.

Bei hohen Ansprüchen sollte man allerdings berücksichtigen, dass der Bereich mit optimal korrigierten Abbildungsfehlern kleiner ist als der maximal ausgeleuchtete und dass kleinere Formate wegen der höheren Pixeldichte qualitativ bessere Objektive benötigen. Abgesehen davon sollte man die Bildqualität einer guten Kamera nicht durch einen besseren Flaschenboden als Objektiv ruinieren. Dann bleibt das Bild bis in die Ecken scharf.

In der professionellen Fotografie macht man mit Wechselobjektiven im großen Umfang Gebrauch von den damit verbundenen Möglichkeiten.
Ist die Brennweite eines Objektives etwa so groß wie die Formatdiagonale spricht man gern vom »Normalobjektiv« für dieses Format. Bei Kleinbildkameras wären das ca. 50 mm ±5 mm, siehe auch den nächsten Abschnitt und [SloMo Tipps]. Dann entspricht der Öffnungswinkel etwa dem (scharfen) Gesichtsfeld des Menschen.

 

Formate

Doch eine wichtige Angabe: Bei CCTV-Videokameras wird gern das Format oder Bildfenster, d.h. die Größe des optisch aktiven Bereichs auf dem CCD oder CMOS Sensor, in Zoll angegeben. Die etwas willkürlichen Maßangaben stammen noch aus der Vidicon Röhrenära. Auf deren (Stecksockel-!) Abmessungen gehen die Werte zurück. Als Basis dient der zöllige Sensor mit einer Diagonalen von ca. 16 mm:

Zölliges Format ≈ Sensor Diagonale [mm] / 16 mm

obwohl ein Zoll eigentlich 25,4 mm misst.

(Legende: fps = frames per second, dt.: Bilder pro Sekunde jeweils bei Vollauflösung einiger ausgewählter Hochgeschwindigkeitskamera Matrix Sensoren mit denen ich gearbeitet habe.)

Format [Zoll] Breite [mm] Höhe [mm] Diagonale [mm] Bemerkung
1/10 ~ 1,44 ~ 1,08 ~ 1,8 autarke CCD Kamera für den medizinischen »in corpore« Einsatz (zum Runterschlucken)
1/8 ~ 1,626 ~ 1,219 ~ 2,032 CMOS Kameras für Sonderzwecke
1/7 ~ 2,055 ~ 1,624 ~ 2,619 CMOS Kameras für Pads, Smart- und Mobiltelefone, ...
[128² pixel] 2,048 2,048 2,896 Dalsa CA-D1-0128A CCD, 736 fps (optimiert 2 020 fps)
1/6 2,4 1,8 3,0 Einplatinenkameras für Sonderzwecke
1/5 2,88 2,16 3,6 Einplatinen- oder Einfach-Kameras, Webcams, ...
1/4 3,6 2,7 4,5 Kameras für Überwachungsaufgaben (typisch mit Nadelöhrobjektiv)
[256² pixel] 4,096 4,096 5,793 Dalsa CA-D1-0256A CCD, 203 fps (optimiert 531 fps)
1/3 4,8 3,6 6,0 Kameras in der Automatisierung (»Machine Vision«)
1/2 6,4 4,8 8,0 v.a. tragbare TV-Video-Kameras, oft 3-Chip Version
1/1,8 7,2 5,4 9,0 Standard- (CCD/CMOS) Fotokameras
2/3 8,8 6,6 10,991 Standard im Bildverarbeitungsbereich
[512² pixel] 8,19 8,19 11,582 EG&G Reticon HS0512JAQ CCD, 1 000 fps (optimiert 1 094 fps)
16 mm Film 10,3 7,5 12,7 16 mm Film Kameras (Stalex, HYCAM), 3 000 fps, 10 000 fps
1 12,7 9,525 15,875 professionelle (Studio) TV-Video-Kameras
[1280x1024 pixel] 15,36 12,29 19,67 Photobit MV-13 CMOS (Aptina MT9M413C36ST C/M), 500 fps
[1536x1024 pixel] 16,896 11,264 20,306 FhG/CSEM Cam 2000 Visario CMOS, 1 106 fps
1¼ (30 mm) 17,1 12,8 21,4 professionelle (Studio) TV-Video-Kameras
4/3 (»Four Thirds«) ~ 18,0 (nicht def.) ~ 13,5 (nicht def.) 22,5 semi-professionelle digitale SLR Fotoapparate
35 mm Film 22,05 16,03 27,85 professionelle 35 mm Filmkameras
APS-C (24,0) 25,1 ... 25,5 (16,0) 16,7 ... 17,0 ~ 30,15 APS-C Film- und Sensorfotoapparate
Kleinbild 36,0 24,0 43,3 Kleinbild-Fotoapparate und »Vollformat« Digitalkameras

 

Blende

Der Lichteingang: Die Blende (engl.: f-stop) reduziert die Lichtmenge, die auf den Sensor oder den Film fällt. Die Blendenzahl ist definiert als k = Brennweite / effektiver Öffnungsdurchmesser. Auf dem Blendenring sind die Blendenzahlen als Wurzel-2-Fache aufgedruckt (1,4 - 2 - 2,8 - 4 - 5,6 - 8 - 11 - 16 - 22 - 32 - 64). Mit zunehmender Blendenzahl reduziert sich die durchgelassene Lichtmenge so, dass man pro Stufe nur die Hälfte der Intensität erhält.
Der Kehrwert der kleinsten Blendenzahl wird gerne »Lichtstärke« genannte. Will man jedoch zwei Objektive, die die identische Bildhelligkeit liefern, braucht man identische T-Blenden (engl.: t-stop), definiert als t-stop = 10 × f-stop / √ Transmission [in %], so wie sie bei Objektiven von Spielfilmkameras üblicherweise angegeben werden.
Bei gleich großem Sensor vergrößert eine kleiner Blendendurchmesser (= große Blendenzahl) den Tiefenschärfenbereich, vgl. [SloMo Tipps].

 

Zoom Objektive, digitale Objektive und Auflösung

Die Bezeichnung Zoom steht für Objektive, die durch meist stufenlose Brennweitenvergrößerung innerhalb eines vorgegebenen Brennweitenbereiches Objekte heranholen können. Gewöhnlich sind sie groß, schwer, teuer und lichtschwach. Nach Möglichkeit sollte man lieber Wechselobjektive verschiedener, aber fester Brennweiten verwenden. Es gibt echte Zoom Objektive, bei denen das Bild während der Zoomfahrt scharf bleibt, und Vario Objektive, bei denen man auch die Brennweite verändern kann, man aber zugleich auch nachfokussieren muss.
Mit »Digitaler Zoom« oder »Elektronischer Zoom« bezeichnet man die Vergrößerung eines Bildausschnittes mit Mitteln eines (einfachen) Bildverarbeitungsprogrammes. Große Zoomstufen führen zu pixeligen Bildern. Normalerweise ist elektronischer Zoom kein würdiger Ersatz für ein entsprechendes Zoom Objektiv, auch wenn er gerne so vermarktet wird.
Übrigens, ähnliches Thema: »5x Zoom« sagt nichts über die Vergrößerung eines Objektives, sondern nur, dass seine kleinste einstellbare Brennweite 5 mal kleiner ist als seine größte.

In der Zwischenzeit werden auch »digitale« Objektive, oder manchmal auch telezentrische Objektive genannt, angeboten. Sie sind so konstruiert, dass bildseitig ein möglichst senkrechter Strahleneinfall auf den Sensor erreicht wird. Damit wird der schachtartigen Pixelstruktur Rechnung getragen, die sich speziell bei kleinen Sensoren mit hoher Pixeldichte durch Störungen wie Beugung, Abschattung, Fehlfarben, Dämpfung, ... nachteilig bemerkbar macht. (Gerade die kleinen, preiswerten Sensoren benötigen aufwändige und teure Objektive.)
Solche Objektive als telezentrisch zu bezeichnen ist aber falsch. Dieser Typ von Spezialobjektiven bildet ein Objekte unabhängig von seiner Entfernung gleich groß ab. Man nutzt diese Optiken speziell in der Bildverarbeitung zu Messaufgaben. Wenn man damit z.B. in ein Rohr blickt, verjüngt es sich nicht mit zunehmender Entfernung, sondern es sieht wie eine Beilagscheibe aus und man kann problemlos den Innendurchmesser und die Wandstärke bestimmen. Bei einer üblichen Landschaftsaufnahme ergäbe sich der skurrile Effekt, dass z.B. Straßen, die zum Horizont laufen, sich nicht verjüngen.

Befasst man sich mit dem Begriff Auflösung, ist es sehr empfehlenswert sich mit der MTF Kontrastübertragungsfunktion vertraut zu machen, exzellent erklärt z.B. unter Optik für die Digitale Fotografie (www.schneiderkreuznach.com/knowhow/digfoto.htm).

 

Glasverzug (= axialer Bildversatz)

Der trifft einen eher selten. Bringt man einen dünnen Filter vor dem Objektiv an, hat das auf die Bildlage des optischen Systems praktisch keine Auswirkungen. Das ändert sich aber drastisch, wenn man hinter dem Objektiv ein Schutzglas, einen Filter oder einen LC-shutter einbringt. Diese planparallelen Platten führen zum sogenannten Glasverzug

Δd = (1 - 1/n) × d

mit dem Brechungsindex n und der Dicke d des Plättchens (nLuft ≡ 1).

Bei einem Glasplättchen läge das Bild damit ca. 1/3 seiner Dicke hinter dem Sensor, weil sich das effektive Auflagemaß entsprechend verlängert. Es muss eine Mechanik vorgesehen werden, die diese zusätzliche Distanz zwischen Objektiv und Kameragehäuse, genauer dem Sensor, entsprechend ausgleicht.
Deswegen auch die Gewindestifte bzw. Einstellmechaniken an Objektivadaptern z.B. von Kameras, die für den wahlweisen Einbau eines internen LC-shutters oder eines zusätzlichen internen (IR-Sperr-) Filters vorbereitet sind oder die auch IR tauglich sein sollen.

 

Tipps und Tricks rund um die Aufnahmerealisierung finden Sie hier:

TOUR

 



HOME


Hilfe

©WP (1998 -) 2013
http://www.fen-net.de/walter.preiss/d/slomoinf.html
Stand: V8.6, 2013-12-06


ZURÜCK


TOP