WP's HP: HOME | SloMo: Links ~ FAQ ~ Info ~ [Tipps] ~ Daten ~ Clips ~ HYCAM ~ Freq. ~ Fokus Kalkulator ~ Trigger ~ Bildspeicher | Hilfe? | English


WP's SloMo - Tipps und Tricks

Gehäuster Sensor
Farb-CMOS Sensor

Das normale Umgebungslicht im Büro oder in einer Fertigungshalle reicht bei den meisten monochromen Video-Hochgeschwindigkeitskamerasystemen noch. Sie zeigen Empfindlichkeiten irgendwo zwischen einigen hundert und einigen tausend ASA bei nominaler Aufnahmefrequenz, abhängig von der Verstärkung. Farbversionen zeigen gewöhnlich nur ca. 25% davon.

 

Aufnahmetipps

Auswertung und Messung

Tricks zur Systemintegration

Reinigung von Objektiven, Sensoren und LC-Shutter

Δ

Aufnahmetipps

Beleuchtung, Blende und Dynamik

Doch es gilt: Viel hilft viel. Je mehr Licht zur Verfügung steht, desto weiter kann man die Blende schließen, d.h. eine höhere Blendenzahl einstellen, und damit die Schärfentiefe verbessern. Ab Blende 8 ist es ganz in Ordnung, aber 5,6 reicht auch schon.
Zu viel Licht gibt es eigentlich nicht - man kann durchaus die glühende Wolframwendel eines 500 W Halogenstrahlers, eine Laserschweißung oder eine elektrische Entladung aufnehmen. Problematisch ist nur die Helligkeitsdynamik der Kamera. Das gilt eigentlich für alle elektronischen Kameras. Schön kann man das an einer Aufnahme aus der Tiefe eines Raumes hinaus durchs Fenster sehen. (Deswegen sind bei Interviews in Büroräumen auch gerne die Vorhänge zugezogen oder die Jalousien geschlossen. Daneben spiegeln sich dann auch die Scheinwerfer nicht so. Bis HDRI (High Dynamic Range Image) groß Einzug in die Videotechnik findet, wird es wohl noch dauern.) Die üblichen 8 bis 12 Bit bzw. 256 bis 2 048 Helligkeitsstufen (d.h. Graustufen) sollten möglichst gut ausgenutzt werden, auch wenn schon 64 Graustufen (6 Bit) einen ausreichenden Bildeindruck hinterlassen. Will man die weniger hell erleuchtete Umgebung noch sehen, muss man sie entsprechend ausleuchten. Vergleichbar dem Füllblitz bei der Fotografie.
Übrigens, falls es doch einmal zu hell sein sollte, sorgen Graufilter (neutral density, kurz: ND; dt.: neutral, ohne Farbstich) für Abhilfe. Oder selektive Filter, die z.B. die Wellenlänge eines Schweißlasers ausblenden, nicht aber die des Schweißguts. Viele Objektive besitzen dafür Gewinde.

Praxisbeispiel: Will man den Funkenflug beim Feuerzeug aufnehmen und die Hand, die das Feuerzeug hält, noch abbilden, sollte man sie mit mindestens 1 000 W beleuchten (siehe Aufnahme 2 mit und 3 ohne Zusatzbeleuchtung in [SloMo Clips]).

Nebenbei: Die Dynamik wird oft in der Einheit Dezibel [dB] angegeben. Der Zusammenhang zu Bits und Bytes erschließt sich aus den folgenden Formeln:

x [dB] = 20 × log y bzw. y = 10x/20

Wobei x für den Wert in dB steht und y für die Anzahl der Empfindlichkeitsstufen.

Damit entsprechen 8 Bit (= 28 = 256) also 20 × log 256 = 48 dB, während 60 dB für 1060/20 = 1 000, also ca. 10 Bit (210 = 1 024) Dynamik stehen. 12 Bit wären somit ca. 72 dB.
Das sind typische Werte.

Als technische Begriff wäre in diesem Zusammenhang der Signal-Rauschabstand zu nennen, der angibt um wie viel stärker das Nutzsignal »belichtetes Bild« gegenüber störenden Effekten ist - nicht zuletzt entstehen Ladungen in einem Pixel (eigentlich: Fotozelle) auch spontan und zufällig, völlig ohne Belichtung, allein thermisch bedingt. Und der Begriff full well capacity, der angibt wie viel Ladung eine Fotozelle überhaupt generieren kann bevor die Sättigung eintritt, mehr Licht also keine weiteren Ladungsträger erzeugt. Hier spielen großflächige Pixel ihre Vorteile bezüglich der Dynamik aus.

Abtasttheorem (Nyquist-Shannon-Kotelnikov)
Zum Flackerbeleuchtung Effekt [SloMo Freq.]

Mehr über das Licht -
Foto hf:

Foto

Die Profis verwenden zumindest Halogenscheinwerfer in Studioqualität (definierte Farbtemperatur, ...), Kaltlichtquellen (geringer Infrarotanteil), wenn nicht sogar HMI-Leuchten (tageslichtähnliches Spektrum) und Gleichspannungsleuchten, um das Flackern mit der 50 Hertz Netzfrequenz (1 Hz (Hertz) = 1/sek) zu eliminieren.
Es gibt doch tatsächlich Lampen, die im Betrieb an und aus gehen, ohne dass man es im Normalfall wahrnimmt. Selbst Leuchtdioden können flackern, teils ungewollt wegen einer nicht gut genug stabilisierten Gleichspannungsversorgung, aber auch beabsichtigt. Denn der maximale Strom und damit die (momentane) Helligkeit der LEDs im Blitzbetrieb darf nämlich deutlich höher sein als bei kontinuierlichem Betrieb. (Geeignet synchronisiert werden sie gerne eingesetzt, da sie kaum Wärme abstrahlen.)
Bei einer Aufnahme mit Licht hauptsächlich von den üblichen Leuchtstoffröhren der Deckenbeleuchtung kann die Helligkeit dann auch deutlich pumpen, siehe Abbildung links und für Details [SloMo Freq.] klicken. Der Effekt ist auch von den flimmernden Zeitlupenbildern bei Fernsehübertragungen her bekannt. (Die gute alte Glühbirne hatte also doch ihre Berechtigung. ;-)

Wegen der unterschiedlichen Farbtemperatur der Lichtquellen, z.B. leuchtet die Wolfram-Glühwendel einer Halogenlampe langwelliger oder wärmer (d.h. rötlicher oder gelblicher) als Tageslicht, bieten elektronische Kameras als Ausgleich den sogenannten Weißabgleich (engl.: white balance) an. Dann wird Weiß wieder Blütenweiß.

Aber Vorsicht: Ein Halogenstrahler mit einer Nennleistung von 1 000 W heizt mit ca. 900 W. Das kann reichen um Plastik in weniger als 1 m Entfernung innerhalb von kurzer Zeit anzuschmelzen.

 

Belichtungszeit und Blende

Belichtungszeitdiagramm
Funktionsweise von Shutter und (Apertur-) Blende

 

Externer LC-Shutter im Gewindegehäuse Interner Shutter auf Platine
(Flüssigkristall-) LC-Shutter mit Displaytechs FLCs.
Vorgesehen für externe oder interne Montage.
Versorgung und Steuerung über die Kameraelektronik

Die Belichtung, besser, die maximale Belichtungszeit von Hochgeschwindigkeitskameras, beträgt meist nahezu 1/Aufnahmefrequenz. Bei z.B. 1 000 Bildern pro Sekunde kann die Belichtungszeit pro Bild also allerhöchstens 1/1000 Sekunde betragen. Der Sensor integriert während dieser Zeitspanne über die einfallende Lichtmenge.

Der Sensor ist praktisch während der gesamten Belichtungszeit eines Bildes aufnahmefähig. Die grauen Flächen unter den Kurven im Bild rechts oben sind ein Maß dafür. Der schmale Spalt zwischen den Bildern (engl.: frame) ist die Auslese- und/oder Initialisierungszeit des Sensors im Bereich von einigen Mikrosekunden oder weniger.

Das Schließen der Objektivblende (engl.: aperture, f-stop) verringert die einfallende Lichtmenge global für alle Bilder. Je größer die Blendenzahl, desto kleiner wird die Irisblende und desto weniger Licht fällt auf den Sensor.

Ein Shutter (dt.: Verschluss) reduziert ebenfalls die einfallende Lichtmenge, allerdings durch eine wiederkehrende (feste) Reduktion der Belichtungszeit pro Bild. Technisch gesprochen ändert er das Impuls-Pausen-Verhältnis (engl.: duty cycle) und verkürzt die Zeit in der ein Bild effektiv aufgenommen wird.

Während die Blende also insgesamt die Belichtungsintensität beschränkt, dient ein Shutter hauptsächlich dazu die Bewegungsunschärfe zu reduzieren. Denn bewegt sich das Objekt in der Belichtungszeit um mehr als 10% seiner Größe, wird dies gewöhnlich als störend empfunden. (In der Fotografie akzeptiert man gerade einmal bis 3%.)

Es gibt verschiedenen Methoden die Bewegungsunschärfe zu reduzieren:

Viele aktuelle Systeme verfügen standardmäßig über einen mehr als zehn mal schnelleren elektronischen Verschluss im Chipdesign und brauchen somit keinen zusätzlichen LC-Shutter. Belichtungszeiten von Mikrosekunden und darunter sind weniger ein technisches Problem, als ein Exportkriterium in Form von Dual Use Beschränkungen (militärische Verwendung und Proliferation).
Für diejenigen, die mehr wollen oder brauchen - in diesem Fall kürzere Belichtungszeiten - hilft z.B. eine Kerr-Zelle oder eine Pockels-Zelle, eventuell auch eine Mikrokanalplatte (engl.: microchannel plate, MCP). Natürlich gibt es auch mechanische Shutter und auch Chopper (dt.: Zerhacker) in Form von Spalten- oder Lochrädern.

Anmerkung: Im Gegensatz zum oben beschriebenen, auf den gesamten Sensor gleichzeitig operierenden globalen Verschluss (auch engl.: snap-shot shutter, freeze frame shutter), gibt es auch den zeilenweise arbeitenden rollierenden oder Schlitzverschluss (engl.: rolling shutter). Für die Bewegungsanalyse sind Kameras mit ersterem vorzuziehen, da bei diesem Scannen des Sensors nicht gewährleistet wird das resultierende Bild zu einem definierten Zeitpunkt aufzunehmen und entsprechende Artefakte entstehen können.

Mit der Verschlusszeit kann man selbstverständlich auch die Bildhelligkeit variieren, wenn man den Blendenring nicht verstellen kann oder will. Letzteres betrifft mehr die künstlerische Annäherung, denn die Schärfentiefe ist von der Blende abhängig. Mit größerer Blendenzahl nimmt sie zu. Wer's braucht...

 

Schärfentiefe (auch Tiefenschärfe)

Die Bezeichnung des Abstandsbereichs, in welchem Objekte scharf abgebildet werden. Es ist deswegen nicht nur ein Punkt, wie es die Aufschrift auf dem Entfernungsring (Fokus) nahe legt, weil innerhalb eines Toleranzbereiches der Sensor oder auch das Auge nicht besser auflösen können. Wird ein Punkt jeweils innerhalb des sogenannten bildseitigen Unschärfekreises (auch Zerstreuungskreis; ca. 0,01 mm bis 0,025 mm Durchmesser bei gängigen Sensorformaten und 0,033 mm beim Kleinbildformat) abgebildet, bemerkt man die Unschärfe nicht.

Die Lage und Ausdehnung ist maßgeblich von der Blende abhängig: kleine Blende (= große Blendenzahl) - große Schärfentiefe. Wobei sie sich hinter der rechnerischen Position des Fokusabstandes weiter ausdehnt als davor.
Die Schärfentiefe wird gesteigert durch kürzere Brennweite und größeren Objektabstand. Größeres Film-/Sensorformat bzw. genauer größere Pixel ebenfalls, erlauben aber auch sie zu reduzieren. (Wegen des Crop-Faktors vergrößern geschrumpfte Sensoren die Schärfentiefe zwangsweise.)

Es gibt eine etwas unhandliche Berechnungsformel, siehe den Abstands- und Brennweitenrechner [SloMo f = ∞]. Aber Schärfentiefe ist sowieso ein Unwort bei Hochgeschwindigkeitsaufnahmen in Industrieumgebung (meist ist die Blende der »Finstermatik« sowieso bis zum Anschlag offen ;-).

Die Einstellung auf die sogenannte hyperfokale Entfernung h bewirkt, dass von h/2 bis Unendlich scharf abgebildet wird. Dies wird dann auch als Fixfokus oder Naheinstellung bezeichnet und wird speziell bei einfachen Kameras eingesetzt.
Billige Objektive, speziell CS-Mount für Überwachungskameras, verfügen oft nicht einmal über einen Entfernungsring. Sie werden nur über die Blende scharf gestellt. Für die nötige Helligkeit muss hier die elektronische Verstärkung (engl.: gain) der Kamera sorgen.

 

Bildausschnitt und Objektiv

Die Aufgabe erfolgreich meistern: Das was interessiert möglichst formatfüllend abbilden. Bei C-Mount geht es durchaus mit Zwischenringen (im Set weniger als € 50,-) und Objektiven fester Brennweite oder einer zusätzlichen Nahlinse ein Objekt mit 5 mm Durchmesser bildschirmfüllend aufzunehmen. Bei Aufnahmen, die anschließend automatisch ausgewertet werden sollen (z.B. per Bahnverfolgung), sollte man keine Weitwinkelobjektive mit Brennweiten unter 6,5 mm wählen, da die Verzeichnung sonst nicht mehr tolerierbar ist (bezogen auf C-Mount 2/3 Zoll Format). Als Objektive und Zubehör kann man alles was für den entsprechenden Mount passt verwenden, auch Filter, Makro-, Zoom- und Fischaugenobjektive und mit entsprechenden Adaptern auch Fotoobjektive, Balgen, Mikroskope, Endoskope, Boroskope, Faseroptiken, Restlichtverstärker, ... Nur sollte man beachten, je komplizierter die Optik, desto mehr Licht braucht man meist.

Der Foto-Fachhandel bietet Adapter zum Anpassen gängiger Objektivanschlüsse an, z.B. C-Mount auf Nikon Bajonett (Nikon F). Einige Hochgeschwindigkeitskameras erlauben (wie auch viele professionelle Standbildkameras) darüber hinaus, dank einer Montageplatte/Referenzebene, die Wahl zwischen zahlreichen (kunden-) spezifischen Adaptern, wie die verbreitete Nikon F und C-Mount sowie anderen wie z.B. PL, Kinoptik oder Stalex (M42).

Abbildung
Zum Brennweitenrechner [SloMo f = ∞]

Eigentlich gibt die Brennweitenaufschrift auf Objektiven die bildseitige Brennweite bei Abbildung eines unendlich weit entfernten Objektes bei 546 Nanometer Wellenlänge an. Dann geschieht die Bilderzeugung im bildseitigen Brennpunkt.
Die Definition nach der DIN 4521 Norm lautet:

f' = limω-->0 (y'/tan ω)

Mit dem halben Feldwinkel ω und der halben Bilddiagonalen y'.
(Im Folgenden wird der Feldwinkel wegen der formatfüllenden Aufnahme vereinfachend aber praxistauglich mit dem Bildwinkel gleichgesetzt und f' mit f als der Brennweitenbeschriftung des Objektives.)

Die Faustformel zur überschlägigen Berechnung der nötigen Brennweite zur format- oder sensorfüllenden Abbildung S lautet

Brennweite = Distanz zum Objekt / (1 + Objektgröße / Bildgröße); [alle Werte in mm]

Und die Abschätzung für die nötige Distanz bei gegebener Brennweite lautet

Distanz zum Objekt = Brennweite × (1 + Objektgröße / Bildgröße); [alle Werte in mm]

 

Der Bild- oder Öffnungswinkel 2ω (engl.: angle of view, field of view; ≡ 2ω', siehe Bild oben) ergibt sich aus

2ω = 2 × arctan (1/2 × Bildgröße / Brennweite)

Die Vergrößerung V ergibt sich aus der Linsenabbildung auf den Sensor und aus der Darstellung des Bildes auf dem Monitor

V = Brennweite / (Distanz zum Objekt - Brennweite) × Monitorbilddiagonale / Sensordiagonale

Man muss aber die Beschränkungen von Standard-Objektiven beachten. Unterhalb eines Abstands von 0,3 m (manchmal auch 1 m) zum Objekt lassen sie sich nicht mehr scharfstellen. Bei einem solchen Anwendungsfall braucht man Zwischenringe, eine Nahlinse oder ein Mikro(skop)-Objektiv, etc.

Die Dicke t des Zwischenringes, der zwischen Objektiv und Kameragehäuse eingeschraubt wird, ergibt sich aus

t = Bildgröße / Objektgröße × Brennweite

wobei der Bruchausdruck Bildgröße / Objektgröße der Abbildungsmaßstab ist. Aber Vorsicht, so einfach sie auch sind - Zwischenringe fressen Licht.

 

Feineinstellung des Auflagemaßes

Der Fehler beim Auflagemaß ergibt sich offensichtlich durch Fertigungstoleranzen, Fehlanpassungen (Inkompatibilität von Komponenten) und in den Strahlengang zwischen Objektiv und Film bzw. Sensor eingebrachte Medien. Und bei crashfesten Kameras geht die mechanisch Festigkeit über alles, auch über (zu filigrane) Justagemechaniken.
Vorausgesetzt man verwendet den passenden Adapter kommt man bei einem Objektiv mit fester Brennweite durch drehen des Entfernungsrings (Fokus) normalerweise problemlos zu scharfen Bildern. Mag sein, dass dann der Entfernungsaufdruck und der Bildvergrößerungsfaktor nicht ganz stimmen. Meistens stört das aber nicht weiter.
Beim Zoom Objektiv dagegen verliert man während des Zoom Vorganges an Bildschärfe. Eigentlich sollte sie gleich bleiben und sich nur die Vergrößerung (und damit der Bildausschnitt) verändern. Das Zoom Objektiv ist dann nur eingeschränkt als Vario Objektiv verwendbar. Zeitgleich zum Zoomen müsste man immer wieder scharfstellen. Allerdings wird bei Hochgeschwindigkeitskameras eher selten mit solchen Zoom Fahrten gearbeitet.
Zur vollen Nutzung der Zoom Fähigkeit muss das Auflagemaß jedoch genau eingestellt werden. Mit einfachen Mitteln geschieht dies wie folgt:

  1. Blende maximal öffnen um die Schärfentiefe zu reduzieren (gegebenenfalls den Raum abdunkeln, die Belichtungszeit verkürzen, ...)

  2. Ein ca. 3 m bis 7 m entferntes Objekt auswählen

  3. Das Bild bei maximalem Zoom (größte Brennweite) mit dem Entfernungsring scharfstellen

  4. Das Bild bei minimalem Zoom (kleinste Brennweite) durch Änderung des Auflagemaßes scharfstellen. (Der Entfernungsring wird dabei nicht verstellt)

  5. Solange iterieren, bis das Bild in beiden Zoom Positionen ohne Nachkorrektur scharf bleibt

Zur Einstellung des Auflagemaßes verfügen Kameragehäuse entweder über eine in Längsrichtung verschiebbare Gewindebuchse - praktisch Standard bei C-Mount Kameras. Oder es werden Unterlegbleche zwischen Objektivadapter und Kamerakörper eingelegt, wenn nicht sogar im Kamerakörper eine Mechanik zur Änderung der Sensorposition integriert ist. Auch gibt es Objektive, vor allem mit C-Mount, bei denen der kameraseitige Gehäusezylinder verschoben werden kann. Suchen Sie nach einer kleinen Madenschraube im Umfang.
Der IR-Umschalter an hochwertigen Objektiven macht nichts anderes. Er schiebt das Objektiv quasi nach vorne, damit die IR Bilder auf dem Sensor abgebildet werden.

Δ

Auswertung und Messung

Doch bitte vergessen Sie nicht: Sie erhalten große Datenmengen. Eine Megapixelauflösung bei 1 000 Bilder/sek und mehr zieht nun einmal Datenraten im Gigabyte/sek Bereich nach sich. Also mehr als eine CD-R pro Sekunde oder eine große DVD-R pro Sequenz würden gefüllt werden. Und das wohlgemerkt pro Kamera. (Hier in [SloMo Daten] finden Sie die Formel zur Abschätzung der Datenmenge.) Wundern Sie sich also nicht, wenn das Hochgeschwindigkeitskamerasystem beim Download, Abspeichern und Abspielen dieser Dateien ziemlich beschäftigt ist. Und - man sollte sich wirklich vorher ein Konzept für speichern und archivieren der Dateien überlegen.

Die großen Datenmengen sorgen dafür, dass man die Kameras offline einsetzt. Sie somit nicht unmittelbar zur Steuerung heranzieht und sie nicht direkt in eine übergeordnete Maschinensteuerung einbindet. Die Bildverarbeitung wäre einfach zu aufwändig und zu langsam. Man sieht zu und analysiert nachträglich.
(Langsamere Kameras aus dem Bildverarbeitungssektor - Machine Vision Sensoren - können schon heute mit soviel Rechenleistung versehen werden, daher Smart Kameras genannt, dass sie wie ein Sensor arbeiten und nur noch ein Gut-/Schlechtsignal - z.B. »Etikett richtig auf die Flasche geklebt - Ja/Nein?« - an die Steuerung weitergeben und keine Bilddaten zur weiteren Verarbeitung.)

Motion Tracker 2D-Analyze für High-Speed Kameras
Trajektorienauswertung: Translation, Rotation,
Geschwindigkeit, Beschleunigung und Animation

Für die Steuerung von Hochgeschwindigkeitskameras, auch für Mehrkanalsysteme unterschiedlicher Hersteller, ist spezielle Software verfügbar. Die Auswertung erfolgt entweder direkt visuell oder mit Bewegungsanalyse-Software Paketen, sogenannten Motion Tracker. Siehe z.B. die entsprechenden Links in [SloMo Links].
Für die automatische Objektverfolgung mittels Software sollte man darauf achten, dass der Hintergrund möglichst einheitlich gestaltet ist, also keine Gitter-, Schachbrettmuster oder so etwas wie eine Blümchentapete. Das reduziert die Rechenzeit und verhindert, dass die Such- und Verfolgungsalgorithmen ihre Attraktoren im Hintergrund finden und hängen bleiben anstatt das gewünschte Objekt zu verfolgen.


D-Laden

Falls Sie beabsichtigen die Bilddateien im AVI Format zu archivieren, überlegen Sie sich den Einsatz der Komprimierungstools Intel Indeo oder DivX und sparen Sie bis zu 90% Speicherplatz ohne nennenswerten Qualitätsverlust. DivX liefert meist kleinere Dateien, speziell wenn sich wenig im Bildausschnitt bewegt. Indeo dagegen empfiehlt sich für die automatische Weiterverarbeitung, da es die Positionen der Objekte weniger stark manipuliert.
Die AVI Dateien kann man z.B. mit VidEdit! bearbeiten (d.h. Bildformat, Abspielgeschwindigkeit, ... ändern). Für diese und andere Hilfsmittel schauen Sie einfach einmal hier im [D-Laden] (Download Zentrum) nach, siehe Knopf links.

Man nimmt zwar mit Super-Zeitlupe auf um sich schnelle Vorgänge verlangsamt anzusehen, trotzdem sollte man auch einmal schneller abspielen, z.B. mit 25 bis 100 Bilder/sek (bei einem Original mit 1 000 Bilder/sek), sonst geht der Bewegungseindruck verloren. Das gilt vor allem dann, wenn man die Aufnahmen Außenstehenden, die mit der Szenerie nicht so vertraut sind, zeigen will.

Da die Hochgeschwindigkeitskameras auch mit der normalen Geschwindigkeit von 50 Bilder/sek betrieben werden können, ist es möglich einen regelrechten Videoclip zu drehen. Und mit dieser Aufnahmefrequenz auf CD oder DVD überspielt, kann man ihn dem Kunden, für den man die Anlage gebaut hat, mit den Worten übergeben: »So ist ihre Maschine in der Endkontrolle gelaufen.« Kommt nicht nur bei den hochauflösenden Kameras wirklich gut. So wird der Versuch zum Werbefilm.

Δ

Tricks zur Systemintegration

Trigger und Synchronisation

Der englischsprachige Ausdruck Trigger(n) bedeutet nichts anderes als einmaliger Auslöser. Beispielsweise wird die Aufnahme gestartet, wenn das Crashtest-Auto gegen die Wand fährt. Der Triggergeber ist dabei oft ein schlichter Kontakt an der Stoßstange, der beim Aufschlag kurzschließt, oder eine Lichtschranke.
Synchronisieren bedeutet die Aufnahmefrequenz zu einem periodischen Ereignis über einen gewissen Zeitraum in einem definierten Verhältnis und einem festen zeitlichen Versatz zu stabilisieren. Idealerweise geschieht dies durch ein wiederkehrendes Steuersignal, das jedes Mal einen Bildeinzug auslöst. So wird man, wenn man ein Stroboskop als Beleuchtungsquelle nutzt, die Aufnahmephase der Kamera so legen, dass sie immer dann aufnimmt, wenn das Stroboskop blitzt. Man wählt die Aufnahmefrequenz gleich der Blitzfrequenz und legt den Bildeinzug so, dass die Kamera während des Blitzes auch aktiv ist, ihr Verschluss nicht etwa gerade zu ist, und sie somit den relativ kurzen Lichtblitz auch sehen kann.
Manchmal bieten Kameras auch ein sogenanntes »Strobe«-Steuersignal an. Es markiert die Belichtungszeit jedes Bildes; während die Kamera belichtet ist es gesetzt.

Schaltung
Verzögerungstrigger

So ganz trivial ist das Triggern gar nicht. Denn immerhin muss eine synchron laufende Kamera kurzfristig auf einen asynchronen Triggerimpuls reagieren. Da kann es schnell zu einem Bildversatz kommen, weil die Kamera erst noch den vorherigen Bildeinzug beenden muss. Da bei Triggerauslösung der Ring-Bildspeicher ja zu einem bestimmten Teil bereits fest beschrieben sein kann, besitzen Hochgeschwindigkeitskameras nämlich oft keine sogenannte Restartfähigkeit, wie sie Videokameras ohne Bildspeicher bieten können. Letztere sind in der Lage fast zeitgleich mit dem Trigger eine neue Aufnahme zu starten.

Wenn man verschiedene Geräte triggern oder synchronisieren will, sieht man sich schnell mit unterschiedlichen Signalpegeln, Impulsdauern und Phasenlagen konfrontiert, die einfach nicht zusammenpassen wollen.
Deshalb hier auf der linken Seite eine ganz einfache und preiswerte Schaltung, siehe auch [SloMo Trig.] für die Beschreibung, die hilfreich bei der Anpassung sein kann.

(Denn nicht überall wo »Trigger« drauf steht, ist auch Trigger drin. ;-)

Gerade bei Mehrkanalaufnahmen, und besonders bei 3-D-Vermessungen, wird die Synchronisation der Kameras zueinander und generell ihre Triggerung außerordentlich wichtig.

 

Fernsteuerung

Die Aufgabe: Eine Kamera soll eingestellt werden (Aufnahmebereich, Blende, Schärfe, Belichtungszeit, Trigger, Format, ...), aber der Steuerrechner steht in größerer Entfernung, z.B. in der Warte hinter einer Sicherheitsschleuse, so dass man an der Kamera kein Livebild hat. Oder man möchte das Kamerasystem aus größerer Entfernung steuern.

Die üblichen Schnittstellen (Gigabit Ethernet, etc.) sind zwar ausreichend schnell, man ist aber oft auf eine teure Steuersoftware des Kameraherstellers oder einer Drittfirma angewiesen. (Und WLAN ist so eine Sache - entweder die Kamera kann es gar nicht oder man ist wegen der sensiblen Daten etwas eigen.)
Warum versuchen Sie es nicht einmal mit einer preiswerten KVM? KVM-Extender (= Keyboard-VGA/Video-Mouse Verlängerung) bieten eine leistungsfähige Fernsteuermöglichkeit ohne Eingriffe in den Rechner. (Selbst zusätzliche Treiber/Software sind nicht nötig.) Die KVM besteht aus einem Sendegerät und einem Empfangsgerät, die im einfachsten Fall mit einem normalen Cat 5 UTP Ethernet-Kabel verbunden sind. Das Sendegerät wird am Steuerrechner anstelle von Tastatur, Maus und VGA-Monitor angeschlossen. Am Empfänger schließt man dann die tatsächlichen Peripheriegeräte an. Jetzt kann man am Empfänger arbeiten als würde der Rechner neben einem stehen. Je nach gewähltem Gerät/Übertragungstechnologie sind Entfernungen von etlichen zehn Metern bis zu über einigen hundert Metern möglich.

 

Automatische Anmeldung (engl.: Autologon) und automatischer Start

Die Aufgabe: Ein Windows PC mit oder ohne Ethernetanschluss soll selbständig hochlaufen. Im Spezialfall sogar ohne angeschlossene Tastatur, Maus und Monitor.

Die Passwordabfrage kann man mit dem Hilfsprogramm Tweak UI von der Windows Installations-CD (oder als Download von der Microsoft Seite als Teil der Powertoys) oder Programmen von Drittanbietern umgehen. Dazu nutzt man die Autologon-Funktion von Windows. (Achtung: Danach steht das Passwort für das System und die Netzwerkverbindung in der Regestry.)
Übrigens: Ab Windows XP und danach lautet das Zauberwort control userpasswords2. Man muss es in den Startmenü Programmen bei Ausführen eingeben oder drücken Sie dafür die Tastenkombination Windows Taste + R.
Im Endeffekt legt man ein Benutzerkonto ohne Passwortabfrage an bzw. stellt ein bestehendes entsprechend ein.

In den Startmenü Programmen unter Autostart das automatisch zu startende Programm (oder seine Verknüpfung) ablegen.

Aktiviert man im Bios noch »halt on no errors«, veranlasst man den Rechner nicht darauf zu warten, dass sich eine Tastatur oder eine Maus zurückmelden. Das macht Sinn, wenn man das System über eine separate Fernsteuerung bedienen kann.

Ergebnis: Das System läuft hoch bis zum Windows Desktop und mit dem gewünschten Programm in Verzeichnis Autostart hinterlegt sogar bis zur Ihrer Anwendung.
Im Zweifelsfall einfach in der Windows Hilfe nachsehen.

Δ

Reinigung von Objektiven, Sensoren und LC-Shutter

Die Experten am Zug - natürlich hat niemand auf das Objektiv gefasst und erst recht hat keiner es unabgedeckt herumstehen lassen bis sich ein regelrechter Staubhügel darauf angesammelt hat... Abblasen hilft nicht mehr und bei einem mechanischen Reinigungsversuch hat man nur allzu oft das Gefühl den Dreck allenfalls gleichmäßig zu verteilen. Ganz abgesehen davon, dass bei der Verwendung eines trockenen Tuches Kratzer in der vergleichsweise empfindlichen Antireflex-Beschichtung drohen.
Alkoholgetränkte (Isopropanol) Wattestäbchen, feuchte Brillenputztücher oder Fensterleder mit wasserverdünntem Geschirrspülmittel oder Fensterreiniger (und weiches Wischpapier zum Abtrocknen) sind wesentlich besser. Das ultimative Mittel gegen Fingerabdrücke und Dreck auf Glas aber ist Opticlean Polymer z.B. von Dantronix - nicht ganz billig, aber endgültig (oder eben doch die Staubschutzkappen ;-).

Normalerweise sind die Sensoren von Kameras durch eine fallweise beschichtete, d.h. optisch vergütete, Glasscheibe geschützt. Speziell bei Fotoapparaten und Schwarz/Weiß Auslegungen kann in manchen Fällen der Chip allerdings offen sein. Dann ist wegen des empfindlichen Farbfiltermuster-Films (Polymer) oder der Chipoberfläche und seiner Bonddrähte Vorsicht bei der Reinigung geboten.

Wenn keine Spannung am LC-Shutter anliegt, kann er Flecken und Einschlüsse zeigen, die ihn kaputt aussehen lassen. Keine Sorge, die Steuerspannung löscht sie alle. Das kann man ganz einfach überprüfen, wenn man ihn an der mit niedriger Frequenz laufenden Kamera betreibt und versucht durch ihn zu blicken. Oder wenn man abwechselnd Gleichspannung (±5 V? Bedienungsanleitung prüfen!) an den LC-Shutter anschließt und durch ihn blickt. Er macht dann ganz auf und ganz zu.
Es ist sehr zu empfehlen den LC-Shutter, wenn überhaupt, wesentlich vorsichtiger zu reinigen als man das von Glasoberflächen her gewohnt ist.

Δ

Hier Bilder, Informationen und Technische Daten zu den SpeedCam Systemen als Beispiel für die Eigenschaften digitaler Hochgeschwindigkeitskameras:

TOUR

 



HOME


Hilfe

©WP (1998 -) 2017
http://www.fen-net.de/walter.preiss/d/slomotip.html
Stand: V9.0, 2017-03-02


ZURÜCK


TOP