Hintergrundwissen zur Bildverarbeitung

Was ist eine Kamera?

Wir haben alle verschiedene Kameras gesehen, wie z

Was ist also eine Kamera? Letztlich ist es ein Gerät, das optische Signale in elektrische Signale umwandelt. In der Bildverarbeitung ist das einfachste Kameramodell das Pinhole-Imaging-Modell:

Das Lochkameramodell ist ein ideales Kameramodell und berücksichtigt nicht Bildfeldkrümmung, Verzerrung und andere Probleme, die bei tatsächlichen Kameras auftreten. Im tatsächlichen Einsatz können diese Probleme jedoch durch die Einführung von Verzerrungsparametern in den Kalibrierungsprozess gelöst werden, sodass das Small-Hole-Modell immer noch das am weitesten verbreitete Kameramodell ist.

Das Bild passiert die Linse und scheint auf einen lichtempfindlichen Chip. Der lichtempfindliche Chip kann Informationen wie die Wellenlänge und Intensität des Lichts in ein digitales Signal umwandeln, das von einem Computer erkannt werden kann (digitaler Schaltkreis).

(Das quadratische Element in der Mitte ist das lichtempfindliche Element)

Was sind Pixel und Auflösung?

Das lichtempfindliche Element besteht aus vielen lichtempfindlichen Punkten. Es gibt beispielsweise 640*480Punkte, jeder Punkt ist ein Pixel und die Pixel jedes Punkts werden gesammelt und sortiert, um ein Bild zu bilden. Die Auflösung dieses Bildes beträgt dann 640*480:

Was ist die Bildrate?

Die Bildrate (FPS) ist die Anzahl der pro Sekunde verarbeiteten Bilder. Wenn sie 20 Bilder überschreitet, kann das menschliche Auge grundsätzlich keine Verzögerungen erkennen. Bei Verwendung auf einer Maschine gilt natürlich: Je höher die Bildrate, desto besser. Vergleich der maximalen Bildrate von OpenMV:\ Hinweis: Wenn keine Anmerkung vorhanden ist, wird das Bild nicht an die IDE übertragen, da dieser Vorgang sehr lang ist zeitaufwendig.

Was ist Farbe?

Physikalisch gesehen sind Farben elektromagnetische Wellen unterschiedlicher Wellenlänge.\ \

Entsprechend der visuellen Wirkung des menschlichen Auges kann die Farbe des sichtbaren Lichts jedoch durch die Farbskalen RGB, CMYK, HSB und LAB beschrieben werden.

RGB drei Primärfarben

Das Prinzip der drei Grundfarben hat keine physikalischen, sondern menschliche physiologische Gründe. Im menschlichen Auge gibt es mehrere kegelförmige Photorezeptorzellen, die Farben unterscheiden können. Sie reagieren am empfindlichsten auf gelbgrünes, grünes und blauviolettes (oder violettes) Licht (Wellenlängen: 564, 534 bzw. 420 Nanometer).

Daher wird RGB häufig auf Monitoren zur Darstellung von Bildern verwendet.

LAB-Helligkeitskontrast

Im Lab-Farbraum steht L für die Helligkeit; die positive Zahl von a steht für Rot, die positive Zahl von b steht für Gelb und die negative Zahl steht für Blau. Im Gegensatz zu RGB- und CMYK-Farbräumen sind Lab-Farben so konzipiert, dass sie dem menschlichen Sehvermögen nahe kommen.

Daher kann die L-Komponente das Helligkeitspaar anpassen und die Ausgangspegel der a- und b-Komponenten modifizieren, um eine präzise Farbbalance zu erreichen.

Hinweis: Im OpenMV-Algorithmus zum Auffinden von Farbfeldern wird dieser LAB-Modus verwendet!

Auswahl der Lichtquelle

Wenn Ihre Maschine in der Industrie steht oder rund um die Uhr in Betrieb ist, ist die Aufrechterhaltung einer stabilen Lichtquelle lebenswichtig, insbesondere bei Farbalgorithmen. Wenn sich die Helligkeit ändert, ändert sich der Wert der gesamten Farbe stark!

Wird hinzugefügt

Brennweite des Objektivs

Denn das Bild wird durch optische Brechung der Linse auf dem lichtempfindlichen Element reflektiert. Dann bestimmt das Objektiv die Größe und Entfernung des gesamten Bildes. Einer der wichtigsten Parameter ist die Brennweite.

Brennweite des Objektivs: bezieht sich auf den Abstand vom optischen Hauptpunkt des Objektivs zum Brennpunkt, Die Entfernung ist ein wichtiger Leistungsindikator des Objektivs. Die Länge der Brennweite des Objektivs bestimmt die Größe des aufgenommenen Bildes, die Größe des Sichtfeldes, die Größe der Schärfentiefe und die perspektivische Stärke des Bildes. Wenn Sie dasselbe Objekt aus derselben Entfernung aufnehmen, ist das von einem Objektiv mit langer Brennweite erzeugte Bild groß und das von einem Objektiv mit kurzer Brennweite erzeugte Bild klein. Beachten Sie, dass der Bildwinkel umso kleiner ist, je länger die Brennweite ist.\

Ein weiterer Punkt ist die Verzerrung des Objektivs, da verschiedene Positionen auf dem lichtempfindlichen Chip unterschiedliche Abstände vom Objektiv haben. Einfach ausgedrückt ist der Nahabstand größer und der Abstand kleiner, sodass der Fischaugeneffekt (Tonnenverzerrung) auftritt am Rand erscheinen. Um dieses Problem zu lösen, können Sie Algorithmen im Code verwenden, um Verzerrungen zu korrigieren. Hinweis: OpenMV verwendet image.lens_corr(1.8), um das Objektiv mit einer Brennweite von 2,8 mm zu korrigieren. Sie können auch direkt verzerrungsfreie Objektive verwenden. Bei verzerrungsfreien Objektiven kommen zusätzliche Korrekturlinsen hinzu, sodass der Preis natürlich deutlich höher ausfällt.

Unten finden Sie eine Vergleichstabelle von Objektiven mit unterschiedlichen Brennweiten, wenn OpenMV etwa 20 cm vom Desktop entfernt ist\

Objektivfilter

Auf dem Objektiv befindet sich normalerweise ein Filter.

Was macht dieser Filter?

Wir wissen, dass verschiedene Lichtfarben unterschiedliche Wellenlängen haben. In einer normalen Umgebung gibt es neben sichtbarem Licht auch viel Infrarotlicht. Bei der Nachtsicht wird Infrarotlicht verwendet.

Bei normalen Farbanwendungen ist Infrarotlicht jedoch nicht erforderlich, da Infrarotlicht auch auf das lichtempfindliche Element reagiert und den gesamten Bildschirm weiß macht. Deshalb haben wir am Objektiv einen Filter angebracht, der nur die Wellenlänge innerhalb von 650 nm durchlässt, wodurch das Infrarotlicht abgeschnitten wird.

results matching ""

    No results matching ""