Conocimientos previos sobre procesamiento de imágenes
Qué es una cámara?
Todos hemos visto varias cámaras, como
Entonces, ¿qué es una cámara? En última instancia, es un dispositivo que convierte señales ópticas en señales eléctricas. En visión por computadora, el modelo de cámara más simple es el modelo de imágenes estenopeicas:
El modelo estenopeico es un modelo de cámara ideal que no considera la curvatura del campo, la distorsión y otros problemas que existen en las cámaras reales. Sin embargo, en el uso real, estos problemas se pueden resolver introduciendo parámetros de distorsión en el proceso de calibración, por lo que el modelo de orificio pequeño sigue siendo el modelo de cámara más utilizado.
La imagen pasa a través de la lente y brilla en un chip fotosensible. El chip fotosensible puede convertir información como la longitud de onda y la intensidad de la luz en una señal digital que puede ser reconocida por una computadora (circuito digital)
(El elemento cuadrado en el medio es el elemento fotosensible)
Qué son los píxeles y la resolución?
El elemento fotosensible se compone de muchos puntos fotosensibles. Por ejemplo, hay 640*480 puntos. Cada punto es un píxel. Los píxeles de cada punto se recopilan y clasifican para formar una imagen. *480:
Qué es la velocidad de fotogramas
La velocidad de cuadros (FPS) es la cantidad de imágenes procesadas por segundo. Si excede los 20 cuadros, el ojo humano básicamente no podrá detectar retrasos. Por supuesto, si se usa en una máquina, cuanto mayor sea la velocidad de fotogramas, mejor. Comparación de la velocidad de fotogramas máxima de OpenMV:\ Nota: Si no hay anotaciones, la imagen no se transferirá al IDE porque este proceso lleva mucho tiempo.
Qué es el color
Físicamente, los colores son ondas electromagnéticas de diferentes longitudes de onda.\ \
Sin embargo, según los efectos visuales del ojo humano, el color de la luz visible se puede describir mediante gamas de colores RGB, CMYK, HSB y LAB.
RGB tres colores primarios
El principio de los tres colores primarios no es causado por razones físicas, sino por razones fisiológicas humanas. Hay varias células fotorreceptoras en forma de cono en el ojo humano que pueden distinguir colores y son más sensibles a la luz amarillo-verde, verde y azul-violeta (o violeta) (las longitudes de onda son 564, 534 y 420 nanómetros respectivamente).
Por lo tanto, RGB se utiliza a menudo en monitores para mostrar imágenes.
LAB brillo-contraste
En el espacio de color Lab, el brillo L; el número positivo de a representa el rojo, el extremo negativo representa el verde, el número positivo de b representa el amarillo y el extremo negativo representa el azul. A diferencia de los espacios de color RGB y CMYK, los colores Lab están diseñados para aproximarse a la visión humana.
Por lo tanto, el componente L puede ajustar el par de brillo, modificando los niveles de salida de los componentes a y b para lograr un equilibrio de color preciso.
Nota: ¡En el algoritmo de OpenMV para encontrar parches de color, se utiliza
este modo LAB!
Selección de fuente de luz
Si su máquina es industrial o equipo que funciona las 24 horas del día, mantener una fuente de luz estable es vital, especialmente en los algoritmos de color. Cuando cambia el brillo, ¡el valor de todo el color cambiará enormemente!
Para ser agregado
longitud focal de la lente
Porque la imagen se ilumina en el elemento fotosensible mediante la refracción óptica de la lente. Luego, la lente determina el tamaño y la distancia de toda la imagen. Uno de los parámetros más importantes es la distancia focal.
Distancia focal de la lente: se refiere a la distancia desde el punto principal de la lente hasta el punto focal y es un indicador importante del rendimiento de la lente. La longitud focal de la lente determina el tamaño de la imagen tomada, el tamaño del campo de visión, el tamaño de la profundidad de campo y la intensidad de la perspectiva de la imagen. Al fotografiar el mismo objeto a la misma distancia, la imagen formada por una lente con una distancia focal larga es grande y la imagen formada por una lente con una distancia focal corta es pequeña. Tenga en cuenta que cuanto mayor sea la distancia focal, menor será el ángulo de visión.\
Otro punto es la distorsión de la lente. Debido a los principios ópticos, las diferentes posiciones del chip fotosensible tienen diferentes distancias de la lente. En pocas palabras, la distancia cercana es mayor y la distancia es menor, por lo que se producirá un efecto de ojo de pez (distorsión de barril). aparecer en el borde. Para resolver este problema, puede usar algoritmos en el código para corregir la distorsión. Nota: OpenMV usa image.lens_corr(1.8) para corregir la lente de distancia focal de 2,8 mm. También puedes utilizar lentes sin distorsión directamente. Las lentes sin distorsión añaden piezas correctivas adicionales, por lo que el precio, naturalmente, será mucho más alto.
A continuación se muestra una tabla comparativa de lentes con diferentes distancias focales cuando OpenMV está a unos 20 cm del escritorio.\
filtro de lente
En la lente suele haber un filtro.
Qué hace este filtro?
Sabemos que diferentes colores de luz tienen diferentes longitudes de onda. En un entorno normal, además de la luz visible, también hay mucha luz infrarroja. En la visión nocturna se utiliza luz infrarroja.
Sin embargo, en aplicaciones de color normales, la luz infrarroja no es necesaria, porque la luz infrarroja también reaccionará al elemento fotosensible, dejando toda la pantalla blanca. Entonces colocamos un filtro en la lente que solo puede pasar la longitud de onda dentro de los 650 nm, lo que corta la luz infrarroja.