En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d'intérêts. En savoir plus et gérer ces paramètres. OK X
 
 

 

 

Techniques

Rôle de la technologie NIR dans les systèmes d’aide à la conduite

Par Cliff de Locht, Melexis

Publication: Juillet 2013

Partagez sur
 
Bien que les chiffres aient chuté de manière constante ces dernières années, il y a encore 75 morts par jour sur les routes européennes, selon la Commission Européenne...
 

L’utilisation d’optoélectronique dans les systèmes modernes d’aide à la conduite, pour assurer un support vidéo, peut considérablement réduire la probabilité d’accident. Grâce à de tels équipements, le conducteur du véhicule bénéficie de capacités de vision renforcées, qui lui permettent d’anticiper des courbes brutales ou la présence d’obstacles, bien plus tôt afin de prendre les mesures appropriées beaucoup plus tôt. Assurer une bonne estimation visuelle du trafic en cas d’obscurité, de pluie ou de brouillard, reste néanmoins un défi, aussi bien pour l’œil humain que pour les systèmes d’imagerie, dans la mesure où le champ de vision reste limité par la portée des phares du véhicule.

Des caméras vidéo servent de frontal à ces systèmes. Celles-ci peuvent saisir des détails comme la position, la forme, la taille, l’éclat ou la couleur d’objets présents dans le champ de vision, quelles que soient les conditions d’éclairage. Les images capturées peuvent être soit affichées directement au tableau de bord du véhicule, soit analysées par logiciel pour générer des alertes ou même intervenir sur le fonctionnement du véhicule.

Il existe cependant des problèmes, car la dynamique de la scène (c-à-d. le rapport de luminosité entre le point le plus clair et le point le plus sombre de la scène) dépasse souvent les capacités des capteurs d’images conventionnels de technologie CMOS standard, dont la sensibilité est linéaire. Les phares des véhicules venant en sens inverse altèrent également largement la capacité de l’oeil humain (ou d’une caméra) à détecter les dangers présents dans leur direction.

Si des données d’image assez détaillées ne peuvent être capturées à cause de la dynamique insuffisante de la caméra, la sécurité du conducteur, des passagers ou des piétons peut être compromise. En augmentant la dynamique de la caméra ou du capteur d’images, on peut améliorer sa capacité à identifier et localiser les dangers potentiels, et ainsi nettement améliorer la sécurité. En appliquant une approche non linéaire, la dynamique du capteur d’images peut être augmentée et donc sa capacité à identifier les dangers potentiels également. Une telle approche permet également de réduire le bruit de fond, tout en garantissant que les pixels ne saturent qu’à des niveaux de signal beaucoup plus élevés.

L’apparition de capteurs d’images HDR (High-Dynamic Range, ou dynamique étendue) permet aujourd’hui d’obtenir des sensibilités plus importantes. Melexis a développé ses gammes de capteurs d’images Avocet et Blackbird pour cette raison. Ils offrent une sensibilité élevée à toutes les longueurs d’onde de l’infrarouge proche (NIR en anglais, pour Near Infra-Red), et sont aussi capables de reproduire l’ensemble des couleurs. Leur courbe de réponse innovante multi-pentes à 6 sommets, permet au taux de décharge d’énergie des photons d’augmenter proportionnellement à l’intensité de la lumière. Alors que les pixels sombres ne sont que partiellement déchargés pendant le temps d’intégration, les pixels très lumineux se déchargent complètement et sont donc prêts à enregistrer une nouvelle image pendant le temps d’intégration restant. Ce processus peut être répété plusieurs fois avec des tensions de recharge à chaque fois inférieures, et des périodes de repos à chaque fois plus brèves. Au bout du compte, on obtient une approximation linéaire de courbe logarithmique. Un algorithme propriétaire de commande adaptative, appelé Autobrite, permet d’ajuster la vitesse d’obturation et d’augmenter la dynamique, pour s’assurer que le rapport signal/bruit incrémental (iSNR) reste toujours au-dessus d’un seuil minimum. Ceci permet d’atteindre une dynamique supérieure à 120 dB, qui répond aux toutes dernières exigences ADAS (Automotive Driver Assistance Systems, ou systèmes d’aide à la conduite automobile) et AEB (Automatic Emergency Breaking, ou freinage automatique d’urgence). Les capteurs d’images Melexis qui utilisent cette technologie offrent les hautes performances nécessaires, tout en restant basés sur une architecture pixels classique, intéressante dans le cas d’applications automobiles sensibles aux coûts.

Afin de renforcer encore la sensibilité de détection de couleur, ces capteurs peuvent être doté d’un CFA (Color Filter Array, ou matrice de filtrage couleur) avec un quatrième canal pour mesurer la luminosité sur toute la gamme de sensibilité du capteur (y compris la partie NIR ou infrarouge proche du spectre généré par les phares). Les algorithmes virtuels de filtrage NIR sont capables d’extraire les informations de couleur, qui sont ensuite combinés aux données de luminosité. La sensibilité aux couleurs peut être augmentée de 70%, tandis que les coûts de production restent en ligne avec ceux des capteurs d’images conventionnels. L’algorithme adaptatif facilite le réglage HDR, pour permettre la reproduction détaillée d’images sur toute la plage dynamique.

Figure 1 : Capteur d’images HDR Melexis automobile

Exemple d’application

Dans le cas d’un CFA modifié, les pixels du capteur d’images Melexis ont une double fonction. D’abord ils détectent la luminosité sur toute la gamme de sensibilité (incluant les spectres visible et NIR), et sont donc plus de trois fois plus sensibles que les pixels couleur conventionnels. Ensuite, ils servent à estimer le pourcentage de NIR dans les signaux de pixels RGB (Red Green Blue, ou bleu-vert-rouge. Le signal NIR non désiré peut être extrait du signal de couleur. Une image couleur composite peut alors être créée en combinant signaux visibles et signaux NIR. La Figure 2(a) montre que les pixels clairs fournissent une image en niveaux de gris suffisamment lumineuse. L’image couleur relativement sombre affichée en (b) reflète principalement les couleurs des lumières par rapport au fond presque noir. Etant donné que l’énergie spectrale dans la région visible est faible par rapport à l’ensemble du spectre de sensibilité du capteur d’images, la composante luminosité de la couleur filtrée est sensiblement plus faible que la luminosité des pixels. La compression HDR réalisée par l’algorithme Autobrite garantit la préservation des couleurs dans les zones claires. L’image composite finale (c) fournit une représentation naturelle de toute l’information couleur relative au trafic.

Figure 2 : Scène de trafic urbain nocturne. L’image luminosité (a) et l’image RVB couleur (b) sont combinées pour former une image composite (c)

La visibilité réduite dans des conditions de conduite difficiles augmente sensiblement le risque d’accidents, dans la mesure où l’environnement du véhicule peut être mal évalué et certains obstacles non détectés par le conducteur. Les systèmes actifs d’aide à la conduite à base de capteurs d’images HDR et d’algorithmes propriétaires sophistiqués peuvent renforcer la visibilité dans de telles circonstances. Ceci peut contribuer à améliorer la sécurité dans l’environnement de conduite.

Suivez Electronique Mag sur le Web

 

Newsletter

Inscrivez-vous a la newsletter d'Electronique Mag pour recevoir, régulièrement, des nouvelles du site par courrier électronique.

Email: