COLLECTE DE DONNÉES

Le traitement de l’information recueillie par un véhicule aérien sans pilote est généralement un processus en trois étapes :

Structure From Motion (SFM)

Multi-View Stereo (MVS)

Images rectification

 

Ces processus peuvent être mieux compris dans les sous-processus suivants :

Extraction de Caractéristiques d'Image

Chaque image de drone possède une collection de caractéristiques uniques qui la différencient des autres images. Ce sont des points clés. Les points clés de chaque image sont extraits à l’aide d’algorithmes automatiques de vision par ordinateur (SIFT, BRISK, etc.).
Généralement, les images avec une bonne variation de texture ont plus de 40000 caractéristiques. Il est facile de comprendre pourquoi la photogrammétrie fonctionne mal dans les zones de faible variation de texture comme les plans d’eau, les forêts denses, le sable, le ciel, etc. L’extraction des points clés devient difficile dans les surfaces sans texture.
L’image ci-dessous a trois scènes Terre / Pont, Sable, Régions de l’eau. Chaque cercle représente une caractéristique unique.

Chaque cercle représente une caractéristique unique détectée à l’aide du détecteur BRISK. La densité des caractéristiques est très élevée dans la région la plus à gauche et le pont, car il a beaucoup de bords, des changements de couleur, etc.

Très peu de caractéristiques sont détectées dans les régions de sable et d’eau en raison de surfaces sans texture.

Correspondance de Caractéristiques

Les fonctions extraites sont ensuite recherchées (dans les images voisines) et une correspondance est effectuée. L’utilisation de données GPS pour rechercher des images pertinentes rend le processus d’appariement beaucoup plus rapide et précis. A partir des caractéristiques correspondantes, une matrice fondamentale est dérivée et la position relative entre deux caméras est estimée. Des techniques comme Flann sont souvent utilisées pour effectuer des recherches et des appariements.

Bundle Adjustment (BA)

La position relative estimée à partir de la matrice fondamentale est généralement sujette à des erreurs. BA est utilisé pour affiner simultanément les coordonnées 3D (Lat, Long, Elevation), les paramètres d’orientation (Lacet, Pitch, Roll) et les caractéristiques optiques (paramètres de distorsion) de la ou des caméras utilisées pour acquérir les images. BA est un processus d’optimisation itérative non linéaire où la fonction objectif est l’erreur de reprojection moyenne (EMR) et les paramètres sont les coefficients de position, d’orientation et de distorsion de la caméra. Le BA peut être de deux types : incrémental ou global.
Les données de géotag stockées dans les images sont utilisées pour géoréférencer et mettre à l’échelle le modèle.

Estimation de la carte de profondeur et génération de nuages de points

La valeur de profondeur est estimée pour chaque pixel de l’image à l’aide de l’algorithme Multi-View Stereo. Les algorithmes MVS sont capables de construire des modèles 3D très détaillés à partir d’images structurées. Ainsi, la sortie de SFM agira comme une entrée pour l’algorithme MVS. Il produira la carte de profondeur correspondant à chaque image d’entrée.
La carte de profondeur individuelle est fusionnée avec la carte de profondeur du voisin
image pour obtenir un point 3D. Ces points sont souvent appelés nuage de points dense. Il peut même consister en plus de 1 crore de points pour une zone relativement plus petite.

Digital Elevation Model (DEM)

Les points 3D sont triangulés et quadrillés dans un espace à 2,5 dimensions pour créer un modèle d’élévation numérique (Raster) 2,5D. Chaque pixel du raster contient des informations sur la latitude, la longitude et l’altitude. Les techniques d’interpolation telles que IDW sont souvent utilisées pour effectuer une conversion de nuage de points 3D en grille 2.5D / raster.

Orthomosaic (HD Maps)

L’orthorectification de chaque photo se fait à l’aide de DEM. L’étapea d’orthorectification consiste à créer une carte de visibilité ou d’occlusion par rapport à chaque image. Ces cartes nous indiquent quels pixels sont visibles ou masqués (non visibles) à partir d’une image particulière. Seuls les pixels visibles sont ensuite sélectionnés et les valeurs de couleur sont extraites. Ces photos orthorectifiées et sans occlusion sont mosaïquées pour créer une grande carte HD.
Une fois le traitement terminé ; Des techniques de post-traitement telles que la fusion d’images, le réglage de la couleur/du contraste sont utilisées pour supprimer les lignes de jointure présentes sur la limite des images. Le mélange d’images uniformise la couleur et supprime les artefacts.

Drone Flight Training & Data Analysis