Joshua L.J Vachon

Joshua L.J Vachon

Introduction à la restitution numérique 3D par photogrammétrie

La photogrammétrie est une technique de mesure de l’environnement tridimensionnel à partir de photographies permettant d’effectuer la restitution numérique en trois dimensions de cet environnement. Michel Maumont la définit comme « la mesure d’un objet par l’étude de sa reproduction en perspective, généralement à l’aide de photographies ou d’images numériques » [1]. Dès 1849, Aimé Laussédat utilisa une technique similaire qu’il nomma « metrophotographie », technique permettant « l’emploi de photographies […] prises depuis des sites différents pour effectuer des mesures à distance et cartographier ainsi un objet ou un site » [2]. La technique était alors utilisée pour cartographier ou pour faire les plans de constructions architecturales existantes. À la même période, la stéréographie, procédé permettant d’utiliser la vision stéréoscopique humaine pour voir en 3D deux images prises de deux angles différents, apparaît et est rapidement couplée avec la photogrammétrie pour réaliser des cartes plus précises. Puis, l’apparition de la photographie aérienne permit d’obtenir des mesures encore plus précises du territoire tout en couvrant une emprise géographique plus grande. À partir des années 1980, l’avènement, puis la démocratisation des ordinateurs ont facilité l’utilisation de la photogrammétrie en vue d’automatiser le processus de restitution en trois dimensions.

Dans le cadre des études historiques, la technique permet de « numériser » des bâtiments et des artefacts à un moment donné, dans un but de préservation, analyse ou mise en valeur du patrimoine historique. Avant d’expliquer la démarche théorique permettant la restitution tridimensionnelle à partir de photographies, il est pertinent de s’intéresser aux principes permettant d’obtenir des résultats. Comme explicité dans le paragraphe précédent, la vision stéréoscopique humaine, c’est-à-dire la possibilité pour l’être humain de percevoir la profondeur de son environnement par l’interprétation du cerveau des captations optiques des deux yeux, explique grandement le principe. En effet, les yeux agissent comme des petites caméras, qui une fois traitée par la machine humaine offre un résultat en trois dimensions. De la même façon, deux photographies d’un même objet pris de deux points de vue différents permettent de replacer les photographies dans l’espace. La photogrammétrie permet de mesurer l’espace à partir de ce principe et donc, de situer les points dans l’espace. La restitution photographique débute donc par une séance photographique en utilisant un appareil photo, un téléphone intelligent et/ou un drone équipé d’une caméra. Pour prendre les photos, on doit tourner autour de l’objet à restituer pour prendre un ensemble de photos se superposant l’une à l’autre au minimum à 50%, mais également en diversifiant les prises de vues à l’horizontale et à la verticale. Plus le nombre de photos est élevé, meilleure la résolution sera, mais plus long le processus sera.

Une fois la prise de photographies terminée, il faut faire un tri dans les photos pour enlever toutes les photos floues ou non pertinentes au traitement. L’utilisation d’images floues ou non pertinentes pourrait complètement ruiner le modèle 3D résultant. Puis, vous pourrez importer votre tri dans un logiciel adapté (Regard3D, Agisoft Photoscan, Autodesk Recap, etc.). Le but du présent article n’étant pas de présenter les logiciels, les explications qui expliqueront le processus général, mais chaque logiciel est différent dans son fonctionnement. Le logiciel traitera d’abord l’ensemble des photos pour détecter les points clés pour les remettre dans leur contexte spatial. Le nuage de points qui en résultent est densifié et devrait déjà révéler les contours du modèle. Puis, les points sont reliés entre eux pour laisser apparaître les surfaces qui composent le modèle. Finalement, le logiciel devrait vous permettre de le texturiser en utilisation la couleur des pixels ou bien votre ensemble de photos. Le modèle peut alors être traité manuellement pour peaufiner et exporter en vue d’une autre utilisation. La figure 1 est un exemple de modèle tridimensionnel modélisé en utilisant Agisoft Photoscan, un téléphone intelligent et un drone.

Pour synthétiser, l’informatique offre une puissance de calcul élevé qui permet de traiter un nombre élevé de photos en même temps, d’automatiser le processus et permet une restitution en 3D des points calculés. Les logiciels utilisent un ensemble de photos pour retrouver, à partir d’éléments identiques dans plusieurs photos et de calcul mathématique (triangulation, calcul épipolaire…), la position des différents points dans l’espace[3]. On obtient donc un nuage de points dans l’espace qu’il faut ensuite relier pour former un maillage, puis un ensemble de polygones qu’il est possible de texturiser.

Bref, la photographie nous permet de capturer un ensemble de points de l’espace réel pour le capturer sur une surface plane (2D), alors que la photogrammétrie nous permet de calculer la position des différents points présents dans les photographies, donc en 2D, pour les repositionner dans un espace en 3D[3]. De plus, la réalisation bien exécutée d’un modèle utilisant la photogrammétrie offre des résultats aussi précis que la lasergrammétrie (mesure de l’espace à partir de laser) avec une marge d’erreur de 0,1 mm[3].


[1]  Michel Maumont, « L’espace 3D : de la photogrammétrie à la lasergrammétrie », In Situ. Revue des patrimoines, n° 13, août 2010, <http://journals.openedition.org/insitu/6413>. (Consulté le 26 août 2018).

[2] Michel Kasser, « Photogrammétrie », Techniques de l’Ingénieur 2015, <http://www.techniques.ingenieur.fr/base-documentaire/technologies-de-l-information-th9/geomatique-42641210/photogrammetrie-rad7418/>. (Consulté le 26 août 2018).

[3]  Caroline Delevoie et al., « Un point sur la photogrammétrie », Archéopages. Archéologie et société, n° 34, juillet 2012, p. 86‑89.