Introduction à la restitution numérique 3D par photogrammétrie

Par Joshua L.J. Vachon

Christ Church of Springbrook (Août 2018)

Résultat de la restitution en 3D de la Chapelle anglicane Springbrook de Frampton en Beauce.

Un énorme merci à la municipalité de Frampton et au maire Jacques Soucy pour nous avoir autorisés à effectuer nos tests sur ce monument patrimonial!

La photogrammétrie est une technique de mesure de l’environnement tridimensionnel à partir de photographies permettant d’effectuer la restitution numérique en trois dimensions de cet environnement. Michel Maumont la définit comme « la mesure d’un objet par l’étude de sa reproduction en perspective, généralement à l’aide de photographies ou d’images numériques » [1]. Dès 1849, Aimé Laussédat utilisa une technique similaire qu’il nomma «metrophotographie », technique permettant « l’emploi de photographies […] prises depuis des sites différents pour effectuer des mesures à distance et cartographier ainsi un objet ou un site » [2]. La technique était alors utilisée pour cartographier ou pour faire les plans de constructions architecturales. À la même période, la stéréographie, procédé permettant d’utiliser la vision stéréoscopique humaine pour voir en 3D deux images prises de deux angles différents, apparaît et est rapidement couplée avec la photogrammétrie pour réaliser des cartes plus précises. Puis, l’apparition de la photographie aérienne permit d’obtenir des mesures encore plus précises du territoire tout en couvrant une emprise géographique plus grande. À partir des années 1980, l’avènement, puis la démocratisation des ordinateurs ont facilité l’utilisation de la photogrammétrie en vue d’automatiser le processus de restitution en trois dimensions.

Dans le cadre des études historiques, la technique permet de « numériser » des bâtiments et des artefacts à un moment donné, dans un but de préservation, d’analyse ou de mise en valeur du patrimoine historique. Avant d’expliquer la démarche théorique permettant la restitution tridimensionnelle à partir de photographies, il est pertinent de s’intéresser aux principes physiologiques permettant d’obtenir des résultats. À la manière des yeux, deux photographies d’un même objet pris de deux points de vue différents permettent de replacer les photographies dans l’espace et permettent de créer un effet de profondeur. La photogrammétrie permet plus spécifiquement de mesurer l’espace à partir de ce principe et donc, de situer les points dans l’espace. La restitution photographique débute donc par une séance photographique en utilisant un appareil photo, un téléphone intelligent et/ou un drone équipé d’une caméra. Pour prendre les photos, on doit tourner autour de l’objet pour prendre un ensemble de photos se superposant l’une sur l’autre au minimum à 50%, mais également en diversifiant les prises de vues à l’horizontale et à la verticale. Plus le nombre de photos est élevé, meilleure la résolution sera, mais plus long le processus sera. Par contre, la qualité des photos est plus importante que la quantité, car une photo floue ou trop différente des autres peut donner de très mauvais résultats. Une fois la prise de photographies terminée, il faut faire un tri dans les photos pour enlever toutes les photos floues ou non pertinentes au traitement. L’utilisation d’images floues ou non pertinentes pourrait complètement ruiner le modèle 3D résultant. 

Vous pourrez importer votre tri dans un logiciel adapté (Regard3D, Agisoft Photoscan, Autodesk Recap, etc.). Le choix du logiciel sera l’objet d’un autre article. Le logiciel traitera d’abord l’ensemble des photos pour détecter les points clés pour les remettre dans leur contexte spatial. Le nuage de points qui en résultent est densifié et devrait déjà révéler les contours du modèle. Puis, les points sont reliés entre eux pour laisser apparaître les surfaces qui composent le modèle. Finalement, le logiciel devrait vous permettre de le texturiser en utilisation la couleur des pixels ou bien votre ensemble de photos. Le modèle peut alors être traité manuellement pour peaufiner et exporter en vue d’une autre utilisation. Le modèle ci-joint a été effectué à l’aide d’un drone, un téléphone intelligent et le logiciel Agisoft Photoscan. 

Pour synthétiser, l’informatique offre une puissance de calcul élevée qui permet de traiter un grand nombre de photos en même temps, et ce, en plus d’automatiser le processus et permettre une restitution en 3D des points calculés. Les logiciels utilisent un ensemble de photos pour retrouver, à partir d’éléments identiques dans plusieurs photos et de calcul mathématique (triangulation, calcul épipolaire…), la position des différents points dans l’espace[3]. On obtient donc un nuage de points qu’il faut ensuite relier pour former un maillage, puis un ensemble de polygones qu’il est possible de texturiser.

Bref, la photographie nous permet de capturer un ensemble de points de l’espace réel pour les traduire sur une surface plane (2D), alors que la photogrammétrie nous permet de calculer la position des différents points présents dans les photographies, donc en 2D, pour les repositionner dans un espace en 3D[3]. De plus, la réalisation bien exécutée d’un modèle utilisant la photogrammétrie offre des résultats aussi précis que la lasergrammétrie (mesure de l’espace à partir de laser) avec une marge d’erreur de 0,1 mm[3]. 


[1]  Michel Maumont, « L’espace 3D : de la photogrammétrie à la lasergrammétrie », In Situ. Revue des patrimoines, n° 13, août 2010, <http://journals.openedition.org/insitu/6413>. (Consulté le 26 août 2018).

[2] Michel Kasser, « Photogrammétrie », Techniques de l’Ingénieur 2015, <http://www.techniques.ingenieur.fr/base-documentaire/technologies-de-l-information-th9/geomatique-42641210/photogrammetrie-rad7418/>. (Consulté le 26 août 2018).

[3]  Caroline Delevoie et al., « Un point sur la photogrammétrie », Archéopages. Archéologie et société, n° 34, juillet 2012, p. 86‑89.