Photogrammétrie : l'art de créer un modèle 3D à partir de photos
Introduction
Et si de simples photographies suffisaient pour créer une réplique numérique fidèle d’un bâtiment, d’un site archéologique ou d’un objet patrimonial ?
C’est exactement ce que permet la photogrammétrie : une technique qui transforme des images en modèles 3D exploitables, avec un réalisme et une précision géométrique qui peuvent aller bien plus loin que ce que vous pouvez imaginer.

La technique n’est pas nouvelle, mais avec l’arrivée des capteurs numériques haute résolution, des drones et de logiciels puissants, la photogrammétrie connaît aujourd’hui un véritable essor. Elle est devenue incontournable aussi bien pour les architectes, les promoteurs immobiliers et les bureaux d’études, que pour les archéologues, les conservateurs du patrimoine, ou encore les studios de cinéma et de jeux vidéo.
Dans cet article, vous allez découvrir :
- ce qu’est réellement la photogrammétrie et comment elle fonctionne
- ses origines et son histoire
- ses applications concrètes dans différents secteurs (architecture, construction, patrimoine, archéologie, création numérique…)
- ses avantages et ses limites
Un voyage entre technique, image et innovation, destiné aussi bien à ceux qui découvrent le sujet qu’aux professionnels qui souhaitent en approfondir les usages.
Une définition simple de la photogrammétrie moderne
La photogrammétrie est une technique de mesure et de modélisation qui permet de créer un modèle en trois dimensions à partir de photographies. Le principe est de multiplier les prises de vue d’un objet ou d’un environnement depuis différents angles, de manière à le capturer avec un recouvrement suffisant entre chaque image. Ces photographies sont ensuite analysées par des logiciels spécialisés capables de reconstituer la géométrie de la scène.

On peut comparer ce procédé à la manière dont fonctionne notre vision. Nos deux yeux observent la même scène depuis des positions légèrement différentes, et c’est en combinant ces deux images que notre cerveau perçoit la profondeur. La photogrammétrie applique ce principe non pas avec deux images, mais avec des centaines, voire des milliers de photographies. Le logiciel en déduit la position de millions de points dans l’espace, un peu comme si l’on semait une poussière numérique sur toutes les surfaces visibles. Cet « ensemble de points », appelé nuage de points, constitue la base sur laquelle on construit ensuite un modèle 3D fidèle à la scène observée.
On obtient ainsi une réplique virtuelle qui permet à la fois de visualiser, de mesurer et d’analyser les détails d’un bâtiment, d’un site ou d’un objet.

Cette méthode est particulièrement intéressante car elle combine deux qualités rarement réunies : la précision géométrique, qui permet d’effectuer des mesures fiables, et la richesse visuelle, qui restitue l’apparence des matériaux et des textures. C’est ce double atout qui en fait une solution adaptée à de nombreux domaines, de l’architecture au patrimoine, en passant par l’archéologie ou la création numérique.
L’histoire de la photogrammétrie
La naissance
Vous pensez peut-être que la photogrammétrie est une invention récente, popularisée par les drones et les logiciels modernes. En réalité, elle naît presque en même temps que la photographie.
Rendue publique en 1839, la photographie inspire très vite une idée ambitieuse : si une image fixe la perspective, on peut en extraire des dimensions réelles et dresser des plans. Moins d’une génération plus tard, des ingénieurs travaillent déjà à transformer une image en instrument de mesure.
Au cœur de ces débuts se trouve Aimé Laussedat. À la fin des années 1840, il pose les bases de la mesure sur image. Un jalon marquant est associé à la façade des Invalides en 1849. Les sources divergent sur le support exact de cette démonstration : certaines évoquent une photographie, d’autres une vue obtenue à la chambre claire.

Une chambre claire est un dispositif optique utilisant un prisme qui superpose visuellement la scène au-dessus d'une feuille pour en tracer directement les contours. Ce point d’histoire étant difficile à trancher de façon certaine à partir des documents accessibles, il convient de retenir l’essentiel : Laussedat montre à cette date qu’une vue contrôlée peut devenir un document métrique exploitable.
En 1850, il baptise formellement cette approche iconométrie (mesure sur image). Très rapidement, dès que la technique devient praticable, il passe des vues dessinées aux vues photographiques, sans changer le cœur de la méthode, et parle alors de métrophotographie. La logique reste monoscopique : pour des façades ou des scènes proches, une seule vue correctement orientée, redressée et mise à l’échelle permet déjà un relevé fiable. Et en ajoutant d'autres points de vue, on peut couvrir différentes surfaces d'une scène.
La démonstration la plus documentée de cette période est l’expérience de Buc, près de Versailles, en 1861. Devant une commission militaire, Laussedat réalise une carte d’environ 200 hectares au 1:2000 à partir de photographies prises depuis quatre positions différentes. Trois heures de terrain, quatre jours de restitution, et une méthode déjà très structurée : repérage de la ligne d’horizon et du point principal, rectification rigoureuse et report graphique à l’échelle, avec un appareil devenu véritable instrument de mesure, le photothéodolite.
Pendant ce temps, la terminologie se fixe. En 1867, l’architecte prussien Albrecht Meydenbauer popularise le mot photogrammétrie, qui s’impose progressivement dans les milieux de l’architecture et de l’ingénierie.
Le mouvement n’est pas seulement européen. À la fin des années 1880, Édouard-Gaston Deville, arpenteur général du Canada, adapte ces principes aux grands espaces et à la haute montagne.

Sa phototopographie s’appuie sur des stations soigneusement choisies, des appareils aux constantes contrôlées et des protocoles d’orientation pour restituer rapidement le relief des Rocheuses. Il en formalise les procédures dans un manuel administratif (1889, révision 1895), et prouve l’efficacité opérationnelle de la méthode sur de très vastes terrains.
La stéréophotogrammétrie
Avec la stéréophotogrammétrie, la photogrammétrie change d’échelle. Le principe est simple : au lieu de travailler avec une seule image, on observe une scène depuis deux points de vue légèrement différents. La différence de position apparente des objets entre les deux images, ce qu’on appelle la parallaxe, révèle leur profondeur. On va plus loin que le redressement des façades ou que la mesure d'un plan : on accède véritablement au relief.
Les premiers dispositifs
À la fin du XIXe siècle, des chercheurs mettent au point les outils qui rendent la stéréophotogrammétrie exploitable. En 1892, Friedrich Stolze décrit le principe du « repère flottant » : un point virtuel que l’opérateur déplace jusqu’à ce qu’il coïncide parfaitement dans les deux images, permettant de relever une position 3D. Quelques années plus tard, Carl Pulfrich, chez Zeiss, développe le stéréocomparateur (1901), le premier instrument de précision pour mesurer systématiquement en vision stéréo.
Dessiner directement le relief
Dès le début du XXe siècle, on va plus loin. Eduard von Orel met au point le « stéréoautographe » (1907), premier appareil qui permet non seulement de relever des points, mais aussi de tracer directement des courbes de niveau et des plans à partir de la vision stéréo. Commercialisé par Zeiss à partir de 1909, il ouvre la voie à une cartographie plus rapide et plus fiable, notamment en montagne ou en architecture.
Premiers grands usages
Les premières applications ambitieuses apparaissent vite. Sebastian Finsterwalder utilise la stéréophotogrammétrie pour suivre l’évolution des glaciers des Alpes, posant les bases de la photogrammétrie moderne en haute montagne. En parallèle, Pulfrich et Zeiss diffusent la méthode et la forment dans des cours dédiés. Mais c’est surtout la Première Guerre mondiale qui marque un tournant : des millions de photographies aériennes sont produites, et la stéréophotogrammétrie devient un outil majeur pour la cartographie et le renseignement militaire.
De l’analogique à l’analytique (1920–1980)
L’entre-deux-guerres et les Trente Glorieuses sont l’âge d’or des restituteurs analogiques. Des entreprises comme Zeiss, Wild Heerbrugg ou Kern fabriquent des instruments toujours plus performants : de grandes machines optiques et mécaniques qui permettent de transformer des couples de photos en cartes précises. À partir des années 1960, une nouvelle étape est franchie : les images restent argentiques, mais les calculs de géométrie passent par l’ordinateur. On parle alors de photogrammétrie « analytique ». Des modèles emblématiques marquent cette période, comme le Zeiss Planicomp C100 ou l’Aviolyt de Wild dans les années 1970–80. C’est encore le temps du film, mais la restitution devient déjà numérique.
Une technologie exigeante
Cette précision avait un coût. Les caméras appelées chambres métriques de prise de vue, devaient être parfaitement calibrées, les prises de vue réalisées dans des conditions très strictes, et la restitution demandait des opérateurs spécialisés.
Les appareils étaient volumineux, fragiles, et leur prix réservé aux grandes institutions. Tracer une carte en stéréo était un travail minutieux, lent et coûteux, mais c’était aussi la seule façon d’obtenir des relevés précis du relief à grande échelle.

L’ère numérique
Le passage au numérique ne s’est pas fait en un claquement de doigts. Il a fallu d’abord scanner les films argentiques, puis inventer de nouvelles caméras 100% numériques, avant de voir arriver une révolution logicielle qui a mis la photogrammétrie à la portée de tous.
Des tables à dessin aux stations numériques
Au début des années 1990, les photogrammètres posent encore leurs diapositives sur des tables lumineuses, mais la bascule est en marche. On commence à les scanner pour restituer en 3D directement sur des stations de travail spécialisées. C’est l’époque des premiers logiciels développés par des pionniers comme Helava (racheté ensuite par Leica). On parle alors de stations photogrammétriques numériques capables de produire des modèles numériques de terrain et des orthophotographies en série.
Concrètement, rien ne change encore sur le terrain : on photographie toujours avec des caméras argentiques. Mais une fois les films développés, on numérise, on calcule sur ordinateur, et on sort des cartes beaucoup plus rapidement qu’auparavant. Le métier reste hautement technique, les machines coûtent cher, mais la productivité fait un bond.
Les premières caméras aériennes tout-numériques
Le vrai tournant arrive au début des années 2000. En 2000, Leica dévoile l’ADS40, première caméra aérienne numérique utilisée en cartographie. Trois ans plus tard, Vexcel lance l’UltraCamD, une caméra numérique grand format qui permet de se passer définitivement du film.
C’est une révolution : plus de développement chimique, plus de scanners intermédiaires. Les capteurs numériques offrent une meilleure stabilité géométrique et permettent de multiplier les campagnes de vol. Les instituts cartographiques et les grandes entreprises basculent alors vers un flux 100 % numérique.
Le tournant SfM/MVS et la démocratisation
Au milieu des années 2000, la photogrammétrie croise un autre domaine en plein essor : la vision par ordinateur. Les chercheurs inventent des algorithmes capables de reconnaître automatiquement des points communs entre des photos prises sous des angles très différents. C’est la naissance des méthodes dites Structure-from-Motion (SfM) et Multi-View Stereo (MVS).
Avec elles, plus besoin de caméras spécialisées : un simple appareil photo numérique, puis bientôt un smartphone ou un drone, suffisent. En quelques années, une série de projets de recherche (SIFT, Bundler, PMVS…) donne naissance à des logiciels accessibles à tous. VisualSFM, puis PhotoScan (devenu Metashape), permettent à n’importe qui de transformer un dossier de photos en modèle 3D. Dans le monde académique, COLMAP devient la référence open source à partir de 2016.
Ce que le numérique change aujourd'hui
Il faut bien mesurer la chance que nous avons aujourd’hui. Pendant plus d’un siècle, la photogrammétrie a été une discipline réservée aux grandes institutions comme les armées ou les instituts géographiques nationaux.
Contrairement au numérique où il est possible d'utiliser n'importe quelle caméra, en photographie analogique, on ne pouvait travailler qu'avec des appareils photo calibrés appelés chambres métriques de prise de vue. Ce matériel qui coutait une fortune devait respecter des spécifications bien précises :
- Optique et géométrie interne
Une chambre métrique doit utiliser un objectif fixe, à très faible distorsion et faible courbure de champ, monté dans un châssis rigide garantissant des alignements stables : l’axe optique reste perpendiculaire au plan image et aucun élément mobile (zoom, groupes flottants non maîtrisés) ne vient modifier la géométrie pendant la mission.
- Plan image et tenue du film
Le plan du film doit être strictement plan au moment de l’exposition (plateau presseur ou aspiration) et sa position reproductible d’un cliché à l’autre : l’avance du film ou le magasin à plaques assure un format constant, avec des marquages d’identification fiables.
- Repères métriques et orientation interne
Des repères de fond de chambre (fiducials), solidaires du boîtier et visibles sur chaque image, définissent le repère métrique : leur intersection matérialise le centre de fond de chambre, tandis que la focale effective, la position du point principal et les distorsions (radiales/décentrées) sont connus et documentés.
- Obturateur et gestion du mouvement
L’obturateur (généralement central) doit offrir des temps d’exposition précis et reproductibles : en prise de vue aérienne, un dispositif de compensation du mouvement du film (FMC) et, le cas échéant, une suspension stabilisée limitent le flou et les inclinaisons parasites.
- Étalonnage et traçabilité
Un certificat d’étalonnage en laboratoire documente tous les paramètres (focale, distorsions, coordonnées des repères) avec leurs incertitudes et la date de mesure : une périodicité de recalibration est définie, et l’on peut utiliser une plaque réseau pour surveiller d’éventuelles déformations de film.
- Maîtrise des artefacts et stabilité en service
Le chemin optique est protégé (traitements antireflet, pare-lumière) avec un vignettage limité et connu : l’ensemble boîtier-objectif-magasin reste stable mécaniquement et thermiquement durant l’acquisition, afin que les paramètres calibrés demeurent valides.
Les instruments de restitution étaient de vrais outils industriels, et il fallait des années de formation pour les utiliser.
Aujourd’hui, la donne a changé. Un simple smartphone, un appareil photo ou un drone grand public, associés à des logiciels gratuits ou peu coûteux, permettent à chacun d’obtenir un modèle 3D. Ce qui nécessitait autrefois des moyens considérables est désormais accessible à tous.
Bien que la puissance de la photogrammétrie soit à portée de main du plus grand nombre, n’oublions pas une nuance essentielle : si la photogrammétrie est aujourd’hui démocratisée, l’obtention de modèles métriquement fiables, avec une précision contrôlée et des mesures exploitables, reste un métier qui demande rigueur et méthode. La magie des logiciels ne remplace pas l’expérience.
Le fonctionnement détaillé de la photogrammétrie moderne
De nos jours, la photogrammétrie est accessible, mais comment fonctionne-t-elle ? Il est temps d’ouvrir le capot de son workflow.
Ce chapitre présente, étape par étape, le processus pour passer d'une série de photos à un modèle 3D exploitable. Ici, pas de mathématiques, uniquement le cheminement logique du pipeline moderne sur le cas concret d'une bergerie.
L’objectif est de montrer, de manière claire, comment les images deviennent une géométrie cohérente puis un modèle réaliste.
Acquisition des images
La première étape consiste à prendre une série de photographies homogènes qui couvre entièrement la scène, avec un recouvrement suffisant (en pratique, autour de 60 à 80 %). Les vues doivent partager des détails communs tout en présentant de légères variations de position pour acquérir les volumes.
Côté qualité d’image, le but est la cohérence. Une série nette, sans flou de mise au point ni flou de mouvement. Une sensibilité modérée limite le bruit et préserve les textures fines. Des réglages fixes durant toute l'acquisition (balance des blancs, paramètres d'exposition et focale constante pendant la session) réduisent les écarts visuels. Les scènes naturellement texturées (pierre, bois, enduits granuleux) se prêtent bien à l’exercice. À l’inverse, les surfaces lisses, très brillantes ou transparentes compliquent l’appariement. On utilise le format de fichier le plus qualitatif proposé par l'appareil photo, en général le fichier RAW (brut en anglais) qui contient le plus d'informations et le moins de traitements d'image embarqués.
On essaie d'avoir des conditions lumineuses les plus homogènes sur toute la scène pour éviter les zones brûlées (trop claires) ou bouchées (trop sombres). On peut avoir recours à un éclairage artificiel pour éclairer les zones sombres. En extérieur, les meilleures conditions pour réaliser une acquisition photogrammétrique sont réunies en présence d'un ciel couvert. Dans ces conditions, il n'y a pas d'éclairage direct du soleil, ce qui diminue les contrastes.
La prise de vue se construit de manière continue. Il s’agit de faire le tour de l’objet ou du bâtiment en évitant les « trous » d’information : retours de façades, sous-faces, zones masquées. Une progression régulière garantit un chevauchement conséquent entre prises de vue successives. Des vues de face peuvent être complétées par des obliques pour faire apparaître arêtes, encadrements et reliefs. Quelques images plus larges aident à stabiliser l’orientation globale, sans rompre la continuité du parcours.
Pour garantir la fidélité des couleurs et de l'exposition, on réalise une photo d'une charte colorimétrique dans les mêmes conditions que la prise de vue. Elle nous servira de référence pour le traitement des photographies.
Quelques points d’attention améliorent sensiblement le résultat. Les éléments mobiles (feuillage agité, passants, véhicules) introduisent des correspondances parasites. Il faut les limiter ou les éviter au cadrage. Les reflets prononcés sur vitres, eau ou métal poli produisent des apparences changeantes. Dans ces conditions, il faudra choisir des angles de prise de vue évitant les reflets. Un ciel trop présent apporte peu d’information utile : il faut cadrer de façon à privilégier la scène reconstruite.
Au terme de cette étape, on dispose d’un lot d’images nettes, cohérent et suffisamment redondant pour permettre la détection automatique des points communs et l’initialisation de la reconstruction.
Traitement des images
La première étape consiste à passer toute la série en revue et à écarter les images problématiques. Sont supprimées les photos floues (mise au point ou mouvement), celles où un élément parasite traverse le champ (personne, véhicule, voile de végétation), les vues contenant trop de ciel ou des zones surexposées qui n’apportent aucune information utile. L’objectif est un jeu d’images propre et cohérent.
Vient ensuite le développement des fichiers RAW, c'est à dire le traitement de l'image. Le développement se fait de manière neutre, sans effet esthétique. Contrairement à une image destinée à la publication artistique, on évite vignetage, jeux de contraste, filtres locaux ou accentuations. Le but est d’obtenir des images les plus fidèles à la réalité.
L’exposition et La balance des blancs sont définies grâce à la prise de vue de la charte colorimétrique réalisée lors de l’acquisition. Cette référence permet d’aligner la couleur et la tonalité de toutes les images. On parle d'étalonnage de l'image.

Le traitement reste non destructif et uniforme. Le même traitement d'image est appliqué à l’ensemble du lot, sans corrections géométriques qui déformeraient la perspective. L’export se fait dans un format compatible avec le logiciel de photogrammétrie (par exemple TIFF 16 bits ou JPEG haute qualité).
Au terme de cette étape, la série est nettoyée, normalisée et prête pour l’alignement : chaque image capture la même scène avec la même « signature » d’exposition et de couleur, ce qui facilite le repérage automatique des points communs.
Alignement des images et nuage de points épars
Cette étape consiste à déduire la position et l’orientation de chaque prise de vue, puis, en parallèle, à reconstruire une première ébauche 3D de la scène. Dans la chaîne dite SfM (Structure from Motion), ces deux résultats se construisent progressivement et s’affinent l’un l’autre.
Le traitement commence par l’extraction, dans chaque image, de points clés définis par des motifs locaux de contraste bien marqués. Autour de chacun, le logiciel calcule une sorte d’empreinte numérique décrivant l’apparence locale. Cette empreinte permet de reconnaître le même point dans d’autres images malgré des variations raisonnables d’échelle, d’orientation ou d’éclairage.
Vient ensuite la mise en correspondance entre images. Le logiciel sélectionne des paires de photos qui se recouvrent, puis compare leurs « empreintes » pour retrouver les mêmes détails. Pour écarter les erreurs, il vérifie simplement que ces correspondances restent cohérentes avec la position des prises de vue : si deux points ne peuvent pas correspondre quand on tient compte des angles depuis lesquels ils ont été photographiés, ils sont rejetés. Ne restent que des liens fiables, qui tissent un réseau solide entre les photos.
L’initialisation s’appuie sur une paire d’images bien contrainte, présentant à la fois un recouvrement important et une parallaxe suffisante. Leur position relative est estimée, puis les premiers points 3D sont triangulés. À partir de ce noyau, les autres images sont ajoutées une à une : pour chaque nouvelle image, sa position est déduite à partir de ses correspondances avec les points déjà reconstruits, de nouveaux points sont triangulés, et le réseau s’étend.
À intervalles réguliers, une optimisation globale ajuste en même temps la position et l’orientation des caméras, les paramètres internes de l’appareil (sa « carte d’identité » optique : focale, position du centre de l’image, distorsions de l’objectif), ainsi que les coordonnées des points 3D. Le but est de réduire l’écart entre ce que le modèle prévoit et ce que montrent réellement les photos. Cette étape, le bundle adjustment, joue le rôle d’une mise au point générale du modèle.
Le résultat attendu est un nuage de points initial, léger mais cohérent, qui esquisse la géométrie de la scène, un ensemble de caméras correctement orientées dans un même repère, et quelques indicateurs simples de qualité comme l’erreur moyenne de reprojection. Si ces indicateurs sont satisfaisants et si la couverture est continue, on peut passer à l'étape suivante.
Points de contrôle, mise à l’échelle et géoréférencement
Après l’alignement, la reconstruction est dans un repère relatif : les formes et les proportions sont correctes entre elles, mais l’échelle et la position absolue ne sont pas reliées au modèle réel. Cette étape a donc deux objectifs. Le premier est de donner une échelle au modèle afin que les mesures correspondent à des valeurs physiques. Le second, si nécessaire, est de l’ancrer dans un système de coordonnées cartographiques pour qu’il s’intègre avec d’autres données.
La mise à l’échelle est la version minimale. Elle consiste à imposer au modèle une ou plusieurs distances connues. On peut utiliser une « barre d’échelle », repère de longueur connue placé dans la scène (règle calibrée, cible avec deux marques séparées de 1,00 m, par exemple). À défaut, une dimension mesurée sur place et bien visible sur les images (entraxe entre deux repères, largeur d’une baie) suffit. Une fois ces longueurs introduites, toutes les mesures issues du modèle s’expriment dans des unités réelles.
Le géoréférencement va plus loin. Il inscrit le modèle dans un système de coordonnées reconnu, comme le RGF93/Lambert-93 en France ou le WGS84/UTM utilisé internationalement. Cela passe par l’utilisation de points d’appui : ce sont des repères visibles sur les photos, dont la position a été mesurée avec précision sur le terrain. On peut les matérialiser avec des cibles posées avant la prise de vue (parfois codées pour être détectées automatiquement), ou choisir des points caractéristiques non ambigus (angle de bâtiment, borne, marquage). Leurs coordonnées sont relevées à l’aide d’un récepteur GNSS de précision (GNSS pour Global Navigation Satellite Systems, c’est-à-dire l’ensemble des systèmes de positionnement par satellites comme GPS et Galileo) ou d’une station totale, un instrument de topographie qui mesure angles et les distances. Dans le logiciel, ces mêmes points sont ensuite identifiés sur plusieurs photos, et leurs coordonnées mesurées sont saisies à la main ou importées depuis un fichier.

La répartition des points d’appui est déterminante. Placés de façon homogène autour et à l’intérieur de la zone étudiée, ils contraignent le modèle dans toutes les directions et limitent les déformations. Lorsque les images proviennent d’un drone équipé d’un GNSS corrigé en temps réel (RTK, Real-Time Kinematic : corrections envoyées pendant le vol) ou corrigé a posteriori (PPK, Post-Processed Kinematic : corrections appliquées après le vol), les photos arrivent déjà géopositionnées avec une bonne précision absolue. Cela permet de réduire le nombre de points d’appui à implanter, mais il reste recommandé d’en conserver quelques-uns : d’une part parce que des mesures au sol bien réalisées offrent une référence plus précise, d’autre part pour verrouiller et vérifier la précision finale grâce à des points indépendants.
Un autre type de points utilisé sont les points de contrôle. Ceux-ci sont mesurés sur le terrain comme les points d’appui, mais ils ne participent pas au recalage. Ils servent uniquement à tester la qualité du modèle : on compare leurs coordonnées mesurées à celles obtenues dans la restitution, et l’écart observé (en plan et en altitude) donne une estimation transparente de la précision réellement atteinte.
Au terme de cette étape, le modèle passe du statut de forme correcte à celui d’objet métrique : il est à l’échelle, positionné dans un repère défini et accompagné d’une estimation transparente de sa précision.
Création du modèle 3D
Les étapes précédentes fournissent une base commune : poses des caméras (position et l’orientation de chaque caméra au moment de la prise de vue), calibration interne, reconstruction initiale, mise à l’échelle et, si besoin, géoréférencement. À partir de cette base, trois voies principales s’ouvrent pour représenter la scène en 3D : le nuage de points dense, le maillage texturé, et le gaussian splatting. Ces choix ne sont pas exclusifs : un même projet peut en combiner plusieurs selon les usages.
Nuage de points dense

Principe
La densification Multi-View Stereo (MVS) calcule, pour chaque zone vue sous plusieurs angles, des profondeurs cohérentes et génère des millions de points 3D. Le résultat est un nuage de points dense, souvent coloré à partir des images, qui décrit finement la géométrie sans créer de surface continue.
Atouts
Représentation fidèle et directe de la mesure, sans hypothèse de surface. Idéale pour l’analyse technique : prises de cotes, coupes, profils, confrontation avec d’autres capteurs, « scan-to-BIM ». Les équipes d’études y trouvent une matière exploitable rapidement, notamment pour le dessin architectural ou la modélisation paramétrique.
Limites
Aspect visuel moins « lisse » qu’un maillage. Le rendu et le partage sont parfois lourds sur de très grands jeux de données. Pour des présentations grand public, l’absence de surface explicite peut gêner la lecture.
Quand privilégier
Relevés techniques, contrôles dimensionnels, préparation de modèles BIM, diagnostics patrimoniaux, comparaisons entre états.
Maillage texturé

Principe
À partir du nuage dense, une surface explicite est reconstruite sous forme d’un maillage triangulaire. Les couleurs des photos sont ensuite projetées sur cette surface (application des textures), ce qui donne un modèle à la fois géométriquement continu et visuellement réaliste.
Atouts
Surface continue, mesurable et éditable. Facile à intégrer dans les chaînes CAO/BIM et les outils de visualisation 3D. Permet des opérations métiers : calculs de surfaces et de volumes, sections, retouches localisées, simplification contrôlée pour alléger les fichiers.
Limites
La qualité est dépendante du nuage dense de départ. Les tailles de fichiers sont importantes lorsque l’on vise une haute définition géométrique et texturale. La simplification excessive peut déformer les détails.
Quand privilégier
Pour les livrables combinant métrique et lisibilité, l'intégration à des plans ou maquettes numériques, la diffusion 3D « classique » interopérable avec de nombreux logiciels.
Gaussian Splatting

Principe
A partir du nuage de points epars, ainsi que des paramètres externes ( positions ) et internes ( focale, distortion, ect... ), il est possible de faire un rendu en gaussian splatting. La scène est représentée par un ensemble de « grains » 3D (gaussiennes ellipsoïdales) positionnés et colorés dans l’espace. Ces éléments sont optimisés pour reproduire les images d’origine depuis les poses caméras connues, puis projetés en temps réel pour produire des vues nouvelles.
Atouts
Très fort photoréalisme et fluidité d’affichage, y compris sur des détails fins ou des structures complexes (végétation, grillages, textures riches, transparences, réflexions). Les fichiers sont bien plus légers qu’un maillage texturé de qualité visuelle comparable, ce qui facilite le partage et la visite interactive. Autre avantage avec cette technique : l'environnement lointain est restitué plus facilement, permettant de mettre la scène dans son contexte et augmentant l'effet photoréaliste.
Limites
Absence de surface explicite : les mesures, coupes et exports CAO/BIM ne sont pas aussi directs que sur un maillage. Les formats et outils d’édition évoluent constamment. La prise de mesures et l’extraction de surfaces à partir des gaussiennes est de plus en plus proposée par les éditeurs de logiciels.
Quand privilégier
Exploration et présentation immersives, visites de projets, médiation patrimoniale, communication avec des interlocuteurs non techniques.
Poids des données et validation avant livraison
Plus la géométrie est fine et la texture détaillée, plus le volume de données augmente. Un nuage de points dense peut aligner des dizaines, voire des centaines de millions de points, un maillage texturé cumule un grand nombre de triangles et des textures haute définition, un modèle en gaussian splatting bien optimisé offre souvent un bon compromis entre fidélité visuelle et légèreté. Anticiper ces volumes dès l’amont facilite le stockage, le partage et le choix des formats de remise.
Avant livraison, une validation rapide s’impose. Elle combine un contrôle visuel des zones sensibles, l’indication de l’erreur de reprojection moyenne, une comparaison sur quelques points de contrôle indépendants ou sur des distances connues, ainsi qu’un rappel clair du système de coordonnées, des unités et des conditions d’acquisition. Avec ces éléments, la restitution n’est pas seulement convaincante à l’écran : elle est qualifiée pour la mesure et prête à s’intégrer à d’autres jeux de données.
En pratique, les trois représentations décrites s’appuient sur les mêmes fondations (poses, calibration, reconstruction préalable) et se complètent bien : le nuage de points dense pour l’analyse technique, le maillage texturé pour la métrique lisible et l’échange interopérable, le gaussian splatting pour la diffusion photoréaliste et fluide.

Le choix final dépend du public visé, des usages attendus et des contraintes de poids de fichiers.
Fiabilité géométrique et précision
La précision : du terrain au laboratoire
Parler de précision en photogrammétrie n’a de sens qu’en tenant compte de l’échelle, de l’optique, de la géométrie de prises de vue et du protocole. Il n’existe pas une « limite » unique : selon le contexte, la méthode délivre du décimètre en cartographie aérienne standard, du millimètre, voire bien en dessous en prise de vue rapprochée, jusqu’au micron en métrologie industrielle et au nanomètre en microscopie.
Au niveau national, la photogrammétrie est un standard opérationnel. L’IGN produit et diffuse des orthophotographies rectifiées, utilisées comme référence par les services de l’État et les collectivités. Ce statut de support de référence tient précisément à la qualité géométrique obtenue à l’échelle du territoire, avec un calage rigoureux dans les systèmes cartographiques en vigueur.
En environnement industriel, la photogrammétrie rapprochée est utilisée pour le contrôle dimensionnel, le suivi de déformations et l'assemblage de précision. Les systèmes commerciaux de métrologie optique (comme le système V-STARS de l'entreprise américaine Geodetic Systems) annoncent des précisions allant jusqu'à 10 micromètres.
À l’autre extrémité de l’échelle, la photogrammétrie s’applique jusque sous le microscope électronique à balayage, un instrument qui produit des images très fortement agrandies en utilisant des électrons plutôt que la lumière. Le principe reste le même : on photographie le même échantillon sous deux inclinaisons connues, puis on compare les différences apparentes entre les vues pour reconstituer le relief en 3D. Dans des conditions bien maîtrisées et sur des surfaces riches en détails, cette approche atteint des précisions de l’ordre du nanomètre. Elle sert notamment au contrôle de microstructures (semi-conducteurs, microlentilles, réseaux fins). Sur des zones trop uniformes, les erreurs augmentent, ce qui rappelle que, même à cette échelle, la qualité des images et du protocole reste déterminante.
Ces exemples illustrent un point clé : la précision photogrammétrique est pilotée par l’échelle d’acquisition, la qualité des images, le schéma géométrique, la calibration et les références terrain. Autrement dit, la même méthode, correctement instrumentée, couvre un spectre qui va du territoire aux micro‑structures, sans changer de nature : seul le dispositif change. Cette idée prépare la suite : comprendre pourquoi les résultats sont robustes et comment la confiance se construit.
Robustesse et confiance dans les résultats
La photogrammétrie est robuste parce qu’elle est vérifiable et répétable. Refaire une acquisition avec le même protocole conduit, dans les mêmes conditions, à des mesures qui retombent dans les mêmes marges d’erreur. Cette stabilité se démontre simplement : les points d’appui servent à caler le modèle, tandis que des points de contrôle indépendants permettent d’estimer la précision réelle.
La méthode est traçable de bout en bout. Les images sources, leurs métadonnées, les paramètres de calibration, l’erreur moyenne de reprojection, la répartition des points d’appui et les écarts observés sur les points de contrôle peuvent être archivés et joints au rapport. Cette chaîne de preuves autorise l’audit, la comparaison de traitements réalisés à des dates différentes et l’explication d’éventuelles divergences.
Et surtout, la discipline a produit des documents de référence qui font foi. En France, les orthophotographies de l’IGN constituent un socle national utilisé au quotidien par les services de l’État et les collectivités, précisément parce que leur qualité géométrique est contrôlée et documentée. Autrement dit, la photogrammétrie n’est pas seulement « acceptable » : elle est le standard cartographique pour représenter le territoire à grande échelle.

Cette fiabilité s’est aussi illustrée dans des projets patrimoniaux majeurs. À Lascaux, l’IGN a réalisé à la fin des années 1960 un relevé stéréophotogrammétrique complet des zones ornées, afin d’en conserver une description métrique avant toute intervention. Et lors de la campagne internationale de sauvegarde de la Nubie, l’IGN a été mandaté pour établir les relevés photogrammétriques des temples de Ramsès II et de Néfertari avant leur déplacement, fournissant une base géométrique de référence. Ces opérations montrent que, lorsqu’il faut documenter avec précision et pour longtemps, on s’appuie sur la photogrammétrie.
Face au laser scanning, la bonne question n’est pas « qui est le plus précis ? », mais « quel instrument pour quel objet et quelle tolérance ». Chaque famille de scanners a sa portée, sa cadence et ses compromis. Il n’existe pas de scanner « à tout faire », et constituer une panoplie couvrant de la pièce de monnaie au bâtiment ou au relief naturel est coûteux (achat, maintenance, logiciels, formation). La photogrammétrie, elle, change d’échelle avec le même boîtier : en adaptant l’optique et la géométrie de prises de vue, on passe du dixième de millimètre en macro sur une pièce à la falaise captée par drone, en conservant le même pipeline et la couleur réelle. Dans la pratique, les deux approches se complètent : le laser sécurise les surfaces peu texturées ou difficiles d’accès, la photogrammétrie apporte le détail visuel, optimise le rapport précision/coût et laisse une trace exploitable.
Limites de la photogrammétrie
La photogrammétrie ne voit que ce que la caméra voit. Les surfaces cachées par des obstacles (feuillage, atmosphère dense, bardages...) restent invisibles. Il n’y a pas de possibilité de reconstruire ce qui est masqué.
Certaines apparences posent problème. L’eau, le verre et les matériaux très brillants produisent des reflets changeants, les surfaces uniformes (mur lisse peint, métal poli) manquent de détails visuels, les motifs répétitifs (façades trame-à-trame, grillages) peuvent tromper l’algorithme. Dans ces cas, l’assemblage des images devient moins précis et la géométrie peut se dégrader.
La scène doit rester stable pendant la prise de vue. Feuillage agité, foule, trafic, vagues, bâches mobiles ou ombres qui se déplacent rapidement introduisent des contradictions d’une photo à l’autre et créent des « fantômes » ou des trous dans le modèle.
L’optique et la physique imposent leurs limites. En très gros plan, la faible profondeur de champ rend une partie des images floue, à longue distance, la turbulence atmosphérique, la brume altèrent les détails. Certains capteurs peuvent déformer la géométrie en mouvement, et la diffraction ou le bruit numérique peuvent réduire le niveau de détail exploitable.
La géométrie d’observation compte. Des prises de vue trop frontales, avec trop peu d’écart entre positions, affaiblissent la lecture de la profondeur, de grandes surfaces lisses sans arêtes ni ruptures favorisent les dérives, des séries incomplètes laissent des zones non reconstruites.
La métrique dépend d’un ancrage externe. Sans distances connues ni points mesurés indépendamment, l’échelle et la position absolue restent imprécises. Une bonne cohérence interne (erreur en pixels) ne garantit pas, à elle seule, la précision sur le terrain.
Des limites pratiques existent enfin : accès visuel restreint, faible lumière, vibrations, météo, droits à l’image et confidentialité sont autant de points sensibles pour la photogrammétrie. Côté production, des modèles très détaillés génèrent des volumes de données très importants qui pèsent sur le stockage, le partage et les temps de calcul.
Ces limites n’invalident pas la méthode, elles en définissent le domaine d’emploi. La photogrammétrie excelle quand la scène est visible, texturée et stable, avec une géométrie de prises de vue bien contrainte et un ancrage métrique clair. Au-delà, il faut accepter des zones incomplètes… ou recourir à des capteurs complémentaires selon l’objectif et la tolérance attendue.
Les applications de la photogrammétrie
La photogrammétrie n’est pas une promesse abstraite : c’est un outil de travail quotidien, qui s’adapte aussi bien au chantier qu’au musée, au bureau d’études qu’au studio de création. Voici comment elle s’emploie concrètement dans cinq univers différents.
Architecture et BTP
Pour le bâti existant, la photogrammétrie fournit un état des lieux précis et documenté. Les façades sont relevées sans échafaudage, les orthophotographies de façades servent de base à la DAO (dessin assisté par ordinateur), et les maillages texturés aident à comprendre modénatures, écarts de plans et pathologies. En phase de travaux, le même site est reconstitué à intervalles réguliers : on suit l’avancement, on compare au modèle de conception, on vérifie des réservations ou des tolérances. Il est aussi possible de réaliser des inspections visuelles pour évaluer la santé des structures. Les livrables typiques sont un nuage de points dense pour la modélisation ou le scan-to-BIM, un maillage texturé pour la revue de projet, et, lorsque la diffusion rapide prime, un modèle en gaussian splatting pour des visites fluides de l’ouvrage.
Promotion immobilière
L’objectif est de montrer, convaincre et se projeter. La capture photogrammétrique d’un terrain ou d’un quartier crée un décor réel dans lequel venir « poser » un projet. C'est aussi la base de « l'archviz » ou visualisation architecturale. Les équipes image disposent ainsi d’un contexte fidèle pour les perspectives, les prises de vue aériennes virtuelles et les simulations d’implantation. Selon le canal de diffusion, on choisit un maillage texturé allégé pour l’intégration avec le modèle 3D du projet, ou un gaussian splatting pour des visites web très réactives et photoréalistes.
Immobilier
La visite virtuelle change d’échelle lorsqu’elle s’appuie sur un relevé géométrique. Un appartement, un local commercial ou un plateau de bureaux peuvent être présentés sous forme de parcours 3D fluide, avec la possibilité de prendre des cotes indicatives. Pour l’estimation et la gestion, la photogrammétrie documente l’existant avec une fidélité visuelle supérieure à la simple photo panoramique. Le nuage de points dense et le maillage texturé servent aux métrés et à la planification : le gaussian splatting facilite le partage et la consultation à distance.
Patrimoine et archéologie
Dans ces domaines, le visuel compte autant que la mesure. La photogrammétrie produit un « état zéro » détaillé avant intervention, documente des restaurations, compare des états successifs et archive des sites menacés ou sensibles. Sur un édifice, les élévations orthophotographiques servent de support aux relevés pierre-à-pierre. Sur une fouille, des modèles 3D par phases gardent en mémoire chaque niveau. Les produits attendus vont du nuage de points dense pour l’analyse et la stratigraphie au maillage texturé pour la médiation, avec la possibilité de proposer des visites photoréalistes légères en gaussian splatting pour le grand public.

Cinéma et jeux vidéo
Dans le cinéma et le jeu vidéo, la photogrammétrie est un accélérateur de réalisme. Deux voies sont possibles selon l’usage. Le maillage texturé produit une surface continue avec ses matières, directement exploitable dans les logiciels 3D et les moteurs temps réel. C’est la voie la plus adaptée quand il faut modéliser, animer, découper ou mesurer.
Le gaussian splatting, lui, représente la scène comme un ensemble de petits volumes colorés optimisés à partir des images. L’affichage est très fluide et le rendu, souvent, proche de la photo, y compris pour des détails fins et des effets dépendants du point de vue. C’est idéal pour le repérage virtuel, la prévisualisation et pour des environnements interactifs légers, quand la priorité est au photoréalisme immédiat plutôt qu’à l’édition géométrique fine.
La logique reste la même quel que soit le secteur : un relevé par l’image qui devient un modèle 3D adapté à l’usage visé. Nuage dense pour la technique, maillage texturé pour la mesure et l’interopérabilité, gaussian splatting pour la diffusion fluide et le photoréalisme. Le choix final dépend du public, du niveau de précision attendu et des contraintes de partage.
Cette approche s’intègre aussi à la production sur plateaux LED. Un panneau LED (ou mur LED) est une grande paroi d’écrans modulaires affichant un décor 3D mis à jour en temps réel selon les mouvements de la caméra. L’arrière-plan est donc capté directement à la prise de vue, sans fond vert, et la lumière émise par les écrans éclaire naturellement le plateau.
Dans ce contexte, maillage texturé et gaussian splatting peuvent tous deux être utilisés. Le maillage texturé s’insère facilement dans les moteurs temps réel courants, accepte l’éclairage, les ombres et les interactions de scène, et reste éditable si le décor doit être ajusté. Le gaussian splatting offre un photoréalisme immédiat avec des fichiers souvent plus légers et un affichage très fluide, idéal pour des décors capturés rapidement. Le choix dépend du besoin d’édition géométrique, des contraintes de performance et du degré d’intégration avec le reste de la scène.
Conclusion
Des premiers relevés du XIXe siècle à l’essor numérique, ce parcours a montré une même idée sous toutes ses formes : partir d’images et reconstruire un monde mesurable. On a posé une définition claire de la photogrammétrie, retracé son histoire, puis ouvert le capot du pipeline moderne pour comprendre comment des photos cohérentes deviennent un modèle 3D exploitable, à la fois fidèle visuellement et fiable géométriquement.
Côté méthode aboutit principalement trois livrables clés : le nuage de points dense pour l’étude et le scan-to-BIM, le maillage texturé pour la mesure et l’intégration logicielle, le gaussian splatting pour le photoréalisme fluide et la diffusion en temps réel. Ce socle commun s’accompagne d’un contrôle qualité transparent et d’une attention aux volumes de données.
Nous avons aussi cadré la précision et la robustesse : la photogrammétrie sert de standard en cartographie, atteint le micromètre en métrologie rapprochée et descend jusqu’au nanomètre en microscopie, avec une traçabilité complète (images, paramètres, points d’appui et de contrôle). Ses limites sont connues et assumées : elle ne traverse pas les obstacles, reste sensible aux surfaces lisses, brillantes ou mobiles, et demande un ancrage métrique clair. C’est précisément cette clarté qui la rend crédible et durable.
Enfin, les usages sont multiples et concrets : architecture et BTP, patrimoine et archéologie, immobilier et promotion, cinéma et jeux vidéo. La photogrammétrie est non intrusive, rapide à déployer, et laisse une base d’images réutilisable au fil du projet. Accessible, oui, mais pleinement fiable lorsqu’elle est conduite avec méthode.
La suite s’écrit déjà. Demain, les relevés se mettront à jour en continu, les maquettes se connecteront aux lieux réels, et l’immersif deviendra un langage courant pour concevoir, expliquer, convaincre. Les outils évolueront, les formats aussi, mais la force du procédé restera la même : faire parler l’image avec justesse.
Chez Artlight, la photogrammétrie est notre cœur de métier. Nous cultivons ce savoir-faire avec exigence et curiosité, en veille permanente sur les usages et les technologies émergentes. Si vous souhaitez documenter un site, préparer un projet ou valoriser un patrimoine, nous pouvons vous accompagner, de la définition de l’objectif à la restitution la plus adaptée, avec la précision attendue.