La differenza principale tra l’uso di una fotocamera con sensore “grande” ed una con sensore più piccolo, nell’ambito della presa fotografica per elaborazione software Structure from Motion, è il dettaglio in output nella nuvola di punti e, conseguentemente, nella mesh.
Un sensore grande permette di avere un GSD più basso, a parità di ottica e distanza di presa.
Qui sotto confronto gli output dello stesso elemento (un muro verticale) di due dataset fotografici diversi.
Uno è stato scattato da un drone (DJI Mini 2, sensore da 1/2.3″, risoluzione 12 Mpixel ed ottica da 24mm nel formato “35mm equivalente”) a circa 10 metri di distanza, mentre l’altro da una mirrorless full frame (Sony Alfa7 II da 24 Mpixel) con un’ottica da 50mm (la distanza di presa era più o meno la stessa).
In entrambe i casi ho ottenuto delle accuratezze paragonabili (tra l’altro piuttosto spinte per il tipo di ricostruzione fatta e grazie alla misura dei target), ma la differenza di informazioni tra i modelli 3D (nuvola di punti e mesh) è sensibile.
Il dataset del Mini 2 ha un GSD (Ground Sampling Distance) 3 volte più grande del dataset della camera terrestre.
Non è un caso che anche il numero dei punti delle nuvole dense (a parità di superficie modellata) rispettino (più o meno) questo rapporto 3:1.
Se devi ricostruire elementi particolarmente complessi, per dettagli e rifiniture, passare ad un sistema “sensore-lente” più performante può essere quasi una scelta obbligata.
A parità di sensore poi un’ottica più lunga (meno grandangolare) dà i risultati migliori (ma ti richiede più tempo in campo e più foto da trattare ed archiviare!). Per non parlare della texture!
Lasciami un commento!
Leave A Reply