• BLOG
  • INFO
  • PARTNER
  • EBOOK
    • PENSIERI TOPOGRAFICI 2020
    • PENSIERI TOPOGRAFICI 2018-2019
  • SUPPORTAMI

FOTOGRAMMETRIA CON PHOTOSCAN PARTE 4 – ALLINEAMENTO DELLE IMMAGINI

9 Marzo 2018
Immagine che mostra linee di match che collegano punti omologhi nell'allineamento tra immagini in Agisoft Photoscan

In questo articolo si parla di fotogrammetria con Photoscan e del processo di allineamento delle immagini.

Questa è la puntata numero quattro a cura dell’Ing. Paolo Rossi,  sulla fotogrammetria con il software Agisoft Photoscan, e si affronta la fase di allineamento delle immagini.

Trovi il primo articolo a questo link.
Il secondo a questo.
Ed il terzo qui.

ALLINEAMENTO DELLE IMMAGINI

Nelle puntate precedenti abbiamo visto le operazioni preliminari da fare sulle immagini importate e le impostazioni della loro calibrazione.
In questo post ti spiego come funziona l’
allineamento delle immagini, la prima operazione che permette di ottenere un prodotto 3D dal rilievo!

L’allineamento serve a posizionare correttamente le immagini le une rispetto alle altre o, se sono già geolocalizzate, a calcolarne l’esatta posizione nello spazio reale.

Ma torniamo alle immagini.
Possono essere prive di localizzazione o avere, all’interno dell’EXIF file (metadati), informazioni sulla posizione di acquisizione.
Questo è frequente quando si usano smartphone o droni.
L’immagine geolocalizzata si riconosce in PhotoScan perché si vede a monitor associata ad un pallino blu e, nel reference panel-cameras, ad ogni ID di immagine sono affiancati numeri indicanti la posizione: le coordiante del punto di presa.

COME LAVORA L’ALLINEAMENTO?

Ma soprattutto, come funzionano gli algoritmi di  SfM (Structure from Motion)?

Prima di inizaire facciamo un po’ di chiarezza sulla terminologia:

  • spazio immagine: è la matrice che costituisce l’immagine acquisita, righe e colonne sono definite ξ ed η e delimitano i pixels;

  • spazio reale: è la dimensione 3D (x, y, z) in cui si fa rilievo e ricostruzione. Le coordinate dipendono dal sistema di riferimento che si sceglie (si può anche scegliere di lavorare in un sistema arbitrario ma scalato, o in un sistema totalmente arbitrario e svincolato dalla realtà).

Su ogni immagine lavora un algoritmo di features detection (Scale Invariant Features Transform o similari) che permette di identificare punti notevoli e caratteristici.
Un punto notevole, o descriptor (descrittore), per essere tale, deve essere stabile, rimanere identificabile e distinguibile al variare della scala di acquisizione, direzione di presa e condizioni di illuminazione.
Gli algoritmi di features detection sono il vero punto innovativo e chiave delle SfM e permettono di identificare in modo automatico migliaia di descrittori per ogni immagine, svincolandosi dal rigore delle geometrie di presa.
I descrittori costituiscono i punti di legame.

Per ogni immagine c’è un database contente tutti i descrittori trovati.
Ogni descrittore è univoco poiché caratterizzato dal comportamento radiometrico dell’immagine (e quindi della scena reale) nel suo intorno.
I descrittori delle varie immagini sono confrontati tra loro.
Gli omologhi costituiscono un legame tra le immagini e ne permettono il posizionamento reciproco.

Questa è la fase definita di matching: di ricerca e definizione di punti di legame tra le immagini costituenti il dataset.

Immagine che mostra il riconoscimento di punti omologhi tra due immagini nella fase di allineamento all'interno di Agisoft Photoscan

Nelle immagini qui sopra i pallini indicano i descrittori individuati nella foto (blu e bianchi se entro o oltre il limite imposto) e le linee sono i matches tra le immagini: la connessione tra lo stesso punto di legame sulle due immagini (in blu se corretti, in rosso se errati).

EQUAZIONI DI COLLINEARITÀ

Una volta determinati i punti di legame si possono impostare e risolvere le equazioni di collinearità.
Si imposta la collinearità lungo l’asse ottico tra:

  • centro di presa,
  • punti di legame
  • posizione 3D del punto di legame.

Le equazioni di collinearità fanno da ponte tra lo spazio immagine (bidimensionale) e lo spazio reale (3D), mettendo in relazione:

  • posizione nello spazio immagine del punto di legame;
  • parametri di calibrazione della fotocamera;
  • parametri esterni della fotocamera (posa e orientamento);
  • coordinate nello spazio reale del punto di legame.

Immagine che mostra schema fotogrammetrico ed equazioni di collinearità

I principi base della fotogrammetria tradizionale ricordano che un generico punto P deve essere ritratto in almeno 2 immagini per poter essere ricostruito in 3D (quindi coordinate immagine note in due fotogrammi, 4 equazioni e le 3 coordinate incognite).

Nelle SfM questo sistema esplode in migliaia di equazioni:

  • uno stesso punto di legame P è visto in tante immagini (per l’elevata ridondanza di dato in fase di rilievo),
  • in ogni immagine sono identificati migliaia di punti di legame,
  • tutti i parametri interni ed esterni della fotocamera sono incogniti.

Il sistema di equazioni è risolto all’interno di uno step chiamato bundle adjustment, dove le soluzioni ottenute sono ottimizzate.
Gli output sono:

  • posizione e posa delle fotocamere,
  • parametri di calibrazione e distorsione della fotocamera,
  • nuvola sparsa, ossia le coordinate 3D dei punti di legame.

Gli output sono restituiti nel sistema di riferimento delle immagini importate, se queste erano geolocalizzate, altrimenti in un sistema di riferimento arbitrario e locale scelto dal software.

N.B: fino ad ora abbiamo ancora parlato di punti di vincolo e osservazioni a terra.

ALIGN PHOTO

Tutte le fasi descritte sopra si riassumono nel comando Align Photo di Photoscan, che contiene varie voci con parametri da settare in base al dataset a disposizione e i risultati che si vogliono ottenere.

Accuracy: è l’accuratezza nella stima della posizione delle camere e ricostruzione.
Da low ad highest aumentano i tempi richiesti dal processing perché aumenta la risoluzione delle immagini analizzate.
Questa voce fa riferimento alle dimensioni delle immagini in cui ricercare i descrittori:

  • high – immagini a scala originale;
  • highest – immagini a scala aumentata di un fattore 4 (2 per lato);
  • medium – immagini down scalate di fattore 4;
  • low – immagini down scalate di fattore 16 (4 per lato).

Pair selection: è la voce che riguarda il matching delle immagini dove si danno indicazioni sulle coppie di immagini tra cui ricercare le corrispondenze:

  • generic – si confrontano prima le immagini a bassa risoluzione per capire quali si sovrappongono e poi si passa alla risoluzione originale;
  • reference – si usa la posizione delle immagini, se nota da exif file.

Keypoint limit, Tie point limit: sono i valori che definiscono i limiti nella numerosità di punti notevoli da identificare nelle immagini, e sui punti di legame da usare nell’allineamento.
Il valore 0 indica che tutti i punti identificabili ed identificati sono utilizzati allo scopo.
Se ho impostato un limite sui punti di legame pari a 4.000, anche se per ogni immagine il software identifica 10.000 possibili punti di legame con le altre immagini, solo i 4.000 migliori, quelli con la maggior probabilità di dare un matching corretto, sono effettivamente utilizzati.
I valori di preset, a mio avviso, vanno bene.
Se siete consapevoli di avere un dataset particolare (scena uniforme e poco texturizzata, bassa ridondanza e qualità delle immagini, …) occorre fare alcune prove per modificare i valori dei parametri.

Constrain feature by mask: selezionare eventuali maschere create per escludere aree dalla procedura di allineamento.

Adaptive camera model: opzione che permette di settare automaticamente i parametri interni della fotocamera da inserire nell’ adjustment in base alla loro affidabilità.
Se il dataset ha una geometria forte, questa opzione ottimizza più parametri, se la geometria è debole, aiuta a prevenire divergenze di alcuni parametri (ad esempio radial distortion se l’oggetto rilevato è piccolo ed al centro delle immagini, posizione del punto principale se le prese sono state effettuate su linee parallele).

Al termine dello step di allineamento si vedono nuvola sparsa e posizione delle fotocamere (rettangoli blu) nel model panel ed i valori adjusted dei parametri di calibrazione nel camera calibration tool.

Già dopo questa prima fase è possibile esportare alcuni risultati (comando export dal menu tools):

  • nuvola sparsa (coordinate dei punti, colore, normali),
  • cameras, posizione ed orientamento delle fotocamere e valori dei parametri di calibrazione interni,
  • tiepoints, i matches tra le immagini.

Una della potenzialità di PhotoScan è quella di offrire vari formati per l’espoertazione dei risultati, permettendo il dialogo con altri software

RIALLINEMANETO DELLA IMMAGINI

Può accadere che non tutte le immagini siano allineate, o allineate bene, ed in questi casi occorre procedere manualmente al riallinamento.
Le immagini non allineate correttamente si notano guardando il modello 3D.
Se vedi porzioni della scena staccate dal resto, in posizioni strane, o se noti immagini in posizioni che non hanno nulla a che vedere col rilievo che hai fatto, devi prendere nota del nome dell’immagine e resettarne l’allineamento (tasto dx sull’immagine e reset alignment).
In modo altrettanto semplice puoi identificare, nell’image panel, le prese che non sono state allineate nella procedura automatica.

Per riallineare un gruppo di immagini occorre:

  • posizionare almeno 4 markers in ognuna di esse,
  • proiettare questi markers in almeno 2 immagini del dataset allineato,
  • selezionare le immagini da allineare e procedere con l’allineamento dove il software userà i markers come punti di legame certi.

ONERI COMPUTAZIONALI

La fase di allineamento è computazionalmente onerosa, le operazioni da fare sono molte e richiedono un certo tempo macchina.
Stimare i tempi necessari è impossibile perchè entrano in gioco variabili legate alle caratteristiche del calcolatore, numero di immagini, set up.
Lo step di allineamento impiega risorse in termini di memoria e CPU.
In questa tabella il team di Agisoft collega il numero di immagini con la quantità di memoria RAM necessaria (la risoluzione delle immagini non incide in questa fase).

Photos

100

200

500

1000

2000

5000

10000

Memory consumption

500MB

1GB

2.5GB

5GB

10GB

25GB

50GB

In rete ho trovato altre indagini fatte da Puget System, un’azienda che si occupa di personalizzazione PC, che analizzano le prestazioni su un dataset campione al variare del numero di cores della CPU.

Nel prossimo articolo si parlerà di inserimento dei punti di vincolo, ottimizzazione degli allineamenti e strumenti di editing per la nuvola sparsa!

 

Spero che anche questo articolo di Paolo Rossi sull’ allineamento delle immagini per la fotogrammetria con Photoscan possa esserti utile.
Per dubbi o domande lo spazio per i commenti qui sotto è a tua disposizione!

A presto!

Paolo Corradeghini

 

 

fotografia dell'Ing. Paolo RossiPaolo Rossi, ingegnere e PhD in Ingegneria Industriale e del Territorio presso l’Ateneo di Modena e Reggio Emilia, attualmente lavora presso il Laboratorio di Geomatica del Dipartimento di Ingegneria “Enzo Ferrari”, dove si occupa di ricostruzione 3D da immagini.

Laboratorio di Geomatica
Dipartimento di ingegneria Enzo Ferrari, Università degli studi di Modena e Reggio Emilia
Via Pietro Vivarelli 10, Modena
Tel: 059 2056297
Cell: 3457054511
Email: paolo.rossi at unimore.it
Profilo Linkedin

 

Ho pubblicato un video sul Canale You Tube che parla proprio dell’allineamento delle immagini con Metashape (ex Photoscan):

Se pensi che possa essere utile ad altri, condividilo!Share on Facebook
Facebook
Share on LinkedIn
Linkedin
Tweet about this on Twitter
Twitter
Email this to someone
email

Related posts:

  1. FOTOGRAMMETRIA CON PHOTOSCAN PARTE 6 – CREAZIONE DELLA NUVOLA DI PUNTI DENSA
  2. Fotogrammetria con Photoscan Parte 2 – Le Immagini
  3. FOTOGRAMMETRIA CON PHOTOSCAN PARTE 5 – PUNTI DI VINCOLO E OTTIMIZZAZIONE DEGLI ALLINEAMENTI
  4. FOTOGRAMMETRIA CON PHOTOSCAN
aerofotogrammetriaagisoft photoscanFotogrammetriaphotoscansfmsoftwarestructure from motion
Share

SOFTWARE

Paolo Corradeghini

You might also like

Aerofotogrammetria – Ortofoto sull’acqua
10 Maggio 2022
Lidar e software di elaborazione dei dati
20 Aprile 2022
Fotogrammetria da drone e foto oblique
4 Febbraio 2022

Lasciami un commento!

  • Commenta nel riquadro qui sotto
  • Commenta con Facebook

4 Comments


Franco Gallo
3 May 2018 at 12:06
Reply

INTERESSANTE E BEN FATTO. HO LETTO ANCHE GLI ARTICOLI PRECEDENTI E LEGGERO’ I PROSSIMI. NE CONSIGLIO LA LETTURA.



    Paolo Corradeghini
    4 May 2018 at 9:18
    Reply

    Ciao Franco, grazie mille per il tuo commento!

Michele
28 June 2018 at 18:17
Reply

Salve Paolo,
riguardo l’allineamento delle immagini, non capisco perché photoscan si rifiuta di prendere in considerazione alcune foto. sono geotaggate, non sono sfocate, e se le prende in considerazione assegna un rollio di 60/70°. tu cosa ne pensi?



    Paolo Corradeghini
    29 June 2018 at 14:35
    Reply

    Ciao Michele,
    è possibile che siano immagini nella zona perimetrale dell’area rilevata?
    C’è sufficiente sovrapposizione con le altre immagini del dataset?
    Hai provato a riallinearle manualmente segnalando al software punti in comune a cui “agganciarsi”.
    A volte può capitare quello che hai segnalato, se le immagini non sono molte e te lo puoi permettere puoi eliminarle dall’elaborazione.
    Fammi sapere se riesci a risolvere il tuo problema.
    Ciao!
    Paolo

  • CHI SONO

    Paolo Corradeghini immagine profilo
    Paolo Corradeghini, ligure, classe 1979, ingegnere per formazione, topografo di professione, sportivo per necessità e fotografo per passione. Fai click sulla mia faccia e scopri qualche informazione in più.
  • SE VUOI PUOI SUPPORTARMI

    Diventa finanziatore di 3DMetrica

    Se quello che pubblico e che condivido è interessante ed è qualcosa di valore per te, per il tuo lavoro e per la tua attività, puoi scegliere di supportare il progetto di 3DMetrica diventandone finanziatore.
    Clicca sull'immagine qui sopra per avere più informazioni.
  • C’È IL CANALE TELEGRAM!

    Canale Telegrma 3DMetrica
    Iscriviti al canale Telegram di 3DMetrica dove, ogni giorno, condivido aggiornamenti, informazioni, contenuti, notizie, novità e dietro le quinte del mio lavoro.
    In amicizia e senza formalità!
    ISCRIVITI QUI!
  • CERCA NEL BLOG

  • EBOOK – Pensieri topografici del 2020

    Ebook-pensieri-topografici-2020
  • EBOOK – Pensieri topografici 2018-2019

    Ebook-pensieri-topografici-2020
  • PUOI SEGUIRMI SU INSTAGRAM…

    tredimetrica

    Con lo strumento "Point List Picking" di Cloud Com Con lo strumento "Point List Picking" di Cloud Compare puoi selezionare diversi punti di una nuvola, da portare in planimetria.

Alla fine puoi creare un file di testo o una nuova nuvola di punti, fatta solo dai punti che hai selezionato.
O entrambe le cose.

In un software di topografia poi, i punti 3D si trasformano facilmente in punti "topografici" (anche se non derivano da una misura strumentale diretta) ai quali puoi assegnare uno stile del simbolo ed aggiungere diversi campi testuali.

#cloudcompare #nuvoledipunti #3d #pointlistpicking
    [Nuvole Lidar e classificazione automatica del ter [Nuvole Lidar e classificazione automatica del terreno - Prima di tutto togli (almeno) gli "Outliers"]
Prima di fare la classificazione automatica del terreno degli elementi di una nuvola di punti Lidar ti conviene pulirla un po' affinchè il risultato del processo sia buono.

Gli "outliers" sono i più insidiosi.
Se ad esempio ci sono punti isolati sotto il livello reale del piano campagna, questi possono dare indicazioni fuorvianti al classificatore.

Nelle immagini che condivido in questo post vedi:
1. una nuvola Lidar (completa e colorata);
2. la classificazione del terreno senza la preventiva rimozione degli outlier;
3. la nuvola vista di lato con evidenza degli outlier;
4. la classificazione del terreno dopo la pulizia.

#lidar #nuvoledipunti #3d
    [Stazione Totale - Misure di distanza - Coordinate [Stazione Totale - Misure di distanza - Coordinate proiettate e cose che non tornano]
Fai attenzione al fattore di scala dei sistemi di riferimento proiettati quando fai misure con la stazione totale.

La distanza diretta, misurata con stazione totale, tra due punti in campo è diversa tra la distanza proiettata sul piano e presa tra le coordinate Nord ed Est degli stessi punti misurati con un GPS.

Nel passaggio da un sistema di coordinate geografiche ad un sistema cartografico si applica un fattore di scala.
Nel sistema di riferimento ETRF2000-UTM, questo fattore di scala è 0.9996.

Su 100 m lasci per strada 4 cm.
Su 3 km perdi 1.20 m!

Credo che questa sia un'informazione molto importante da gestire nei rilievi e nella restituzione.
    [Laser scanner e ombre] Il laser scanner è una m [Laser scanner e ombre]

Il laser scanner è una misura attiva ma i raggi emessi non distruggono gli oggetti che incontrano nel loro percorso!

Ci sono scanner che permettono di registrare più ritorni, per lo stesso raggio, ma se questo sbatte contro un muro, un tetto, un'auto o il terreno, non riesce ad andare oltre.
E meno male!

Al di là di questa introduzione, in una scansione terrestre (TLS) è molto probabile che ci siano ostacoli che fermano parte dei raggi e proiettano delle "ombre" nella nuvola di punti.
Lì non ci sono informazioni.

La forma e, soprattutto, la distanza dell'ostacolo dall'emettitore determinano la dimensione dell'ombra.

Anche se un elemento sembra poco rilevante rispetto alla scena da scansionare, la sua ombra potrebbe cancellare parecchi punti che, tradotti in superficie da rilevare, possono diventare parecchi metri quadrati.

Se non puoi liberarti dell'ostacolo l'unico modo per riempire le ombre è quello di fare più scansioni, da punti diversi, in modo che l'emettitore riesca a "vedere" oltre.

La programmazione di un rilievo laser scanner in campo tiene conto anche di questo.
Più stazioni fanno aumentare i tempi operativi di lavoro.
E con uno scanner ad approccio topografico le scansioni extra si fanno sentire nel budget finale delle ore in campo!

#laserscanner #3d #nuvoledipunti #pointcloud #trimble #trimblesx10
    [Aerofotogrammetria - Ortofoto sull'acqua] Si poss [Aerofotogrammetria - Ortofoto sull'acqua]
Si possono creare ortofoto d'acqua (ferma) anche se il modello 3D fotogrammetrico fa schifo ed è bucato.

Se la nuvola di punti o la mesh sono "bucate" è perchè il software non è stato capace di trovare punti di legame nell'allineamento delle immagini.
Ma non è detto che l'ortofoto non possa venire fuori ugualmente bene.
Par farlo succedere devi creare una superficie di riferimento, su cui "stendere" le fotografie, ortorettificate, priva di buchi.
Puoi usare il DEM o la Mesh.
Quando fai creare il DEM (Modello Digitale di Elevazione) hai la possibilità di dire al software di interpolare i buchi.

L'interpolazione della mesh non sempre va a segno al primo colpo (in realtà neppure quella del DEM) ma ci sono altri strumenti (più o meno avanzati) che ti vengono in aiuto.

L'accorgimento da prendere in fase di presa fotografica è di estendere la copertura delle fotografie ad un bel pezzo extra di riva, dove sei sicuro che il software fotogrammetrico lavorerà senza problemi nella creazione di nuvola di punti e mesh.

#ortofoto #fotogrammetria #aerofotogrammetria #3d #nuvoladipunti #mesh #dem
    [Rilievi di argini e vegetazione] Gli argini di c [Rilievi di argini e vegetazione]

Gli argini di canali artificiali, realizzati in terra, si prestano bene ad un rilievo aerofotogrammetrico ma, affinché il rilievo sia davvero efficace, andrebbe fatto dopo la pulizia dalla vegetazione.

Un sorvolo su un argine pulito permette di creare una nuvola di punti efficace da cui estrarre informazioni per tutta la lunghezza del tratto rilevato.

Se invece le sponde sono vegetate, il dato che si ottiene potrà essere buono qua e là ma sarà comunque globalmente più scarso rispetto alle condizioni ideali.

Lo sfalcio ed il decespugliamento sono attività che possono avere costi importanti.
Gli Enti locali hanno solitamente un piano di sfalcio sulle aree di competenza, specialmente se si tratta di zone frequentate, aree verdi, parchi e percorsi ciclopedonali.
Se hai tempo di aspettare, vale la pena coordinarsi in tal senso per andare in campo subito dopo le pulizie programmate.
Se invece hai fretta si devono accettare costi maggiori per lo sfalcio straordinario.

O si può andare in campo con la tecnologia LiDAR su drone per riuscire a penetrare la copertura vegetale.
Anche se non sempre si riesce a fare!

P.S.
Tutto questo vale per la parte emersa.
Per andare sott'acqua servono altri strumenti!
    [Monitoraggio e considerazioni sul tema] Prendend [Monitoraggio e considerazioni sul tema]

Prendendo spunto da una recente installazione di sistema di monitoraggio della falesia del Cimitero di Camogli (con tecnologia GNSS da parte di Gter e Yet It Moves) faccio alcune considerazioni sul tema.
Gli strumenti per monitorare possono essere tanti e quello che accumuna ogni situazione è la ripetizione nel tempo delle misure.

La precisione del controllo può già fare una discriminazione.

Il caso di Camogli pone poi l'attenzione sul "quante misure fare nel tempo".
Una rete GNSS che elabora dati in continuo permette di accedere alle letture dei singoli nodi con una frequenza alta (si che può arrivare ad essere anche di qualche ora).

A Camogli mi sono occupato dei rilievi fotogrammetrici e laser scanner di tutta la porzione di costa, in due momenti differenti, da cui si sono potuti misurare movimenti macroscopici che hanno permesso di fare valutazioni successive per la scelta dei punti di installazione dei sensori del monitoraggio di precisione.

Credo anche che sia rilevante l'aspetto della responsabilità di chi restituisce un dato da monitoraggio.
Questi dati servono per scelte progettuali, decisioni di sicurezza e protezione civile per niente banali.
Vale la pena "metterci la testa".

Io non sono un esperto di monitoraggi, anzi non lo sono per niente, ma il tema della misura legata, in qualche modo, alla "quarta dimensione", quella del tempo, mi affascina molto.
Se hai contributi, commenti o esperienza da condividere fallo assolutamente perchè il tema è interessante!
    Sono iniziati (in realtà già da qualche mese) i Sono iniziati (in realtà già da qualche mese) i lavori di messa in sicurezza dei versanti sopra la Via dell'Amore ed il ripristino della passeggiata, chiusa ormai da diversi anni).

Reti di placcaggio, barriere paramassi, nuove gallerie e rifacimento di tutto il percorso per un po' di milioni di euro ed almeno due anni di tempo.

Dovrei supportare i lavori con alcune "cose" dall'alto...

#viadellamore #parcocinqueterre  #lavori #roccia #drone
    [Laser scanner, nuvole colorate e fotocamere integ [Laser scanner, nuvole colorate e fotocamere integrate]

Per colorare una nuvola di punti da scansione laser servono delle fotografie.
Ci sono ormai parecchi scanner con fotocamera integrata, che semplificano il lavoro dell'operatore.

L'esposizione delle immagini deve essere la più "corretta" possibile per  riprodurre al meglio l'informazione colorimetrica nei punti della nuvola.

Non conosco il funzionamento specifico di ogni camera ma vale la pena dedicare un po' di tempo a capire come lavora l'esposimetro ed evitare così punti bianchi (per foto sovraesposte) o neri (per sottoesposizione).

Nel caso della SX10 di Trimble (l'unico caso che conosco), si può fissare un'esposizione costante ed è ok se l'illuminazione della scena scansionata non cambia.
I risultati sono scarsini se si passa da alte luci ad ombre e viceversa.

Nelle prime due immagini la nuvola è colorata da foto con esposizione fissa e presa ai due estremi delle zone di luminosità della scena scansionata.

L'altra opzione possibile è quella di scegliere un'esposizione automatica e variabile che permette di compensare i cambi di luce, per un risultato più armonico.

Occhio che l'angolo di campo dell'ottica incide parecchio.
È difficile avere tutto quanto esposto perfettamente in un'immagine sferica a 360°.
A meno di non sfruttare la tecnica dell'HDR (che alcuni scanner fanno)

Se poi c'è la possibilità di usare più camere (a lunghezza focale diversa) per scattare foto da usare nella colorazione della nuvola, quella a campo più stretto permette una lettura dell'esposizione più accurata rispetto alle panoramiche.
Ma servono più foto per coprire l'intera scena.
    [Fotogrammetria ed attenzione al colore] Spoiler: [Fotogrammetria ed attenzione al colore]
Spoiler: questo post non è interessante se ti occupi solo di fotogrammetria per il rilievo del territorio.
Ma se fai anche ricostruzioni 3D di edifici storici, beni culturali, monumenti ed opere d'arte di ogni forma e dimensione, credo che serva molta attenzione anche alla riproduzione fedele del colore nel processo fotogrammetrico.

Nella campagna di scatto è necessario utilizzare degli oggetti  che permettano di correggere le dominanti di colore in post elaborazione.
Si tratta generalmente di tabelle formate da quadrati colorati (in cui ogni colore è codificato).
In inglese si chiamano "color checker".
Li dovresti mettere nella scena e fotografare nelle stesse condizioni di illuminazione dell'oggetto del rilievo.

In post elaborazione poi si prendono le immagini in cui è presente il color checker e si applicano correzioni cromatiche sulla base del colore "letto" nell'immagine rispetto a quello che dovrebbe essere realmente (i valori codificati).

Tutto questo deve essere accompagnato da un altro paio di cose:
1. il controllo dell'illuminazione della scena;
2. un monitor calibrato (tutto passa attraverso i pixel del tuo schermo e se non sono "veritieri" il rischio di vanificare tutto il processo che ti ho raccontato, avendo una percezione sballata dei colori, è alto).

#fotogrammetria #colore #colorchecker
    [Lidar e software di elaborazione dei dati] Condiv [Lidar e software di elaborazione dei dati]
Condivido alcune caratteristiche che un software di elaborazione dati Lidar (da drone) dovrebbe avere.

1. Gestione dei dati grezzi della base GNSS di riferimento per il calcolo della traiettoria.

2. Aggiustare e/o correggere le traiettorie.

3. Dividere la traiettoria e, conseguentemente, la nuvola di punti.

4. Colorare la nuvola di punti e gestire problemi di "matching" tra immagine e traiettoria.

5. Gestione di datum, sistemi di riferimento e coordinate.

6. Misurare la nuvola di punti.

7. Visualizzare i punti secondo le informazioni dei campi scalari (intensità e numero di ritorni, tempo di acquisizione, ...)

8. Esportazione della nuvola in formati comuni.

Poi ce ne sono altri, non necessari, ma che possono aiutare l'elaborazione.

9. Segmentare, ritagliare ed eliminare parti della nuvola di punti.

10. Filtrare la nuvola per eliminare rumore ed outliers, oltre che sottocampionarla

11. Classificare i punti con algoritmi automatici.

12. Verificare l'accuratezza con punti di coordinate note.

13. Generare report di elaborazione.

Dimentico senz'altro qualcosa.
Se vuoi aggiungere, integrare o commentare in base alla tua esperienza sentiti davvero libero o libera.
È utile per tutti.

#lidar #nuvoledipunti #3d #pointcloud #software #editing #realitycapture
    Se sei in un posto aperto a misurare con il GPS pu Se sei in un posto aperto a misurare con il GPS puoi anche tenere la palina bassa, i satelliti si vedono ugualmente bene.

#gnss #gps #rilievo #topografia #misura
    È importante aggiornare i firmware degli strument È importante aggiornare i firmware degli strumenti di rilievo ed i software dei dispositivi che li controllano.

Credo che l'evoluzione tecnologica di quello che si usa in campo si porti con sé la necessità di una consapevolezza nuova sulla loro manutenzione.

Se prima gli aspetti legati alla taratura, al controllo delle parti meccaniche, ..., bastavano per permetterne il funzionamento, ora serve un'attenzione in più.

Non vale per ogni strumento che si vede in giro, ma credo che, piano piano, sarà un aspetto con cui tutti ci confronteremo.

Le case produttrici ti permettono di aggiornare continuamente una stazione totale o un laser scanner con nuovi firmware, che ne integrano funzionalità o correggono dei "bug".

E lo stesso succede per i software che girano sui dispositivi di controllo (smartphone, tablet, ...).

Nuove release migliorano la user experience o, anche qui, sistemano gli errori.

Se dopo un rilievo spari aria compressa e spennelli una stazione totale per togliere la polvere, prima di andare in campo dovresti controllare che software e firmware siano ok e tutto sia funzionante.

Usiamo strumenti tecnologicamente fantastici che tuttavia potrebbero incepparsi in campo per qualche "banale" conflitto software irrisolto.

#rilievo #strumenti #topografia #software #firmware
    La fotogrammetria non è la tecnica ideale per lav La fotogrammetria non è la tecnica ideale per lavorare con la vegetazione: copre il terreno che sta sotto (in una presa da drone) e non è facile ricostruirla.

Fotografie ad alta risoluzione, scattate da un sensore grande (full frame), possono avere problemi maggiori per ricreare nella nuvola di punti, le chiome di alberi.

Da quando ho iniziato ad usare una fotocamera più performante (full frame - 40 Megapixel) rispetto a quelle che ho usato in passato (1" - 24 Megapixel) sto verificando dei buchi nella nuvola di punti laddove ci sono alberi spogli.
Può sembrare controintuitivo ma è così.

Fotografie troppo dettagliate, di elementi molto complessi, porosi e con informazioni disposte su vari piani (tutta l'altezza degli alberi) non aiutano il software, anzi...

Per provare ad avere qualche informazione in più lì sopra,  puoi lanciare l'elaborazione della nuvola di punti ad una qualità inferiore.
Le immagini del dataset vengono sottocampionate (la risoluzione si riduce) ed il software structure from motion lavorerà con una minore quantità di dettagli descritti nei pixel.
Questo aumenta il numero di punti lungo gli alberi, anche se la loro confidenza (cioè l'attendibilità della posizione 3D) è piuttosto scarsa.
Oh, non è che il problema sia superato, anzi...
La nuvola di punti in effetti fa ancora piuttosto schifo.

La presenza di foglie aiuta il processo quindi se vuoi avere informazioni sulle altezza degli alberi è meglio acquisire i dati in estate.
Ed anche il tipo di albero (forma e dimensione) influenza il risultato...

#fotogrammetria #structurefrommotion #nuvoledipunti #3d #pointcloud
    Il back up dei dati subito dopo un rilievo, mette Il back up dei dati subito dopo un rilievo, mette al sicuro il lavoro della giornata.

Molti dispositivi di controllo sono palmari, smartphone o tablet, piuttosto avanzati, ma pur sempre a rischio di danneggiamento software o, peggio, furto o danno fisico.

Perdere i dati di una giornata di lavoro può avere conseguenze importanti.

Se hai rilevato qualcosa che non c'è più (scavo, abbancamento, demolizione) non potrai ripetere il rilievo.

Ci sono vari livelli di "sicurezza" per i dati di uno strumento.

Salvare i dati in una memoria interna (ad uno scanner o una stazione totale) ed in quella del controller ti permette di avere i file in due posti distinti.

Backuppare un lavoro in una chiave USB o in un hard disk esterno è un'altra opzione valida. Vale però per dispositivi dotati di porta USB.

Salvare i dati nel cloud è forse la scelta più sicura. Attivando un hot spot con lo smartphone riesci a mandarli in posti che sono a prova di furto o danno. Il cloud ti permette anche di essere molto efficiente se c'è qualcuno pronto a riceverli ed iniziare subito ad elaborarli.

Una volta ho temuto di aver perso i dati di un rilievo "un po' complicato".
Non ho passato una bella mezz'ora!
    [Laser scanner e traffico] Un camion che passa da [Laser scanner e traffico]

Un camion che passa davanti ad un laser scanner e è un ostacolo al rilievo.
A volte il traffico si riesce a gestire (movieri, gestione del cantiere o indicazioni specifiche, ...).
Altre volte no.
L'ideale immobilismo è, di fatto, irrealizzabile.

Alcuni scanner hanno la possibilità di mettere in pausa, una scansione per riprenderla una volta passato il mezzo.

Anche aumentare la qualità della scansione può aiutare.
Spesso una qualità maggiore significa effettuare la scansione, della stessa area, più volte.
Se i mezzi si muovono, ci sono buone probabilità che, se te li ritrovi tra i piedi al primo giro, non ci saranno più al secondo.

Fare scansioni da punti diversi aiuta.
Scegli punti di scansione in modo che si integrino uno con l'altro.

Oppure  puoi sempre considerare l'ipotesi di fare il rilievo di notte quando, auspicabilmente, il traffico è ridotto o assente.
    Un ponte può creare problemi ad un rilievo con Li Un ponte può creare problemi ad un rilievo con Lidar lungo un alveo

Manca il pezzo d'alveo sotto al ponte.
Non è sempre vero.
Ma può capitare.

Non c'è l'intradosso ed i dettagli non sono ricchissimi.

La classificazione del terreno può venire ingannata.
Non è facile per un software di classificazione automatica  distinguere il ponte dal terreno.
Se ci pensi ha la stessa quota del piano stradale.

Questi problemi si possono risolvere.

Una scansione con laser terrestre mette (forse) a posto i primi due punti 

Se c'è acqua o non riesci ad andare sotto all'impalcato puoi interpolare il terreno con le informazioni a monte ed a valle.
Se però c'è una soglia o un salto dovrai battere dei punti con una stazione totale.

Per la classificazione automatica l'intervento manuale è la soluzione migliore per garantire un risultato confidente.

Il Lidar da drone è molto efficace per acquisire dati in questi ambiti (occhio alla vegetazione!) ma l'integrazione strumentale è sempre la soluzione più efficiente.

#rilievo #rilievo3d #lidar #drone #lidardadrone #3d #realitycapture #alveo #idraulica #dtm #nuvoledipunti
    Non è detto che quello che ti serva sia un'ortofo Non è detto che quello che ti serva sia un'ortofoto di una facciata.
Potresti correggere la distorsione prospettica con software di fotoritocco e "raddrizzare" l'immagine (per i tuoi scopi).

Il punto di presa e la forma dell'oggetto fotografato deformano la rappresentazione secondo una vista prospettica.
Linee parallele nella realtà (muri verticali) sono convergenti nello spazio immagine.

Tutti i principali software di photoediting hanno strumenti di correzione della prospettiva.
Ci sono nel famoso Photoshop, nell'open source Gimp e nel "nuovo" ed economico Affinity Photo.

Funzionano più o meno nel solito modo.
Intervieni sulle immagini alterando i pixel e, aiutato da una griglia virtuale, allinei gli elementi dell'immagine alla maglia.
È veloce e non richiede hardware super.

La posizione reciproca tra punto di presa ed oggetto fa molto.
Così come la forma di quello che hai fotografato è rilevante.

È diverso dal fare un'ortomosaico.
Così come è diverso dall'usare, in campo, un obiettivo basculante e decentrabile ("tilt/shift") per le foto.
Ma è piuttosto pratico e può funzionare ugualmente.

Dopo tutto il raddrizzamento delle foto del costruito è una tecnica che gli architetti usano da parecchio tempo.
😉
    Carica di più... Seguire Instagram
  • VUOI ISCRIVERTI ALLA NEWSLETTER?

    Newsletter di 3DMetrica Ti prometto che riceverai una sola email alla settimana.
    Salvo qualche (rara) eccezione...
    Una volta alla settimana ti scrivo i post che pubblico quotidianamente sui miei canali social network, ti metto il link all'ultimo articolo del blog (sperando di farcela a scriverne uno ogni settimana!) ed anche il link per ascoltare la nuova puntate del podcast di 3DMetrica.
  • ARGOMENTI

    CARTOGRAFIA DRONI EBOOK FOTOGRAMMETRIA LASER SCANNER LAVORI LIDAR PODCAST RILIEVI Senza categoria SOFTWARE STRUMENTI TOPOGRAFIA TUTORIAL
  • PAROLE CHIAVE

    3D 3dmetrica 5 terre aerofotogrammetria agisoft photoscan altimetria angoli apr cartografia cloud compare cloudpoints coordinate dem dissesto idrogeologico drone droni elaborazione fotografia Fotogrammetria GIS GNSS GPS GSD immagini laser scanner lidar misura misure nuvola di punti nuvole di punti ortofoto photoscan quota rilievo rilievo aerofotogrammetrico rilievo con drone sapr sistemi di riferimento software stazione totale structure from motion strumenti topografia tutorial uav



© Copyright Ing. Paolo Corradeghini 2021 - PIVA 01260880115