644 resultados para Tecnologia additiva, modellazione per deposizione di filamento fuso


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La foca monaca (Monachus monachus, Hermann 1779) è il pinnipede più a rischio d’estinzione del mondo e pochi sono gli studi che hanno indagato l’impatto antropico dato dagli inquinanti chimici su questa specie. Questo studio si propone di analizzare la pressione che elementi in traccia, organoclorurati (OC) e, per la prima volta, idrocarburi policiclici aromatici (IPA) hanno sulla specie, studiando una della popolazioni più numerose presenti nel Mar Mediterraneo, ossia quella greca. Sono stati utilizzati campioni di 59 esemplari deceduti provenienti da diverse colonie residenti in Grecia, di ambedue i sessi, appartenenti a diverse classi d’età e riferibili ad un arco temporali di quasi 20 anni (1994-2013). Per i contaminanti organici (PCB, DDT ed IPA), caratterizzati da un comportamento lipofilico, sono stati utilizzati esclusivamente campioni di tessuto adiposo, mentre per l’analisi di elementi in traccia (essenziali: Fe, Co, Cu, Se, Zn, Mg; tossici: Cr, Ni, As, Cd, Pb, Hg) sono state impiegate diverse matrici, quali fegato, rene, muscolo, adipe, milza, polmone, cuore e pelo. I risultati evidenziano un’importante contaminazione dai OC (125.896,69±289.934,27 ng/g p.s.), in cui DDT e PCB sono presenti rispettivamente al 48,5% e 51,5%, mentre, tra i metalli considerati tossici (As, Cd, Pb, Hg, Cr, Ni), As e Hg sono gli elementi che destano maggiori preoccupazioni per la salute di Monachus monachus, presenti rispettivamente al 36,44% e 12,83%. IPA ed altri elementi in traccia analizzati invece non raggiungono di per sé concentrazioni di rischio per la specie, ma non si escludono possibili effetti sinergici tra i vari inquinanti. L’elaborazione del fingerprint tossicologico ha evidenziato un’eterogeneità nella pressione data dai contaminanti in studio, manifestando che alcune colonie di foca monaca in Grecia sono maggiormente soggette all’azione negativa di organoclorurati, idrocarburi policiclici aromatici o elementi in traccia tossici a seconda del caso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tesi sperimentale per testare la nuova libreria di Activity Recognition per Android di Google inc.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo della tesi è illustrare l’evoluzione delle tecniche ecocardiografiche relativamente alla diagnosi precoce della cardiotossicità. L’elaborato espone le modalità di imaging ecocardiografico che vengono utilizzate per diagnosticare la cardiotossicità a partire dall’ecocardiografia bidimensionale, fino alle tecniche tridimensionali con acquisizione in tempo reale, attualmente in evoluzione. Si analizzano le varie tecniche diagnostiche rese disponibili dall’esame ecocardiografico: ecocardiografia a contrasto, doppler ad onda continua e pulsata e color doppler, e i metodi e le stime attraverso i quali è possibile quantificare i volumi cardiaci, indici della funzionalità del miocardio. La frazione di eiezione è infatti stata, fino ad ora, il parametro di riferimento per la verifica di lesioni cardiache riportate a seguito di terapia antitumorale. La cardiotossicità viene riscontrata per riduzioni dei valori della frazione di eiezione da ≥5% a <55% con sintomi di scompenso cardiaco e riduzione asintomatica da ≥10% al 55%. Tuttavia, l’osservazione di questo parametro, permette di quantificare il danno riportato quando ormai ha avuto ripercussioni funzionali. In campo clinico, si sta imponendo, al giorno d’oggi, l’analisi delle deformazioni cardiache per una valutazione precoce dell’insorgenza della cardiotossicità. Lo studio delle deformazioni cardiache viene effettuato tramite una nuova tecnica di imaging: l’ecocardiografia speckle tracking (STE), che consente un’analisi quantitativa e oggettiva, poiché indipendente dall’angolo di insonazione, della funzionalità miocardica sia globale sia locale, analizzando le dislocazioni spaziali degli speckles, punti generati dall’interazione tra ultrasuoni e fibre miocardiche. I parametri principali estrapolati dall’indagine sono: deformazione longitudinale, deformazione radiale e deformazione circonferenziale che descrivono la meccanica del muscolo cardiaco derivante dall’anatomia delle fibre miocardiche. La STE sviluppata inizialmente in 2D, è disponibile ora anche in 3D, permettendo la valutazione del vettore delle dislocazioni lungo le tre dimensioni e non più limitatamente ad un piano. Un confronto tra le due mostra come nella STE bidimensionale venga evidenziata una grande variabilità nella misura delle dislocazioni mentre la 3D mostra un pattern più uniforme, coerente con la normale motilità delle pareti cardiache. La valutazione della deformazione longitudinale globale (GLS), compiuta tramite ecocardiografia speckle tracking, viene riconosciuta come indice quantitativo della funzione del ventricolo sinistro le cui riduzioni sono predittive di cardiotossicità. Queste riduzioni vengono riscontrate anche per valori di frazioni di eiezione normale: ne risulta che costituiscono un più efficace e sensibile indicatore di cardiotossicità e possono essere utilizzate per la sua diagnosi precoce.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato propone un’analisi dettagliata della configurazione del discorso pubblicitario, inteso come il risultato di una duplice operazione: quella di produzione del messaggio, a opera del pubblicitario, utente di precise strategie discorsive, e quella di interpretazione, da parte del destinatario che completa il significato dell’enunciato attribuendogli le proprie peculiari connotazioni. Il corpus utilizzato consiste in una raccolta di spot pubblicitari prodotti dall’azienda Barilla per i telespettatori francofoni, ed è stato reperito presso l’Archivio Storico di Barilla nella sede di Parma. L’illustrazione e la descrizione di alcune pubblicità scelte come modelli forniscono la base per l’approfondimento di alcune problematiche linguistiche e traduttologiche; in particolare, viene posto l’accento sulla nozione di ethos discorsivo, collocabile nell'ambito dell’analisi del discorso, e su quella di stereotipo linguistico, considerato come veicolo culturale e strumento dotato di straordinaria forza assertiva e pertanto prediletto dalla comunicazione pubblicitaria. Tale forma di linguaggio merita di essere analizzata e studiata nella sua ricca complessità, dal momento che è da considerarsi come il più efficace e moderno mezzo di diffusione, incorporazione e assimilazione di valori e comportamenti culturalmente orientati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il tema del mio elaborato finale è la sottotitolazione del film “A passeggio per Mosca” di Georgij Danelija (1963), un noto regista russo. I suoi film più famosi sono “Мимино” (Mimino) e “Осенный марафон” (“Maratona d’autunno”). L’attore protagonista del film è Nikita Michalkov, famoso attore e regista, nonché personaggio controverso della vita culturale russa; il suo film più famoso è “Утомлённые солнцем” (“Sole ingannatore”). I personaggi più anziani furono interpretati da attori famosi quali Rolan Bykov, attore di teatro, e Vladimir Basov, regista e attore straordinariamente versatile. I ruoli principali, invece, furono affidati ad attori meno noti: Aleksej Loktev e Evgenij Steblov, che si dedicarono entrambi al teatro per gran parte della propria vita, e Galina Pol’skich, che divenne una grande attrice di film drammatici. Straordinari sono anche il lavoro dell’operatore cinematografico Vadim Jusov e quello del compositore Andrej Petrov. Il film suscitò diverse impressioni nel pubblico e nella critica e fu accolto positivamente da Chruščёv: presto sarebbe diventato un simbolo del “Disgelo”, un periodo in cui Chruščёv effettuò un’opera di destalinizzazione dell’URSS: il clima era quindi più disteso, sebbene vi fosse un malcontento diffuso a causa dell’economia fallimentare dello Stato. La canzone finale, che contribuì al successo del film, esprime perfettamente quest’atmosfera spensierata, che pervade anche Mosca, la vera protagonista del film. Della capitale vengono inquadrati i luoghi più importanti: tra questi il parco Gorkij, la metropolitana e il GUM. Tradurre i sottotitoli del film non è stato facile. In particolare, ho incontrato difficoltà nel tradurre alcune particelle russe che non hanno un equivalente in italiano e battute in cui erano presenti importanti riferimenti culturali. Il lavoro a cui mi sono dedicata con più impegno è stato la traduzione della canzone finale: desideravo che i sottotitoli italiani fossero in rima e conservassero il significato dei versi originari.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un'interfaccia cervello-computer (BCI: Brain-Computer Interface) è un sistema di comunicazione diretto tra il cervello e un dispositivo esterno che non dipende dalle normali vie di output del cervello, costituite da nervi o muscoli periferici. Il segnale generato dall'utente viene acquisito per mezzo di appositi sensori, poi viene processato e classificato estraendone così le informazioni di interesse che verranno poi utilizzate per produrre un output reinviato all'utente come feedback. La tecnologia BCI trova interessanti applicazioni nel campo biomedico dove può essere di grande aiuto a persone soggette da paralisi, ma non sono da escludere altri utilizzi. Questa tesi in particolare si concentra sulle componenti hardware di una interfaccia cervello-computer analizzando i pregi e i difetti delle varie possibilità: in particolar modo sulla scelta dell'apparecchiatura per il rilevamento della attività cerebrale e dei meccanismi con cui gli utilizzatori della BCI possono interagire con l'ambiente circostante (i cosiddetti attuatori). Le scelte saranno effettuate tenendo in considerazione le necessità degli utilizzatori in modo da ridurre i costi e i rischi aumentando il numero di utenti che potranno effettivamente beneficiare dell'uso di una interfaccia cervello-computer.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è lo studio, mediante misure sperimentali con un telescopio per raggi cosmici, della risposta temporale di rivelatori a scintillazione accoppiati a diversi tipi di fotorivelatori. In particolare sono stati studiati due tipi di fotorivelatori: i fotomoltiplicatori al silicio (SiPM) ed i rivelatori MicroChannel Plate (MCP); entrambi i sensori presentano ottime caratteristiche per ciò che concerne la risposta temporale. Per una migliore caratterizzazione dei fotorivelatori e per una maggiore completezza dello studio sono stati analizzati anche diversi modelli di accoppiamento tra gli scintillatori ed i sensori, sia a diretto contatto che tramite fibre ottiche. Per cercare di sfruttare al meglio le eccellenti proprietà temporali, sono state utilizzate anche diverse schede di front end veloce e diversa elettronica di read out. In particolare in questa tesi, per la prima volta, è stata usata, per lo studio di questi nuovi fotorivelatori, l’elettronica di front end e read out realizzata per il rivelatore TOF dell’esperimento ALICE a LHC. I risultati di questa tesi rappresentano un punto di partenza per la realizzazione di rivelatori con ottima risoluzione temporale in esperimenti di fisica nucleare ed subnucleare (definizione del trigger, misure di tempo di volo, calorimetria). Altre interessanti applicazioni sono possibili in ambito medico, in particolare strumenti di diagnostica avanzata quali ad esempio la PET.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo del lavoro di tesi è l’analisi della vulnerabilità delle strutture della città di Augusta, che è una delle aree campione scelte dal progetto europeo ASTARTE, riguardante fra l’altro la stima e la mitigazione del rischio da tsunami nei mari europei. Per prima cosa sono state ricercate le strutture tettoniche che possono dare origine a terremoti di grande magnitudo, e che possono causare in seguito devastanti tsunami, nella zona della Sicilia orientale. La Scarpata Maltese è risultata essere la caratteristica morfologica dominante in questa zona del Mediterraneo. Per l’analisi di vulnerabilità sono state utilizzate due diverse metodologie: il modello SCHEMA (SCenarios for Hazard-induced Emergencies MAnagement) e il modello PTVA-3 (Papathoma Tsunami Vulnerability Assessment). Il metodo SCHEMA, di tipo quantitativo, è un metodo più semplice in quanto si avvale della fotointerpretazione per assegnare ad una costruzione la classe di appartenenza in base alla sua tipologia. Poi, attraverso le matrici del danno, si assegna un livello di danno (da D0, nessun danno, a D5, collasso) in base all’altezza della colonna d’acqua. Il metodo PTVA-3, di tipo qualitativo, risulta invece essere più complicato. Infatti, per arrivare all’assegnazione dell’indice di vulnerabilità relativa (RVI), che fornisce una stima del danno subito da una data struttura, si ha bisogno di assegnare un certo numero di attributi. L’indice RVI è dato dalla somma pesata tra la vulnerabilità strutturale e la vulnerabilità dovuta all’intrusione d’acqua (percentuale di piani inondati). In conclusione si è fatto un confronto tra i due metodi, ottenendo una sovrastima del metodo PTVA-3 rispetto al metodo SCHEMA nella quantificazione del livello di danneggiamento degli edifici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni si è assistito nel panorama mondiale ad un notevole ed importante cambiamento nell’asset della produzione dell’energia elettrica. L’aumentare del costo nell'estrazione dei combustibili fossili ed il conseguente impatto ambientale che questi hanno nell'atmosfera ha influito notevolmente sullo sviluppo e sulla diffusione della tecnologia fotovoltaica. L’evoluzione di questa tecnologia ha permesso di raggiungere la “grid parity”, ossia l’uguaglianza tra il costo di 1 kWh prodotto dal fotovoltaico con 1 kWh prodotto da fonti fossili, per molte aree del pianeta. Tale tecnologia non è recente, già negli anni ‘60 si svilupparono i primi studi a riguardo, ma negli ultimi anni ha subito notevoli migliorie che l’hanno portata ad essere competitiva nel settore dell’energia elettrica. Il presente lavoro di tesi riporta una rassegna delle celle solari a base di silicio, a partire dal silicio monocristallino, al silicio poli e multi cristallino, fino ad arrivare a celle a film sottile o celle costituite da materiali multi-fase contenenti strutture quantiche e nanocristalli di Si. Negli ultimi anni tutti gli studi si stanno concentrando su un nuovo tipo di fotovoltaico, quello di terza generazione, il cui scopo è quello di ottenere dispositivi che, ad un prezzo molto contenuto dovuto ad un utilizzo di materiali economici come i Si-NCs (nano cristalli di silicio), possano garantire elevate efficienze in modo tale che la tecnologia fotovoltaica sia in grado di affermarsi definitivamente nel settore dell’energia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Finalità principale della Tesi è stata lo sviluppo di una linea di evidenza chimica che ha previsto la elaborazione di tre distinte procedure analitiche per la determinazione di caffeina con HPLC - MS, una delle quali messa a punto per matrici ambientali inorganiche (acque dolci e salate) e due delle quali specifiche per matrici biologiche (emolinfa e tessuti di Mytilus galloprovincialis). Esse sono state applicate a diversi casi di studio, cominciando dall’analisi di acque di mare prelevate al largo di Cesenatico (FC) e soggette in seguito ad aggiunta di varie concentrazioni di caffeina ai fini di analisi eco-tossicologiche. Le vasche, suddivise in quattro condizioni sperimentali, costituivano l’ambiente di esposizione di esemplari di Mytilus galloprovincialis, sottoposti a test con batterie di biomarker; campionando e analizzando le acque delle diverse vasche in diversi momenti nell’arco di una settimana di durata dell’esperimento, è stato possibile osservare una discrepanza significativa tra le concentrazioni predisposte e quelle effettivamente riscontrate, dovuta alla presenza di valori di fondo elevati (≈ 100 ng/l) nella matrice ambientale. Si è anche notata una cinetica di decadimento della sostanza di tipo esponenziale, più rapida dei casi di letteratura, ipotizzando che ciò avvenisse, oltre che per i normali fenomeni di termodegradazione e fotodegradazione, per l’attività di filtrazione dei molluschi. In seguito sono state raccolte aliquote di acqua presso i punti di immissione e di uscita dall’impianto di depurazione di Cervia (RA), nonchè campioni di acque superficiali, sia dolci che salate, riscontrando un ottimo abbattimento della sostanza da parte dell’impianto (≈ 99 %) e concentrazioni ambientali simili ai valori di fondo dell’esperimento (≈100 ng/l), inferiori rispetto a casi di letteratura per analoga matrice, anche a causa di intense precipitazioni atmosferiche in corrispondenza del prelievo. A suggello delle analisi relative alle acque si è provveduto ad esaminare anche acque di rubinetto, acque di rubinetto soggette a deionizzazione ed un’acqua minerale naturale imbottigliata e commercializzata, rilevando la presenza dello stimolante in ciascuno dei campioni (per ciò che concerne acque della rete idrica a valori simili a quelli ambientali, mentre per acque deionizzate ridotti di circa il 50% e per l’acqua imbottigliata testata abbattuti di oltre l’80%). Le ultime considerazioni sono state relative all’analisi di matrici biologiche mediante le procedure specificamente messe a punto; in questo caso, sia nell’emolinfa che nei tessuti prelevati dai mitili al termine dell’esperimento, si è osservato un bioaccumulo di caffeina che, per ciò che concerne la matrice fluida, è risultato correlato alla concentrazione di esposizione delle vasche, mentre relativamente ai tessuti si è evidenziato del tutto uniforme tra le condizioni sperimentali, facendo ipotizzare un bioaccumulo avvenuto nell’habitat marino, dovuto ai valori ambientali presenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella prima sezione di questo lavoro verranno esposti i ragionamenti fisici alla base della scrittura delle equazioni di London-London (1935), capaci di descrivere due importanti fenomeni riguardanti i materiali superconduttori quali la conduttività perfetta (resistenza nulla) e il diamagnetismo perfetto (Effetto Meissner). Verrà in essa infine brevemente descritto l'effetto della più generale conservazione del flusso magnetico nei superconduttori secondo il modello classico. Nella seconda sezione verrà esposto il ragionamento alla base della scrittura del Modello Quantistico Macroscopico, proposto da F.London nel 1948 per cercare di unificare la descrizione elettrodinamica classica della superconduttività con la meccanica quantistica, attraverso la scrittura di una funzione d'onda macroscopica capace di descrivere l'intero ensemble di portatori di carica superelettronici nel loro moto di conduzione.Esso permetterà di prevedere il fenomeno della quantizzazione del flusso magnetico intrappolato da una regione superconduttrice molteplicemente connessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno dei cardini nel programma di ricerca attuale del Large Hadron Collider (LHC) al CERN è l’approfondimento della conoscenza relativa al bosone di Higgs e agli accoppiamenti di questa particella, di recente scoperta, con le altre del Modello Standard. Il prossimo Run di LHC sarà caratterizzato da collisioni di fasci di protoni con un'energia di 6.5 TeV ciascuno e renderà possibile l’acquisizione di grandi campioni di dati nei quali si prevede un aumento della statistica per tipologie di eventi che fino a questo momento è stato problematico studiare. Tra questi la produzione per Higgs-strahlung del bosone di Higgs associato al bosone vettore Z, che, essendo caratterizzata da una bassa sezione d’urto, è sempre stata considerata un processo molto difficile da investigare. Questa tesi fornisce uno studio preliminare della fattibilità di recuperare in modo efficiente questo canale, con l’obiettivo di individuare alcuni tagli che permettano di ripulire il grande fondo adronico prodotto nelle collisioni protone-protone a LHC. La presente analisi è stata effettuata su campioni di dati ottenuti tramite una generazione Monte Carlo e una simulazione parametrica del rivelatore ATLAS. Sebbene la statistica dei campioni MC sia ancora limitata e la simulazione della risposta del detector non sia dettagliata, le tecniche e i tagli utilizzati in questo lavoro di tesi potranno dare utili indicazioni per futuri studi più dettagliati e per l'investigazione di questo processo una volta che i dati del prossimo Run di LHC a √s=13 TeV saranno disponibili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A partire dal 2010 la Commissione Europea ha compilato una lista di 20 materie prime ritenute “critiche” per importanza economica e rischio di approvvigionamento, per le quali è fondamentale la ricerca di possibili fonti alternative nel territorio europeo, poiché i maggiori produttori sono tutti paesi extra-europei. Dati questi presupposti, 20 campioni di fango marino, dragati nelle adiacenze di seamounts del Tirreno sud-orientale, sono stati analizzati per mezzo di XRF, al fine di trovare arricchimenti in elementi critici quali cromo, cobalto, gallio, niobio e alcuni elementi delle Terre Rare (lantanio, cerio, neodimio, samario, ittrio). I fanghi, talvolta con frazione sabbiosa più abbondante, sono stati dapprima divisi in base al colore in fanghi marroni e grigi e fanghi di colore bianco, rosso o arancio; presentano anche inclusi di diverso tipo, quali frammenti di conchiglie, noduli neri o bruno-arancio, croste bruno-nere o bruno-arancio. Dalle analisi chimiche è risultato che campioni più ricchi in CaO hanno un contenuto minore negli elementi ricercati, al contrario dei campioni ricchi in ossidi di Si, Ti, Al, Fe. Confrontando inoltre i campioni con i valori medi di composizione della crosta terrestre superiore, essi risultano più ricchi in REY e meno in Co, Cr, Ga, Nb, mentre sono sempre più arricchiti della composizione media dei sedimenti marini. Dalle analisi mineralogiche risulta che i fanghi contengono generalmente quarzo, calcite, feldspati in piccole quantità e fillosilicati. Infine, analisi XRD e SEM-EDS sui noduli neri hanno dimostrato che si tratta di todorokite, un ossido idrato di Mn, con tenori variabili di Na, K, Ca, Mg, dalla forma globosa con microstruttura interna fibroso-raggiata. Si ritiene quindi che fanghi ricchi in CaCO3, probabilmente bioderivato, non siano l’obiettivo più adatto per la ricerca di elementi critici, mentre potrebbero esserlo fanghi più ricchi in Si, Al, Fe, K, che hanno maggiori concentrazioni di tali elementi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il prodotto principale del lavoro è la Carta Geologica alla scala 1:5.000 che ha portato un avanzamento delle conoscenze nella zona in esame. Dal punto di vista stratigrafico il Gruppo dei Calcari Grigi è stato suddiviso nelle formazioni già distinte nei Fogli CARG Tione, Malè, Trento e Asiago: la Formazione di Monte Zugna, Fm. Di Loppio, Fm. Di Rotzo, Fm. Di Grigno. È stato possibile anche rilevare e cartografare l’Oolite di S. Vigilio, anche detta Encrinite di Monte Agaro, con uno spessore di circa 5 m sino alla zona di Sass de Falares, cioè più ad est di quanto noto in letteratura. E’ stato osservato che la Linea di Belluno non è un piano unico, ma comprende altre due faglie: la Linea di Monte Piad che consiste in una faglia inversa che taglia in cerniera l’Anticlinale del Monte Coppolo, e poco a sud la Linea di Sasso Falares che rappresenta la faglia che ha generato la piega per propagazione di faglia del Coppolo, e proseguendo poi verso l’alto ha tagliato tutta la piega emergendo in superficie. In tal modo si forma il duplex di Sasso Falares, arrangiato in una blanda coppia anticinale-sinclinale tipica della geometria di queste strutture, che risulta delimitato a nord dalla linea omonima e a sud dalla L. di Belluno s.s. che si incontrano a quota circa 700 m. Si è potuta anche ricostruire la cinematica del piano principale del thrust di Belluno studiando l’affioramento eccezionale messo a nudo di recente. Gli assi degli sforzi, agenti in compressione, ricostruiti tramite l’analisi meso-strutturale, testimoniano una compressione orientata NNW-SSE, correlabile con l’Evento Valsuganese del Serravalliano-Tortoniano, legato ad un asse compressivo N340 che rappresenta l’evento principale nella regione sudalpina. Anche l’Evento compressivo del Cattiano-Burdigalliano con asse N30 ed una compressione orientata circa E-W correlabile con l’Evento Scledense del Messiniano-Pliocene risultano dall’analisi strutturale.