115 resultados para Palin, Tutta


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ad oggi, grazie al progresso tecnologico, sono stati realizzati accuratissimi rivelatori di radiazione infrarossa, rendendo possibili misure altamente precise. L’impiego massiccio dell’indagine termografica infrarossa è basato sull’emissione termica da parte della materia. Tutta la materia a temperatura superiore dello zero assoluto emette radiazione elettromagnetica con una certa distribuzione spettrale, dipendente dalla temperatura e dalle caratteristiche costitutive. Le capacità emissive di un corpo sono quantificate da un parametro, l’emissività, che confronta i corpi reali con il corpo nero, modellizzazione matematica di un perfetto emettitore. I corpi a temperatura ambiente emettono principalmente nell’infrarosso. Poichè la radiazione infrarossa non è percepibile dall’occhio umano, i corpi a temperature ordinarie non appaiono luminosi e sono visti brillare unicamente di luce riflessa. Solo fornendo calore al sistema, aumentandone cioè la temperatura, l’emissione di picco si sposta verso le frequenze del visibile ed i corpi appaiono luminosi; si pensi ad esempio alle braci della legna bruciata. La possibilità di rivelare la radiazione infrarossa con opportuni dispositivi permette quindi di vedere la “luce” emessa da corpi relativamente freddi. Per questo motivo la termografia trova applicazione nella visione o videoregistrazione notturna o in condizioni di scarsa visibilità. Poichè la distribuzione spettrale dipende dalla temperatura, oltre al picco di emissione anche la quantità di radiazione emessa dipende dalla teperatura, in particolare è proporzionale alla quarta potenza della temperatura. Rilevando la quantità di radiazione emessa da un corpo se ne può dunque misurare la temperatura superficiale, o globale se il corpo è in equilibrio termico. La termometria, ovvero la misura della temperatura dei corpi, può dunque sfruttare la termografia per operare misure a distanza o non invasive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'ultimo decennio il trend topic nell'ambito dell'insegnamento dell'informatica è il pensiero computazionale. Concetto già presente, è stato risaltato nel 2006 da Jeannette Wing, che ha mostrato come l'informatica abbia portato alla scienza non solo strumenti (computer e linguaggi di programmazione) ma anche innovazioni nel modo di pensare (es. algoritmo shotgun per sequenziamento del DNA umano). Il pensiero computazionale è il processo mentale coinvolto nel formulare problemi e loro soluzioni, rappresentate in una forma che sia effettivamente eseguibile da un agente che processa informazioni. Si tratta di “pensare come un informatico” quando si affronta un problema. Dopo aver passato in rassegna la letteratura sul pensiero computazionale, viene proposta una definizione del concetto. Si prende atto che la ricerca in questi anni sia rimasta molto legata ai linguaggi di programmazione, concetto centrale dell’Informatica. Vengono allora proposte due strade. La prima strada consiste nella riesumazione di tutta una serie di studi di Psicologia della Programmazione, in particolare: studi sulle misconcezioni, che si occupano di individuare i concetti che sono compresi male dai programmatori novizi, e studi sul commonsense computing, che cercano di capire come persone che non hanno mai ricevuto nozioni di programmazione - o più in generale di informatica – esprimano (in linguaggio naturale) concetti e processi computazionali. A partire da queste scoperte, si forniscono una serie di consigli per insegnare al meglio la programmazione (con i linguaggi attuali, con nuovi linguaggi appositamente progettati, con l'aiuto di strumenti ed ambienti ad-hoc) al più ampio pubblico possibile. La seconda strada invece porta più lontano: riconoscere il pensiero computazionale come quarta abilità di base oltre a leggere, scrivere e calcolare, dandogli dunque grande importanza nell’istruzione. Si vuole renderlo “autonomo” rispetto alla programmazione, fornendo consigli su come insegnarlo senza - ma anche con - l'ausilio di un formalismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio affrontato riguarda la tecnica della ristilatura armata dei giunti, quale metodologia di intervento atta a ripristinare la resistenza della muratura, depauperata dalla continua azione esercitata dal peso proprio delle strutture massive. La presenza di forze di compressione ha causato la creazione di fessure diffuse su tutta la muratura, che ha danneggiato oltre che la vita stessa dell’opera e quindi la sicurezza delle persone, anche l’aspetto architettonico come fonte di bellezza e ricordo di antiche civiltà. In questa ottica si inserisce la Tecnica di Repointing perchè riesca a soddisfare i requisiti richiesti di autenticità strutturale, durabilità, compatibilità e bassa invasività dell'intervento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sonnolenza durante la guida è un problema di notevole entità e rappresenta la causa di numerosi incidenti stradali. Rilevare i segnali che precedono la sonnolenza è molto importante in quanto, é possibile mettere in guardia i conducenti dei mezzi adottando misure correttive e prevenendo gli incidenti. Attualmente non esiste una metodica efficace in grado di misurare la sonnolenza in maniera affidabile, e che risulti di facile applicazione. La si potrebbe riconoscere da mutazioni di tipo comportamentale del soggetto come: presenza di sbadigli, chiusura degli occhi o movimenti di caduta della testa. I soggetti in stato di sonnolenza presentano dei deficit nelle loro capacità cognitive e psicomotorie. Lo stesso vale per i conducenti i quali, quando sono mentalmente affaticati non sono in grado di mantenere un elevato livello di attenzione. I tempi di reazione si allungano e la capacità decisionale si riduce. Ciò è associato a cambiamenti delle attività delta, theta e alfa di un tracciato EEG. Tramite lo studio dei segnali EEG è possibile ricavare informazioni utili sullo stato di veglia e sull'insorgenza del sonno. Come strumento di classificazione per elaborare e interpretare tali segnali, in questo studio di tesi sono state utilizzate le support vector machines(SVM). Le SVM rappresentano un insieme di metodi di apprendimento che permettono la classicazione di determinati pattern. Necessitano di un set di dati di training per creare un modello che viene testato su un diverso insieme di dati per valutarne le prestazioni. L'obiettivo è quello di classicare in modo corretto i dati di input. Una caratteristica delle SVM è una buona capacità di generalizzare indipendentemente dalla dimensione dello spazio di input. Questo le rende particolarmente adatte per l'analisi di dati biomedici come le registrazioni EEG multicanale caratterizzate da una certa ridondanza intrinseca dei dati. Nonostante sia abbastanza semplice distinguere lo stato di veglia dallo stato di sonno, i criteri per valutarne la transizione non sono ancora stati standardizzati. Sicuramente l'attività elettro-oculografica (EOG) riesce a dare informazioni utili riguardo l'insorgenza del sonno, in quanto essa è caratterizzata dalla presenza di movimenti oculari lenti rotatori (Slow Eye Movements, SEM) tipici della transizione dalla veglia alla sonno. L'attività SEM inizia prima dello stadio 1 del sonno, continua lungo tutta la durata dello stesso stadio 1, declinando progressivamente nei primi minuti dello stadio 2 del sonno fino a completa cessazione. In questo studio, per analizzare l'insorgere della sonnolenza nei conducenti di mezzi, sono state utilizzate registrazioni provenienti da un solo canale EEG e da due canali EOG. Utilizzare un solo canale EEG impedisce una definizione affidabile dell'ipnogramma da parte dei clinici. Quindi l'obiettivo che ci si propone, in primo luogo, è quello di realizzare un classificatore del sonno abbastanza affidabile, a partire da un solo canale EEG, al fine di verificare come si dispongono i SEM a cavallo dell'addormentamento. Quello che ci si aspetta è che effettivamente l'insorgere della sonnolenza sia caratterizzata da una massiccia presenza di SEM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La costituzione dell’Unione Europea nel 1993 pose la questione del dover aiutare le regioni svantaggiate in essa contenute, allo scopo di promuovere i principi di eguaglianza appena stipulati. Allo stesso tempo si dovette cercare uno strumento per facilitare la collaborazione fra le regioni appartenenti all’Unione stessa. Tale strumento sono i Fondi Strutturali Europei, un sistema di autofinanziamento utilizzato per promuovere progetti lavorativi, di cultura o di ricerca in tutta Europa. La distribuzione dei fondi avviene secondo delle regole specifiche e spesso i temi verso cui i fondi vengono rivolti sono scelti di comune accordo tra i Paesi membri. Le amministrazioni regionali hanno quindi la possibilità di usufruire di una notevole quantità di denaro, giustificando in modo appropriato la destinazione d’uso dei fondi e stilando dei piani che ne descrivano la loro suddivisione nei vari progetti. In seguito all’evoluzione tecnologica degli anni ’60 e ’70 nacquero nuovi strumenti a favore delle aziende: i DSS (Decision Support System), descritti come “sistemi informatici a supporto del processo decisionale”. L’uso di questa nuova tecnologia permise una facilitazione dei compiti decisionali, oltre ad un miglioramento delle prestazioni negli ambiti di applicazione. Da tali premesse nascono diversi progetti che puntano ad utilizzare strumenti di supporto alle decisioni nei campi più diversi: amministrativo, medico, politico, culturale. In particolare, l’area d’applicazione politica vive un grande fermento negli ultimi anni, grazie a strumenti in grado di aiutare la classe politica in decisioni su più livelli di scelta e su una grosse mole di dati. Un esempio fra gli altri è la redazione del Programma Operativo Regionale, il quale fa affidamento sui finanziamenti dei Fondi Strutturali Europei per potersi sostentare. Negli ultimi anni la Regione Emilia-Romagna ha puntato molto sull’uso di strumenti informatici e automatizzati come aiuto nella compilazione di progetti, piani operativi e preventivi di spesa, sviluppando delle collaborazioni con diversi Enti ed Università, tra le quali l’Università degli Studi di Bologna. L’ultimo progetto realizzato in collaborazione con la Regione, e qui esposto, riguarda la realizzazione di uno strumento di supporto alle decisioni politiche per la ripartizione dei Fondi Europei, in particolare quelli destinati al Programma Operativo Regionale (POR).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Riassunto Il nostro viaggio attraverso la musica folk americana partirà dal un racconto della Grande Depressione, dello stato di indigenza nel quale versava la maggior parte della popolazione e attraverso le vicende e le canzoni del nonno della canzone di protesta: Woody Guthrie. Sottolineeremo come egli abbia influenzato successivamente tutta una serie di cantautori che si formarono con lui, attraverso i suoi scritti o i suoi pezzi. Vedremo dunque come un altro grande musicista, Pete Seeger lottò più volte contro la censura per dare risonanza a tante battaglie altrimenti inascoltate, come i movimenti per i diritti civili degli afroamericani e per la pace. Con le canzoni di Bob Dylan analizzeremo i movimenti giovanili e pacifisti contro la guerra nel Vietnam e i fermenti della beat generation. Considereremo con Bruce Springsteen i nuovi diseredati della recessione economica, la nuova ondata di nazionalismi, le censure successive agli attentati dell’ 11 Settembre 2001 e il nuovo ordine mondiale. La musica folk continuerà dunque a vivere grazie alla comunità che la rende viva e la fa circolare, ma soprattutto, grazie al passaggio di testimone tra i grandi artisti che l’hanno resa concretamente la voce dell’America.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Per telescopio intendiamo qualsiasi strumento finalizzato alla misura della radiazione proveniente dallo spazio. Tipicamente questo nome viene riservato agli strumenti ottici; tuttavia è utile utilizzare un singolo nome per caratterizzare tutta la classe di strumenti per le osservazioni astronomiche. Un telescopio è uno strumento capace di raccogliere radiazione da una grande superficie, concentrandola in un punto. La luce viene in genere raccolta da uno specchio o antenna, quindi elaborata da vari strumenti, come per esempio un filtro o uno spettrografo, e infine indirizzata ad un rivelatore, che può essere l'occhio umano, una lastra fotografica, un CCD, un rivelatore radio, una camera a scintille etc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Internet of Energy for Electric Mobility è un progetto di ricerca europeo il cui scopo consiste nello sviluppo di infrastrutture di comunicazione, siano esse sia hardware che software, volte alla facilitazione, supporto e miglioramento di tutte quelle operazioni legate al processo di ricarica di auto elettriche. A tale progetto vi ha aderito anche l’Università di Bologna ed è stato oggetto di studio di Federico Montori e Simone Rondelli. Il primo ha dato il là allo sviluppo del progetto realizzandovi, in una fase embrionale, una piattaforma legata alla gestione di un servizio cittadino (bolognese) per la gestione di ricariche elettriche, un’applicazione mobile in grado di interagire con tale servizio ed un simulatore per la piattaforma. In un lavoro durato oltre un anno, Simone Rondelli ha ripreso il progetto di Federico Montori riscrivendone le componenti in maniera tale da migliorarne le funzionalità ed aggiungerne anche di nuove; in particolare ha realizzato in maniera efficiente un’applicazione mobile la quale si occupa di gestire la prenotazione di colonnine elettriche di ricarica e di monitorare lo stato attuale di un’auto peso, livello batteria, ecc... ). Nel marzo del 2014 è cominciato il mio contributo nel contesto di Internet of Energy di cui ne ho ereditato tutta l’architettura derivante dai due sviluppi precedenti. Il mio compito è stato quello di realizzare (cioè emulare) una colonnina di ricarica auto elettrica, tramite la piattaforma elettronica Arduino, la quale al suo primo avvio informa il database semantico del sistema (SIB) della sua presenza in maniera tale che il simulatore sia in grado di poter far ricaricare un’auto anche a questa nuova colonnina. Di conseguenza ho fatto in modo di instaurare (tramite socket) una comunicazione tra il simulatore e la colonnina così che il simulatore informi la colonnina che è stata raggiunta da un’auto e, viceversa, la colonnina informi il simulatore sullo stato di ricarica dell’auto in modo che quest’ultima possa ripartire al termine della ricarica. Ho anche realizzato un’applicazione mobile in grado di comunicare con la colonnina, il cui scopo è quello di ottenere un codice di ricarica che poi l’utente deve digitare per autenticarsi presso di essa. Realizzando tale tipo di contributo si è data dunque la possibilità di integrare una componente ”reale” con componenti simulate quali le auto del simulatore di Internet of Energy e si sono poste le basi per estensioni future, le quali permettano di integrare anche più componenti che si registrano nel sistema e danno dunque la possibilità di essere utilizzate dalle auto elettriche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’incidente stradale è la conseguenza di uno o più errori all'interno di un sistema complesso, in cui l'uomo rappresenta la principale causa d’incidentalità. Spesso ciò che può apparire a una prima analisi un errore dell’utente, in realtà può essere collegato a problemi di progettazione e gestione dell’infrastruttura. Per massimizzare i risultati nel campo della sicurezza stradale, occorre valutare il “sistema strada” in ogni suo elemento. Per raggiungere questi obiettivi le analisi di sicurezza giocano un ruolo fondamentale. Il Road Safety Review consente di individuare nel tracciato la presenza di situazioni di rischio, in modo tale da eliminarli o attenuarli prima che diano luogo ad incidenti. Il Ministero delle Infrastrutture e dei Trasporti ha emanato le "Linee guida per la gestione della sicurezza delle infrastrutture stradali". Secondo queste Linee Guida l'uomo detiene un ruolo centrale nel sistema. L'uomo deve adattare il suo comportamento, in funzione del veicolo condotto e delle condizioni ambientali. Diventa indispensabile integrare le analisi di sicurezza con il fattore uomo. Obiettivo della tesi è analizzare la sicurezza di un’infrastruttura viaria esistente integrando i risultati ottenuti dal Road Safety Review con metodologie innovative che tengano conto del comportamento degli utenti durante la guida. È stata realizzata una sperimentazione in sito che ha coinvolto un campione formato da 6 soggetti. Ognuno di essi ha percorso il tronco stradale, della SP26 "Valle del Lavino", in provincia di Bologna. La strada, richiede interventi di adeguamento e messa in sicurezza poiché risulta la terza tratta stradale a maggior costo sociale di tutta la rete provinciale. La sperimentazione ha previsto due fasi: la prima, in cui è stato condotto il Road Safety Review . La seconda, in cui ogni soggetto ha guidato lungo il tronco stradale, indossando il Mobile Eye-XG, un'innovativa strumentazione eye tracking in grado di tracciare l’occhio umano e i suoi movimenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante l'Impero di Caterina II di Russia, nel 1794 gli artisti, architetti, pittori, operai italiani furono invitati a fondare la città di Odessa. Avviarono un processo di colonizzazione basato sulla divulgazione della cultura italiana, della sua cucina, della sua architettura, e gettando le fondamenta per un'economia marittima e portuale basata su import-export in tutta Europa. In questa ricerca si analizzano tutti i passaggi che portarono la città sul Mar Nero ad essere considerata un centro rappresentativo di italianità e europeità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio effettuato si inserisce all’interno di una collaborazione tra il DICAM e la Provincia di Bologna ed ha come obiettivo l’analisi di sicurezza della SP26 “Valle del Lavino”, poichè risulta la terza tratta stradale a maggior costo sociale di tutta la rete provinciale. Il rapporto di analisi redatto a seguito del Road Safety Review ha infatti evidenziato numerosi deficit in termini di sicurezza dell’infrastruttura, tra cui gli attraversamenti pedonali. Obiettivo specifico della tesi è stato quello di valutare lo stato attuale di sicurezza degli attraversamenti pedonali presenti lungo il tracciato stradale in esame, in maniera tale da individuare, sulla base di una correlazione fra l’ubicazione degli attraversamenti stessi e il comportamento degli utenti alla guida dei veicoli, le intersezioni pedonali più gravosi, che per questo, in un piano di riqualifica della tratta stradale, richiederebbero opportuni interventi di adeguamento e messa in sicurezza. Con questa finalità è stata programmata ed eseguita una campagna di prove su strada che ha coinvolto un campione di 10 utenti, aventi determinati requisiti di base, del tutto ignari dell’obiettivo che si voleva perseguire e inesperti del tracciato di prova. La sperimentazione ha previsto l’impiego, fondamentale, di metodologie innovative, quali il V-Box e il Mobile Eye Detector, in grado di tener conto del comportamento degli utenti alla guida: il primo permette di rilevare l’andamento delle velocità dei partecipanti lungo il tracciato, il secondo restituisce il tracciamento del punto di vista del conducente alla guida. A ciascun partecipante è stato richiesto di condurre un veicolo, non di loro proprietà, per l’intero tratto della SP26 posto esame, compreso tra la progressiva 0+000, in comune di Zola Predosa, e la progressiva 19+200, in località Badia (comune di Monte San pietro), in andata e in ritorno per un complessivo di 38,4 km di tracciato da esaminare. Al conducente alla guida è stato richiesto di indossare durante tutta la guida l’occhiale Mobile Eye mentre l’auto di prova è stata dotata della strumentazione V-Box.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi ha l’obiettivo di comprendere e valutare se l’approccio al paradigma SDN, che verrà spiegato nel capitolo 1, può essere utilizzato efficacemente per implementare dei sistemi atti alla protezione e alla sicurezza di una rete più o meno estesa. Oltre ad introdurre il paradigma SDN con i relativi componenti basilari, si introduce il protocollo fondamentale OpenFlow, per la gestione dei vari componenti. Per ottenere l’obiettivo prestabilito, si sono seguiti alcuni passaggi preliminari. Primo tra tutti si è studiato cos’è l’SDN. Esso introduce una potenziale innovazione nell’utilizzo della rete. La combinazione tra la visione globale di tutta la rete e la programmabilità di essa, rende la gestione del traffico di rete un processo abbastanza complicato in termini di livello applicativo, ma con un risultato alquanto performante in termini di flessibilità. Le alterazioni all’architettura di rete introdotte da SDN devono essere valutate per garantire che la sicurezza di rete sia mantenuta. Le Software Defined Network (come vedremo nei primi capitoli) sono in grado di interagire attraverso tutti i livelli del modello ISO/OSI e questa loro caratteristica può creare problemi. Nelle reti odierne, quando si agisce in un ambiente “confinato”, è facile sia prevedere cosa potrebbe accadere, che riuscire a tracciare gli eventi meno facilmente rilevabili. Invece, quando si gestiscono più livelli, la situazione diventa molto più complessa perché si hanno più fattori da gestire, la variabilità dei casi possibili aumenta fortemente e diventa più complicato anche distinguere i casi leciti da quelli illeciti. Sulla base di queste complicazioni, ci si è chiesto se SDN abbia delle problematiche di sicurezza e come potrebbe essere usato per la sicurezza. Per rispondere a questo interrogativo si è fatta una revisione della letteratura a riguardo, indicando, nel capitolo 3, alcune delle soluzioni che sono state studiate. Successivamente si sono chiariti gli strumenti che vengono utilizzati per la creazione e la gestione di queste reti (capitolo 4) ed infine (capitolo 5) si è provato ad implementare un caso di studio per capire quali sono i problemi da affrontare a livello pratico. Successivamente verranno descritti tutti i passaggi individuati in maniera dettagliata ed alla fine si terranno alcune conclusioni sulla base dell’esperienza svolta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’assioma di scelta ha una preistoria, che riguarda l’uso inconsapevole e i primi barlumi di consapevolezza che si trattasse di un nuovo principio di ragionamento. Lo scopo della prima parte di questa tesi è quello di ricostruire questo percorso di usi più o meno impliciti e più o meno necessari che rivelarono la consapevolezza non solo del fatto che fosse indispensabile introdurre un nuovo principio, ma anche che il modo di “fare matematica” stava cambiando. Nei capitoli 2 e 3, si parla dei moltissimi matematici che, senza rendersene conto, utilizzarono l’assioma di scelta nei loro lavori; tra questi anche Cantor che appellandosi alla banalità delle dimostrazioni, evitava spesso di chiarire le situazioni in cui era richiesta questa particolare assunzione. Il capitolo 2 è dedicato ad un caso notevole e rilevante dell’uso inconsapevole dell’Assioma, di cui per la prima volta si accorse R. Bettazzi nel 1892: l’equivalenza delle due nozioni di finito, quella di Dedekind e quella “naturale”. La prima parte di questa tesi si conclude con la dimostrazione di Zermelo del teorema del buon ordinamento e con un’analisi della sua assiomatizzazione della teoria degli insiemi. La seconda parte si apre con il capitolo 5 in cui si parla dell’intenso dibattito sulla dimostrazione di Zermelo e sulla possibilità o meno di accettare il suo Assioma, che coinvolse i matematici di tutta Europa. In quel contesto l’assioma di scelta trovò per lo più oppositori che si appellavano ad alcune sue conseguenze apparentemente paradossali. Queste conseguenze, insieme alle molte importanti, sono analizzate nel capitolo 6. Nell’ultimo capitolo vengono riportate alcune tra le molte equivalenze dell’assioma di scelta con altri enunciati importanti come quello della tricotomia dei cardinali. Ci si sofferma poi sulle conseguenze dell’Assioma e sulla sua influenza sulla matematica del Novecento, quindi sulle formulazioni alternative o su quelle più deboli come l’assioma delle scelte dipendenti e quello delle scelte numerabili. Si conclude con gli importanti risultati, dovuti a Godel e a Cohen sull’indipendenza e sulla consistenza dell’assioma di scelta nell’ambito della teoria degli insiemi di Zermelo-Fraenkel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è presentare un progetto per la realizzazione di una piattaforma DBAAS per il database Jackrabbit. Per piattaforma DBAAS si intende un sistema in grado di offrire ai clienti un database su richiesta (DataBase As A Service), e di amministrare automaticamente i database per conto dei clienti. Il progetto viene realizzato in un primo momento tramite un prototipo della piattaforma, in cui vengono effettuati test intensivi per controllare ogni funzionalità della piattaforma. Il prototipo viene sviluppato in un singolo host, nel quale è possibile simulare tutte le operazioni base della piattaforma DBAAS, come se fosse il sistema finale. In un secondo momento, il progetto sarà realizzato nella sua versione finale, con tutto l'hardware necessario a garantire un servizio ottimale. Questa tesi contiene la base per realizzare il sistema finale, che può essere realizzato in modi diversi a seconda delle scelte che farà il progettista. Ad esempio, è possibile comprare tutto l'hardware necessario e implementare la piattaforma DBAAS in-house, oppure si può scegliere di affidare tutta la gestione hardware ad un servizio di hosting.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il prodotto principale del lavoro è la Carta Geologica alla scala 1:5.000 che ha portato un avanzamento delle conoscenze nella zona in esame. Dal punto di vista stratigrafico il Gruppo dei Calcari Grigi è stato suddiviso nelle formazioni già distinte nei Fogli CARG Tione, Malè, Trento e Asiago: la Formazione di Monte Zugna, Fm. Di Loppio, Fm. Di Rotzo, Fm. Di Grigno. È stato possibile anche rilevare e cartografare l’Oolite di S. Vigilio, anche detta Encrinite di Monte Agaro, con uno spessore di circa 5 m sino alla zona di Sass de Falares, cioè più ad est di quanto noto in letteratura. E’ stato osservato che la Linea di Belluno non è un piano unico, ma comprende altre due faglie: la Linea di Monte Piad che consiste in una faglia inversa che taglia in cerniera l’Anticlinale del Monte Coppolo, e poco a sud la Linea di Sasso Falares che rappresenta la faglia che ha generato la piega per propagazione di faglia del Coppolo, e proseguendo poi verso l’alto ha tagliato tutta la piega emergendo in superficie. In tal modo si forma il duplex di Sasso Falares, arrangiato in una blanda coppia anticinale-sinclinale tipica della geometria di queste strutture, che risulta delimitato a nord dalla linea omonima e a sud dalla L. di Belluno s.s. che si incontrano a quota circa 700 m. Si è potuta anche ricostruire la cinematica del piano principale del thrust di Belluno studiando l’affioramento eccezionale messo a nudo di recente. Gli assi degli sforzi, agenti in compressione, ricostruiti tramite l’analisi meso-strutturale, testimoniano una compressione orientata NNW-SSE, correlabile con l’Evento Valsuganese del Serravalliano-Tortoniano, legato ad un asse compressivo N340 che rappresenta l’evento principale nella regione sudalpina. Anche l’Evento compressivo del Cattiano-Burdigalliano con asse N30 ed una compressione orientata circa E-W correlabile con l’Evento Scledense del Messiniano-Pliocene risultano dall’analisi strutturale.