988 resultados para modello epidemologia
Resumo:
La necessità di conservazione e recupero di murature, di qualsiasi interesse storico/architettonico, ha evidenziato la necessità di conoscere il più dettagliatamente possibile le caratteristiche strutturali delle opere interessate: un intervento risulterà tanto più efficace e adatto agli scopi prefissi quanto maggiore sarà la conoscenza dell’opera, della sua evoluzione, dei materiali utilizzati per la realizzazione, della tecnica costruttiva e della struttura portante. Spesso è necessario eseguire interventi di adeguamento sismico di comuni edifici su cui poter intervenire più o meno indiscriminatamente, mentre, per opere di interesse storico è necessario ridurre al minimo l’invasività degli interventi: in tutti e due i casi, una buona riuscita dell’intervento dipende dalla conoscenza dell’organismo strutturale sul quale si deve operare. Come spesso accade, anche per opere di recente costruzione, risulta difficile poter recuperare i dati progettuali (disegni e calcoli) e spesso le tecniche e le tipologie utilizzate per le costruzioni si differenziavano da zona a zona, così come diversi erano i materiali da costruzione; risulta quindi evidente che per progettare una serie di interventi di recupero è necessario poter ottenere il maggior numero di informazioni al riguardo. Diverse sono le esperienze maturate in questo campo in tutta Europa e queste hanno mostrato come non è sufficiente intervenire con tecniche innovative per adeguare agli standard attuali di sicurezza opere del passato: infatti, in molti casi, l’applicazione sbagliata di queste tecniche o gli interventi progettati in modo non adeguato non hanno svolto il loro compito e in alcuni casi hanno peggiorato la situazione esistente. Dalle esperienze maturate è stato possibile osservare che anche le migliore tecniche di recupero non possono risultare efficaci senza un’adeguata conoscenza dello stato di degrado degli edifici, del loro assetto strutturale e delle possibili carenze. La diagnostica strutturale si vuole inserire proprio in questo livello potendo fornire ad un progettista tutte le informazioni necessarie per effettuare al meglio ed in maniera efficace gli interventi di recupero e restauro necessari. Oltre questi aspetti, le analisi diagnostiche possono essere utilizzate anche per verificare l’efficacia degli interventi effettuati. Diversi sono gli aspetti che si possono analizzare in un’indagine di diagnostica ed in base alle esigenze e alle necessità del rilievo da effettuare sono varie le tecniche a disposizione, ognuna con le sue peculiarità e potenzialità. Nella realizzazione di questa tesi sono state affrontate diverse problematiche che hanno previsto sia l’analisi di situazioni reali in cantiere, sia lo studio in laboratorio. La prima parte del presente elaborato prevede lo studio delle attività svolte a Palazzo Malvezzi, attuale sede della Provincia di Bologna. L’edificio, di interesse storico, ha subito diverse trasformazioni durate la sua vita ed in alcuni casi, queste, eseguite con tecnologie e materiali inadatti, hanno provocato variazioni nell’assetto statico della struttura; inoltre, il palazzo, è soggetto a movimenti a livello di fondazione in quanto è presente una faglia di subsidenza che attraversa l’edificio. Tutte queste problematiche hanno creato movimenti differenziali alla struttura in elevazione che si sono evidenziati con crepe distribuite in tutto l’edificio. Il primo aspetto analizzato (capitoli 4 e 5) è lo studio della profondità delle fessure presenti nel solaio della sala Rossa, sede dei comunicati stampa e delle conferenze della Provincia. Senza dubbio antiestetiche, le crepe presenti in una struttura, se sottovalutate, possono compromettere notevolmente le funzioni statiche dell’elemento in cui si sviluppano: la funzione di protezione fornita dal solaio o da qualsiasi altro elemento strutturale alle armature in questo immerse, viene meno, offrendo vie preferenziali a possibili situazioni di degrado, specialmente se in condizioni ambientali aggressive. E' facile intuire, quindi, che un aspetto all’apparenza banale come quello delle fessure non può essere sottovalutato. L’analisi è stata condotta utilizzando prove soniche ed impact-echo, tecniche che sfruttano lo stresso principio, la propagazione delle onde elastiche nel mezzo, ma che si differenziano per procedure di prova e frequenze generate nel test. Nel primo caso, la presenza del martello strumentato consente di valutare anche la velocità di propagazione delle onde elastiche, fenomeno utilizzato per ottenere indicazioni sulla compattezza del mezzo, mentre nel secondo non è possibile ricavare queste informazioni in quanto la tecnica si basa solamente sullo studio in frequenza del segnale. L’utilizzo dell’impact-echo è stato necessario in quanto la ristilatura effettuata sulle fessure scelte per l’analisi, non ha permesso di ottenere risultati utili tramite prove soniche ; infatti, le frequenze generate risultano troppo basse per poter apprezzare queste piccole discontinuità materiali. La fase di studio successiva ha previsto l’analisi della conformazione dei solai. Nel capitolo 6, tale studio, viene condotto sul solaio della sala Rossa con lo scopo di individuarne la conformazione e la presenza di eventuali elementi di rinforzo inseriti nelle ristrutturazioni avvenute nel corso della vita del palazzo: precedenti indagini eseguite con endoscopio, infatti, hanno mostrato una camera d’aria ed elementi metallici posizionati al di sotto della volta a padiglione costituente il solaio stesso. Le indagini svolte in questa tesi, hanno previsto l’utilizzo della strumentazione radar GPR: con questa tecnica, basata sulla propagazione delle onde elettromagnetiche all’interno di un mezzo, è possibile variare rapidamente la profondità d’ispezione ed il dettaglio ottenibile nelle analisi cambiando le antenne che trasmettono e ricevono il segnale, caratteristiche fondamentali in questo tipo di studio. I risultati ottenuti hanno confermato quanto emerso nelle precedenti indagini mostrando anche altri dettagli descritti nel capitolo. Altro solaio oggetto d’indagine è quello della sala dell’Ovale (capitoli 7 e 8): costruito per dividere l’antica sala da ballo in due volumi, tale elemento è provvisto al suo centro di un caratteristico foro ovale, da cui ne deriva il nome. La forma del solaio lascia supporre la presenza di una particolare struttura di sostegno che le precedenti analisi condotte tramite endoscopio, non sono riuscite a cogliere pienamente. Anche in questo caso le indagini sono state eseguite tramite tecnica radar GPR, ma a differenza dei dati raccolti nella sala Rossa, in questo caso è stato possibile creare un modello tridimensionale del mezzo investigato; inoltre, lo studio è stato ripetuto utilizzando un’antenna ad elevata risoluzione che ha consentito di individuare dettagli in precedenza non visibili. Un ulteriore studio condotto a palazzo Malvezzi riguarda l’analisi della risalita capillare all’interno degli elementi strutturali presenti nel piano interrato (capitolo 9): questo fenomeno, presente nella maggior parte delle opere civili, e causa di degrado delle stesse nelle zone colpite, viene indagato utilizzando il radar GPR. In questo caso, oltre che individuare i livelli di risalita osservabili nelle sezioni radar, viene eseguita anche un’analisi sulle velocità di propagazione del segnale e sulle caratteristiche dielettriche del mezzo, variabili in base al contenuto d’acqua. Lo scopo è quello di individuare i livelli massimi di risalita per poterli confrontare con successive analisi. Nella fase successiva di questo elaborato vengono presentate le analisi svolte in laboratorio. Nella prima parte, capitolo 10, viene ancora esaminato il fenomeno della risalita capillare: volendo studiare in dettaglio questo problema, sono stati realizzati dei muretti in laterizio (a 2 o 3 teste) e per ognuno di essi sono state simulate diverse condizioni di risalita capillare con varie tipologie di sale disciolto in acqua (cloruro di sodio e solfato di sodio). Lo scopo è di valutare i livelli di risalita osservabili per diverse tipologie di sale e per diverse concentrazioni dello stesso. Ancora una volta è stata utilizzata la tecnica radar GPR che permette non solo di valutare tali livelli, ma anche la distribuzione dell’umidità all’interno dei provini, riuscendo a distinguere tra zone completamente sature e zone parzialmente umide. Nello studio è stata valutata anche l’influenza delle concentrazioni saline sulla propagazione del segnale elettromagnetico. Un difetto delle tecniche di diagnostica è quello di essere strumenti qualitativi, ma non quantitativi: nel capitolo 11 viene affrontato questo problema cercando di valutare la precisione dei risultati ottenuti da indagini condotte con strumentazione radar GPR. Studiando gli stessi provini analizzati nel capitolo precedente, la tecnica radar è stata utilizzata per individuare e posizionare i difetti (muretti a 3 teste) e le pietre (muretti a 2 teste) inserite in questi elementi: i risultati ottenuti nella prova sono stati confrontati, infine, con la reale geometria. Nell’ultima parte (capitolo 12), viene esaminato il problema dell’individuazione dei vuoti all’interno di laterizi: per questo scopo sono state create artificialmente delle cavità di diversa forma e a diverse profondità all’interno di laterizi pieni che, dopo un trattamento in cella climatica per aumentarne la temperatura, sono stati sottoposti a riprese termografiche nella fase di raffreddamento. Lo scopo di queste prove è quello di valutare quale sia la massima differenza di temperatura superficiale causata dai diversi difetti e per quale intervallo di temperature questa si verifica.
Resumo:
Il lavoro di ricerca esplora il panorama dell’efficienza energetica dei sistemi acquedottistici, soffermandosi a considerare possibili indicatori che possano valutarla in maniera corretta e completa, in particolare nei confronti della presenza di perdite in rete. Si prendono in considerazione con maggiore attenzione, tra tutte le strategie per aumentare l’efficienza energetica, quelle che contemporaneamente producono anche risparmi idrici, come la riduzione della pressione e la ricerca attiva delle perdite . Dopo un inquadramento internazionale, sono stati analizzati mediante mappe tematiche di intensità energetica, i consumi energetici specifici sui sistemi acquedottistici della regione Emilia Romagna per gli anni 2006 e 2007, si è passati ad una analisi critica degli indicatori attualmente in uso. Inoltre per casi di studio sintetici e tutti i casi di studio proposti, si sono valutate curve di relazione tra percentuale di perdita idrica e aumento del consumo energetico, in grado di dare indicazioni su come ciascun sistema reagisce, in termini di aumento dell’energia consumata, all’aumentare del livello di perdita. Questa relazione appare fortemente influenzata da fattori come la modalità di pompaggio, la posizione delle rotture sulla rete e la scabrezza delle condotte. E’ emersa la necessità solo poter analizzare separatamentel’influenza sull’efficienza energeticadei sistemi di pompaggio e della rete, mostrando il ruolo importante con cui questa contribuisce all’efficienza globale del sistema. Viene proposto uno sviluppo ulteriore dell’indicatore GEE Global Energy Efficiency (Abadia, 2008), che consente di distinguere l’impatto sull’efficienza energetica dovuto alle perdite idriche e alla struttura intrinseca della rete, in termini di collocazione reciproca tra risorsa idrica e domanda e schema impiantistico.Questa metodologia di analisi dell’efficienza energetica è stata applicata ai casi di studio, sia sintetici che reali, il distretto di Marzaglia (MO) e quello di Mirabello (FE), entrambi alimentati da pompe a giri variabili.. La ricerca ha consentito di mostrare inoltre il ruolo della modellazione numerica in particolare nell’analisi dell’effetto prodotto sull’efficienza energetica dalla presenza di perdite idriche. Nell’ultimo capitolo si completa la panoramica dei benefici ottenibili attraverso la riduzione della pressione, che nei casi citati viene conseguita tramite pompe asservite ad inverter, con il caso di studio del distretto Bolognina all’interno del sistema di distribuzione di Bologna, che vede l’utilizzo di valvole riduttrici di pressione. Oltre a stimare il risparmio energetico derivante dalla riduzione delle perdite ottenuta tramite le PRV, sono stati valutati su modello i benefici energetici conseguenti all’introduzione nel distretto di turbine per la produzione di energia
Resumo:
Il lavoro valuta le prestazioni di 14 stati membri dell'Unione Europea, la quale attraverso la strategia Europa 2020 propone il raggiungimento di 8 target fondamentali per una crescita intelligente, sostenibile e inclusiva entro il 2020. I target riguardano l'occupazione, il tasso d'istruzione superiore, la percentuale di energia rinnovabile, il consumo energetico, le emissioni di gas serra, la spesa in ricerca e sviluppo, la povertà , il prematuro abbandono scolastico. A tali target corrispondono indicatori che sono annualmente censiti attraverso le autorità statistiche nazionali ed Eurostat. La misura della performance degli Stati è stata effettuata mediante il calcolo della distanza dal target di ciascun paese negli anni compresi tra il 2000 e il 2009. In particolare si è effettuato, adattandolo alle esigenze del lavoro, il calcolo della distanza euclidea e della distanza di Mahalanobis. Con le limitazioni dovute alla qualità dei dati disponibili e ad una difficoltà oggettiva di stabilire una linea di base, il lavoro ha permesso di dare un giudizio alla qualità dello sforzo compiuto da ciascun paese per raggiungere i target, fornendo un quadro analitico e articolato dei rapporti che intercorrono tra i diversi indicatori. In particolare è stato realizzato un modello relazionale basato su quattro indicatori che sono risultati essere correlati e legati da relazioni di tipo causale. I risultati possono essere sintetizzati come segue. La strategia Europa 2020 sembra partire da buone basi in quanto si è potuto osservare che in generale tutti gli stati membri osservati, Europa a 15, mostrano avere un miglioramento verso i loro rispettivi target dal 2005. Durante gli anni osservati si è notato che il range temporale 2005 e 2008 sembra essere stato il periodo dove gli stati hanno rallentato maggiormente la loro crescita di performance, con poi un buon miglioramento nell'anno finale. Questo miglioramento è stato indagato ed è risultato essere coincidente con l'anno di inizio della crisi economica. Inoltre si sono osservate buone relazioni tra il GDP e gli indicatori che hanno contribuito alla diminuzione delle performance, ma il range di riferimento non molto ampio, non ha permesso di definire la reale correlazione tra il GDP e il consumo energetico ed il GDP e l'investimento in ricerca e sviluppo.
Resumo:
La catena respiratoria mitocondriale è principalmente costituita da proteine integrali della membrana interna, che hanno la capacità di accoppiare il flusso elettronico, dovuto alle reazioni redox che esse catalizzano, al trasporto di protoni dalla matrice del mitocondrio verso lo spazio intermembrana. Qui i protoni accumulati creano un gradiente elettrochimico utile per la sintesi di ATP ad opera dell’ATP sintasi. Nonostante i notevoli sviluppi della ricerca sulla struttura e sul meccanismo d’azione dei singoli enzimi della catena, la sua organizzazione sovramolecolare, e le implicazioni funzionali che ne derivano, rimangono ancora da chiarire in maniera completa. Da questa problematica trae scopo la presente tesi volta allo studio dell’organizzazione strutturale sovramolecolare della catena respiratoria mediante indagini sia cinetiche che strutturali. Il modello di catena respiratoria più accreditato fino a qualche anno fa si basava sulla teoria delle collisioni casuali (random collision model) che considera i complessi come unità disperse nel doppio strato lipidico, ma collegate funzionalmente tra loro da componenti a basso peso molecolare (Coenzima Q10 e citocromo c). Recenti studi favoriscono invece una organizzazione almeno in parte in stato solido, in cui gli enzimi respiratori si presentano sotto forma di supercomplessi (respirosoma) con indirizzamento diretto (channeling) degli elettroni tra tutti i costituenti, senza distinzione tra fissi e mobili. L’importanza della comprensione delle relazioni che si instaurano tra i complessi , deriva dal fatto che la catena respiratoria gioca un ruolo fondamentale nell’invecchiamento, e nello sviluppo di alcune malattie cronico degenerative attraverso la genesi di specie reattive dell’ossigeno (ROS). E’ noto, infatti, che i ROS aggrediscono, anche i complessi respiratori e che questi, danneggiati, producono più ROS per cui si instaura un circolo vizioso difficile da interrompere. La nostra ipotesi è che, oltre al danno a carico dei singoli complessi, esista una correlazione tra le modificazioni della struttura del supercomplesso, stress ossidativo e deficit energetico. Infatti, la dissociazione del supercomplesso può influenzare la stabilità del Complesso I ed avere ripercussioni sul trasferimento elettronico e protonico; per cui non si può escludere che ciò porti ad un’ulteriore produzione di specie reattive dell’ossigeno. I dati sperimentali prodotti a sostegno del modello del respirosoma si riferiscono principalmente a studi strutturali di elettroforesi su gel di poliacrilammide in condizioni non denaturanti (BN-PAGE) che, però, non danno alcuna informazione sulla funzionalità dei supercomplessi. Pertanto nel nostro laboratorio, abbiamo sviluppato una indagine di tipo cinetico, basata sull’analisi del controllo di flusso metabolico,in grado di distinguere, funzionalmente, tra supercomplessi e complessi respiratori separati. Ciò è possibile in quanto, secondo la teoria del controllo di flusso, in un percorso metabolico lineare composto da una serie di enzimi distinti e connessi da intermedi mobili, ciascun enzima esercita un controllo (percentuale) differente sull’intero flusso metabolico; tale controllo è definito dal coefficiente di controllo di flusso, e la somma di tutti i coefficienti è uguale a 1. In un supercomplesso, invece, gli enzimi sono organizzati come subunità di una entità singola. In questo modo, ognuno di essi controlla in maniera esclusiva l’intero flusso metabolico e mostra un coefficiente di controllo di flusso pari a 1 per cui la somma dei coefficienti di tutti gli elementi del supercomplesso sarà maggiore di 1. In questa tesi sono riportati i risultati dell’analisi cinetica condotta su mitocondri di fegato di ratto (RLM) sia disaccoppiati, che accoppiati in condizioni fosforilanti (stato 3) e non fosforilanti (stato 4). L’analisi ha evidenziato l’associazione preferenziale del Complesso I e Complesso III sia in mitocondri disaccoppiati che accoppiati in stato 3 di respirazione. Quest’ultimo risultato permette per la prima volta di affermare che il supercomplesso I+III è presente anche in mitocondri integri capaci della fosforilazione ossidativa e che il trasferimento elettronico tra i due complessi possa effettivamente realizzarsi anche in condizioni fisiologiche, attraverso un fenomeno di channeling del Coenzima Q10. Sugli stessi campioni è stata eseguita anche un analisi strutturale mediante gel-elettroforesi (2D BN/SDS-PAGE) ed immunoblotting che, oltre a supportare i dati cinetici sullo stato di aggregazione dei complessi respiratori, ci ha permesso di evidenziare il ruolo del citocromo c nel supercomplesso, in particolare per il Complesso IV e di avviare uno studio comparativo esteso ai mitocondri di cuore bovino (BHM), di tubero di patata (POM) e di S. cerevisiae.
Resumo:
ABSTRACT (italiano) Con crescente attenzione riguardo al problema della sicurezza di ponti e viadotti esistenti nei Paesi Bassi, lo scopo della presente tesi è quello di studiare, mediante la modellazione con Elementi Finiti ed il continuo confronto con risultati sperimentali, la risposta in esercizio di elementi che compongono infrastrutture del genere, ovvero lastre in calcestruzzo armato sollecitate da carichi concentrati. Tali elementi sono caratterizzati da un comportamento ed una crisi per taglio, la cui modellazione è, da un punto di vista computazionale, una sfida piuttosto ardua, a causa del loro comportamento fragile combinato a vari effetti tridimensionali. La tesi è incentrata sull'utilizzo della Sequentially Linear Analysis (SLA), un metodo di soluzione agli Elementi Finiti alternativo rispetto ai classici approcci incrementali e iterativi. Il vantaggio della SLA è quello di evitare i ben noti problemi di convergenza tipici delle analisi non lineari, specificando direttamente l'incremento di danno sull'elemento finito, attraverso la riduzione di rigidezze e resistenze nel particolare elemento finito, invece dell'incremento di carico o di spostamento. Il confronto tra i risultati di due prove di laboratorio su lastre in calcestruzzo armato e quelli della SLA ha dimostrato in entrambi i casi la robustezza del metodo, in termini di accuratezza dei diagrammi carico-spostamento, di distribuzione di tensioni e deformazioni e di rappresentazione del quadro fessurativo e dei meccanismi di crisi per taglio. Diverse variazioni dei più importanti parametri del modello sono state eseguite, evidenziando la forte incidenza sulle soluzioni dell'energia di frattura e del modello scelto per la riduzione del modulo elastico trasversale. Infine è stato effettuato un paragone tra la SLA ed il metodo non lineare di Newton-Raphson, il quale mostra la maggiore affidabilità della SLA nella valutazione di carichi e spostamenti ultimi insieme ad una significativa riduzione dei tempi computazionali. ABSTRACT (english) With increasing attention to the assessment of safety in existing dutch bridges and viaducts, the aim of the present thesis is to study, through the Finite Element modeling method and the continuous comparison with experimental results, the real response of elements that compose these infrastructures, i.e. reinforced concrete slabs subjected to concentrated loads. These elements are characterized by shear behavior and crisis, whose modeling is, from a computational point of view, a hard challenge, due to their brittle behavior combined with various 3D effects. The thesis is focused on the use of Sequentially Linear Analysis (SLA), an alternative solution technique to classical non linear Finite Element analyses that are based on incremental and iterative approaches. The advantage of SLA is to avoid the well-known convergence problems of non linear analyses by directly specifying a damage increment, in terms of a reduction of stiffness and strength in the particular finite element, instead of a load or displacement increment. The comparison between the results of two laboratory tests on reinforced concrete slabs and those obtained by SLA has shown in both the cases the robustness of the method, in terms of accuracy of load-displacements diagrams, of the distribution of stress and strain and of the representation of the cracking pattern and of the shear failure mechanisms. Different variations of the most important parameters have been performed, pointing out the strong incidence on the solutions of the fracture energy and of the chosen shear retention model. At last a confrontation between SLA and the non linear Newton-Raphson method has been executed, showing the better reliability of the SLA in the evaluation of the ultimate loads and displacements, together with a significant reduction of computational times.
Resumo:
L’obiettivo di questo lavoro è il calcolo del fattore di struttura R che può essere adottato in funzione delle caratteristiche della struttura: periodo naturale T, duttilità richiesta mu_r ed indice di smorzamento csi. Il modello adottato per rappresentare la struttura è l’oscillatore semplice elastico - perfettamente plastico. Operativamente, scelto un sisma registrato, si considera una struttura caratterizzata da un determinato periodo T e, a parità di livello di sicurezza (cioè a parità di duttilità richiesta), tramite un procedimento iterativo si procede al calcolo di R_5 relativo ad uno smorzamento pari al 5% e di R_csi relativo ad un generico smorzamento csi>5%; il confronto fra questi due valori è espresso dal parametro alpha_csi=R_csi/R_5. I risultati ottenuti dal calcolo vengono inseriti in un database. A seguire vengono implementate una serie di analisi (anche di tipo statistico) sui dati raccolti nel database per comprendere l’influenza delle varie caratteristiche della struttura sul valore del fattore di riduzione delle forze sismiche.
Resumo:
I poriferi rappresentano un importante campo di ricerca anche in ambito applicativo in quanto potenzialmente utili come fonte di metaboliti secondari da impiegarsi in ambito clinico (antitumorali, antibiotici, antivirali, ecc.) e industriale (antifouling). I processi di biosilicificazione interessano invece per aspetti legati alle biotecnologie marine. Questo Phylum ha un importante ruolo strutturale e funzionale nell’ecologia dei popolamenti bentonici, in quanto può essere dominante in numerosi habitat e svolgere un ruolo ecologico fondamentale nelle dinamiche degli ecosistemi marini. Per questo, la variazione spaziale e temporale della loro abbondanza può avere effetti considerevoli su altri membri della comunità. Lo studio delle dinamiche di popolazione e del ciclo riproduttivo dei poriferi potrebbe permettere di valutare come i cambiamenti climatici ne influenzino la crescita e la riproduzione e potrebbe quindi fornire una base per lo sviluppo di corrette tecniche di gestione ambientale. La spugna Axinella polypoides è inserita all’interno delle liste di protezione della Convenzione di Berna e di Barcellona, dove sono elencate le specie da proteggere perché minacciate o in pericolo di estinzione. Questa specie, avendo una morfologia eretta, è fortemente minacciata soprattutto da attività antropiche quali pesca e ancoraggi, ma nonostante questo la letteratura relativa ad essa è scarsa, La sua importanza è legata soprattutto al recente utilizzo come modello per numerosi esperimenti. A. polypoides rappresenta, infatti, il più basso livello nella scala evolutiva in cui sono stati rinvenuti meccanismi biochimici cellulari di reazione all’aumento di temperatura (incremento dell’attività ADP-ribosil ciclasica, sintesi di ossido nitrico) tipici degli organismi superiori. Lo scopo di questa tesi è di aumentare le conoscenze sull’ecologia e sulla biologia di questo porifero, al fine di consentire una migliore predisposizione di eventuali piani di tutela. Dallo studio delle colonie effettuato presso l’Isola Gallinara (SV), emerge una dinamica di crescita lenta ed un ciclo riproduttivo estivo, coerentemente con quanto osservato per altre specie mediterranee del genere Axinella. Le analisi istologiche effettuate hanno mostrato variabilità temporale nella densità e nella dimensione di particolari cellule sferulose, che si ipotizza siano collegate a fenomeni di proliferazione cellulare e rigenerazione in seguito a danni. È stata individuata inoltre la presenza di una particolare tipologia cellulare dendritica la cui funzione si ritiene abbia affinità con le funzioni sensoriali di Phyla superiori. Queste osservazioni, e l’evidente vulnerabilità della specie agli impatti antropici, hanno evidenziato la necessità di sviluppare adeguati piani di monitoraggio e di conservazione.
Resumo:
I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.
Resumo:
Il tema generale di ricerca oggetto della presente trattazione è rappresentato dal diritto di difesa nel procedimento de libertate. Esso costituisce un tema da sempre controverso, materia di vivaci e mai sopiti dibattiti sia in dottrina che in giurisprudenza, poiché si colloca in un punto nevralgico non solo del procedimento penale, ma, addirittura, dell’intero ordinamento giuridico di uno stato, poiché in esso si incontrano, e sovente si scontrano, le istanze di garanzia del cittadino contro indebite limitazioni ante iudicium della libertà personale, da un lato, e le esigenze di tutela della collettività e del processo dai pericula libertatis (inquinamento delle prove, rischio di fuga, pericolo di reiterazione dei reati), dall’altro. Detto in altri termini, il procedimento de libertate è esattamente il luogo in cui un ordinamento che voglia definirsi liberale, nella sua naturale e incessante evoluzione, tenta faticosamente di trovare un equilibrio tra autorità e libertà. Trattandosi, per ovvie ragioni, di un argomento vastissimo, che spazia dall’esercizio del diritto di difesa nella fase applicativa delle misure cautelari personali, alle impugnazioni delle misure medesime, dalla revoca o sostituzione delle stesse al giudicato cautelare sulle decisioni de libertate, etc., il campo della ricerca è stato circoscritto a due temi specifici che interessano direttamente il diritto di difesa, limitatamente alla fase dell’applicazione delle misure cautelari personali, e che presentano profili di originalità, per alcune importanti modifiche intervenute a livello sia di legislazione ordinaria che di legislazione costituzionale: 1) l’accertamento dei gravi indizi di colpevolezza; 2) il principio del contraddittorio nel procedimento cautelare, alla luce dell’art. 111 Cost. Siffatti temi, apparentemente disomogenei, sono, in realtà, profondamente correlati tra loro, rappresentando, per usare una locuzione spicciola, l’uno la “sostanza” e l’altro “la forma” del procedimento de libertate, ed insieme concorrono ad individuare un modello di giusto processo cautelare.
Resumo:
Il presente elaborato tratta l'analisi del quadro fessurativo esistente nella porzione inferiore del broncone e della gamba sinistra del David di Michelangelo. Si sono effettuate indagini con ultrasuoni al fine di caratterizzare lo stato conservativo del marmo e per stimare la profondità delle lesioni presenti. Si è poi creato un modello agli elementi finiti della fessura di maggiori dimensioni presente nel broncone al fine di individuarne la profondità e confermare i risultati conseguiti con le prove ad ultrasuoni.
Resumo:
Questo lavoro di tesi è finalizzato fondamentalmente allo studio di un’importante problematica che caratterizza gli impianti fotovoltaici: il mismatching, ovvero la disomogeneità nelle caratteristiche elettriche delle celle e quindi dei pannelli fotovoltaici, dal quale scaturisce che la potenza massima, risultante dal collegamento in serie/parallelo dei vari pannelli, è sempre inferiore alla somma delle potenze massime dei pannelli fotovoltaici prima della connessione. In particolare, si è realizzato con il software Simulink un modello flessibile che consente, attraverso una rappresentazione compatta di pochissimi blocchi, di simulare un campo fotovoltaico del tutto arbitrario, in una qualunque condizione operativa di temperatura e di ombreggiamento solare dei pannelli che compongono il campo stesso. A fronte di ciò si è condotta un’analisi approfondita degli effetti del mismatching in un generico campo fotovoltaico sottoposto a diverse disomogeneità per quanto concerne le condizioni operative di temperatura e irraggiamento solare dei vari pannelli. Il software ha permesso, inoltre, di evidenziare l’importanza delle protezioni da impiegare opportunamente negli impianti fotovoltaici; ad esempio, a livello di simulazioni, si è visto come il collegamento di un diodo di by-pass in antiparallelo ai pannelli in ombra permetta di limitare notevolmente l’impatto degli ombreggiamenti. Infine è stato condotto uno studio analitico del mismatching per difformità di fabbricazione di una serie di pannelli dei quali erano noti solo i punti di funzionamento di massima potenza, con la finalità di valutare la possibilità di migliorare la disposizione dei pannelli, e quindi ottimizzare la massima potenza erogabile dal corrispondente campo fotovoltaico.
Resumo:
Il progetto di ricerca, dal titolo La Nuova destra dalla Francia all'Italia, prende come oggetto di studio specifico quel fenomeno politico, emerso in Italia verso la metà degli anni Settanta, che si originò in seno agli ambienti politici della destra radicale, noto con la definizione di Nuova Destra (ND), sul modello dell’omologa e più matura corrente francese il cui nucleo principale ruotava attorno all’associazione culturale GRECE (Groupement de recherche et d’études sur la civilisation européenne). Dal livello avanzato della ricerca sviluppata in questi anni, si è potuto notare che questo soggetto culturale ed ideologico è stato scarsamente studiato nel panorama scientifico italiano dove la maggior parte delle indagini ad esso dedicate sono state svolte da politologi, o comunque risultano riconducibili agli ambienti accademici delle Facoltà di Scienze Politiche, mentre pochissimi sono i lavori che si sono accostati alla ND con le armi specifiche della ricerca storica. Al contrario in Francia il fenomeno è stato oggetto di numerose ricerche da parte di autorevoli studiosi e ha dato avvio ad un florido dibattito ideologico. L’obiettivo principale a cui questa ricerca di dottorato tenta di rispondere è, quindi, quello di ricostruire le vicende storiche della ND italiana, sia attraverso i suoi rapporti con il Movimento sociale italiano (MSI), dalle cui sezioni giovanili essa nacque e si sviluppò per poi distaccarsene, sia tramite l’analisi delle sue evoluzioni politiche e concettuali, sia, infine, cercando di porre in evidenza i lasciti, le influenze e gli stretti legami, che intercorsero fra l’Italia e la più matura esperienza della Nouvelle Droite francese, ed in particolare con il pensiero politico e filosofico di Alain de Benoist, il suo maggiore esponente.
Resumo:
Lo scopo della tesi è definire un modello e identificare un sistema d’inferenza utile per l’analisi della qualità dei dati. Partendo da quanto descritto in ambito accademico e business, la definizione di un modello facilita l’analisi della qualità, fornendo una descrizione chiara delle tipologie di problemi a cui possono essere soggetti i dati. I diversi lavori in ambito accademico e business saranno confrontati per stabilire quali siano i problemi di qualità più diffusi, in modo da realizzare un modello che sia semplice e riutilizzabile. I sistemi d’inferenza saranno confrontati a livello teorico e pratico per individuare lo strumento più adatto nell’analisi della qualità dei dati in un caso applicativo. Il caso applicativo è caratterizzato da requisiti funzionali e non; il principale requisito funzionale è l’individuazione di problemi di qualità nei dati, mentre quello non funzionale è l’ usabilità dello strumento, per permettere ad un qualunque utente di esprimere dei controlli sulla qualità. Il caso applicativo considera dati di un’enterprise architecture reale ed è stato fornito dall’azienda Imola Informatica.
Resumo:
Questa tesi si basa su una serie di lavori precedenti, volti ad analizzare la correlazione tra i modelli AUML e le reti di Petri, per riuscire a fornire una metodologia di traduzione dai primi alle seconde. Questa traduzione permetterà di applicare tecniche di model checking alle reti così create, al fine di stabilire le proprietà necessarie al sistema per poter essere realizzato effettivamente. Verrà poi discussa un'implementazione di tale algoritmo sviluppata in tuProlog ed un primo approccio al model checking utilizzando il programma Maude. Con piccole modifiche all'algoritmo utilizzato per la conversione dei diagrammi AUML in reti di Petri, è stato possibile, inoltre, realizzare un sistema di implementazione automatica dei protocolli precedentemente analizzati, verso due piattaforme per la realizzazione di sistemi multiagente: Jason e TuCSoN. Verranno quindi presentate tre implementazioni diverse: la prima per la piattaforma Jason, che utilizza degli agenti BDI per realizzare il protocollo di interazione; la seconda per la piattaforma TuCSoN, che utilizza il modello A&A per rendersi compatibile ad un ambiente distribuito, ma che ricalca la struttura dell'implementazione precedente; la terza ancora per TuCSoN, che sfrutta gli strumenti forniti dalle reazioni ReSpecT per generare degli artefatti in grado di fornire una infrastruttura in grado di garantire la realizzazione del protocollo di interazione agli agenti partecipanti. Infine, verranno discusse le caratteristiche di queste tre differenti implementazioni su un caso di studio reale, analizzandone i punti chiave.
Resumo:
Negli ultimi anni si è sviluppata una forte sensibilità nei confronti del rischio che il dissesto idrogeologico comporta per il territorio, soprattutto in un paese come il nostro, densamente abitato e geologicamente fragile. Il rischio idrogeologico In Italia infatti è diffuso in modo capillare e si presenta in modo differente a seconda dell’assetto geomorfologico del territorio. Tra i fattori naturali che predispongono il nostro territorio a frane ed alluvioni, rientra la conformazione geologica e geomorfologica, caratterizzata da un’orografia giovane e da rilievi in via di sollevamento. A seguito del verificarsi di una serie di eventi calamitosi (Piemonte 1994, Campania 1998 e 1999, Sovereto 2000, Alpi centrali 2000 e 2002) sono state emanate leggi specifiche finalizzate all’individuazione e all’applicazione di norme, volte a prevenire e contenere i gravi effetti derivanti dai fenomeni di dissesto. Si fa riferimento in particolare, alle leggi n°267 del 3/08/1998 e 365/2000 che hanno integrato la legge 183/1989. In questo modo gli enti territoriali (Regioni, Autorità di bacino) sono stati obbligati a predisporre una adeguata cartografia con perimetrazione delle aree a differente pericolosità e rischio. Parallelamente continuano ad essere intrapresi, promossi e finanziati numerosi studi scientifici volti allo studio dei fenomeni ed alla definizione più puntuale delle condizioni di rischio, oltre alle iniziative volte alla creazione di un efficace sistema di allertamento e di sorveglianza dei fenomeni e alla messa a punto di una pianificazione di emergenza volta a coordinare in modo efficace la risposta delle istituzioni agli eventi. In questo contesto gli studi su validi approcci metodologici per l’analisi e la valutazione del rischio possono fornire un supporto al processo decisionale delle autorità preposte alla gestione del territorio, identificando gli scenari di rischio e le possibili strategie di mitigazione, e individuando la soluzione migliore in termini di accettabilità sociale e convenienza economica. Nel presente elaborato si vuole descrivere i temi relativi alla valutazione della pericolosità, del rischio e della sua gestione, con particolare attenzione ai fenomeni di instabilità dei versanti e nello specifico ai fenomeni di crollo da pareti rocciose che interessano il territorio della Provincia Autonoma di Bolzano. Il fenomeno della caduta massi infatti è comunemente diffuso in tutte le regioni di montagna e lungo le falesie costiere, ed in funzione dell’elevata velocità con cui si manifesta può costituire una costante fonte di pericolo per le vite, i beni e le attività umane in zone generalmente molto attive dal punto di vista del turismo e delle grandi vie di comunicazione. Il territorio della Provincia Autonoma di Bolzano è fortemente interessato da questo problema, sia per la morfologia montuosa della provincia che per le infrastrutture che sempre più occupano zone di territorio un tempo poco urbanizzate. Al fine di pervenire ad una legittima programmazione delle attività di previsione e prevenzione, il Dipartimento dei Lavori Pubblici della Provincia, ha scelto di utilizzare una strategia che prevedesse un insieme di attività dirette allo studio ed alla determinazione delle cause dei fenomeni calamitosi, alla identificazione dei rischi, ed alla determinazione delle zone del territorio soggette ai rischi stessi. E’ nato così, con l’operatività dell’Ufficio Geologia e Prove Materiali, il supporto del Dipartimento Opere Pubbliche e della Ripartizione Protezione Civile e la collaborazione scientifica del DISTART – Università degli Studi di Bologna, Alma Mater Studiorum, il progetto VISO che riguarda i pericoli generati da frane di crollo, ribaltamento, scivolamento di porzioni di pareti rocciose e caduta massi. Il progetto ha come scopo la valutazione del pericolo, della vulnerabilità e del rischio e dell’effettiva funzionalità delle opere di protezione contro la caduta massi lungo la strada statale del Brennero. Il presente elaborato mostra l’iter per l’individuazione del rischio specifico che caratterizza un particolare tratto stradale, così come è stato pensato dalla Provincia Autonoma di Bolzano all’interno di una strategia di previsione e prevenzione, basata su metodi il più possibile oggettivi, ed estesa all’intera rete stradale di competenza provinciale. Si esamina l’uso di metodologie diverse per calcolare l’intensità di un fenomeno franoso che potrebbe potenzialmente svilupparsi su un versante e si osserva in che modo la presenza di opere di protezione passiva influisce sull’analisi di pericolosità. Nel primo capitolo viene presentata una panoramica sui fenomeni di crollo descrivendo i fattori principali che li originano e gli interventi di protezione posti a difesa del versante. Si esaminano brevemente le tipologie di intervento, classificate in opere attive e passive, con particolare attenzione alle barriere paramassi., che si collocano tra gli interventi di difesa passivi e che stanno diventando il tipo di intervento più frequentemente utilizzato. Nel capitolo vengono descritte dal punto di vista progettuale, prendendo in esame anche la normativa di riferimento nonché le nuove linee guida per la certificazione CE delle barriere, nate negli ultimi anni per portare ad una facile comparabilità dei vari prodotti sottoposti ad impatti normalizzati, definendo con chiarezza i livelli energetici ai quali possono essere utilizzati i vari prodotti e, nel contempo, fornendo informazioni assolutamente indispensabili per la buona progettazione degli stessi. Nel capitolo successivo si prendono in esame i temi relativi alla valutazione della pericolosità e del rischio, l’iter procedurale di analisi del rischio adottato dalla Provincia Autonoma di Bolzano in relazione alle frane da crollo che investono le strade della rete provinciale ed in particolare viene descritto il progetto VISO (Viability Information Operating System), nato allo scopo di implementare un catasto informatizzato che raccolga indicazioni sul patrimonio delle opere di protezione contro la caduta massi e di rilevare e valutare il pericolo, la vulnerabilità, il rischio e l’effettiva funzionalità delle opere di protezione contro la caduta massi lungo le strade statali e provinciali. All’interno dello stesso capitolo si espone come, nell’ambito del progetto VISO e grazie alla nascita del progetto europeo Paramount ” (Improved accessibility reliability and safety of Alpine tran sport infrastructure related to mountainous hazard in a changing climate) si è provveduto, con l’aiuto di una collega del corso di laurea, a raccogliere i dati relativi all’installazione delle barriere paramassi sul territorio della Provincia Autonoma di Bolzano. Grazie ad un’analisi di archivio effettuata all’interno delle diverse sedi del servizio strade della Provincia Autonoma di Bolzano, si è presa visione (laddove presenti) delle schede tecniche delle barriere collocate sul territorio, si sono integrati i dettagli costruttivi contattando le principali ditte fornitrici e si è proceduto con una classificazione delle opere, identificando alcuni modelli di “barriere-tipo che sono stati inseriti nel database PARAMOUNT, già creato per il progetto VISO. Si è proseguito associando a tali modelli le barriere provviste di documentazione fotografica rilevate in precedenza dall’istituto di Geologia della Provincia Autonoma di Bolzano e inserite in VISO e si è valutata la corrispondenza dei modelli creati, andando a verificare sul posto che le barriere presenti sul territorio ed inserite nel database (tramite modello), effettivamente coincidessero, nelle misure e per le caratteristiche geometrico-costruttive, ai modelli a cui erano state associate. Inoltre sono stati considerati i danni tipici a cui può essere soggetta una barriera paramassi durante il suo periodo di esercizio poiché tali difetti andranno ad incidere sulla valutazione dell’utilità del sistema di difesa e di conseguenza sulla valutazione della pericolosità del versante(H*). Nel terzo capitolo si è esposta una possibile integrazione, mediante il software di calcolo RocFall, della procedura di valutazione dell’analisi di pericolosità di un versante utilizzata nell’ambito del progetto VISO e già analizzata in dettaglio nel secondo capitolo. Il software RocFall utilizza un metodo lumped mass su schema bidimensionale basato su ipotesi semplificative e consente di effettuare simulazioni probabilistiche di fenomeni di caduta massi, offrendo importanti informazioni sull’energia che si sviluppa durante il crollo, sulle velocità raggiunte e sulle altezze di rimbalzo lungo tutto il versante considerato, nonché sulla distanza di arresto dei singoli massi. Si sono realizzati dei profili-tipo da associare al versante, considerando il pendio suddiviso in tre parti : parete verticale (H = 100 m) lungo la quale si sviluppa il movimento franoso; pendio di altezza H = 100 m e angolo pari ai quattro valori medi della pendenza indicati nella scheda di campagna; strada (L = 10 m). Utilizzando il software Cad si sono realizzati 16 profili associando la pendenza media del versante a 4 morfologie individuate grazie all’esperienza dell’Istituto di Geologia e Prove materiali della Provincia Autonoma di Bolzano; si è proceduto importando tali profili in RocFall dove sono state aggiunte informazioni riguardanti la massa del blocco e l’uso del suolo, ottenendo 256 profili-tipo ai quali è stata associata una sigla definita come segue : morfologia (1, 2, 3, 4) _ pendenza (37, 53, 67, 83 gradi) _ uso del suolo (A, B, C, D) _ massa (a,b,c,d). Fissando i parametri corrispondenti al peso del masso ( inserito al solo scopo di calcolare la velocità rotazionale e l’energia cinetica ) e considerando, per ogni simulazione, un numero di traiettorie possibili pari a 1000, avendo osservato che all’aumentare di tale numero (purchè sufficientemente elevato) non si riscontrano variazioni sostanziali nei risultati dell’analisi, si è valutato come i parametri uso del suolo (A;B;C;D), morfologia (1;2;3;4) e pendenza (37°;53°;67°;83°) incidano sulla variazione di energia cinetica, di altezza di rimbalzo e sulla percentuale di massi che raggiunge la strada, scegliendo come punto di riferimento il punto di intersezione tra il pendio e la strada. Al fine di realizzare un confronto tra un profilo reale e un profilo-tipo, sono stati utilizzati 4 profili posti su un versante situato nel Comune di Laives, noto per le frequenti cadute di massi che hanno raggiunto in molti casi la strada. Tali profili sono stati visionati in sede di sopralluogo dove si è provveduto alla compilazione delle schede di campagna (impiegate per valutare l’intensità del fenomeno che potenzialmente si sviluppa dal versante) e all’individuazione dei profili-tipo corrispondenti. Sono state effettuate analisi di simulazione per entrambe le tipologie di profilo, e sono stati confrontati i risultati ottenuti in termini di Energia cinetica; altezza di rimbalzo e percentuale dei blocchi in corrispondenza della strada. I profili reali sono stati importati in RocFal in seguito ad estrapolazione dal modello digitale del terreno (ottenuto da analisi con Laser Scanner) utilizzando l’ estensione Easy Profiler nel software Arcmap. Infine si è valutata la possibilità di collocare eventuali barriere paramassi su un profilo reale, si è proceduto effettuando una analisi di simulazione di caduta massi in RocFall, importando in excel i valori corrispondenti all’andamento dei massimi dell’Energia cinetica e dell’altezza di rimbalzo lungo il pendio che forniscono una buona indicazione circa l´idonea ubicazione delle opere di protezione.