908 resultados para ricostruzione di immagini stima del rumore regolarizzazioneproblemi mal postivariazione totale
Resumo:
Il presente lavoro di tesi si colloca nell’ambito della valutazione del rischio di incidente rilevante. Ai sensi della normativa europea (direttive Seveso) e del loro recepimento nella legislazione nazionale (D.Lgs. 334/99 e s.m.i.) un incidente rilevante è costituito da un evento incidentale connesso al rilascio di sostanze pericolose in grado di causare rilevanti danni all’uomo e/o all’ambiente. Ora, se da un lato esistono indici di rischio quantitativi per il bersaglio ”uomo” da tempo definiti e universalmente adottati nonché metodologie standardizzate e condivise per il loro calcolo, dall’altro non vi sono analoghi indici di rischio per il bersaglio “ambiente” comunemente accettati né, conseguentemente, procedure per il loro calcolo. Mancano pertanto anche definizioni e metodologie di calcolo di indici di rischio complessivo, che tengano conto di entrambi i bersagli citati dalla normativa. Al fine di colmare questa lacuna metodologica, che di fatto non consente di dare pieno adempimento alle stesse disposizioni legislative, è stata sviluppata all’interno del Dipartimento di Ingegneria Chimica, Mineraria e delle Tecnologie Ambientali dell’Università degli Studi di Bologna una ricerca che ha portato alla definizione di indici di rischio per il bersaglio “ambiente” e alla messa a punto di una procedura per la loro stima. L’attenzione è stata rivolta in modo specifico al comparto ambientale del suolo e delle acque sotterranee (falda freatica) ed ai rilasci accidentali da condotte di sostanze idrocarburiche immiscibili e più leggere dell’acqua, ovvero alle sostanze cosiddette NAPL – Non Acqueous Phase Liquid, con proprietà di infiammabilità e tossicità. Nello specifico si sono definiti per il bersaglio “ambiente” un indice di rischio ambientale locale rappresentato, punto per punto lungo il percorso della condotta, dai volumi di suolo e di acqua contaminata, nonché indici di rischio ambientale sociale rappresentati da curve F/Vsuolo e F/Sacque, essendo F la frequenza con cui si hanno incidenti in grado di provocare contaminazioni di volumi di suolo e di superfici di falda uguali o superiori a Vsuolo e Sacque. Tramite i costi unitari di decontaminazione del suolo e delle acque gli indici di rischio ambientale sociale possono essere trasformati in indici di rischio ambientale sociale monetizzato, ovvero in curve F/Msuolo e F/Macque, essendo F la frequenza con cui si hanno incidenti in grado di provocare inquinamento di suolo e di acque la cui decontaminazione ha costi uguali o superiori a Msuolo ed Macque. Dalla combinazione delle curve F/Msuolo e F/Macque è possibile ottenere la curva F/Mambiente, che esprime la frequenza degli eventi incidentali in grado di causare un danno ambientale di costo uguale o superiore a Mambiente. Dalla curva di rischio sociale per l’uomo ovvero dalla curva F/Nmorti, essendo F la frequenza con cui si verificano incidenti in grado di determinare un numero di morti maggiore o uguale ad Nmorti, tramite il costo unitario della vita umana VSL (Value of a Statistical Life), è possibile ottenete la curva F/Mmorti, essendo F la frequenza con cui si verificano incidenti in grado di determinare un danno monetizzato all’uomo uguale o superiore ad Mmorti. Dalla combinazione delle curve F/Mambiente ed F/Mmorti è possibile ottenere un indice di rischio sociale complessivo F/Mtotale, essendo F la frequenza con cui si verifica un danno economico complessivo uguale o superiore ad Mtotale. La procedura ora descritta è stata implementata in un apposito software ad interfaccia GIS denominato TRAT-GIS 4.1, al fine di facilitare gli onerosi calcoli richiesti nella fase di ricomposizione degli indici di rischio. La metodologia è stata fino ad ora applicata ad alcuni semplici casi di studio fittizi di modeste dimensioni e, limitatamente al calcolo del rischio per il bersaglio “ambiente”, ad un solo caso reale comunque descritto in modo semplificato. Il presente lavoro di tesi rappresenta la sua prima applicazione ad un caso di studio reale, per il quale sono stati calcolati gli indici di rischio per l’uomo, per l’ambiente e complessivi. Tale caso di studio è costituito dalla condotta che si estende, su un tracciato di 124 km, da Porto Marghera (VE) a Mantova e che trasporta greggi petroliferi. La prima parte del lavoro di tesi è consistita nella raccolta e sistematizzazione dei dati necessari alla stima delle frequenze di accadimento e delle conseguenze per l’uomo e per l’ambiente degli eventi dannosi che dalla condotta possono avere origine. In una seconda fase si è proceduto al calcolo di tali frequenze e conseguenze. I dati reperiti hanno riguardato innanzitutto il sistema “condotta”, del quale sono stati reperiti da un lato dati costruttivi (quali il diametro, la profondità di interramento, la posizione delle valvole sezionamento) e operativi (quali la portata, il profilo di pressione, le caratteristiche del greggio), dall’altro informazioni relative alle misure di emergenza automatiche e procedurali in caso di rilascio, al fine di stimare le frequenze di accadimento ed i termini “sorgente” (ovvero le portate di rilascio) in caso di rotture accidentali per ogni punto della condotta. In considerazione delle particolarità della condotta in esame è stata sviluppata una procedura specifica per il calcolo dei termini sorgente, fortemente dipendenti dai tempi degli interventi di emergenza in caso di rilascio. Una ulteriore fase di raccolta e sistematizzazione dei dati ha riguardato le informazioni relative all’ambiente nel quale è posta la condotta. Ai fini del calcolo del rischio per il bersaglio “uomo” si sono elaborati i dati di densità abitativa nei 41 comuni attraversati dall’oleodotto. Il calcolo dell’estensione degli scenari incidentali dannosi per l’uomo è stato poi effettuato tramite il software commerciale PHAST. Allo scopo della stima del rischio per il bersaglio “ambiente” è stata invece effettuata la caratterizzazione tessiturale dei suoli sui quali corre l’oleodotto (tramite l’individuazione di 5 categorie di terreno caratterizzate da diversi parametri podologici) e la determinazione della profondità della falda freatica, al fine di poter calcolare l’estensione della contaminazione punto per punto lungo la condotta, effettuando in tal modo l’analisi delle conseguenze per gli scenari incidentali dannosi per l’ambiente. Tale calcolo è stato effettuato con il software HSSM - Hydrocarbon Spill Screening Model gratuitamente distribuito da US-EPA. La ricomposizione del rischio, basata sui risultati ottenuti con i software PHAST e HSSM, ha occupato la terza ed ultima fase del lavoro di tesi; essa è stata effettuata tramite il software TRAT-GIS 4.1, ottenendo in forma sia grafica che alfanumerica gli indici di rischio precedentemente definiti. L’applicazione della procedura di valutazione del rischio al caso dell’oleodotto ha dimostrato come sia possibile un’analisi quantificata del rischio per l’uomo, per l’ambiente e complessivo anche per complessi casi reali di grandi dimensioni. Gli indici rischio ottenuti consentono infatti di individuare i punti più critici della condotta e la procedura messa a punto per il loro calcolo permette di testare l’efficacia di misure preventive e protettive adottabili per la riduzione del rischio stesso, fornendo al tempo gli elementi per un’analisi costi/benefici connessa all’implementazione di tali misure. Lo studio effettuato per la condotta esaminata ha inoltre fornito suggerimenti per introdurre in alcuni punti della metodologia delle modifiche migliorative, nonché per facilitare l’analisi tramite il software TRAT-GIS 4.1 di casi di studio di grandi dimensioni.
Resumo:
La Siria interna settentrionale rappresenta un’area di grande interesse dal punto di vista degli studi storico – archeologici. Da decenni, infatti, in questa zona si susseguono molteplici campagne di scavi archeologici e numerosi progetti di ricerca finalizzati alla ricostruzione ed alla caratterizzazione del paesaggio antico della Siria interna settentrionale. E’ proprio all’interno di tale contesto che si inquadra il presente lavoro di tesi, che vuol essere uno strumento di supporto interdisciplinare per le attività e le ricerche sotto differenti e molteplici punti di vista: ingegneristico, archeologico, geologico ed agrario. L’obiettivo principale di questo elaborato riguarda l’analisi e l’inquadramento del territorio della Siria interna settentrionale, attraverso l’impiego delle immagini satellitari e con il supporto dei dati presenti in letteratura, al fine di produrre una classificazione dell’area di interesse. Per permettere una migliore caratterizzazione del territorio, i risultati ottenuti sono inoltre valutati e comparati utilizzando differenti scale temporali e spaziali. Tali analisi hanno per loro natura un carattere multitemporale, con l’obiettivo di valutare le principali trasformazioni del territorio, analizzando in particolar modo il processo di urbanizzazione ed il differente utilizzo del suolo verificatisi negli ultimi 20 anni. Le analisi sono inoltre condotte su scale territoriali differenti, permettendo così di creare un database georeferenziato multiscala, che sia di supporto allo studio di questo territorio. Il lavoro ha comportato la messa a punto di procedure specifiche e l’applicazione di numerosi e diversi metodi propri del Telerilevamento ottico. A completamento delle elaborazioni di inquadramento del territorio della Siria interna settentrionale, è stato anche realizzato un layer relativo alla sismicità dell’area, che come noto presenta storicamente una forte attività sismica, con la organizzazione in ambiente GIS dei dati relativi ai principali sistemi di faglia presenti nell’area.
Resumo:
Nella definizione di incidente rilevante presente nelle Direttive Seveso, come pure nel loro recepimento nella legislazione italiana, rientrano eventi incidentali che abbiano conseguenze gravi per il bersaglio “ambiente”, sia in concomitanza sia in assenza di effetti dannosi per l’uomo. Tuttavia, a fronte di questa attenzione al bersaglio “ambiente” citata dalle norme, si constata la mancanza di indici quantitativi per la stima del rischio di contaminazione per i diversi comparti ambientali e, conseguentemente, anche di metodologie per il loro calcolo. Misure di rischio quantitative consolidate e modelli condivisi per la loro stima riguardano esclusivamente l’uomo, con la conseguenza che la valutazione di rischio per il bersaglio “ambiente” rimane ad un livello qualitativo o, al più, semi-quantitativo. Questa lacuna metodologica non consente di dare una piena attuazione al controllo ed alla riduzione del rischio di incidente rilevante, secondo l’obiettivo che le norme stesse mirano a raggiungere. E d‘altra parte il verificarsi periodico di incidenti con significativi effetti dannosi per l’ambiente, quali, ad esempio lo sversamento di gasolio nel fiume Lambro avvenuto nel febbraio 2010, conferma come attuale e urgente il problema del controllo del rischio di contaminazione ambientale. La ricerca presentata in questo lavoro vuole rappresentare un contributo per colmare questa lacuna. L’attenzione è rivolta al comparto delle acque superficiali ed agli sversamenti di liquidi oleosi, ovvero di idrocarburi insolubili in acqua e più leggeri dell’acqua stessa. Nel caso in cui il rilascio accidentale di un liquido oleoso raggiunga un corso d’acqua superficiale, l’olio tenderà a formare una chiazza galleggiante in espansione trasportata dalla corrente e soggetta ad un complesso insieme di trasformazioni fisiche e chimiche, denominate fenomeni di “oil weathering”. Tra queste rientrano l’evaporazione della frazione più volatile dell’olio e la dispersione naturale dell’olio in acqua, ovvero la formazione di una emulsione olio-in-acqua nella colonna d’acqua al di sotto della chiazza di olio. Poiché la chiazza si muove solidale alla corrente, si può ragionevolmente ritenere che l’evaporato in atmosfera venga facilmente diluito e che quindi la concentrazione in aria dei composti evaporati non raggiunga concentrazioni pericolose esternamente alla chiazza stessa. L’effetto fisico dannoso associato allo sversamento accidentale può pertanto essere espresso in doversi modi: in termini di estensione superficiale della chiazza, di volume di olio che emulsifica nella colonna d’acqua, di volume della colonna che si presenta come emulsione olio-in-acqua, di lunghezza di costa contaminata. In funzione di questi effetti fisici è possibile definire degli indici di rischio ambientale analoghi alle curve di rischio sociale per l’uomo. Come una curva di rischio sociale per l’uomo esprime la frequenza cumulata in funzione del numero di morti, così le curve di rischio sociale ambientale riportano la frequenza cumulata in funzione dell’estensione superficiale della chiazza, ovvero la frequenza cumulata in funzione del volume di olio che emulsifica in acqua ovvero la frequenza cumulata in funzione del volume di colonna d’acqua contaminato ovvero la frequenza cumulata in funzione della lunghezza di costa contaminata. Il calcolo degli indici di rischio così definiti può essere effettuato secondo una procedura analoga al calcolo del rischio per l’uomo, ovvero secondo i seguenti passi: 1) descrizione della sorgente di rischio; 2) descrizione del corso d’acqua che può essere contaminato in caso di rilascio dalla sorgente di rischio; 3) identificazione, degli eventi di rilascio e stima della loro frequenza di accadimento; 4) stima, per ogni rilascio, degli effetti fisici in termini di area della chiazza, di volume di olio emulsificato in acqua, di volume dell’emulsione olio-in-acqua, lunghezza di costa contaminata; 5) ricomposizione, per tutti i rilasci, degli effetti fisici e delle corrispondenti frequenze di accadimento al fine di stimare gli indici di rischio sopra definiti. Al fine di validare la metodologia sopra descritta, ne è stata effettuata l’applicazione agli stabilimenti a rischio di incidente rilevante presenti nei bacini secondari che fanno parte del bacino primario del Po. E’ stato possibile calcolare gli indici di rischio per ogni stabilimento, sia in riferimento al corso d’acqua del bacino secondario a cui appartengono, sia in riferimento al Po, come pure ottenere degli indici di rischio complessivi per ogni affluente del Po e per il Po stesso. I risultati ottenuti hanno pienamente confermato la validità degli indici di rischio proposti al fine di ottenere una stima previsionale del rischio di contaminazione dei corsi d’acqua superficiali, i cui risultati possano essere utilizzati per verificare l’efficacia di diverse misure di riduzione del rischio e per effettuare una pianificazione d’emergenza che consenta, in caso di incidente, di contenere, recuperare e favorire la dispersione dell’olio sversato.
Resumo:
Nel corso degli ultimi venti anni si è assistito ad un incremento generalizzato della disoccupazione in Europa in particolare di quella giovanile: nel 1997 in molti paesi europei il tasso di disoccupazione della classe 15-24 anni è doppio rispetto a quello degli adulti. Questo lavoro si propone di dare una descrizione realistica del fenomeno della disoccupazione giovanile in Italia come risultante dalle prime 4 waves dell’indagine European Household Community Panel indagando la probabilità di transizione dallo stato di disoccupazione a quello di occupazione. Nell’ambito di un’impostazione legata alla teoria dei processi stocastici e dei dati di durata si indagheranno gli effetti che episodi di disoccupazione precedenti possono avere sulla probabilità di trovare un lavoro, in particolare, nell’ambito di processi stocastici più generali si rilascerà l’ipotesi di semi-markovianità del processo per considerare l’effetto di una funzione della storia passata del processo sulla transizione attuale al lavoro. La stima della funzione di rischio a vari intervalli di durata si dimostra più appropriata quando si tiene conto della storia passata del processo, in particolare, si verifica l’ipotesi che la possibilità di avere successo nella ricerca di un lavoro è negativamente influenzata dall’aver avuto in passato molte transizioni disoccupazione-occupazione-disoccupazione.
Resumo:
Lo stabilirsi di nuovi criteri abitativi nella Lombardia di fine Ottocento e dei primi decenni del XX secolo, ha fatto emergere, nel vasto tema dell’abitazione popolare, componenti meritevoli di essere analizzate nelle loro differenti declinazioni. Nella ricerca sono quindi stati analizzati: gli studi tipologici di quel periodo, l’impiego di differenti materiali edili, il linguaggio compositivo, le interrelazioni dei manufatti architettonici con il contesto urbano, l’apporto delle cooperative alla realizzazione degli interventi, lo sviluppo e l’impiego della prefabbricazione e la tutela, valorizzazione e trasformazione del patrimonio edilizio esistente. Presupposto di quest’analisi è stata l’ampia ricostruzione storiografica delle fasi germinali e del dibattito ottocentesco sulla casa operaia e popolare, che hanno condotto (all’inizio del novecento) alla creazione dell’Istituto Autonomo Case Popolari od Economiche di Milano. Sono state enucleate anche le principali caratteristiche formali e tecnologiche dell’edilizia residenziale popolare milanese di quel periodo. La ricerca inoltre è stata finalizzata alla definizione di strategie gestionali del patrimonio storiografico esistente (documentario, iconografico e bibliografico) rivolto a una migliore fruizione dei beni architettonici considerati e a supporto di conoscenza per la sua valorizzazione, tutela, trasformazione e recupero. Per questa ragione l’analisi delle fonti documentarie e archivistiche, si è basata sull’indagine di alcuni progetti originari (quasi mai in possesso dell’Aler e parzialmente dispersi in archivi comunali e privati). La ricostruzione del patrimonio storico-visuale dell’edilizia residenziale d’inizio secolo, ha dedicato attenzione anche agli aspetti architettonici e di vita degli spazi comuni, dello stato di conservazione e delle trasformazioni delle strutture originarie. Accanto a questi filoni di indagine è stata sviluppata un’attenta analisi della letteratura esistente, studiando sia la pubblicistica sia la letteratura scientifica coeva alle costruzione e gli studi, anche di grande portata, compiuti nei decenni successivi. L’indagine propone anche una periodizzazione delle fasi realizzative dell’edilizia popolare, relazionandole a contesti architettonici e storiografici di più ampio respiro. Si sono indagate, ad esempio, le ragioni del costituirsi di una forte interdipendenza delle varie realtà sociali urbane e si sono posti a confronto gli elementi prettamente architettonici con il quadro tematico connesso al concetto di modernità. La ricerca non ha neppure trascurato gli studi chiarificatori delle istanze sociali, che hanno trovato particolari riferimenti nelle analisi scientifiche (pubblicate su riviste specialistiche, in qualche caso di difficile reperibilità) o nelle ricerche commissionate dal Comune di Milano nel primo decennio del XX secolo. Grande importanza è stata riposta anche nell’analisi delle delibere comunali (verificate e documentate in modo organico e complessivo) che, a partire dal 1861, trattano il tema dell’impegno pubblico nella realizzazione di edilizia operaia a basso costo.
Resumo:
Il Soprintendente Alfredo Barbacci fu uomo di poliedrica formazione, perito nell’uso di metodiche innovative di restauro ed esperto delle tecniche di ricomposizione delle forme architettoniche dei complessi monumentali, danneggiati dai bombardamenti del secondo conflitto mondiale. Quel che, questo studio ha inteso indagare e comprendere, attraverso un approccio critico, sostanziato dalle carte d’archivio, è fondamentalmente il contributo, da egli ha offerto circa la valenza storica e architettonica del tessuto connettivo di base della città, da cui si originava - negli anni della sua attività - l’idea ancora inedita di un bene culturale e sociale nuovo: il centro storico tutto, con annessi monumenti, complessi architettonici nobili ed edilizia minore, di base. Dando avvio all’analisi sistematica delle teorie e della prassi di Alfredo Barbacci e alla lettura puntuale dei suoi scritti, sono stati razionalizzati il significato, le valenze e le implicazioni del termine edilizia minore all’interno del più ampio contesto del restauro dell’edilizia monumentale e alla luce degli elementi di tendenza, portati all’attenzione dal dibattito delle diverse scuole di pensiero sul restauro, a partire dai primi anni del sec. XX fino agli anni Settanta dello scorso secolo. Concretamente vi si evidenziano interessanti intuizioni e dichiarazioni, afferenti la necessità di un restauro del tipo integrato, da intendersi come strumento privilegiato di intervento sul tessuto nobile e meno nobile della città antica. Al termine della sua carriera, il contributo del Soprintendente Barbacci al dibattito scientifico si documenta da sé, nella compilazione a sua firma di quella parte della Relazione Franceschini, in cui si dava proposta di un corpo normativo alla necessità di guardare alla città storica come a un bene culturale e sociale, insistendo come al suo interno era d’uopo mantenere, nel corso di interventi restaurativi, un razionale equilibrio tra monumento ed edilizia minore già storicizzata e che non escludesse anche l’apparato paesaggistico di contorno.
Resumo:
Progettazione dell'amplificatore, allestimento del banco di misure e misurazione del rumore di drain nei MOSFET di potenza
Resumo:
L’esigenza di affrontare la questione della tutela del mare dalle diverse fonti di inquinamento si è posta con forza soprattutto a partire al 1970, in parallelo con l’affinamento della sensibilità ambientale a fronte del crescente processo di industrializzazione in atto in tutto il mondo. Tuttavia, a fronte di questa attenzione al bersaglio “ambiente” citata dalle convenzioni e dalle norme, si constata la mancanza di indici quantitativi per la stima del rischio di contaminazione per tutti i comparti ambientali ed anche per il mare e, conseguentemente, anche l’assenza di metodologie per il loro calcolo. Misure di rischio quantitative consolidate e modelli condivisi per la loro stima riguardano esclusivamente l’uomo, con la conseguenza che la valutazione di rischio per il bersaglio “ambiente” rimane ad un livello qualitativo o, al più, semi-quantitativo. La ricerca presentata in questo lavoro vuole rappresentare un contributo per colmare questa lacuna. L’attenzione è rivolta al comparto delle acque marine ed agli sversamenti di liquidi oleosi, ovvero di idrocarburi insolubili in acqua e più leggeri dell’acqua stessa.
Resumo:
Negli ultimi vent’anni sono state proposte al livello internazionale alcune analisi dei problemi per le scienze nella scuola e diverse strategie per l’innovazione didattica. Molte ricerche hanno fatto riferimento a una nuova nozione di literacy scientifica, quale sapere fondamentale dell’educazione, indipendente dalle scelte professionali successive alla scuola. L’ipotesi di partenza di questa ricerca sostiene che alcune di queste analisi e l’idea di una nuova literacy scientifica di tipo non-vocazionale mostrino notevoli limiti quando rapportate al contesto italiano. Le specificità di quest’ultimo sono state affrontate, innanzitutto, da un punto di vista comparativo, discutendo alcuni documenti internazionali sull’insegnamento delle scienze. Questo confronto ha messo in luce la difficoltà di ottenere un insieme di evidenze chiare e definitive sui problemi dell’educazione scientifica discussi da questi documenti, in particolare per quanto riguarda i dati sulla crisi delle vocazioni scientifiche e sull’attitudine degli studenti verso le scienze. Le raccomandazioni educative e alcuni progetti curricolari internazionali trovano degli ostacoli decisivi nella scuola superiore italiana anche a causa di specificità istituzionali, come particolari principi di selezione e l’articolazione dei vari indirizzi formativi. Il presente lavoro si è basato soprattutto su una ricostruzione storico-pedagogica del curricolo di fisica, attraverso l’analisi delle linee guida nazionali, dei programmi di studio e di alcuni rappresentativi manuali degli ultimi decenni. Questo esame del curricolo “programmato” ha messo in luce, primo, il carattere accademico della fisica liceale e la sua debole rielaborazione culturale e didattica, secondo, l’impatto di temi e problemi internazionali sui materiali didattici. Tale impatto ha prodotto dei cambiamenti sul piano delle finalità educative e degli strumenti di apprendimento incorporati nei manuali. Nonostante l’evoluzione di queste caratteristiche del curricolo, tuttavia, l’analisi delle conoscenze storico-filosofiche utilizzate dai manuali ha messo in luce la scarsa contestualizzazione culturale della fisica quale uno degli ostacoli principali per l’insegnamento di una scienza più rilevante e formativa.
Resumo:
L’obiettivo di questa tesi è stato quello di migliorare l’efficacia e l’efficienza di una proposta allo stato dell’arte per l’individuazione di punti salienti in immagini digitali [1]. Questo algoritmo sfrutta le proprietà dell’equazione alle derivate parziali che modella l’evoluzione di un’onda. Per migliorarlo sono stati implementati alcuni schemi numerici di risoluzione dell’equazione delle onde bidimensionale e sono stati valutati rispetto allo schema già utilizzato. Sono stati implementati sia schemi impliciti sia schemi espliciti, tutti in due versioni: con interlacciamento con l’equazione del calore (diffusivi) e senza. Lo studio dei migliori schemi è stato approfondito e questi ultimi sono stati confrontati con successo con la versione precedentemente proposta dello schema esplicito INT 1/4 con diffusione [1]. In seguito è stata realizzata una versione computazionalmente più efficiente dei migliori schemi di risoluzione attraverso l’uso di una struttura piramidale ottenuta per sotto-campionamento dell’immagine. Questa versione riduce i tempi di calcolo con limitati cali di performance. Il tuning dei parametri caratteristici del detector è stato effettuato utilizzando un set di immagini varianti per scala, sfocamento (blur), punto di vista, compressione jpeg e variazione di luminosità noto come Oxford dataset. Sullo stesso sono stati ricavati risultati sperimentali che identificano la proposta presentata come il nuovo stato dell’arte. Per confrontare le performance di detection con altri detector allo stato dell’arte sono stati utilizzati tre ulteriori dataset che prendono il nome di Untextured dataset, Symbench dataset e Robot dataset. Questi ultimi contengono variazioni di illuminazione, momento di cattura, scala e punto di vista. I detector sviluppati risultano i migliori sull’Untextured dataset, raggiungono performance simili al miglior detector disponibile sul Symbench dataset e rappresentano il nuovo stato dell’arte sul Robot dataset.
Resumo:
Grazie alla loro versatilità, i velivoli multirotore hanno ricevuto sempre più interesse durante gli ultimi anni, in ambito accademico e di recente anche industriale. Il lavoro presentato è volto a studiare e confrontare le moderne tecniche di navigazione e di controllo di questo tipo di velivoli. Difatti, spesso, gli algoritmi utilizzati sono stati limitati dalla capacità di calcolo del processore imbarcato e dalla qualità dei sensori utilizzati. Negli ultimi anni, però, lo sviluppo della microelettronica ha ricevuto un forte impulso (dovuto principalmente alla ricerca nell’ambito della telefonia), che ha portato all’abbattimento dei costi e alla nascita di progetti opensource, tra i quali le famose schede Arduino prodotte da Olivetti, attorno alle quali si sono sviluppati molti progetti di velivoli opensource. L’importanza di ciò, in ambito accademico, è rilevante, poiché consente l’utilizzo di algoritmi e di configurazioni hardware comprovati, lasciando spazio a modifiche e migliorie. Nel nostro caso, in particolare, si vuole osservare come complessi algoritmi di navigazione, resi possibili da un processore più potente, possano migliorare le prestazioni del noto progetto opensource ArduPilot [3]. Tali miglioramenti possono essere rilevanti in applicazioni per le quali sia richiesta una certa precisione nel posizionamento, come ad esempio lo studio di formazioni o la navigazione in ambienti angusti.
Resumo:
La risonanza magnetica cardiaca è una tecnica di imaging non invasiva, in quanto non necessita l’uso di radiazioni ionizzanti, caratterizzata da un’elevata risoluzione spaziale e che permette acquisizioni in 4-D senza vincoli di orientazione. Grazie a queste peculiarità, la metodica della risonanza magnetica ha mostrato la sua superiorità nei confronti delle altre tecniche diagnostiche ed è riconosciuta come il gold standard per lo studio della fisiologia e fisiopatologia della pompa cardiaca. Nonostante la potenza di questi vantaggi, esistono ancora varie problematiche che, se superate, potrebbero probabilmente migliorare ulteriormente la qualità delle indagini diagnostiche. I software attualmente utilizzati nella pratica clinica per le misure del volume e della massa ventricolare richiedono un tracciamento manuale dei contorni dell’endocardio e dell’epicardio per ciascuna fetta, per ogni frame temporale del ciclo cardiaco. Analogamente avviene per il tracciamento dei contorni del tessuto non vitale. In questo modo l’analisi è spesso qualitativa. Di fatti, la necessità dell’intervento attivo dell’operatore rende questa procedura soggettiva e dipendente dall’esperienza, provocando un’elevata variabilità e difficile ripetibilità delle misure intra e inter operatore, oltre ad essere estremamente dispendiosa in termini di tempo, a causa dell’elevato numero di immagini da analizzare. La disponibilità di una tecnica affidabile per il tracciamento automatico dei contorni dell’endocardio e dell’epicardio consente di superare queste limitazioni ed aumentare l’accuratezza e la ripetibilità delle misure di interesse clinico, quali dimensione, massa e curve di volume ventricolari. Lo scopo di questa tesi è di sviluppare e validare una tecnica di segmentazione automatica che consenta l’identificazione e la quantificazione di cicatrici nel miocardio, a seguito di infarto cardiaco. Il lavoro è composto da due tappe principali. Inizialmente, è presentato un metodo innovativo che permette, in via totalmente automatica, di tracciare in modo accurato e rapido i contorni dell’endocardio e dell’epicardio nel corso dell’intero ciclo cardiaco. Successivamente, l’informazione sulla morfologia cardiaca ricavata nella prima fase è utilizzata per circoscrivere il miocardio e quantificare la transmuralità dell’infarto presente in pazienti ischemici.
Resumo:
Progettare e realizzare un sistema di catalogazione delle varie tipologie di eterogeneità tissutale di lesioni neoplastiche polmonari, a partire dall’analisi di immagini TCp, in quanto non risulta presente in letteratura una classificazione dell’eterogeneità basata sull’analisi visuale del radiologo.
Resumo:
In questa tesi consideriamo il problema della percezione di immagini, e in particolare la sensibilità al contrasto del nostro sistema visivo. Viene studiato il modello classico di Retinex, che descrive l'immagine percepita come soluzione di un'equazione di Poisson. Questo modello viene reinterpretato utilizzando strumenti di geometria differenziale e derivate covarianti. La controparte neurofisiologica del modello è la descrizione della funzionalità del LGN, e della connettività che le lega. Questa viene modellata come un nucleo soluzione fondamentale dell'equazione di Laplace, con strumenti di teoria delle distribuzioni. L'attività dello strato di cellule è quindi soluzione dell'equazione di Laplace, ovvero la stessa equazione che descrive il Retinex. Questo prova che le cellule sono responsabili della percezione a meno di illuminazione.
Resumo:
La movimentazione delle materie prime, degli intermedi e dei prodotti finali all’interno di una raffineria avviene attraverso una struttura logistica che prevede la ricezione delle materie prime, i trasferimenti delle sostanze tra le diverse unità produttive, la spedizione dei prodotti finiti. La distribuzione dei fluidi avviene su vie di tubazioni (pipe rack e trincee) che si possono articolare su un’ampia porzione di territorio, in prossimità di impianti, strade ed altri centri nevralgici. La perdita di contenimento accidentale dalle tubazioni può costituire un elemento di rischio di difficile gestione, proprio per la diffusione dei percorsi su un’area di vaste dimensioni. Il presente lavoro di tesi, svolto presso lo studio ICARO s.r.l. di Cortona, si propone di effettuare l’analisi del rischio dovuto al trasferimento dei fluidi all’interno di una raffineria, valutando la frequenza e la distribuzione spaziale degli effetti degli scenari incidentali finali che possono avere luogo in caso di rilascio. Le tubazioni prese in esame sono quelle di maggior impatto dal punto di vista del rischio a causa della pericolosità della sostanza trasferita e della vicinanza del percorso a punti nevralgici all’interno dello stabilimento; sulla base di questo criterio sono state analizzate le tubazioni per il trasferimento di GPL, H2S e benzina. I risultati ottenuti consentono di identificare soluzioni per l’ottimizzazione del layout della raffineria e costituiscono, più in generale, uno strumento analitico di supporto alle modifiche progettuali. L’elaborato è strutturato come segue. Nel Capitolo 1 è riportata la descrizione della raffineria e delle linee di interconnessione selezionate ai fini dello studio. Nel Capitolo 2 vengono identificate le tipologie più rappresentative di perdita di contenimento dalle linee e ne viene stimata la frequenza di accadimento. Nel Capitolo 3 viene illustrata una metodologia per la stima della probabilità di innesco che tiene in considerazione la circolazione di automezzi nelle strade interne della raffineria. Nel Capitolo 4 vengono esaminati, confrontati e selezionati i vari tipi di modelli di rilascio presenti nel package di simulazione Phast Professional 7.1 in vista della loro applicazione alle perdite dalle linee. Nel Capitolo 5 è riportato il calcolo delle frequenze di accadimento degli scenari incidentali finali, mentre nel Capitolo 6 sono illustrati i risultati relativi alla valutazione delle conseguenze. Nel Capitolo 7 viene effettuato lo studio dell’effetto domino, sviluppato in accordo ad un approccio metodologico innovativo. Infine nel Capitolo 8 vengono riportate alcune considerazioni finali.