1000 resultados para Miccoli, Giovanni: I dilemmi e i silenzi di Pio XII
Resumo:
In questo progetto di tesi sarà innanzitutto presentato il Kinect One e sarà fatta una panoramica sull’uso della realtà virtuale in ambito riabilitativo. In seguito sarà analizzato l’algoritmo di Body tracking, valutandone il comportamento in diverse situazioni pratiche e poi stimandone la precisione in statica. Sarà presentato un filtraggio per limitare il rumore in tempo reale e valutarne i pro ed i contro in funzione delle caratteristiche impostabili. Saranno presentate inoltre le metodologie con cui gli algoritmi integrati del Kinect permettono di ricavare una stima dell’orientamento delle parti anatomiche nello spazio ed alcune considerazioni circa le implicazioni pratiche di tali metodologie, anche in base alle osservazioni sul campo ottenute durante i mesi di realizzazione di questo progetto. Lo scopo è determinare se e come sia possibile utilizzare il Microsoft Kinect One come unico sistema di motion tracking del paziente in applicazioni cliniche di riabilitazione, quali limiti ci sono nel suo utilizzo e quali categorie di scenari e prove potrebbe supportare.
Resumo:
Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.
Resumo:
Questo lavoro di tesi ha portato al miglioramento di un sistema funiviario innovativo, progettato per risolvere i problemi di trasporto presenti nella città di Parma. E' stato progettato anche il carrello ed è stata eseguita la verifica statica della struttura secondo le normative vigenti. Inoltre è stata eseguita la verifica a fatica di alcune componenti e di alcune saldature, studiando anche un apposito sistema di ammorsamento alla fune.
Resumo:
Il caranto è un celebre paleosuolo della laguna di Venezia. Esso si presenta come uno strato argilloso di alcuni metri di spessore, a profondità variabile tra 1 e 25 m, fortemente consolidato, al punto che, secondo la tradizione locale, sarebbe il livello sul quale si impostano i pali di fondazione della città di Venezia. Misure di microtremore sismico ambientale nell’area lagunare acquisite in precedenza hanno mostrato amplificazioni delle onde sismiche per risonanza stratigrafica a frequenze medio-alte (sopra 3 Hz), ricollegabili a riflettori sismici superficiali. Tali amplificazioni riguardano frequenze di interesse ingegneristico per le strutture della città lagunare e delle altre isole, in quanto a frequenze superiori a 3 Hz risuona la maggior parte degli edifici in muratura più bassi di 5 piani, come quelli della città. Questo li renderebbe particolarmente vulnerabili per fenomeni di doppia-risonanza in caso di terremoto. Attraverso misure di risonanza del sottosuolo eseguite ad hoc e reperite in letteratura, abbiamo cercato se esista una correlazione tra le frequenze misurate e le profondità stimate del caranto da dati di sondaggio. Abbiamo trovato che tale correlazione esiste ed è netta a patto di assumere che la velocità di propagazione delle onde di taglio nel sottosuolo sia diversa tra centro storico e zona dei litorali della laguna. Tale differenza di valori, oltre ad essere perfettamente in linea con la geologia locale, che prevede argille nella zona insulare e sabbie nelle zone litoranee, è confermata dalle risultanze di prove sismiche multicanale a onde di superficie effettuate in anni passati per la microzonazione sismica della provincia. Si propone infine una relazione tra unità geologiche e valori di velocità delle onde di taglio nelle stesse, che permette di stimare la profondità del caranto a partire da misure di risonanza, del tutto non invasive. I risultati ottenuti sono utili sia in senso geologico che in senso ingegneristico sismico, poiché identificano le frequenze di massima amplificazione sismica del terreno
Resumo:
Nell'ambito dell'industria di processo, si definisce "effetto domino" la propagazione di un evento incidentale primario dovuta all’accadimento di uno o più incidenti secondari innescati dall’evento primario, con amplificazione dell’area di danno. Un incidente con effetto domino vede infatti la presenza iniziale di uno scenario incidentale primario, solitamente causato dal rilascio di sostanze pericolose e/o dal rilascio di energia tali da determinare effetti dannosi in grado di innescare successivamente degli eventi incidentali secondari, che determinino un'intensificazione delle conseguenze dell'evento iniziale. Gli incidenti con effetto domino possono avere conseguenze all'interno dello stabilimento in cui ha origine lo scenario incidentale primario o all'esterno, eventualmente coinvolgendo, stabilimenti limitrofi: nel primo caso si parla di effetto domino intra-stabilimento, nel secondo di effetto domino inter-stabilimento. Gli ultimi decenni hanno visto un forte aumento della domanda di prodotti dell'industria chimica e dunque del numero di impianti di processo, talvolta raggruppati nei cosiddetti "chemical clusters", ossia aree ad elevata concentrazione di stabilimenti chimici. In queste zone il rischio di effetto domino inter-stabilimento è particolarmente alto, a causa della stretta vicinanza di installazioni che contengono elevati quantitativi di sostanze pericolose in condizioni operative pericolose. È proprio questa consapevolezza, purtroppo confermata dal verificarsi di diversi incidenti con effetto domino, che ha determinato negli ultimi anni un significativo aumento delle ricerche relative all'effetto domino e anche una sua maggiore considerazione nell'ambito della normativa. A riguardo di quest'ultimo aspetto occorre citare la Direttiva Europea 2012/18/UE (comunemente denominata Direttiva Seveso III) e il suo recepimento nella normativa italiana, il Decreto Legislativo del 26 giugno 2015, "Attuazione della direttiva 2012/18/UE relativa al controllo del pericolo di incidenti rilevanti connessi con sostanze pericolose, entrato in vigore il 29 luglio 2015: questo decreto infatti dedica ampio spazio all'effetto domino e introduce nuovi adempimenti per gli stabilimenti a Rischio di Incidente Rilevante presenti sul territorio nazionale. In particolare, l'Allegato E del D. Lgs. 105/2015 propone una metodologia per individuare i Gruppi domino definitivi, ovvero i gruppi di stabilimenti a Rischio di Incidente Rilevante tra i quali è possibile il verificarsi di incidenti con effetto domino inter-stabilimento. Nel presente lavoro di tesi, svolto presso ARPAE (Agenzia Regionale per la Prevenzione, l'Ambiente e l'Energia) dell'Emilia Romagna, è stata effettuata, secondo la metodologia proposta dall'Allegato E del D. Lgs. 105/2015, la valutazione dell'effetto domino inter-stabilimento per gli stabilimenti a Rischio di Incidente Rilevante presenti in Emilia Romagna, al fine di individuare i Gruppi domino definitivi e di valutare l'aggravio delle conseguenze fisiche degli eventi incidentali primari origine di effetto domino.
Resumo:
I depositi di liquidi infiammabili sono stabilimenti industriali in cui avvengono spesso incendi di grandi dimensioni a causa degli ingenti quantitativi di sostanze infiammabili detenute. Gli incendi tipici dei liquidi infiammabili sono gli incendi di pozza in caso di rilascio del liquido al suolo e gli incendi di serbatoio in caso di ignizione del liquido all’interno del serbatoio stesso. Tali incendi hanno la potenzialità di danneggiare le apparecchiature limitrofe, determinandone il cedimento e dunque l’incremento delle dimensioni dell’incendio e dell’area di danno; tale fenomeno è detto effetto domino. Per la modellazione degli incendi sono disponibili diversi strumenti, divisibili essenzialmente in due categorie: modelli semplici, ovvero basati su correlazioni semi-empiriche e modelli avanzati, costituiti dai codici CFD. L’obiettivo principale del presente lavoro di tesi è il confronto tra le diverse tipologie di strumenti disponibili per la modellazione degli incendi di liquidi infiammabili. In particolare sono stati confrontati tra loro il codice FDS (Fire Dynamics Simulator), il metodo del TNO ed il modello per gli incendi di pozza incorporato nel software ALOHA. Il codice FDS è un modello avanzato, mentre il metodo del TNO ed il modello implementato nel software ALOHA sono modelli semplici appartenenti alla famiglia dei Solid Flame Models. La prima parte del presente lavoro di tesi è dedicata all’analisi delle caratteristiche e delle problematiche di sicurezza dei depositi di liquidi infiammabili, con specifico riferimento all’analisi storica. Nella seconda parte invece i tre metodi sopra citati sono applicati ad un parco serbatoi di liquidi infiammabili ed è effettuato il confronto dei risultati, anche ai fini di una valutazione preliminare dell’effetto domino. La tesi è articolata in 6 capitoli. Dopo il Capitolo 1, avente carattere introduttivo, nel Capitolo 2 vengono richiamati i principali concetti riguardanti gli incendi e vengono analizzate le caratteristiche e le problematiche di sicurezza dei depositi di liquidi infiammabili. Il Capitolo 3 è dedicato alla discussione delle caratteristiche degli incendi di pozza, alla presentazione delle tipologie di strumenti a disposizione per la loro modellazione ed alla descrizione di dettaglio dei modelli utilizzati nel presente lavoro di tesi. Il Capitolo 4 contiene la presentazione del caso di studio. Nel Capitolo 5, che costituisce il cuore del lavoro, i modelli descritti sono applicati al caso di studio, con un’approfondita discussione dei risultati e una valutazione preliminare dell’effetto domino. Nel Capitolo 6 infine sono riportate alcune considerazioni conclusive.
Resumo:
Petroltecnica S.P.A, azienda leader in attività di bonifica di terreni e siti industriali, ha svolto, per conto di Enipower Ferrara, uno studio di fattibilità per la dismissione di un serbatoio di olio combustibile e linea di tubazioni annesse. La richiesta della committente prevedeva la movimentazione del serbatoio di olio combustibile senza operare sezionamenti, in modo da poterlo bonificare al di fuori del sito in apposita area attrezzata. Per questo motivo è stato progettato un sistema di sollevamento che permettesse di movimentare il serbatoio di olio combustibile senza rischiare di deformarlo o romperlo. La struttura del bilancino è caratterizzata da una trave principale su cui è stata saldata una staffa per il collegamento del gancio della gru con la trave principale, e a cui sono collegate due travi traverse, disposte perpendicolarmente, e due staffe laterali. Alle estremità di ciascuna trave (principale e secondarie) sono presenti delle staffe a cui è collegata la componentistica di attacco del carico (grilli, funi e golfari). La progettazione del sistema di sollevamento è stata fatta in modo da ripartire uniformemente il carico sulla struttura e contemporaneamente non sollecitare eccessivamente i punti di presa del serbatoio. Una volta scelta la struttura del bilancino, è stato necessario dimensionare e verificare tutte le sue parti sulla base del metodo delle tensioni ammissibili previsto dall'UNI 10011. In riferimento alle normative UNI 10011 e UNI 13155, il dimensionamento del bilancino di sollevamento è stato effettuato in modo da ottenere, su ciascun elemento della struttura, un coefficiente di sicurezza minimo pari a due.
Resumo:
Tesi incentrata sull'impatto che la riduzione del lead time di consegna, come strategia commerciale, ha sulla supply chain della Neri SpA. A tale scopo è stato sviluppato un modello basato sulla matrice di Kraljic per la classificazione dei fornitori. La matrice è stata adattata alle esigenze aziendali ed è stato sfruttato il metodo di analisi multicriterio AHP per determinare i pesi dei parametri che compongono la dimensione più complessa della matrice. Sono stati sviluppati i diagrammi di Gantt partendo dai lead time presenti in distinta base. Da questi si sono individuati i percorsi temporalmente critici e dalla loro analisi le filiere critiche per lo sviluppo delle nuove potenzialità commerciali. Le filiere critiche sono state poi analizzate nel loro complesso, andando a verificare il ruolo dei singoli fornitori sfruttando come base di analisi la classificazione effettuata con la matrice di Kraljic. Dall'analisi delle filiere e dal confronto con la funzione commerciale sono state ipotizzate strategie per la riduzione dei lead time e il raggiungimento delle nuove potenzialità commerciali.
Resumo:
Questo scritto affronta il tema dello sfruttamento della fonte geotermica per la climatizzazione, sia invernale che estiva, di un edificio ad uso residenziale. In particolare, la situazione a cui faremo riferimento è quella di un condominio di media grandezza (18 appartamenti da circa 60 mq ciascuno) a cui verrà applicato un impianto di climatizzazione ad aria centralizzato, alimentato da una pompa di calore geotermica reversibile. Il fine ultimo di questo lavoro è analizzare, attraverso una simulazione in regime dinamico, le prestazioni energetiche del suddetto impianto e valutarne la convenienza rispetto ad un'istallazione tradizionale, che utilizza un boiler a gas per il riscaldamento e un chiller raffreddato ad aria per il raffrescamento. L'analisi economica svolta riguarderà solo i costi di esercizio delle due versioni di impianto.
Resumo:
Si vuole dimostrare la fattibilità di realizzazione di una serie di misuratori di portata fluidi da applicare principalmente per le misure di portata dei fluidi di un motore in prova al banco. Queste portate di interesse riguardano: liquido di raffreddamento, tipicamente acqua a una temperatura prossima ai 100°C, olio lubrificante, tipicamente ad una temperatura di 150°C, aria di aspirazione, BlowBy, aria che filtra dalle fasce elastiche e dalla camera di combustione passa in coppa e quindi presenta goccioline e vapori d'olio, e possibilmente EGR. La prima fase consiste nel valutare ciò che offre il mercato per rendersi conto di quali sono i livelli di prestazione di misura dei sensori commerciali e il loro prezzo. Dunque, oltre alla consultazione di datasheet, segue una richiesta di preventivi ai fornitori di tali prodotti. Conclusa la fasce di analisi di mercato sopra descritta si avvia la fase di design del misuratore. Dopo l'analisi il principio di misura ottimale risulta quello ultrasonico. In particolare è opportuno effettuare una prima distinzione fra misuratori per liquidi e per gas, i quali naturalmente presenteranno differenze geometriche sia per la compatibilità con l'impianto nel quale verranno montati sia per le caratteristiche del fluido di cui interessa la misura. Disegnata a CAD la geometria i due tubi vengono stampati in 3D, dopodichè vengono montati i trasduttori per la generazione e la ricezione degli ultrasuoni. Si effettuano le prove di laboratorio, per liquidi e poi per gas, nel primo caso misurando la portata acqua messa in circolo da una pompa, nel secondo caso misurando la portata aria di un Ducati al banco motori. I dati acquisiti da varie prove vengono poi elaborati tramite Matlab, e si ricavano conclusioni in termini di rumore, accuratezza, ripetibilità ed infine di conferma che è fattibile realizzarli ad un costo contenuto ma che per riuscirci è necessario molto più sviluppo e ottimizzazione.
Resumo:
Il presente elaborato ha lo scopo di descrivere le fasi di riparazione del trave di coda di un Cessna Super Skymaster 337A danneggiatosi durante le fasi di rimessaggio in hangar. Per prima cosa andremo ad analizzare le normative in materia di manutenzione degli aeromobili, in particolare la circolare 13 del RAI (Metodi accettabili per la manutenzione degli aeromobili) e la circolare 43.13-1A delle FAA (Acceptable methods, techniques, and practices-Aircraft ispection and repair). Verificheremo poi la tipologia del danno subito dal velivolo e, rifacendoci anche al Service Manual del costruttore, andremo a progettare la riparazione. Riparazioni estese a rivestimenti resistenti su strutture a guscio, infatti, devono preferibilmente essere fatte seguendo le specifiche raccomandazioni del costruttore dell’aeromobile. In molti casi, soprattutto se il danno non è esteso, le parti della riparazione possono essere progettate, e ne può essere dimostrata l’adeguata resistenza, senza calcolare i carichi e le sollecitazioni di progetto, considerando nel modo dovuto il materiale e le dimensioni delle parti originali e dei giunti chiodati. La cosa importante è che la parte riparata dovrà risultare pari all’originale per quanto riguarda la robustezza in relazione a tutti i tipi di carichi e alla rigidezza generale. Nel nostro caso andremo comunque a effettuare un’analisi strutturale per verificare l’effettiva correttezza dei principi contenuti nel manuale di manutenzione. Una volta verificato questo, procederemo con la realizzazione della riparazione soffermandoci sulle caratteristiche dei materiali utilizzati e sulle metodologie utilizzate durante la lavorazione. A lavoro ultimato trarremo poi le dovute conclusioni.
Resumo:
Il rilevamento e l’analisi delle frodi è una delle attività cruciali per un sistema di carrier billing. Una frode non rilevata prontamente può causare ingenti danni economici, mentre un falso positivo porta ad uno spreco di tempo da parte del team di Reporting and Control. In questa tesi viene studiato il dominio di un Payment Service Provider (PSP) operativo nel settore del carrier billing, andando ad approfondire il sistema di rilevamento delle frodi basato sull’analisi di serie storiche con la tecnica Holt-Winters. Verrà fornita una panoramica sull’architettura del sistema seguita da alcuni esempi in cui la scarsa qualità delle predizioni ha causato una perdita economica o temporale al PSP. Verranno quindi proposte numerose soluzioni per estendere e migliorare il sistema attuale, concentrandosi principalmente sulla pulizia dei dati da analizzare e sullo sfruttamento di informazioni implicitamente contenute nei dati. I miglioramenti apportati possono essere divisi in due categorie: quelli che necessitano della supervisione dell’essere umano e quelli che possono essere ottenuti in modo automatico da un algoritmo. Alcune di queste soluzioni verranno implementate e commentate confrontando le prestazioni del sistema prima e dopo le varie implementazioni. Alcune proposte verranno invece trattate solamente a livello teorico ma faranno parte degli sviluppi futuri. Infine si cercherà di trarre delle conclusioni, dimostrando come nel dominio del carrier billing sia possibile ottenere prestazioni soddisfacenti grazie ad un filtraggio supervisionato dei dati delle serie storiche, mentre i tentativi di filtraggio non supervisionato hanno fornito risultati contrastanti.
Resumo:
Lo scopo del lavoro svolto e quello di realizzare un sistema di controllo Proporzionale-Integrativo-Derivativo (PID) della temperatura all'interno di un fornetto in una camera a vuoto. Il sistema deve essere in grado di eseguire rampe di temperatura con differenti rapidita di variazione, in vista di un suo futuro impiego nello studio del Desorbimento Termico di diversi materiali. Nella prima parte della tesi, si esaminano le premesse teoriche ai controlli Proporzionali-Integrativi-Derivativi, e sono esposti i metodi di Ziegler-Nichols e di Tyreus-Luyben per ricavare le costanti del PID. Nella seconda parte si descrivono il sistema fisico in esame e l'hardware messo a punto per il sistema di controllo, gestito interfacciandolo con una scheda Arduino. Nella terza parte viene invece trattato il software realizzato con LabVIEW per gestire e controllare l'apparato. Nella quarta parte sono infine mostrati i risultati sperimentali ottenuti, e le conclusioni tratte al termine del lavoro.
Resumo:
Dopo una breve introduzione sulla realtà aumentata (definizione, storia e stato dell’arte) viene effettuata un'analisi delle librerie esistenti per l’implementazione su dispositivi mobile. Considerando compatibilità con i recenti SO, frequenza degli aggiornamenti, costi per le licenze e funzionalità offerte viene scelta la libreria Vuforia, originariamente sviluppata da Qualcomm e poi acquistata da PTC inc. Si conviene poi che le apps basate su realtà aumentata creano il contenuto “aumentato” in due maniere: o tramite riconoscimento di una specifica immagine oppure tramite localizzazione GPS. Di questi due metodi descritti, il primo risulta molto più affidabile e per questo viene sviluppata una app che crea un contenuto in 3D (aumentato) riconoscendo una immagine: funzionalità di Image Targeting. Il progetto considera le seguenti varianti: l’immagine da riconoscere, chiamata “target”, può essere in un database locale oppure cloud mentre il contenuto in 3D aumentato può essere sia statico che animato. Durante la fase di implementazione vengono fornite anche alcuni nozioni di base di Computer Graphic per il rendering del modello 3D. La tesi si conclude con una panoramica di apps presenti sullo store che funzionano secondo questo principio di Image Targeting, i possibili utilizzi in ambito educativo/ludico ed i costi di realizzazione.
Resumo:
Nella prima parte di questa tesi viene introdotto il concetto di Internet of Things. Vengono discussi gli elementi costituitivi fondamentali di tale tecnologia, le differenti architetture proposte nel corso degli anni e le sfide che devono ancora essere affrontate per vedere realizzato l’IoT. Questa prima parte si conclude inoltre con due esempi di applicazione dell’IoT. Questi due esempi, Smart City e Smart Healthcare, hanno l’obbiettivo di evidenziare quali sono i vantaggi ed i servizi che possono essere offerti all’utente finale una volta applicato l’IoT. Nel secondo capitolo invece, vengono presentate le funzionalità della piattaforma IoT ThingWorx, la quale mette a disposizione un ambiente di sviluppo per applicazioni IoT con l’obbiettivo di ridurre i tempi e quindi anche i costi di sviluppo delle stesse. Questa piattaforma cerca di ridurre al minimo la necessità di scrivere codice, utilizzando un sistema di sviluppo di tipo “Drag and Drop”. ThingWorx mette anche a disposizione degli SDK per facilitare la programmazione dei device, gestendo soprattutto la parte di comunicazione nodo – piattaforma. Questo argomento viene trattato ampiamente nella parte finale di questo capitolo dopo aver visto quali sono i concetti fondamentali di modellazione e rappresentazione dei dati sui quali si basa la piattaforma. Nel terzo e ultimo capitolo di questa tesi viene presentato innanzitutto il tutorial Android di ThingWorx. Svolgere e successivamente estendere il tutorial ha evidenziato alcune limitazioni del modello iniziale e questo ci ha portato a progettare e sviluppare il componente Aggregated & Complex Event Manager per la gestione di eventi complessi e che permette di sgravare parzialmente la piattaforma da tale compito. La tesi si conclude evidenziando, tramite dei test, alcune differenze fra la situazione iniziale nella quale il componente non viene utilizzato e la situazione finale, nella quale invece viene usato.