969 resultados para percezione problema di Cauchy stabilità metodo di Lyapunov
Resumo:
Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.
Resumo:
L’analisi del movimento umano mira alla raccolta di informazioni quantitative riguardo la meccanica del sistema muscolo-scheletrico durante l’esecuzione di un compito motorio. All’interno di questo contesto, la cinematica del passo rappresenta uno strumento d’indagine tra i più usati. Tra i diversi protocolli di analisi cinematiche si è affermato recentemente l’uso di sensori magnetico-inerziali. Il principale vantaggio di questi dispositivi rispetto alla tecnica tradizionalmente impiegata (la stereofotogrammetria) è che possono essere utilizzati al di fuori di un ambiente di laboratorio, rendendo meno vincolante la scelta del task motorio da analizzare. Lo stato dell’arte offre una molteplicità di studi basati sull’analisi del cammino e della corsa di atleti, professionisti o dilettanti, utilizzando sensori inerziali; nulla, però, è stato dedicato alla corsa con stampelle. In questo lavoro di tesi è stata dunque analizzata la corsa su stampelle di soggetti amputati (in particolare di atleti della Nazionale Italiana di Calcio Amputati). Dalla letteratura sono stati individuati tre metodi, ideati principalmente per la corsa di soggetti normodotati e in questa situazione riadattati per la corsa di soggetti con amputazione/malformazione di un arto inferiore, con i quali è stato possibile ricavare parametri temporali relativi al ciclo del passo; è stato inoltre progettato un nuovo metodo che permette di ricavare parametri temporali della corsa attraverso le fasi delle stampelle. L’elemento che contraddistingue questo studio è la presenza di un gold standard, dato da un riferimento video, con il quale sarà possibile determinare con più affidabilità quale metodo risulti più adeguato per l’analisi di questo tipo di corsa.
Resumo:
Il presente elaborato di tesi si pone come obiettivo quello di valutare il rischio per l’ambiente causato dal rilascio accidentale di idrocarburi liquidi; in particolare è stato preso a riferimento un deposito reale contenente tali sostanze e si è valutato il rischio ambientale da esso generato nelle matrici del suolo e sottosuolo e delle acque superficiali. Per far ciò sono stati applicati il metodo speditivo descritto nel Rapporto 57/2005 (Rapporto APAT) elaborato dal Gruppo misto APAT/ARPA/CNVVF, che ha provveduto all'individuazione di una metodologia speditiva per la valutazione del rischio per l’ambiente da incidenti rilevanti in depositi di idrocarburi liquidi con riferimento a suolo e sottosuolo, e il metodo speditivo per le acque superficiali descritto nel Rapporto ISPRA 92/2013, che riporta criteri e indirizzi tecnico-operativi per la valutazione delle analisi degli incidenti rilevanti con conseguenze per l’ambiente. Il Rapporto APAT propone una metodologia speditiva ad indici; per la sua applicazione è necessario calcolare 2 indici: l’Indice di Propensione al Rilascio, che si ottiene dalla conoscenza delle caratteristiche impiantistiche del deposito preso in esame e l’Indice di Propensione alla Propagazione, che si ottiene dalla conoscenza delle caratteristiche idrogeologiche del sito su cui insiste il deposito. Il Rapporto ISPRA presenta invece diverse metodologie per la valutazione del rischio ambientale maturate in ambito europeo e propone un nuovo metodo a indici per la valutazione del rischio ambientale per le acque superficiali. Per l’applicazione di tale metodo a indici si è calcolato dapprima l’Indice di Propensione al Rilascio, così come richiesto anche nel metodo speditivo per suolo e sottosuolo e si è successivamente classificato il corpo idrico su cui insiste il deposito. Attraverso l’applicazione dei 2 metodi è stato dunque possibile valutare il livello di criticità ambientale del deposito, determinando la necessità di procedere con una metodologia semplificata o una metodologia avanzata per la stima del rischio di contaminazione ambientale.
Resumo:
L’elaborato affronta la tematica della detonazione nel motore a combustione interna, al fine di individuare un modello che sia in grado di riprodurre il fenomeno in modo accurato, con la prospettiva di un uso a scopo predittivo. A tal proposito vengono presentati modelli basati su svariate metodologie: in particolar modo, accanto ai metodi basati sulle grandezze direttamente o indirettamente misurabili del motore ad accensione comandata, vengono presentati un metodo basato sull’applicazione delle reti neurali, una metodologia di controllo basata sull’approccio True Digital Control, e due metodi che si avvalgono di procedimenti di tipo puramente statistico (metodo dei minimi quadrati e metodo Monte Carlo) per ricavare alcune delle grandezze fondamentali per il calcolo della detonazione. Successivamente, dopo una breve parentesi sulle simulazioni di tipo 3D, vengono introdotti i modelli fisici zero-dimensionali. Uno di questi, basato su un indice (definito dal simbolo Kn) capace di dare una valutazione quantitativa del fenomeno, viene applicato ad un insieme di dati sperimentali provenienti dai test al banco di un motore Ducati 1200. I risultati dell’analisi vengono confrontati con le evidenze sperimentali, sottolineando la buona rispondenza delle simulazioni ad essi e di conseguenza la potenzialità di tali metodi, computazionalmente non onerosi e di rapida applicazione.
Resumo:
In campo medico ha un ruolo fondamentale il monitoraggio dei parametri vitali, importanti indicatori dello stato di salute del paziente, essenziali nella diagnosi e nella cura dellle patologie. La frequenza cardiaca occupa un ruolo fondamentale nella clinica, primo indice dell'attività cardio circolatoria del paziente. Il trattato analizza una metodica di monitoraggio del battito cardiaco per mezzo delle videocamere digitali, la ripresa diretta in video del volto del paziente e la presenza di un'adeguata illuminazione ambientale: la pulsazione cardiaca esercita variazioni di pressione a livello periferico generando un cambiamento del colore della pelle sulle zone più esposte, quali il viso. Analizzando l'andamento temporale del segnale RGB registra, per mezzo di algoritmi di elaborazione delle immagini, è possibile stimare accuratamente il battito cardiaco dell'utente. Nell'elaborato viene affrontata la metodica degl algoritmi di image-prcessing presentando un applicativo scritto in linguaggio Python, funzionante e testato su di un sistema Linux (Ubuntu 14.04). Tale metodo si basa sui concetti della fotopletismografia applicata in remoto denotando il non-contact-mode.
Resumo:
I depositi di liquidi infiammabili sono stabilimenti industriali in cui avvengono spesso incendi di grandi dimensioni a causa degli ingenti quantitativi di sostanze infiammabili detenute. Gli incendi tipici dei liquidi infiammabili sono gli incendi di pozza in caso di rilascio del liquido al suolo e gli incendi di serbatoio in caso di ignizione del liquido all’interno del serbatoio stesso. Tali incendi hanno la potenzialità di danneggiare le apparecchiature limitrofe, determinandone il cedimento e dunque l’incremento delle dimensioni dell’incendio e dell’area di danno; tale fenomeno è detto effetto domino. Per la modellazione degli incendi sono disponibili diversi strumenti, divisibili essenzialmente in due categorie: modelli semplici, ovvero basati su correlazioni semi-empiriche e modelli avanzati, costituiti dai codici CFD. L’obiettivo principale del presente lavoro di tesi è il confronto tra le diverse tipologie di strumenti disponibili per la modellazione degli incendi di liquidi infiammabili. In particolare sono stati confrontati tra loro il codice FDS (Fire Dynamics Simulator), il metodo del TNO ed il modello per gli incendi di pozza incorporato nel software ALOHA. Il codice FDS è un modello avanzato, mentre il metodo del TNO ed il modello implementato nel software ALOHA sono modelli semplici appartenenti alla famiglia dei Solid Flame Models. La prima parte del presente lavoro di tesi è dedicata all’analisi delle caratteristiche e delle problematiche di sicurezza dei depositi di liquidi infiammabili, con specifico riferimento all’analisi storica. Nella seconda parte invece i tre metodi sopra citati sono applicati ad un parco serbatoi di liquidi infiammabili ed è effettuato il confronto dei risultati, anche ai fini di una valutazione preliminare dell’effetto domino. La tesi è articolata in 6 capitoli. Dopo il Capitolo 1, avente carattere introduttivo, nel Capitolo 2 vengono richiamati i principali concetti riguardanti gli incendi e vengono analizzate le caratteristiche e le problematiche di sicurezza dei depositi di liquidi infiammabili. Il Capitolo 3 è dedicato alla discussione delle caratteristiche degli incendi di pozza, alla presentazione delle tipologie di strumenti a disposizione per la loro modellazione ed alla descrizione di dettaglio dei modelli utilizzati nel presente lavoro di tesi. Il Capitolo 4 contiene la presentazione del caso di studio. Nel Capitolo 5, che costituisce il cuore del lavoro, i modelli descritti sono applicati al caso di studio, con un’approfondita discussione dei risultati e una valutazione preliminare dell’effetto domino. Nel Capitolo 6 infine sono riportate alcune considerazioni conclusive.
Resumo:
Petroltecnica S.P.A, azienda leader in attività di bonifica di terreni e siti industriali, ha svolto, per conto di Enipower Ferrara, uno studio di fattibilità per la dismissione di un serbatoio di olio combustibile e linea di tubazioni annesse. La richiesta della committente prevedeva la movimentazione del serbatoio di olio combustibile senza operare sezionamenti, in modo da poterlo bonificare al di fuori del sito in apposita area attrezzata. Per questo motivo è stato progettato un sistema di sollevamento che permettesse di movimentare il serbatoio di olio combustibile senza rischiare di deformarlo o romperlo. La struttura del bilancino è caratterizzata da una trave principale su cui è stata saldata una staffa per il collegamento del gancio della gru con la trave principale, e a cui sono collegate due travi traverse, disposte perpendicolarmente, e due staffe laterali. Alle estremità di ciascuna trave (principale e secondarie) sono presenti delle staffe a cui è collegata la componentistica di attacco del carico (grilli, funi e golfari). La progettazione del sistema di sollevamento è stata fatta in modo da ripartire uniformemente il carico sulla struttura e contemporaneamente non sollecitare eccessivamente i punti di presa del serbatoio. Una volta scelta la struttura del bilancino, è stato necessario dimensionare e verificare tutte le sue parti sulla base del metodo delle tensioni ammissibili previsto dall'UNI 10011. In riferimento alle normative UNI 10011 e UNI 13155, il dimensionamento del bilancino di sollevamento è stato effettuato in modo da ottenere, su ciascun elemento della struttura, un coefficiente di sicurezza minimo pari a due.
Resumo:
Tesi incentrata sull'impatto che la riduzione del lead time di consegna, come strategia commerciale, ha sulla supply chain della Neri SpA. A tale scopo è stato sviluppato un modello basato sulla matrice di Kraljic per la classificazione dei fornitori. La matrice è stata adattata alle esigenze aziendali ed è stato sfruttato il metodo di analisi multicriterio AHP per determinare i pesi dei parametri che compongono la dimensione più complessa della matrice. Sono stati sviluppati i diagrammi di Gantt partendo dai lead time presenti in distinta base. Da questi si sono individuati i percorsi temporalmente critici e dalla loro analisi le filiere critiche per lo sviluppo delle nuove potenzialità commerciali. Le filiere critiche sono state poi analizzate nel loro complesso, andando a verificare il ruolo dei singoli fornitori sfruttando come base di analisi la classificazione effettuata con la matrice di Kraljic. Dall'analisi delle filiere e dal confronto con la funzione commerciale sono state ipotizzate strategie per la riduzione dei lead time e il raggiungimento delle nuove potenzialità commerciali.
Resumo:
Le macchine automatiche prodotte dall’azienda VIRE Automation di Faenza sono atte al confezionamento di prodotti igienico sanitari del settore baby, femminile e adulto. La macchina può essere suddivisa in due gruppi funzionali, il primo legato al raggruppamento dei prodotti in pile e il secondo dedicato al confezionamento vero e proprio. Il presente elaborato consiste nello studio e nella progettazione del raggruppatore della macchina dedicata ai prodotti femminili; in particolare lo scopo è il corretto funzionamento del gruppo con performance superiori a quelle attuali. Il progetto si è articolato nell’applicazione del metodo della Casa della Qualità come strumento di supporto, per poi passare allo studio della parte logica della macchina e ad un'analisi cinematica e dinamica del gruppo estrattore; infine vengono presentate ulteriori soluzioni tecniche adottate.
Resumo:
Elaborato che si propone di evidenziare come i veicoli a benzina e a diesel possano soddisfare la normativa Euro 6. Si analizza il funzionamento dei principali sistemi di after-treatment come: catalizzatore SCR e DeNOx, trappola LNT, filtri FAP e DPF, sistemi EGR, per i motori ad accensione per compressione e catalizzatore TWC per motori ad accensione comandata. Parallelamente, si spiega l'evoluzione della normativa da Euro 6b a Euro 6c in termini di riduzione del numero di particelle di particolato emesse per km e come rispondere a queste più restrittive condizioni; viene introdotto, in via ancora sperimentale, il filtro antiparticolato GPF e un sistema di misurazione di nano particelle di dimensioni inferiori a 23 nm cioè una rivalutazione del metodo PMP. Contestualmente si definisce il progetto CARS 2020, il quale aggiunge una limitazione anche sulla quantità di anidride carbonica emessa a 95 g/km e le eventuali possibili soluzioni per rispettarla: da un maggior uso di combustibili alternativi a miglioramenti tecnologici dei motori stessi. Infine si studiano gli sviluppi dei cicli di omologazione, dal 2017 infatti entreranno in gioco test su strada con dispositivi PEMS on-board e cicli armonizzati WLTC. Le procedure RDE e WLTP permetteranno di testare i vecioli in maniera più reale e globale, rispettivamente, riuscendo a fornire anche valori attendibili dei consumi registrati durante le prove.
Resumo:
In questa tesi viene illustrato il modello BCM, formulato nel 1982 con l'intento di spiegare il fenomeno di apprendimento neuronale, definito come "plasticita sinaptica". Si passa successivamente ad una descrizione dettagliata del comportamento di un singolo neurone, per poi estendere la trattazione alle reti neuronali. L'esposizione degli argomenti viene effettuata considerando cellule esposte a distribuzioni di input linearmente indipendenti. Viene proposto infine un metodo per adattare il modello al caso linearmente dipendente.
Resumo:
Big data è il termine usato per descrivere una raccolta di dati così estesa in termini di volume,velocità e varietà da richiedere tecnologie e metodi analitici specifici per l'estrazione di valori significativi. Molti sistemi sono sempre più costituiti e caratterizzati da enormi moli di dati da gestire,originati da sorgenti altamente eterogenee e con formati altamente differenziati,oltre a qualità dei dati estremamente eterogenei. Un altro requisito in questi sistemi potrebbe essere il fattore temporale: sempre più sistemi hanno bisogno di ricevere dati significativi dai Big Data il prima possibile,e sempre più spesso l’input da gestire è rappresentato da uno stream di informazioni continuo. In questo campo si inseriscono delle soluzioni specifiche per questi casi chiamati Online Stream Processing. L’obiettivo di questa tesi è di proporre un prototipo funzionante che elabori dati di Instant Coupon provenienti da diverse fonti con diversi formati e protocolli di informazioni e trasmissione e che memorizzi i dati elaborati in maniera efficiente per avere delle risposte in tempo reale. Le fonti di informazione possono essere di due tipologie: XMPP e Eddystone. Il sistema una volta ricevute le informazioni in ingresso, estrapola ed elabora codeste fino ad avere dati significativi che possono essere utilizzati da terze parti. Lo storage di questi dati è fatto su Apache Cassandra. Il problema più grosso che si è dovuto risolvere riguarda il fatto che Apache Storm non prevede il ribilanciamento delle risorse in maniera automatica, in questo caso specifico però la distribuzione dei clienti durante la giornata è molto varia e ricca di picchi. Il sistema interno di ribilanciamento sfrutta tecnologie innovative come le metriche e sulla base del throughput e della latenza esecutiva decide se aumentare/diminuire il numero di risorse o semplicemente non fare niente se le statistiche sono all’interno dei valori di soglia voluti.
Resumo:
Il presente lavoro di tesi riguarda l’analisi della vulnerabilità sismica di serbatoi atmosferici in acciaio. I serbatoi sono strutture di varie forme e dimensioni, utilizzate per lo stoccaggio di liquidi come l’acqua, il petrolio e il gas naturale. La loro importanza non deriva solamente dal loro valore economico e da quello della sostanza contenuta, ma anche dalle conseguenze disastrose causate da un loro collasso strutturale. Risulta quindi fondamentale progettare sistemi che siano efficienti ed affidabili, soprattutto nei confronti di azioni sismiche. In questo campo, in particolare negli ultimi decenni, sono state condotte numerose campagne sperimentali, grazie alle quali si è compreso meglio il comportamento dei serbatoi. Le normative, inoltre, hanno introdotto al loro interno indicazioni riguardo all’analisi dinamica, fornendo un valido strumento per i progettisti. In questo lavoro di tesi si è analizzata la vulnerabilità sismica di varie tipologie di serbatoi e si sono confrontati i risultati ottenuti. Sono stati studiati in particolare due modelli: il primo considera il serbatoio come rigido, il secondo, invece, come deformabile. L’analisi è stata automatizzata creando degli script che permettono, variando solamente alcuni parametri (caratteristiche del serbatoio, del liquido contenuto e del terreno presente), di giungere in tempi rapidi ad una soluzione accettabile per verificare le possibili rotture. Per modellare il problema si è scelto di seguire l’approccio fornito dalle raccomandazioni neozelandesi NZSEE, mentre per le verifiche di instabilità sono state prese in considerazione anche le normative europee. L’obiettivo è dunque quello di analizzare, attraverso un modello semplificato ed automatizzato, la vulnerabilità di serbatoi cilindrici in acciaio contenenti liquido sottoposti ad un’azione sismica.
Resumo:
Il makeup, come strumento atto a modificare i tratti somatici di un individuo per aumentarne la bellezza, è largamente diffuso e socialmente accettabile al giorno d’oggi. Per la sua facile reperibilità, semplicità di utilizzo e capacità di alterare le caratteristiche principali di un volto, può diventare uno strumento pericoloso per chi volesse sottrarsi a dei controlli. In questo lavoro di tesi sono stati analizzati algoritmi presenti in letteratura che cercano di arginare gli effetti di alterazione di un viso, causati dal makeup, durante un processo di riconoscimento del volto. Inoltre è stato utilizzato un software per verificare la robustezza dei programmi commerciali in merito al problema del makeup e confrontare poi i risultati riscontrati in letteratura con quelli ottenuti dai test.
Resumo:
Il calore contenuto in profondità negli ammassi rocciosi può essere estratto attraverso un sistema geotermico che prevede l’inserimento di tubazioni in corrispondenza del rivestimento del tunnel, all'interno del quale circola un fluido termovettore che assorbe calore dalle pareti circostanti. Il caso di studio analizzato è la Galleria di Mules, un tunnel scavato in metodo tradizionale all'interno del Granito di Bressanone, che funge come unica finestra di accesso sul lato italiano alla Galleria di Base del Brennero (BBT). Essa si sviluppa in direzione ovest-est per una lunghezza pari circa a 1780 m. In fase di esercizio. Attraverso una caratterizzazione geologica e idrogeologica dell’area di interesse, prove di laboratorio su campioni e rilevazioni delle temperature all’interno della galleria, è stato possibile delineare un quadro geotermico dell’area di interesse. I dati raccolti hanno permesso di ricavare un modello 3D delle temperature dell’area e, attraverso un’apposita procedura di calcolo, quantificare il potenziale energetico estraibile dal tratto di galleria considerato. Sulla base dei risultati ottenuti, è stato realizzato uno schema dettagliato della disposizione del circuito sorgente, adattato sul progetto definitivo del rivestimento interno alla Galleria di Mules. In assenza di potenziali utenze termiche nelle vicinanze del portale di accesso, si è ipotizzato di destinare la risorsa geotermica ad una pavimentazione stradale dotata di sistema snow and ice melting. La pavimentazione permetterà il collegamento fra la strada SS12 e l’imbocco del tunnel. E’ stata effettuata una stima dei costi di investimento dell’intero sistema a pompa di calore e, sulla base del fabbisogno energetico dell’utenza considerata, sono stati valutati i costi di esercizio, confrontandoli con altre possibili soluzioni. Lo studio ha dimostrato la fattibilità tecnico-economica di soluzioni di questo tipo e si pone come primo passo per approfondimenti futuri.