647 resultados para RETE TRASPORTOLIVELLO DI SERVIZIOARMAMY CAPACITY MARLOWCONTROLLO DEL TRAFFICO
Resumo:
Obbiettivo della tesi è sviluppare un metodo che valuti la probabilità di rottura arginale nella stesura delle mappe di pericolosità e di rischio alluvione. Ad oggi le mappe di pericolosità, redatte dagli enti regionali, considerano solo la probabilità di superamento dell’argine da parte del livello idrico (overtopping) e non il cedimento dello stesso a causa dell’instabilizzazione dovuta all’innalzamento del livello del fiume. Per la presente tesi si è scelto come caso di studio la rottura dell’argine destro del fiume Secchia del 19 gennaio 2014, presso la frazione di San Matteo, comune di Modena. Questo caso di rottura arginale è particolarmente interessante, poiché dopo l’accaduto la regione Emilia-Romagna ha predisposto una commissione tecnica per valutare le cause dell'evento. La commissione ha quindi predisposto una serie di indagini i cui dati saranno di fondamentale importanza nella presente tesi. Utilizzando, infatti, questo caso di cedimento arginale come esempio si è potuto innanzitutto ricostruire il fenomeno che ha provocato il fallimento dell’argine e ricalcolare il rischio inondazione sulle zone allagate considerando la probabilità di fallimento del sistema arginale. Per fare ciò, si sono inizialmente eseguite varie modellazioni idrauliche, sul corpo arginale, per stabilire gli spostamenti della tavola d’acqua e i valori di pressione interstiziale dei pori al variare dei tiranti idrici utilizzando il software SEEP/W. Successivamente si è utilizzato SLOPE/W allo scopo di verificate le probabilità di cedimento dell'argine in relazione alle modellazioni idrauliche effettuate con SEEP/W. Una volta ricavate le probabilità di rottura alle varie quote idriche con SLOPE/W, le si è riportate su un foglio di calcolo Excel e ricavata la curva di fragilità dell'argine e calcolato le probabilità di accadimento degli eventi alluvionali. Dopo di ciò attraverso l’utilizzo del software CA2D si sono modellate le mappe di alluvione per i vari eventi e con l’ausilio di Qgis si sono ricavate le mappe di pericolosità e calcolato il rischio sugli edifici interessati.
Resumo:
Prodotti di IV gamma a base di frutta e verdura minimamente trattati o pronti all'uso non possono essere considerati sicuri da un punto di vista microbiologico e sono stati spesso associati a casi di tossinfezione. Per tali episodi è stato evidenziato che la qualità dell'acqua utilizzata per il lavaggio è una fase critica. D'altra parte è noto che la disinfezione è una delle fasi di lavorazione più importanti per i prodotti minimamente trattati in quanto ha effetti diretti sulla qualità dei prodotti finiti, sulla sicurezza e la loro shelf-life. Tradizionalmente, l'industria di IV gamma ha impiegato i composti derivati del cloro per la fase di disinfezione in virtù della loro efficacia, semplicità d'uso e basso costo. Tuttavia vi è una diffusa tendenza ad eliminare i prodotti a base di cloro a causa soprattutto della preoccupazione in relazione ai rischi ambientali e sanitari per il consumatore associati alla formazione di sottoprodotti alogenati cancerogeni. Tra le varie tecnologie emergenti, proposte come alternative al cloro, il plasma ha presentato buone potenzialità in virtù delle specie chimiche che lo compongono, principalmente specie reattive dell’ossigeno e dell’azoto, che sembrano essere responsabili di stress ossidativo alle cellule microbiche, con conseguenti danni per DNA, proteine e lipidi. L’obiettivo generale di questo elaborato finale è stato quello di valutare la possibilità di utilizzare la tecnologia del plasma per la decontaminazione superficiale di carote julienne. In particolare si sono presi in considerazione trattamenti diretti in cui il vegetale è stato esposto al plasma per differenti tempi compresi tra 5 e 40 minuti. Inoltre, si è utilizzo il plasma per il trattamento di acqua che è stata successivamente impiegata per il lavaggio delle carote julienne. L'efficacia di entrambe le modalità di trattamento è stata verificata nei confronti sia della microflora naturalmente contaminante le carote, sia di alcuni microrganismi patogeni che possono essere associati a tale vegetale: Listeria monocytogenes, Salmonella Enteritidis ed Escherichia coli.
Resumo:
Negli ultimi vent'anni con lo sviluppo di Internet, il modo di comunicare tra le persone �è totalmente cambiato. Grazie a Internet si sono ridotte le distanze e soprattutto tramite i siti web le aziende hanno una propria vetrina sul mondo sempre accessibile. Tutto ci�ò ha portato a nuovi comportamenti da parte dei consumatori che divengono sempre pi�u esigenti nella vastità di informazioni presenti sul Web. Perciò è necessario che le web companies riescano a produrre website efficienti e usabili per favorire l'interazione con l'utente. Inoltre il web ha avuto una rapida espansione per quanto concerne le metodologie di sviluppo e analisi del comportamento del consumatore. Si cercano sempre nuovi spunti per poter acquisire quello che �è il percorso di un utente affinché porti a termine una determinata azione nel proprio dominio. Per questo motivo, oltre agli strumenti gi�à consolidati come il riempimento di questionari o il tracking per mezzo di piattaforme come Google Analytics, si �è pensato di andare oltre e cercare di analizzare ancora pi�u a fondo il "consumAttore". Grazie ad un eye-tracker �è possibile riconoscere quelli che sono i modelli cognitivi che riguardano il percorso di ricerca, valutazione e acquisto di un prodotto o una call to action, e come i contenuti di una web application influenzano l'attenzione e la user experience. Pertanto l'obiettivo che si pone questo studio �è quello di poter misurare l'engagement della navigazione utente di una web application e, nel caso fosse necessario, ottimizzare i contenuti al suo interno. Per il rilevamento delle informazioni necessarie durante l'esperimento, mi sono servito di uno strumento a supporto delle decisioni, ovvero un eye-tracker e della successiva somministrazione di questionari.
Resumo:
Un sistema meccanico è descritto da equazioni differenziali spesso non lineari. Nel maggior numero dei casi tali equazioni non sono risolubili per via analitica e quindi si ricorre all'analisi qualitativa del moto che permette di ricavare informazioni su di esso senza integrare le equazioni. Nell’approccio qualitativo il metodo più utilizzato è la discussione alla Weierstrass che permette di ricavare informazioni sul moto di un punto materiale, che si muove di moto unidimensionale, soggetto a forze conservative, a partire dalla legge di conservazione dell'energia totale. Un altro metodo molto efficace è la costruzione del diagramma di fase, che nel caso di un punto materiale si riduce allo studio delle curve di livello dell’energia totale e permette di rappresentare lo stato del sistema in ogni istante di tempo. Infine altri due metodi analitici che si utilizzano nel caso di oscillazioni non lineari sono il metodo delle approssimazioni successive e delle perturbazioni. In questa tesi viene illustrato ampiamente il primo metodo e si danno alcuni cenni degli altri due, corredandoli con esempi.
Resumo:
Con l’avvento di Internet, il numero di utenti con un effettivo accesso alla rete e la possibilità di condividere informazioni con tutto il mondo è, negli anni, in continua crescita. Con l’introduzione dei social media, in aggiunta, gli utenti sono portati a trasferire sul web una grande quantità di informazioni personali mettendoli a disposizione delle varie aziende. Inoltre, il mondo dell’Internet Of Things, grazie al quale i sensori e le macchine risultano essere agenti sulla rete, permette di avere, per ogni utente, un numero maggiore di dispositivi, direttamente collegati tra loro e alla rete globale. Proporzionalmente a questi fattori anche la mole di dati che vengono generati e immagazzinati sta aumentando in maniera vertiginosa dando luogo alla nascita di un nuovo concetto: i Big Data. Nasce, di conseguenza, la necessità di far ricorso a nuovi strumenti che possano sfruttare la potenza di calcolo oggi offerta dalle architetture più complesse che comprendono, sotto un unico sistema, un insieme di host utili per l’analisi. A tal merito, una quantità di dati così vasta, routine se si parla di Big Data, aggiunta ad una velocità di trasmissione e trasferimento altrettanto alta, rende la memorizzazione dei dati malagevole, tanto meno se le tecniche di storage risultano essere i tradizionali DBMS. Una soluzione relazionale classica, infatti, permetterebbe di processare dati solo su richiesta, producendo ritardi, significative latenze e inevitabile perdita di frazioni di dataset. Occorre, perciò, far ricorso a nuove tecnologie e strumenti consoni a esigenze diverse dalla classica analisi batch. In particolare, è stato preso in considerazione, come argomento di questa tesi, il Data Stream Processing progettando e prototipando un sistema bastato su Apache Storm scegliendo, come campo di applicazione, la cyber security.
Resumo:
Questo progetto di tesi è parte di un programma più ampio chiamato TIME (Tecnologia Integrata per Mobilità Elettrica) sviluppato tra diversi gruppi di ricerca afferenti al settore meccanico, termofluidodinamico e informatico. TIME si pone l'obiettivo di migliorare la qualità dei componenti di un sistema powertrain presenti oggi sul mercato progettando un sistema general purpose adatto ad essere installato su veicoli di prima fornitura ma soprattutto su retrofit, quindi permettendo il ricondizionamento di veicoli con motore a combustione esistenti ma troppo datati. Lo studio svolto si pone l'obiettivo di identificare tutti gli aspetti di innovazione tecnologica che possono essere installati all'interno del sistema di interazione uomo-macchina. All'interno di questo progetto sarà effettuata una pianificazione di tutto il lavoro del gruppo di ricerca CIRI-ICT, partendo dallo studio normativo ed ergonomico delle interfacce dei veicoli analizzando tutti gli elementi di innovazione che potranno far parte del sistema TIME e quindi programmare tutte le attività previste al fine di raggiungere gli obiettivi prefissati, documentando opportunamente tutto il processo. Nello specifico saranno analizzate e definite le tecniche da utilizzare per poi procedere alla progettazione e implementazione di un primo sistema sperimentale di Machine Learning e Gamification con lo scopo di predire lo stato della batteria in base allo stile di guida dell'utente e incentivare quest'ultimo tramite sistemi di Gamification installati sul cruscotto ad una guida più consapevole dei consumi. Questo sistema sarà testato su dati simulati con l'obiettivo di avere un prodotto configurabile da installare sul veicolo.
Resumo:
La tesi si pone come obiettivo quello di realizzare un'architettura di alto livello per lo sviluppo di applicazioni dirette alla piattaforma HoloLens. Per conseguire tale risultato si è rivelata necessaria una prima parte di studio dei concetti di mixed reality, con riferimento particolare al caso specifico HoloLens, per poi dirigere l'attenzione alla comprensione dell'architettura di applicazioni olografiche. L'analisi delle API rilasciate per lo sviluppo di applicazioni HoloLens ha permesso di riscontrare varie criticità, alle quali si è posto rimedio tramite l'introduzione di un livello di astrazione, che possa consentire uno sviluppo di applicazioni ad un livello più alto. Si è poi introdotto il concetto di augmented worlds (mondi aumentati), i cui principi cardine hanno fornito le basi per la progettazione e lo sviluppo di un sistema client-server, nel quale il dispositivo HoloLens agisce come un client e la logica di controllo degli elementi del modello dell'applicazione viene gestita lato server.
Resumo:
Scopo di questo elaborato di tesi è la modellazione e l’implementazione di una estensione del simulatore Alchemist, denominata Biochemistry, che permetta di simulare un ambiente multi-cellulare. Al fine di simulare il maggior numero possibile di processi biologici, il simulatore dovrà consentire di modellare l’eterogeneità cellulare attraverso la modellazione di diversi aspetti dei sistemi cellulari, quali: reazioni intracellulari, segnalazione tra cellule adiacenti, giunzioni cellulari e movimento. Dovrà, inoltre, essere ammissibile anche l’esecuzione di azioni impossibili nel mondo reale, come la distruzione o la creazione dal nulla di molecole chimiche. In maniera più specifica si sono modellati ed implementati i seguenti processi biochimici: creazione e distruzione di molecole chimiche, reazioni biochimiche intracellulari, scambio di molecole tra cellule adiacenti, creazione e distruzione di giunzioni cellulari. È stata dunque posta particolare enfasi nella modellazione delle reazioni tra cellule vicine, il cui meccanismo è simile a quello usato nella segnalazione cellulare. Ogni parte del sistema è stata modellata seguendo fenomeni realmente presenti nei sistemi multi-cellulari, e documentati in letteratura. Per la specifica delle reazioni chimiche, date in ingresso alla simulazione, è stata necessaria l’implementazione di un Domain Specific Language (DSL) che consente la scrittura di reazioni in modo simile al linguaggio naturale, consentendo l’uso del simulatore anche a persone senza particolari conoscenze di biologia. La correttezza del progetto è stata validata tramite test compiuti con dati presenti in letteratura e inerenti a processi biologici noti e ampiamente studiati.
Resumo:
L'elaborato tratta della progettazione di un sistema di alimentazione wireless risonante per i nodi sensori, strumenti fondamentali per il controllo delle strutture(Structural Health Monitoring). Esso si concentra sulla realizzazione di un convertitore flyback risonante (con circuito di snubber incluso per il main switch) in grado di fornire una tensione di 5 Volt in uscita a fronte di una corrente media massima sul carico di 800mA data una tensione di 12 volt in ingresso. Dopo aver introdotto il concetto di Wireless Power Transfer (WPT) e i principi fisici su cui esso poggia (induzione elettromagnetica e risonanza elettromagnetica), si presentano i modelli circuitali più utilizzati in questo ambito. Una volta illustrate le conoscenze allo stato dell'arte dell'accoppiamento induttivo risonante, si analizza il comportamento del modello scelto, al fine di evidenziare i vantaggi dell'utilizzo del circuito alla frequenza di risonanza. Sono state effettuate simulazioni con il simulatore LTspice come controprova. Si passa quindi a dimensionare i vari elementi del circuito a fronte delle specifiche stabilite. Grazie ai risultati ottenuti, si procede alla stesura del Bill Of Materials. La tesi si conclude presentando i possibili campi di ricerca e sviluppo del sistema di alimentazione.
Resumo:
L'Italia è spesso sede di eventi d'intensa precipitazione, frequentemente associati ad alluvioni con conseguente perdita di vite umane e gravi danni economici. È quindi di fondamentale importanza poter prevedere questi eventi con un adeguato anticipo. Allo stato attuale, i modelli meteorologici non permettono sempre di raggiungere tale obbiettivo e, di conseguenza, è in atto un'intensa attività di ricerca al fine di di renderne più accurata la previsione, sia attraverso il miglioramento dei modelli stessi, sia sviluppando l'assimilazione dati, la quale riduce l'incertezza della condizione iniziale da cui parte la previsione. All'interno di questo contesto, la tesi si prefigge l'obiettivo di studiare gli effetti dell'assimilazione di dati di precipitazione, effettuata mediante uno schema di nudging, nel modello non idrostatico MOLOCH. Al fine di ottimizzare lo schema e di valutarne l'impatto, sono stati simulati tutti gli eventi di maltempo di ottobre e novembre del 2014 che hanno interessato la Liguria, area frequentemente soggetta ad alluvioni. Dalla sistematica verifica dei risultati, effettuata sia qualitativamente che mediante numerosi metodi statistici (tra cui la tecnica SAL basata sull'individuazione dei nuclei di precipitazione), si riscontra un generale miglioramento della previsione della precipitazione anche se limitato alle prime ore dopo la fine del periodo di assimilazione. L'impatto dello schema di nudging varia a seconda dell'evento e, in particolare, si osserva una certa correlazione tra il miglioramento ottenuto e la tipologia di evento, come descritto dalla teoria dell'equilibrio convettivo e come riportato in alcuni studi analoghi recentemente comparsi in letteratura. La ricaduta del miglioramento della previsione meteorologica è stata valutata anche in termini di impatti al suolo accoppiando il modello meteorologico con il modello idrologico utilizzato dal Centro Funzionale della Regione Liguria, con risultati abbastanza positivi.
Resumo:
Il progetto si concentra principalmente sullo studio formale e funzionale del carter di una nuova tipologia di macchina industriale per il trattamento superficiale (coating) continuo di prodotti famaceutici. I punti di interesse sono stati: la scelta del materiale, la forma del carter, l'interazione con l'utente, la visualizzazione della macchina finita, la proposta di un piano comunicativo e di una strategià d'identità del prodotto.
Resumo:
Studio degli elementi frontali, posteriori e di collegamento di una macchina per il coating continuo di prodotti farmaceutici.
Resumo:
APRIRE CON ADOBE PDF READER PER POTER VISUALIZZARE I VIDEO PRESENTI NEL PDF!!! Immgini di bassa qualità causa dimensioni piccole del file di caricamento. Il file è diviso in tre parti sempre per motivi di spazio.
Resumo:
Per investigare i carichi sopportati dal corpo nella vita di tutti i giorni, è neccesario un metodo semplice per la stima delle forze di reazione piede-suolo (GRFs) . In questo studio viene presentato un modello per stimare l’andamento delle GRFs durante la corsa, a partire dalle accelerazioni misurate tramite sensori inerziali. I due soggetti che hanno partecipato all’esperimento hanno corso a 4 diverse velocità predefinite e indossato cinque sensori: uno su pelvi, due su tibia (destra e sinistra) e due su piede (destro e sinitro). A partire dai dati ottenuti è stato elaborato un modello che stima l’andamento delle GRFs (verticali e anteroposteriori) e i tempi di contatto e volo del passo tramite l’accelerazione assiale tibiale. Per la stima delle forze di reazione viene utilizzato un modello di stima basato sui tempi di contatto e volo, unito ad un modello che prevede la presenza o meno e il modulo degli impact peak sfruttando due picchi negativi individuati nelle accelerazioni assiali tibiali. Sono state utilizzate due pedane di carico come gold standard per valutare la qualità delle stime ottenute. Il modello prevede correttamente la presenza dell'impact peak nell'85% dei casi, con un errore sul modulo compreso fra il 6% e il 9%. Le GRFs verticali massime vengono approssimate con un errore fra l'1% e 5%, mentre le GRFs antero-posteriori con un errore fra l'8% e il 14% del range massimo-minimo del segnale.
Resumo:
Il lavoro di tesi riguarda lo studio dettagliato di un ciclone di tipo tropicale (tropical like cyclone, TLC) verificatosi nel Canale di Sicilia nel novembre 2014, realizzato attraverso un'analisi modellistica effettuata con i modelli BOLAM e MOLOCH (sviluppati presso il CNR-ISAC di Bologna) e il confronto con osservazioni. Nel primo capitolo è fornita una descrizione generale dei cicloni tropicali e dei TLC, indicando come la formazione di questi ultimi sia spesso il risultato dell'evoluzione di cicloni extratropicali baroclini nel Mediterraneo; sono identificate le aree geografiche con i periodi dell'anno maggiormente soggetti all'influenza di questi fenomeni, riportando un elenco dei principali TLC verificatisi nel Mediterraneo negli utlimi tre decenni e lo stato dell'arte sullo studio di questi eventi. Nel secondo capitolo sono descritte le modalità di implementazione delle simulazioni effettuate per il caso di studio e presentati i principali prodotti dell'analisi modellistica e osservazioni da satellite. Il terzo capitolo si apre con la descrizione della situazione sinottica e l'analisi osservativa con immagini Meteosat e rilevazioni radar che hanno permesso di ricostruire la traiettoria osservata del TLC. In seguito, viene dapprima fornito l'elenco completo delle simulazioni numeriche, quindi sono presentati alcuni dei più importanti risultati ottenuti, dai quali emerge che la previsione della traiettoria e intensità del TLC differisce notevolmente dalle osservazioni. Tenendo conto della bassa predicibilità che ha caratterizzato l'evento, nel quarto capitolo è descritto il metodo usato per ricostruire in maniera ottimale la traiettoria, utilizzando spezzoni da varie simulazioni, che ha permesso un confronto più realistico con i dati osservati e un'analisi dei processi fisici. Nel quinto capitolo sono riportati i principali risultati di alcuni test mirati a valutare l'impatto di aspetti legati all'implementazione delle simulazioni e ad altre forzanti fisiche.