26 resultados para Dover Castle.
Resumo:
La presente tesi si pone l’obiettivo di analizzare le principali metodologie per la stima delle conseguenze degli scenari incidentali propri degli stabilimenti che producono, operano o sono oggetto di stoccaggio di materiale esplosivo. Le sostanze esplosive sono utilizzate in innumerevoli attività civili, industriali e militari e considerando la loro intrinseca pericolosità, derivante dalla capacità di generare in uno spazio ridottissimo e in un tempo brevissimo una enorme quantità di energia, sono soggetti a tutta una serie di norme. Tali norme non solo classificano gli esplosivi ma ne regolamentano ogni utilizzo, dalla produzione, ai vari impieghi, allo stoccaggio fino allo smaltimento. Gli stabilimenti che detengono esplosivi possono essere classificati come a rischio di incidente rilevante e in quanto tali si trovano a dover sottostare alle varie direttive Seveso, da questo punto di vista si analizzano le caratteristiche a livello nazionale e regionale degli stabilimenti R.I.R. che operano con esplosivi. All’interno della tesi viene svolta un’analisi storica degli incidenti che hanno interessato gli stabilimenti che detengono esplosivi negli ultimi anni a livello mondiale, in modo tale da poter valutare quali eventi incidentali possano riguardare questa specifica classe di stabilimenti. Vengono poi presentati i principali approcci metodologici utilizzati per poter valutare le conseguenze degli scenari incidentali. Nello specifico vengono descritte le metodologie della normativa italiana T.U.L.P.S., del documento francese Sècuritè Pirotecnique, dell’Air Force Manual americano e alcuni metodi basati sull’equivalenza al TNT rintracciabili nella letteratura specifica. Le metodologie elencate precedentemente vengono poi applicate ad un caso di studio costituito da uno stabilimento fittizio caratterizzato da specifiche quantità di esplosivi suddivise in vari locali, localizzati in un ipotetico territorio. Dalla valutazione dei risultati ottenuti dall’applicazione dei vari approcci metodologici al caso studio è emerso un auspicabile proseguimento delle indagini relative alle metodologie relative alla quantificazione delle conseguenze degli scenari incidentali propri degli stabilimenti che detengono esplosivi con l’obiettivo di giungere ad una maggior standardizzazione dei metodi di calcolo che possa poi riflettersi anche in indicazioni uniformi a livello normativo.
Resumo:
I gruppi risolubili sono tra gli argomenti più studiati nella storia dell'algebra, per la loro ricchezza di proprietà e di applicazioni. Questa tesi si prefigge l'obiettivo di presentare tali gruppi, in quanto argomento che esula da quelli usualmente trattati nei corsi fondamentali, ma che diventa fondamentale in altri campi di studio come la teoria delle equazioni. Il nome di tale classe di gruppi deriva infatti dalla loro correlazione con la risolubilità per formule generali delle equazioni di n-esimo grado. Si ha infatti dalla teoria di Galois che un'equazione di grado n è risolubile per radicali se e solo se il suo gruppo di Galois è risolubile. Da questo spunto di prima e grande utilità, la teoria dei gruppi risolubili ha preso una propria strada, tanto da poter caratterizzare tali gruppi senza dover passare dalla teoria di Galois. Qui viene infatti presentata la teoria dei gruppi risolubili senza far uso di tale teoria: nel primo capitolo esporrò le definizioni fondamentali necessarie per lo studio dei gruppi risolubili, la chiusura del loro insieme rispetto a sottogruppi, quozienti, estensioni e prodotti, e la loro caratterizzazione attraverso la serie derivata, oltre all'esempio più caratteristico tra i gruppi non risolubili, che è quello del gruppo simmetrico. Nel secondo capitolo sono riportati alcuni esempi e controesempi nel caso di gruppi non finiti, tra i quali vi sono il gruppo delle isometrie del piano e i gruppi liberi. Infine nel terzo capitolo viene approfondito il caso dei gruppi risolubili finiti, con alcuni esempi, come i p-gruppi, con un’analisi della risolubilità dei gruppi finiti con ordine minore o uguale a 100.
Resumo:
Questo elaborato parte dalla proposta di traduzione di alcune tavole tratte da Catálogo de Besos di Raquel Díaz Reguera, un albo illustrato che presenta diversi casi di neologismi. Analizzando questo testo si nota come l’autrice abbia creato una storia comprensibile anche ai più piccoli ma che nasconde significati e rimandi che solo un pubblico adulto può capire. Trovandosi a dover tradurre un neologismo, un traduttore, si trova a dover risolvere diverse problematiche, sempre attenendosi alla volontà dell’autrice, deve scegliere se tradurre le nuove parole dando priorità ora alla composizione ora alla forma ora al suono senza però tralasciare il contenuto che deve produrre sempre lo stesso effetto voluto dall’autrice. Nell’elaborato si trova quindi un percorso che approfondisce le varie casistiche all’interno dell’albo, con un’analisi traduttologia delle scelte che si sono ritenute più opportune caso per caso, per arrivare a dimostrare come il traduttore stesso nel caso di “neologismo d’autore” si trasformi, data l’ampia discrezionalità, in un vero e proprio creatore di idiomi.
Resumo:
All’interno di questa tesi è stata affrontata la tematica della realizzazione di comuni- cazioni sicure, in modo da ottenere l'indipendenza di queste ultime dal canale utilizzato, con l'ausilio di strumenti in grado di fornire supporto per la creazione di applicativi orientati allo scambio di dati e messaggi, quali i linguaggi di programmazione Java e Jolie, il quale è basato sul precedente. Sono state inizialmente analizzate le principali caratteristiche e le problematiche più importanti che è necessario dover risolvere in modo da poter arrivare al risultato desiderato. Successivamente, è stato dato un ampio sguardo ad una delle scienze più applicate per risolvere i problemi tipici che affliggono questo tipo di comunicazioni, la crittografia. Sono stati elencati gli strumenti messi a disposizione ed il loro funzionamento. La crittografia viene poi applicata al protocollo SSL, il quale rappresenta la soluzione maggiormente diffusa, sia sul Web che in altri ambiti, per proteggere le informazioni personali che transitano tra gli end-point di una comunicazione. Sono state elencate le principali caratteristiche, alcuni cenni riguardanti la nascita e lo sviluppo ed è stato descritto il funzionamento di questo protocollo, soprattutto per quanto riguarda la sua fase preliminare, che è una delle parti che lo caratterizzano maggiormente. In seguito, è stata analizzata la soluzione fornita all’interno delle librerie del linguaggio Java per realizzare comunicazioni indipendenti dal mezzo di comunicazione che soddisfino le politiche dettate dal protocollo SSL. Questa soluzione è rappresentata dalla classe SSLEngine, che è quindi stata esaminata, a partire dal ciclo di vita e dall'inizializzazione, fino ad arrivare all'interazione all'interno di un applicazione. Quanto esplorato in precedenza viene poi applicato a Jolie, un linguaggio di programmazione basato sulle comunicazioni e sviluppato in Java, all'interno dell'Università di Bologna. Dopo uno sguardo generale alle sue caratteristiche è stata approfondita la gestione dei protocolli, e di conseguenza, l'introduzione di SSL all'interno di essi, realizzata tramite la classe SSLProtocol. Questa classe contiene ed implementa i concetti analizzati nel capitolo riguardante Java, adattandoli all'architettura ed alla progettazione pensata appositamente per Jolie; è stata quindi effettuata un'analisi del codice e della gestione della classe SSLEngine per realizzare comunicazioni sicure. Infine, per verificare l’effettivo funzionamento, sono stati creati due semplici casi d’uso per poter sfruttare i vantaggi offerti da Jolie, il quale è particolarmente indicato per la creazione di applicazioni orientate ai servizi.
Resumo:
La TC perfusionale (TCp) è un valido strumento per l'imaging funzionale dei tumori. Tale tecnica consente di misurare in modo oggettivo la perfusione tissutale, attraverso l'analisi matematica dei dati ottenuti effettuando scansioni TC ripetute nel tempo, dopo la somministrazione di un mezzo di contrasto iodato. Il principale obiettivo degli studi perfusionali in oncologia è la valutazione precoce dell’efficacia delle terapie anti-angiogenetiche utilizzate per bloccare la vascolarizzazione che alimenta le lesioni tumorali. Infatti, sin dal primo ciclo di terapie, è possibile rilevare se la vascolarizzazione tumorale si riduce, senza dover attendere i cambiamenti dimensionali che, in genere, avvengono tardivamente. Questa Tesi si focalizza sullo studio del carcinoma polmonare e perviene alla costruzione di un catalogo, completo di mappe colorimetriche, che sintetizza i casi analizzati, i dati relativi al paziente e alle lesioni. L'obiettivo è quindi quello di fornire uno strumento di facile consultazione che consenta di valutare vari aspetti relativi alla malattia, tra cui il tasso di accrescimento, il grado di malignità, presenza di invasione vascolare, al fine di andare sempre più verso una cura personalizzata e più efficace per i pazienti che, attualmente, sono sottoposti a soluzione terapeutica standard. Questa è, senza dubbio, la nuova frontiera della ricerca per tutte i tipi di neoplasie negli anni futuri.
Resumo:
Negli ultimi anni, parallelamente allo sviluppo di calcolatori elettronici sempre più performanti, la fluidodinamica computazionale è diventata uno strumento di notevole utilità nell’analisi dei flussi e nello sviluppo di dispositivi medici. Quando impiegate nello studio di flussi di fluidi fisiologici, come il sangue, il vantaggio principale delle analisi CFD è che permettono di caratterizzare il comportamento fluidodinamico senza dover eseguire test in-vivo/in-vitro, consentendo quindi notevoli vantaggi in termini di tempo, denaro e rischio derivante da applicazioni mediche. Inoltre, simulazioni CFD offrono una precisa e dettagliata descrizione di ogni parametro di interesse permettendo, già in fase di progettazione, di prevedere quali modifiche al layout garantiranno maggiori vantaggi in termini di funzionalità. Il presente lavoro di tesi si è posto l’obiettivo di valutare, tramite simulazioni CFD, le performances fluidodinamiche del comparto sangue “camera venosa” di un dispositivo medico monouso Bellco impiegato nella realizzazione di trattamenti di emodialisi. Dopo una panoramica del contesto, è presentata una breve descrizione della disfunzione renale e dei trattamenti sostitutivi. Notevole impegno è stato in seguito rivolto allo studio della letteratura scientifica in modo da definire un modello reologico per il fluido non-Newtoniano preso in considerazione e determinarne i parametri caratteristici. Il terzo capitolo presenta lo stato dell’arte delle apparecchiature Bellco, rivolgendosi con particolare attenzione al componente “cassette” del dispositivo monouso. L’analisi fluidodinamica del compartimento “camera venosa” della cassette, che sarà presa in considerazione nei capitoli quinto e sesto, si inserisce nell’ambito della riprogettazione del dispositivo attualmente in commercio: il quarto capitolo si incentra sul suo nuovo design, ponendo specifico interesse sul layout della camera venosa di nuova generazione. Per lo studio dei flussi che si sviluppano internamente ad essa ci si è avvalsi del modulo CFD del software COMSOL multiphysics® (versione 5.0); la definizione del modello implementato e della tipologia di studio effettuato sono presi in considerazione nel quinto capitolo. Le problematiche di maggior impatto nella realizzazione di un trattamento di emodialisi sono l’emolisi e la coagulazione del sangue. Nell'evenienza che si verifichino massivamente occorre infatti interrompere il trattamento con notevoli disagi per il paziente, per questo devono essere evitate. Nel sesto capitolo i risultati ottenuti sono stati esaminati rivolgendo particolare attenzione alla verifica dell’assenza di fenomeni che possano portare alle problematiche suddette.
Resumo:
Effettuare la calibrazione di un motore a combustione interna richiede precisione e al contempo tempi ridotti per poter essere eseguita in modo rapido e sicuro sui banchi prova. In questo elaborato viene trattata in particolare la calibrazione dell’anticipo di accensione, parametro fondamentale per massimizzare la PMI e quindi le prestazioni di un motore da corsa, ma altrettanto delicato per quanto riguarda il fenomeno della detonazione in cui si può incorrere attuando combustioni troppo anticipate durante la ricerca della fase ottimale. Con l’esigenza di dover calibrare il singolo motore in maniera non distruttiva, utilizzando una procedura di calibrazione automatica, è quindi necessario ricorrere a un sistema che sia in grado di prevedere il valore di anticipo che genererà un livello di detonazione ritenuto pericoloso per l’integrità del motore. Tale operazione deve essere effettuata con la miglior precisione possibile, in modo tale che venga esplorato tutto il campo dei valori di anticipo attuabili dato che la condizione di massima prestazione si trova a ridosso delle condizioni detonanti, quindi nella ricerca dell’ottimo ci si può imbattere in situazioni dannose. In questo elaborato è stata analizzata e rivista una procedura in ambiente MATLAB al fine di ridurne i tempi di calcolo fra una rampa di calibrazione e l’altra senza rinunciare all’accuratezza della previsione dell’anticipo limite ponendo l’attenzione sui parametri più importanti che regolano l’algoritmo di previsione. Inoltre per il calcolo dell’anticipo limite è stato implementato un approccio alternativo di tipo probabilistico basato sui dati sperimentali ciclo per ciclo, valutando anche modelli alternativi da applicare per il calcolo del MAPO statistico.
Resumo:
Nella tesi, inizialmente, viene introdotto il concetto di Big Data, descrivendo le caratteristiche principali, il loro utilizzo, la provenienza e le opportunità che possono apportare. Successivamente, si sono spiegati i motivi che hanno portato alla nascita del movimento NoSQL, come la necessità di dover gestire i Big Data pur mantenendo una struttura flessibile nel tempo. Inoltre, dopo un confronto con i sistemi tradizionali, si è passati al classificare questi DBMS in diverse famiglie, accennando ai concetti strutturali sulle quali si basano, per poi spiegare il funzionamento. In seguito è stato descritto il database MongoDB orientato ai documenti. Sono stati approfonditi i dettagli strutturali, i concetti sui quali si basa e gli obbiettivi che si pone, per poi andare ad analizzare nello specifico importanti funzioni, come le operazioni di inserimento e cancellazione, ma anche il modo di interrogare il database. Grazie alla sue caratteristiche che lo rendono molto performante, MonogDB, è stato utilizzato come supporto di base di dati per la realizzazione di un applicazione web che permette di mostrare la mappa della connettività urbana.
Resumo:
Il progetto si propone di dotare la realta fisica di un estensione digitale. Sensori, attuatori e tecnologie embedded hanno cambiato il nostro modo di lavorare, allenarci e seguire i nostri interessi. Il mondo del commercio non e rimasto a guardare ed ha dovuto adattarsi alla metamorfosi high-tech del settore dei servizi. Il sistema proposto costituisce un promotore per acquisti ed un raccoglitore intelligente di abitudini sullo shopping e si compone di applicazione mobile, microcontroller e web server. Caratteristica prima e principale del progetto e sicuramente la pervasivita. All'utente ed utilizzatore dell'app dello shopping center deve essere certamente resa nota la collaborazione al fine di raccogliere dati statistici sulle sue abitudini, tuttavia sono le modalita di tale operazione a dover rimanere velate, in modo da non appesantire il cliente con tediose operazioni di invio di feedback e valutazioni ed allo stesso tempo permettere una raccolta capillare delle informazioni. Parallelamente alla raccolta di dati funzionali al producer, sono state implementate features per il consumatore, come notifiche promozionali place-triggered e pubblicita mirata. Tra tutte le tecnologie adibite allo scambio di informazioni, si e scelto l'utilizzo del Bluetooth e del piu recente Bluetooth Low Energy (BLE) per permettere ai dispositivi di comunicare tra loro.
Resumo:
Uno dei concetti chiave dell'impiego della nanotecnologia è quello dell'ingegnerizzazione dei materiali alla nano-scala. Si procede così alla realizzazione di materiali aventi morfologia, struttura e composizione ottimizzate per migliorarne specifiche proprietà in maniera controllata. In questo lavoro sono stati realizzati campioni nanoparticellari a base di magnesio con la tecnica (R-)IGC (Reactive or Inert Gas Condensation) allo scopo di studiare come l'atmosfera nella quale vengono sintetizzati ne influenzi le proprietà morfologiche e strutturali, al fine di poterne controllare la crescita per impieghi specifici. In particolare, si sono voluti analizzare i risultati ottenuti in diverse situazioni: nel caso in cui la sintesi avvenga in un'atmosfera contenente una piccola concentrazione di ossigeno e nel caso della coevaporazione di magnesio e titanio in atmosfera inerte o contenente idrogeno. I campioni sono poi stati analizzati dal punto di vista morfologico, composizionale e strutturale mediante microscopia a scansione elettronica e diffrazione a raggi X. E' stato mostrato che la presenza controllata di ossigeno durante la sintesi permette di realizzare strutture core-shell di dimensione media 40nm e che la co-evaporazione di magnesio e titanio permette la sintesi di nanoparticelle di dimensioni medie anche inferiori ai 12nm. La presenza di idrogeno durante l'evaporazione permette inoltre di crescere nanoparticelle contenenti idruro di titanio senza dover ricorrere ad una idrurazione successiva. Le proprietà termodinamiche e cinetiche di (de)-idrurazione dei campioni sintetizzati sono state misurate utilizzando sia un apparato barometrico Sievert, sia effettuando un'analisi direttamente nel sito di crescita. I campioni realizzati non mostrano una termodinamica significativamente diversa da quella del magnesio bulk, mentre le cinetiche dei processi di assorbimento e desorbimento risultano notevolmente più rapide.
Resumo:
Ogni giorno, l'utente di smartphon e tablet, spesso senza rendersene conto, condivide, tramite varie applicazioni, un'enorme quantità di informazioni. Negli attuali sistemi operativi, l'assenza di meccanismi utili a garantire adeguatamente l'utente, ha spinto questo lavoro di ricerca verso lo sviluppo di un inedito framework.È stato necessario uno studio approfondito dello stato dell'arte di soluzioni con gli stessi obiettivi. Sono stati esaminati sia modelli teorici che pratici, con l'analisi accurata del relativo codice. Il lavoro, in stretto contatto con i colleghi dell'Università Centrale della Florida e la condivisione delle conoscenze con gli stessi, ha portato ad importanti risultati. Questo lavoro ha prodotto un framework personalizzato per gestire la privacy nelle applicazioni mobili che, nello specifico, è stato sviluppato per Android OS e necessita dei permessi di root per poter realizzare il suo funzionamento. Il framework in questione sfrutta le funzionalità offerte dal Xposed Framework, con il risultato di implementare modifiche al sistema operativo, senza dover cambiare il codice di Android o delle applicazioni che eseguono su quest’ultimo. Il framework sviluppato controlla l’accesso da parte delle varie applicazioni in esecuzione verso le informazioni sensibili dell’utente e stima l’importanza che queste informazioni hanno per l’utente medesimo. Le informazioni raccolte dal framework sulle preferenze e sulle valutazioni dell’utente vengono usate per costruire un modello decisionale che viene sfruttato da un algoritmo di machine-learning per migliorare l’interazione del sistema con l’utente e prevedere quelle che possono essere le decisioni dell'utente stesso, circa la propria privacy. Questo lavoro di tesi realizza gli obbiettivi sopra citati e pone un'attenzione particolare nel limitare la pervasività del sistema per la gestione della privacy, nella quotidiana esperienza dell'utente con i dispositivi mobili.