998 resultados para POI
Resumo:
All'interno della tesi viene analizzato il problema dell'autenticazione delle parti su un canale insicuro. Viene data una formalizzazione matematica del problema, di cosa sia un protocollo sicuro e viene poi esibito un protocollo dimostrabilmente sicuro, con l'assunzione dell'esistenza di funzioni pseudorandom. Viene poi presa in esame questa assunzione e si discute di quanto l'assunzione sia ragionevole all'atto pratico. Si discutono alcune proprietà delle funzioni pseudorandom e si esibiscono delle funzioni candidate ad essere pseudorandom.
Resumo:
L’alchilazione del fenolo (PhOH) è un processo di grande rilevanza. I prodotti, alchilfenoli (dall’alchilazione del carbonio d’anello) ed eteri fenilici (dall’alchilazione dell’ossigeno fenolico), sono usati nella produzione di resine fenoliche ed in sintesi organica. I carbonati organici sono atossici, biodegradabili, ottenibili da fonti rinnovabili ed hanno un ottimo potere solvente per i composti organici e aromatici. Con un opportuno catalizzatore sono reattivi per l’alchilazione del PhOH, e potrebbero sostituire gli alchilanti usati industrialmente: quelli per la O- alchilazione, alchilioduro e dialchilsolfato, sono estremamente tossici, mentre gli alcoli, impiegati per la C-alchilazione, decompongono estesamente sui catalizzatori industriali. In questo lavoro di tesi, le prestazioni del dietilcarbonato (DEC) come agente etilante del PhOH sono state indagate a fondo al variare dei parametri operativi, e sono state poi confrontate con quelle dell’etanolo, dimostrando che il carbonato è molto più reattivo: sui catalizzatori basici il DEC mostra una chemoselettività prettamente orientata alla O-alchilazione e la conversione del PhOH può essere massimizzata agendo sui parametri operativi senza grandi variazioni nella selettività del prodotto di interesse; sui sistemi acido/base (ossido misto di Mg e Al) si è invece dimostrato possibile orientare l’alchilazione alternativamente all’ossigeno (fenetoli) o al carbonio (etilfenoli) aumentando la temperatura.
Resumo:
Questo lavoro di tesi nasce con l'obbiettivo di studiare il modello di Guyton, proponendone una versione più dettagliata con lo scopo di utilizzarla poi come strumento di indagine per una patologia nota come atresia tricuspidale. Si è giunti così alla creazione di un modello ibrido del sistema cardiovascolare che vede la modellizzazione, a parametri concentrati, dell’intera rete circolatoria interfacciata con una rappresentazione dell' attività cardiaca mediante le cosidette curve di funzionalità. Nello specifico si è risaliti ad un modello della cicolazione cardiocircolatoria separando quella che è la circolazione sistemica dalla circolazione polmonare secondo il sopracitato modello di Guyton, dopo di chè si è trovato un analogo modello per pazienti sottoposti all' intervento di Fontan poiché affetti da atresia tricuspidale.Tramite l'ausilio del software Matlab sono stati implementati questi due modelli semplificati (“Guyton biventricolare” e “Guyton monoventricolare”) e il corrispondente algoritmo risolutivo, con l'obiettivo di verificare, graficamente e numericamente, i risultati ottenuti dalla simulazione.Una volta accertatisi della attendibilità dei risultati, mediante il confronto con dati fisiologici dai manuali e dagli articoli su cui si è fondato questo elaborato, si è proceduto alla simulazione di casi fisiologici di attività fisica e di malfunzionamento del ventricolo sinistro.L'utilizzo di un modello matematico per la circolazione permette di studiare e simulare l'interazione di diversi sistemi fisiologici superando il problema che si ha in ambito clinico, dove l'analisi è più complessa perchè la misurazione delle numerose variabili fisiologiche è indaginosa e a volte non fattibile.Fine ultimo dell'elaborato tuttavia non è quello di dare valutazioni cliniche dei casi presi in esame e delle loro variabili, ma quello di presentare un metodo per studiare come la fisiologia della circolazione umana reagisce a dei cambiamenti.
Resumo:
Questa tesi è essenzialmente focalizzata sullo sviluppo di un sistema di controllo in tempo reale per uno Shaker Elettrodinamico usato per riprodurre profili di vibrazione ambientale registrati in contesti reali e di interesse per il recupero di energia. Grazie all'utilizzo di uno shaker elettrodinamico è quindi possibile riprodurre scenari di vibrazione reale in laboratorio e valutare più agevolmente le prestazioni dei trasduttori meccanici. Tuttavia, è richiesto un controllo dello Shaker non solo in termini di stabilità ma anche per garantire l'esatta riproduzione del segnale registrato nel contesto reale. In questa tesi, si è scelto di sviluppare un controllo adattivo nel dominio del tempo per garantire la corretta riproduzione del profilo di accelerazione desiderato. L'algoritmo è stato poi implementato sul sistema di prototipazione rapida dSPACE DS1104 basata su microprocessore PowerPC. La natura adattiva dell'algoritmo proposto permette di identificare cambiamenti nella risposta dinamica del sistema, e di regolare di conseguenza i parametri del controllore. Il controllo del sistema è stato ottenuto anteponendo al sistema un filtro adattivo la cui funzione di trasferimento viene continuamente adattata per rappresentare al meglio la funzione di trasferimento inversa del sistema da controllare. Esperimenti in laboratorio confermano l'efficacia del controllo nella riproduzione di segnali reali e in tipici test di sweep frequenziale.
Resumo:
Lo scopo di questo elaborato di tesi è sintetizzare microcapsule di dimensioni non superiori ai 20 micron, contenenti un composto termocromico in modo da funzionare come indicatori di temperatura. Le capsule devono essere quindi in grado di variare la propria colorazione in funzione della temperatura del mezzo in cui sono disperse o dell’ambiente circostante, senza degradarsi. Il core è costituito da una miscela contenente un pigmento termocromico il cui colore varia da verde intenso se mantenuto a temperature ambiente, fino ad un verde pallido, quasi bianco, per temperature inferiori ai 10°C. Il core è stato quindi incapsulato in uno shell, costituito da una resina melammina-formaldeide (MF) mediante polimerizzazione in situ. Questo processo prevede la sintesi di un prepolimero MF che viene poi fatto reticolare in presenza di una emulsione del core in soluzione acquosa. Per prima cosa è stato ottimizzata la sintesi del prepolimero a partire da una soluzione acquosa di melammina e formaldeide. Vista la tossicità della formaldeide (H341-H350-H370) è stata studiata anche la possibilità di sostituire questo reagente con la sua forma polimerica (paraformaldeide) che a 45°C circa degrada rilasciando formaldeide in situ. In questo modo il processo risulta molto più sicuro anche in previsione di un suo possibile sviluppo industriale. In seguito è stato ottimizzato il processo di microincapsulazione in emulsione su vari tipi di core e studiando l’effetto di vari parametri (pH, temperatura, rapporto core/shell, tipo di emulsionante ecc.), sulle dimensioni e la stabilità delle microcapsule finali. Queste sono quindi state caratterizzate mediante spettrometria Infrarossa in trasformata di Fourier (FT-IR) e la loro stabilità termica è stata controllata tramite analisi TermoGravimetrica (TGA). Il processo di reticolazione (curing) della resina, invece, è stato studiato tramite Calorimetria Differenziale a Scansione (DSC). Le microcapsule sono inoltre state analizzate tramite Microscopio Elettronico (OM) e Microscopio Elettronico a Scansione (SEM).
Resumo:
Questo lavoro di tesi ha lo scopo di analizzare una frana appenninica riattivatasi a partire dal dicembre 2013 nel Comune di Grizzana Morandi (BO). L’operazione di studio della frana è iniziata partendo da una accurata campagna d’indagine eseguita in campo: per prima cosa è stata eseguita una dettagliata perlustrazione del corpo di frana e del territorio limitrofo, questa operazione comprende il rilevamento geologico di dettaglio ed il tracciamento (tramite dispositivo GPS) del profilo del deposito e della corona di distacco. Di fondamentale interesse sono state poi le informazioni ricavate dall’eseguimento di tre carotaggi sul corpo di frana, questi hanno permesso l’estrazione di carote utili a definire la stratigrafia verticale del luogo (fino ai 20 metri di profondità) e prelevare campioni di terreno per effettuare specifiche prove di laboratorio. Parte di queste prove sono state eseguite da un laboratorio di commissione, altre sono state eseguite nel laboratorio geotecnico dell’Università. I dati acquisiti tramite il monitoraggio, effettuato tramite l’istallazione di vari strumenti sul corpo di frana (piezometri, inclinometri ed estensimetri) sono risultati utili al fine di determinare la profondità della superficie di scorrimento, la velocità di movimento del deposito e la variazione del livello piezometrico. Le osservazioni effettuate sul campo e i dati provenienti dai sondaggi, dal monitoraggio e dalle prove di laboratorio sono stati elaborati e commentati, essi sono stati utilizzati per definire il modello geologico tecnico del territorio analizzato. Dalla definizione del modello geologico tecnico è stata effettuata la back analysis (la simulazione delle condizioni presenti sul versante al momento della rottura) tramite software specifico. L’operazione finale è stata la proposta (e la conseguente calibrazione) di diversi sistemi di messa in sicurezza del versante, utili a garantire nel tempo la stabilità del pendio analizzato.
Resumo:
Argomento della presente tesi è il calcolo integrale. Nella prima parte dell'elaborato viene descritta l'evoluzione storica delle idee presenti già nella matematica antica, che conducono infine alla creazione del calcolo integrale vero e proprio, nei fondamentali lavori di Newton e Leibniz. Segue una sintetica descrizione delle sistematizzazioni formali della teoria dell'integrazione, ad opera di Riemann e successivamente Lebesgue, oltre alla generalizzazione dell'integrale di Riemann ideata da Sieltjes, di grande importanza, fra l'altro, nel calcolo delle probabilità. Si dà poi conto degli spazi funzionali con norme integrali (L^p, spazi di Sobolev). L'ultimo capitolo è dedicato all'insegnamento del calcolo integrale nella scuola secondaria in Italia, e alla sua evoluzione dall'inizio del XX secolo a oggi.
Resumo:
L’epilessia è una patologia neurologica cronica caratterizzata dalla tendenza, in un dato soggetto, a generare crisi convulsive spontanee, accompagnate generalmente da perdita di coscienza. Rappresenta uno fra i più frequenti disturbi neurologici cronici: l’1% della popolazione mondiale (circa 50 milioni) ne è affetta. Il presente elaborato di tesi ha analizzato le tecniche di imaging biomediche non invasive per lo studio dell’epilessia. Le tecniche PET, MEG e fMRI contribuiscono non solo a fornire una migliore comprensione dell’anatomia, della fisiologia e della connettività funzionale di specifiche aree cerebrali, ma consentono anche di localizzare determinate aree legate all’insorgenza e alla propagazione della crisi epilettica. Sono stati riportati studi clinici recenti che hanno investigato sull’uso di queste tecniche al fine di localizzare la zona epilettogena nei pazienti. Inoltre, gli studi si sono incentrati anche sullo sviluppo e sulla propagazione della crisi epilettica, fornendo delle indicazioni sulle possibili prospettive future relative alla tecnologia e all’elaborazione dei dati. L’analisi verrà condotta approfondendo le principali apparecchiature responsabili degli attuali sviluppi nelle ricerche sull’epilessia. Nello specifico, si effettuerà l’analisi della strumentazione partendo dai principi fisici alla base del suo funzionamento, per poi descriverne la struttura, le modalità di impiego per la specifica indagine e i futuri sviluppi.
Resumo:
Le condizioni iperacide presenti nelle acque di alcuni laghi craterici, combinate con altre proprietà chimico-fisiche quali densità e temperatura, possono favorire processi di degassamento anche di specie ad elevata solubilità e geochimicamente conservative in acque “normali”. In questa tesi si sono studiati i meccanismi e l’influenza di tali proprietà nel processo di degassamento attraverso la ricostruzione in laboratorio delle condizioni iperacide che caratterizzano i laghi iperacidi in natura. Particolare attenzione è posta al comportamento dello ione Cl-, diffusamente presente nelle acque crateriche e considerato fin ora tipicamente “conservativo”. In condizioni di estrema acidità questo ione modifica la sua tendenza conservativa, attivando le sue caratteristiche di base coniugata. In tali condizioni infatti esso si lega agli ioni H+ presenti formando acido cloridrico molecolare (HCl), parte del quale inevitabilmente degassa. Lo studio di soluzioni preparate in laboratorio e poste a condizioni di temperatura, densità ed acidità iniziale differenti, sono stati raccolti una serie di dati relativi al pH e alle variazioni della concentrazione dello ione Cl- imputabile a fenomeni di degassamento. I dati così ottenuti, sono stati poi confrontati con le caratteristiche chimico-fisiche di una serie di laghi craterici iperacidi esistenti in varie parti del mondo. Questo confronto ha consentito di definire più in dettaglio le cause ed i meccanismi che portano al degassamento di acidi forti (HCl) da acque iperacide e il grado di influenza delle varie proprietà sopra citate in questo fenomeno naturale.
Resumo:
Viene definito e descritto l'ellissoide di inerzia relativo ad un corpo rigido rispetto ad un punto e la corrispondente matrice di inerzia. Inoltre si definiscono gli angoli di Eulero e vengono ricavate le equazioni di Eulero. Tali strumenti vengono poi utilizzati nell'analisi del moto del corpo rigido libero e con punto fisso e nello studio del moto alla Poinsot di un corpo a struttura giroscopica e dei fenomeni giroscopici.
Resumo:
La malattia aterosclerotica presenta elevate morbilità e mortalità in gran parte del mondo e poterla diagnosticare prima che essa porti a un evento acuto (ictus) comporta indiscutibili vantaggi per la sanità. Il problema a monte della malattia è la presenza di placche aterosclerotiche nei vasi arteriosi. La placca può essere classificata in base alle sue componenti isto-morfologiche in fibrosa, fibrocalcifica o fibroadiposa, che comportano diversi livelli di rischio. In questo elaborato è presentata la procedura CAPSU, che permette la rilevazione e la segmentazione delle placche in modo automatico in immagini eco; è valutata l’efficacia di un tool che permette la classificazione automatica delle placche, già segmentate con il metodo CAPSU. Un esperto ha classificato le placche appartenenti a 44 immagini ecografiche che poi sono state sottoposte all’elaborazione automatica; i risultati si sono rivelati concordi. Sono stati valutati alcuni fattori che potrebbero differenziare univocamente i tipi di placche tra loro (area, eccentricità, minimo, massimo e medio livello di grigio, ecogenicità ed eterogeneità) e a parte i primi due tutti si sono mostrati validi in almeno un confronto tra due tipi di placche. Si è concluso che una classificazione automatica del tutto efficace delle placche carotidee potrebbe essere possibile in seguito a ulteriori sviluppi di questa tecnica.
Resumo:
Le colate detritiche sono manifestazioni parossistiche con trasporto impulsivo di sedimenti lungo la rete idrografica minore che presentano un elevato potere distruttivo. In questo lavoro di tesi si è cercato di descrivere inizialmente le caratteristiche tipiche delle colate di detrito, e le condizioni climatiche e geomorfologiche che tendono a favorirne l’innesco. Verranno poi analizzati, i casi relativi all’Appennino bolognese, prendendo come riferimento le colate rapide di detrito avvenute in località Serraglio (Baragazza) nei pressi del comune di Castiglione dei Pepoli. Nello specifico verrà indagato il fenomeno avvenuto il 31/01/2014, per il quale sono stati effettuati numerosi rilievi morfometrici che hanno portato ad individuare una geometria di dettaglio del canale di flusso e della nicchia di frana, per poter ricostruire i volumi di materiale mobilizzato. In contemporanea alle misure morfometriche si sono effettuate delle indagini sismiche volte a stimare lo spessore della coltre di alterazione presente all’interno del canale prima dell’evento, e a monte della nicchia di frana. Successivamente si è cercato di correlare le misure H/V con le prove MASW effettuate ,senza successo, ciò è probabilmente dovuto dalla difficoltà di indagare spessori così sottili con le MASW. Perciò utilizzando le indagini H/V si è tentato di ricostruire il modello geologico – tecnico alla scala del versante. Infine si è cercato di modellizzare il fenomeno utilizzando il software Dan-W con il quale si sono testati vari modelli reologici fra i quali si sono dimostrati più realistici, in riferimento al caso in esame, il modello frizionale ed il modello di Voellmy. Per questi due modelli è stata quindi effettuata la calibrazione dei parametri, in riferimento dei quali si è visto che, con il modello di Voellmy si è ottenuto un buon valore della distanza percorsa dalla colata, ma una stima delle velocità abbastanza elevate. Il modello frizionale invece ha portato ad una buona stima degli spessori dei depositi, ma sottostimando la distanza che avrebbe potuto percorrere la colata se non avesse incontrato ostacoli.
Resumo:
La tesi è il risultato dell’attività di tirocinio svolta presso Ecor Research, su una tematica proposta da un cliente, più precisamente Tetra Pak. Si progettano nuove soluzioni per un meccanismo estrattore di pacchetti preformati all’interno di un macchina automatica riempitrice di liquido per il confezionamento continuo in ambiente asettico. L’estrattore è posto in seguito all’organo che forma i pacchetti preformati e deve aumentare la velocità degli stessi in modo tale da permettere lo scarto dei danneggiati, in corrispondenza della massima produttività della macchina. Lo scarto avviene tramite uno scivolo che si frappone al moto del pacchetto nel caso esso sia danneggiato, non appena è avvenuta l’estrazione. Quindi, senza la presenza dell’estrattore, il sistema di scarto non ha una adeguata finestra temporale in cui agire. In seguito i pacchetti non danneggiati entrano nel successivo organo macchina dove vengono riferiti e distanziati per le successive lavorazioni. Le nuove soluzioni sono sviluppate su un certo formato di pacchetto, per il quale risultano disponibili spazi minori per l’implementazione dell’estrattore. Si è affrontato il problema costruendo un modello cinetostatico dell’estrattore, ricavando le specifiche di progetto attraverso contatti con il cliente e attraverso l’analisi della soluzione esistente. A causa dei limitati ingombri a disposizione per l’implementazione dell’estrattore, si divide il problema in due parti, progettando ed analizzando per ognuna un ampio ventaglio di soluzioni, tra le quali anche sistemi articolati, introducendo in seguito parametri di valutazione per scegliere le migliori. Si va poi a comporre le parti del problema a seconda delle proprie affinità ottenendo le soluzioni complete e scegliendo le più adatte al caso in esame. Infine si valuta la flessibilità delle soluzioni scelte verificando l’adattabilità ad un differente formato di pacchetto. Si individuano 2 soluzioni, tramite cinghie sincrone e quadrilatero articolato
Resumo:
In questo progetto di tesi sarà innanzitutto presentato il Kinect One e sarà fatta una panoramica sull’uso della realtà virtuale in ambito riabilitativo. In seguito sarà analizzato l’algoritmo di Body tracking, valutandone il comportamento in diverse situazioni pratiche e poi stimandone la precisione in statica. Sarà presentato un filtraggio per limitare il rumore in tempo reale e valutarne i pro ed i contro in funzione delle caratteristiche impostabili. Saranno presentate inoltre le metodologie con cui gli algoritmi integrati del Kinect permettono di ricavare una stima dell’orientamento delle parti anatomiche nello spazio ed alcune considerazioni circa le implicazioni pratiche di tali metodologie, anche in base alle osservazioni sul campo ottenute durante i mesi di realizzazione di questo progetto. Lo scopo è determinare se e come sia possibile utilizzare il Microsoft Kinect One come unico sistema di motion tracking del paziente in applicazioni cliniche di riabilitazione, quali limiti ci sono nel suo utilizzo e quali categorie di scenari e prove potrebbe supportare.
Resumo:
In questa tesi ci siamo concentrati su ponte pedonale di Vagli, celebre opera dell’ing. Riccardo Morandi progettata nel 1953. Tale opera, che appartiene ora all’archeologia industriale, è molto interessante per le soluzioni costruttive adottate al tempo, per la fama del progettista e per il fatto di essere un raro esempio di ponte con fondazioni sommerse entro un invaso artificiale, e per essere stato costruito in una zona in cui la progettazione antisismica moderna prevedrebbe accortezze molto diverse. È stato pertanto deciso di effettuare una caratterizzazione dinamica completa del suolo di fondazione e della struttura stessa, sia dal punto di vista sperimentale in condizioni passive che dal punto di vista teorico-modellistico in condizioni attive (cioè in presenza di terremoto). La caratterizzazione dinamica sperimentale dell’opera è stata effettuata prima ad invaso completamente svuotato e quindi con i pilastri del ponte a contatto con l’aria.La caratterizzazione è stata poi ripetuta in condizioni di invaso riempito, con circa 15 metri di acqua. Questo caso di studio si rivela particolarmente interessante per comprendere come il livello dell’acqua modifichi o meno il comportamento dinamico del ponte, e le implicazioni che questo avrebbe nella progettazione sismica moderna. I risultati ottenuti sono rilevanti perché forniscono una caratterizzazione completa dell’opera (suolo-struttura) allo stato attuale e possono quindi essere usati, attraverso il confronto con dati futuri, per valutare l’invecchiamento della struttura stessa o per effettuare verifiche strutturali post-sisma. A fronte di danni strutturali anche invisibili all’occhio umano, infatti, la risposta dinamica della struttura cambia e conoscere lo stato pre-sisma permette di valutare dove e quanto tale risposta sia eventualmente cambiata. L’analisi qui effettuata permette infine di rendere conto dei parametri con cui quest’opera sarebbe dovuta essere costruita secondo gli standard normativi attuali.