893 resultados para indirizzo :: 860 :: Curriculum: Costruzioni per il territorio
Resumo:
Molte applicazioni sono legate a tecniche di rilassometria e risonanza magnetica nucleare (NMR). Tali applicazioni danno luogo a problemi di inversione della trasformata di Laplace discreta che è un problema notoriamente mal posto. UPEN (Uniform Penalty) è un metodo numerico di regolarizzazione utile a risolvere problemi di questo tipo. UPEN riformula l’inversione della trasformata di Laplace come un problema di minimo vincolato in cui la funzione obiettivo contiene il fit di dati e una componente di penalizzazione locale, che varia a seconda della soluzione stessa. Nella moderna spettroscopia NMR si studiano le correlazioni multidimensionali dei parametri di rilassamento longitudinale e trasversale. Per studiare i problemi derivanti dall’analisi di campioni multicomponenti è sorta la necessità di estendere gli algoritmi che implementano la trasformata inversa di Laplace in una dimensione al caso bidimensionale. In questa tesi si propone una possibile estensione dell'algoritmo UPEN dal caso monodimensionale al caso bidimensionale e si fornisce un'analisi numerica di tale estensione su dati simulati e su dati reali.
Resumo:
L’ipertensione arteriosa polmonare è una malattia ad esito infausto, con un piccolo tasso di incidenza sulla popolazione (in Italia circa 700 nuovi casi all’anno), ma senza una cura medica o farmacologica che ne risolva adeguatamente le problematiche. Tutti gli individui che contraggono tale patologia vengono sottoposti a forti terapie farmacologiche che aumentano le aspettative di vita di alcuni mesi o, in casi più fortunati, di qualche anno, ma non garantiscono una vita regolare e duratura (attesa di sopravvivenza circa cinque anni). In questa situazione di evidente inadeguatezza, una analisi biomeccanica dell’evoluzione della malattia sembra individuare nel progressivo disadattamento meccanico tra pompa e carico una delle cause di deterioramento, e tra i diversi modi di arrestare o compensare questa evoluzione si possono individuare soluzioni per aumentare la sopravvivenza dell’individuo, con una qualità della vita addirittura migliore rispetto a quella che l’approccio farmacologico oggi consente. Scopo di questo studio è la progettazione e la costruzione di un simulatore meccanico in grado di riprodurre l’accoppiamento e il trasferimento energetico tra il ventricolo destro e l’arteria polmonare, in condizioni fisiologiche normali e in caso di ipertensione arteriosa. La realizzazione di un simulatore che riproducesse dinamicamente valori fisiologici dei parametri di interesse (pressioni, volumi, resistenze, etc.) entro limiti accettabili non è stato facile; ciononostante, è stato ottenuto un risultato significativo, verificando la fattibilità di un intervento biomeccanico che modifichi l’evoluzione della malattia attraverso il recupero di un migliore adattamento tra pompa cardiaca e carico vascolare.
Resumo:
Lo scopo dell'elaborato di tesi è la progettazione e lo sviluppo di alcuni moduli di un software per la lettura ad elevato throughput di dati da particolari dispositivi per elettrofisiologia sviluppati dall'azienda Elements s.r.l. Elements produce amplificatori ad alta precisione per elettrofisiologia, in grado di misurare correnti a bassa intensità prodotte dai canali ionici. Dato il grande sviluppo che l'azienda sta avendo, e vista la previsione di introdurre sul mercato nuovi dispositivi con precisione e funzionalità sempre migliori, Elements ha espresso l'esigenza di un sistema software che fosse in grado di supportare al meglio i dispositivi già prodotti, e, soprattutto, prevedere il supporto dei nuovi, con prestazioni molto migliori del software già sviluppato da loro per la lettura dei dati. Il software richiesto deve fornire una interfaccia grafica che, comunicando con il dispositivo tramite USB per leggere dati da questo, provvede a mostrarli a schermo e permette di registrarli ed effettuare basilari operazioni di analisi. In questa tesi verranno esposte analisi, progettazione e sviluppo dei moduli di software che si interfacciano direttamente con il dispositivo, quindi dei moduli di rilevamento, connessione, acquisizione ed elaborazione dati.
Resumo:
Questa tesi descrive lo sviluppo di un OECT (Organic Eletrochemical Transistor) basato su un polimero conduttore (PEDOT:PSS) stampato su tessuto che può essere utilizzato come sensore fisico e chimico. Il lavoro di tesi si posiziona all’interno della Wearable Technology ossia il mercato emergente dei dispositivi indossabili. Essi sono caratterizzati da innumerevoli ambiti di applicazione tra i quali troviamo le varie forme di pagamento digitale, la gestione della salute e del fitness, dell'Entertainment e l’utilizzo nel mondo della moda. Questa ricerca nello specifico mostra come tali transistor, quando utilizzati come sensori chimici, possano essere impiegati per rivelare e dosare composti redox attivi quali acido ascorbico, adrenalina e dopamina. Tali sostanze sono state scelte per l’importanza che rivestono nel metabolismo umano e la loro presenza in diversi fluidi biologici, quali sudore o sangue, può essere utile per il monitoraggio, la diagnostica e la prevenzione di diverse malattie. I sensori possono essere fabbricati mediante semplici processi di stampa su un tessuto indossabile permettendo così di monitorare tali fattori in tempo reale e con un ingombro estremamente ridotto. Il tempo di vita del dispositivo tessile è stata valutata sottoponendolo a diversi cicli di lavaggio.
Resumo:
Il Mar Ionio è una delle zone tettonicamente più attive del Mediterraneo e per questo rappresenta un’area ottimale per studiare i rapporti tra sedimentazione e tettonica. Più del 90% dei sedimenti quaternari del Mar Ionio sono costituiti da unità torbiditiche messe in posto da sismi, in particolare, uno di questi depositi è definito “Homogenite” oppure “HAT” (Homogenite/Augias Turbidite), riferibile al terremoto/tsunami di Creta del 365 d.C.. In questo contesto, l’analisi delle associazioni a foraminiferi bentonici all’interno delle unità torbiditiche può fornire utili indicazioni riguardo ai paleoambienti di provenienza del sedimento. Lo scopo della tesi è studiare le associazioni a foraminiferi presenti all’interno del sondaggio CQ14_01, prelevato nel Mar Ionio a 3793 m di profondità, nel prisma di accrezione calabro e che presenta una successione riferibile alla HAT dello spessore di circa 7 m. All’interno della HAT, le analisi micropaleontologiche hanno evidenziato la presenza di una cospicua quantità di foraminiferi bentonici di dimensioni comprese tra 63 e 125 µm, costituite principalmente da specie presenti in un ampio intervallo batimetrico e subordinatamente da taxa tipici di piattaforma interna (principalmente Patellina corrugata, Spirillina vivipara e Rosalina spp.). La presenza di una quantità relativamente abbondante di taxa di piattaforma interna suggerisce che sia stata l'onda di ritorno dello tsunami a innescare la torbidite, mentre l'onda di andata avrebbe prodotto la rimobilizzazione del sedimento di piattaforma. Un simile modello di innesco delle torbiditi legate a tsunami è stato elaborato per spiegare alcune torbiditi messe in posto a seguito dell'evento sismico di Tohoku-Oki del 2011 (Arai et al., 2013). Lo studio eseguito in questa Tesi suggerisce che l’analisi delle associazioni a foraminiferi in depositi torbiditici può costituire uno strumento utile per determinare i paleoambenti di provenienza dei fossili e probabilmente anche per ricostruire le modalità di innesco e di messa in posto dei flussi torbiditici.
Resumo:
Questa tesi di laurea si riferisce allo studio cinematico e morfologico di flussi granulari composti di materiale vulcanico naturale tramite la strumentazione sperimentale GRANFLOW-sim presso il Dipartimento di Scienze Geologiche dell’Università Autonoma di San Luis Potosì in Messico. E’ stato adottato un approccio sperimentale finalizzato a riprodurre le condizioni fisico-meccaniche di flussi granulari secchi in piccola scala riconducibili a differenti ambienti deposizionali naturali e artificiali. La strumentazione è composta da una canaletta di alimentazione ad inclinazione fissa di 40° ed un piano di deposizione a inclinazioni variabile da 0° a 20° al fine di simulare diverse condizioni deposizionali. Specifici sensori in posizione fissa sullo strumento hanno consentito di raccogliere dati cinematici del flusso e morfologici del deposito corrispondente, rielaborati in profili di velocità e modelli morfologici digitali per ognuno degli esperimenti effettuati. E’ stata osservata una tripartizione del fronte del flusso granulare caratterizzata da i) clasti balistici isolati, ii) un fronte disperso costituito da clasti saltellanti che precede l’arrivo del iii) fronte compatto del flusso costituito dalla parte principale del materiale trasportato. La normalizzazione dei dati cinematici e morfologici ha reso possibile l’elaborazione di relazioni empiriche per lunghezza e larghezza del deposito e velocità massima del flusso in funzione di variabili condizioni di slope-ratio (rapporto tra l’inclinazione del piano di deposizione e della canaletta) e ΔH (differenza di quota tra l’area sorgente del flusso ed il fronte compatto del deposito). Queste relazioni sono state confrontate con i valori ottenuti da Zanchetta et al. (2004) per i flussi granulari naturali nell’area di Sarno, unico caso di studio reale confrontabile con le condizioni sperimentali adottate in questa tesi. Tale confronto ha mostrato una buona corrispondenza tra dati sperimentali e situazione reale nei casi in cui l’effetto di canalizzazione dei flussi granulari era trascurabile. Ciò evidenzia la possibilità di calibrare la strumentazione GRANFLOW-sim al fine di incorporare la valutazione dell’effetto di canalizzazione, ampliando il raggio di utilizzo delle relazioni empiriche ad un numero maggiore di casi di studio di flussi granulari naturali.
Resumo:
Il presente lavoro affronta la tematica delle morfologie calanchive, forme ardite ed affascinanti, ma anche associate ad un certo grado di rischio idrogeologico per le infrastrutture, e si pone l'obiettivo di caratterizzare i bacini all'interno dell'area di studio per individuarne differenze che possano contribuire a spiegare la genesi e l'evoluzione dei fenomeni di evoluzione delle forme e del paesaggio
Resumo:
analisi sulle variazioni climati del bacino della diga di Ridracoli
Resumo:
Del granulato di ossido di stronzio (anche nella formula carbonato) è stato testato come nuovo possibile materiale di utilizzo per la cattura ad alta temperatura di diossido di carbonio da effluenti gassosi di scarto. Sono stati condotti diversi esperimenti con strumentazioni già preposte, quali test termogravimetrici, microscopia elettronica (SEM) e Xray (XRD). Mentre per la sperimentazione in quantità più rilevanti di materiale è stato costruito un impianto a letto fisso ex novo. Le prove TG hanno evidenziato una capacità media di sorbente parti a circa il 5% in massa di ossido, a temperature tra i 1100°C e i 1200°C, in situazione di regime (dopo numerosi cicli di carb/calc), con una buona conservazione nel tempo delle proprietà adsorbitive, mentre per le prove a letto fisso, si è registrato un calo di valori variabile tra il 3 e il 4%, con un netto miglioramento nel caso di calcinazione in vapore surriscaldato fino al 5%. Il trattamento in vapore ha sortito l’importante effetto di calcinazione del diossido di carbonio dal sorbente, quindi facilmente separabile dal flusso in uscita, misurato tramite cattura in una soluzione di idrossido di bario. Importanti fenomeni di sintering e densificazione hanno portato ad occludere completamente la camera di reazione sviluppando notevoli sovrappressioni interne. Tali fenomeni sono stati approfonditi tramite analisi SEM e XRD. Si è constatato un aumento notevole della grandezza dei granuli in caso di trattamento in vapore con la formazione di legami stabili e con conservazione della porosità. Nel caso di trattamento senza vapore surriscaldato i granuli hanno sinterizzato tramite formazione di legami, ma sempre con conservazione della macroporosità. Il lavoro di tesi è stato inquadrato nel contesto tecnologico al riguardo le tecniche CCS esistenti ed in progetto, con un attento studio bibliografico riguardo lo stato dell’arte, impianti esistenti, costi, metodi di cattura usati, metodologie di trasporto dei gas, metodologie di stoccaggio esistenti e in progetto. Si sono considerati alcuni aspetti economici per sviluppare un modello previsionale di spesa per una possibile applicazione di cattura per un impianto di produzione energetica. Con la progettazione e dimensionamento di un sistema integrato di adsorbimento tramite l’accoppiamento di 2 reattori dedicati ai cicli di carbonatazione e calcinazione del materiale sorbente. Infine si sono considerati gli aspetti salienti dello stoccaggio del diossido di carbonio in reservoir tramite le tecniche di EOR e EGR (Enhanced Oil/Gas Recovery) utilizzando la stessa CO2 come fluido spiazzante degli idrocarburi in posto. Concludendo il lavoro di tesi e di sperimentazione ha contribuito in modo tangibile allo scopo prefissato, andando a caratterizzare un nuovo materiale per la cattura di diossido di carbonio da effluenti gassosi ad alta temperatura, ed andando a verificare un’importante fenomeno rigenerativo non previsto delle capacità sorbitive dei materiali sottoposti a test.
Resumo:
Questo elaborato tratta alcuni dei più noti framework di programmazione avanzata per la costruzione di piattaforme distribuite che utilizzano il linguaggio di programmazione avanzata Scala come fulcro principale per realizzare i propri protocolli. Le tecnologie analizzate saranno Finagle, Akka, Kafka e Storm. Per ciascuna di esse sarà presente una sezione di introduzione, documentazione e un esempio di codice. L’obiettivo dell’elaborato è l’analisi approfondita delle tecnologie sopraelencate per comprendere a fondo le tecniche di programmazione che le rendono uniche nel loro genere. Questo percorso fornisce una chiave di lettura obiettiva e chiara di ciascuna tecnologia, sarà cura del lettore proseguire nello studio individuale della specifica tecnica che ritiene essere più efficace o interessante. Alla fine della tesi è presente un aperto dibattito in cui le quattro tecnologie vengono messe a confronto e giudicate in base alle loro caratteristiche. Inoltre vengono ipotizzate realtà in cui si possa trovare collaborazione tra i vari framework ed, infine, è presente una mia personale opinione basata sulla mia esperienza in merito.
Resumo:
Questa tesi si pone l'obiettivo di esplorare alcuni aspetti di uno dei settori più in crescita in questi anni (e nei prossimi) in ambito informatico: \textbf{Internet of Things}, con un occhio rivolto in particolar modo a quelle che sono le piattaforme di sviluppo disponibili in questo ambito. Con queste premesse, si coglie l'occasione per addentrarsi nella scoperta della piattaforma realizzata e rilasciata da pochi mesi da uno dei colossi del mercato IT: Microsoft. Nel primo capitolo verrà trattato Internet of Things in ambito generale, attraverso una panoramica iniziale seguita da un'analisi approfondita dei principali protocolli sviluppati per questa tecnologia. Nel secondo capitolo verranno elencate una serie di piattaforme open source disponibili ad oggi per lo sviluppo di sistemi IoT. Dal terzo capitolo verrà incentrata l'attenzione sulle tecnologie Microsoft, in particolare prima si tratterà Windows 10 in generale, comprendendo \emph{UWP Applications}. Di seguito, nel medesimo capitolo, sarà focalizzata l'attenzione su Windows IoT Core, esplorandolo dettagliatamente (Windows Remote Arduino, Modalità Headed/Headless, etc.). Il capitolo a seguire concernerà la parte progettuale della tesi, comprendendo lo sviluppo del progetto \textbf{Smart Parking} in tutte le sue fasi (dei Requisiti fino ad Implementazione e Testing). Nel quinto (ed ultimo) capitolo, saranno esposte le conclusioni relative a Windows IoT Core e i suoi vantaggi/svantaggi.
Resumo:
La tesi ha lo scopo di indagare le tecnologie disponibili per la realizzazione di linguaggi di programmazione e linguaggi domain specific in ambiente Java. In particolare, vengono proposti e analizzati tre strumenti presenti sul mercato: JavaCC, ANTLR e Xtext. Al termine dell’elaborato, il lettore dovrebbe avere un’idea generale dei principali meccanismi e sistemi utilizzati (come lexer, parser, AST, parse trees, etc.), oltre che del funzionamento dei tre tools presentati. Inoltre, si vogliono individuare vantaggi e svantaggi di ciascuno strumento attraverso un’analisi delle funzionalità offerte, così da fornire un giudizio critico per la scelta e la valutazione dei sistemi da utilizzare.
Resumo:
Lo scopo dell’elaborato di tesi è la progettazione e lo sviluppo di un’applicazione per il modulo Bluetooth Low Energy (BLE) Texas Instrument CC2650 in grado di leggere le informazioni da un sensore analogico, tramite un Analog-Digital- Converter (ADC), e di scambiare i dati con uno smartphone Android in tempo reale. L’interfaccia realizzata deve essere universale, ovvero dovrà essere compatibile con sensori di diverso tipo, facilmente estensibile per l’aggiunta di un numero maggiore di periferiche di lettura e utilizzabile con un ampio numero di dispositivi.
Resumo:
Questa tesi esamina la progettazione e lo sviluppo di un'applicazione mobile Android che è in grado di gestire l'attività sportiva di un utente. L'applicazione offre numerose funzionalità, che permettono all'utente di eseguire allenamenti per il fitness e allenamenti per la corsa, tenendo sempre sotto controllo i risultati ottenuti e tutte le informazioni necessarie. Oltre ad eseguire allenamenti l'utente può crearne di propri e modificarli a suo piacimento, in più nell'App è inserito lo shop dove l'utilizzatore può comprare allenamenti messi a disposizione direttamente da FitBody. Gli aspetti visti sopra saranno descritti attraverso un'analisi del problema e un'analisi sulla progettazione architetturale. In particolare verranno sottolineati aspetti riguardanti l'interazione tra utenti e l'utilizzo di API che permetteranno all'utilizzatore di condividere le proprie esperienze sul social network Facebook e di avere un'esperienza completa con l'app. In questo scritto si parlerà anche della comunicazione tra applicazione e server, che avviene grazie a chiamate HTTP con metodo POST. Attraverso queste chiamate l'applicazione leggerà e scriverà informazioni sul database online, 'hostato' sulla piattaforma Altervista. L'applicazione web, di cui sarà data solamente un'infarinatura, è stata sviluppata utilizzando il linguaggio di programmazione PHP. Ogni 'response' inviata dal server al client è composta da uno o più oggetti JSON.
Resumo:
Una delle scoperte più importanti del novecento, nel ambito della fisica nucleare e della nucleosintesi degli elementi all'interno delle stelle, è sicuramente rappresentata dallo stato di Hoyle, scoperto dall'astrofisico inglese Fred Hoyle nel 1954. Lo stato di Hoyle è un livello eccitato del nucleo dell'atomo di carbonio-12 a 7,65 MeV, la cui importanza risiede nel fatto che grazie alla sua presenza la produzione di carbonio-12 nei nuclei delle giganti rosse (uno stadio dell'evoluzione stellare) aumenta di circa un fattore 10^7, permettendo così l'esistenza di forme di vita intelligenti basate sul carbonio, ovvero noi. Proprio a causa di questa mia ultima affermazione esso viene, in letteratura, spesso affiancato a un principio, chiamato principio antropico, formulato nel 1973 dallo scienziato australiano Brandon Carter e secondo il quale noi ci dobbiamo aspettare di osservare soltanto quelle condizioni che sono necessarie per la nostra presenza e osservazione. Visto lo stretto legame che sembra esistere tra la scoperta di Hoyle e il principio formulato da Carter, l'obbiettivo di questa tesi sarà quindi quello di trattare lo stato di Hoyle con un particolare occhio di riguardo al suo legame con il principio antropico.