301 resultados para A. Matteo
Resumo:
La sostituzione di materie prime provenienti da risorse fossili con biomasse rinnovabili, utilizzando un processo a basso impatto ambientale, è una delle più importanti sfide della "Green Chemistry". Allo stesso tempo, la sintesi di resine epossidiche fornisce la chiave per la realizzazione di materiali ad alto valore aggiunto. Tuttavia, ad oggi, il 90% della produzione di resine epossidiche è basato sull'uso di bisfenolo A, che ha effetti di xenoestrogeno, ed epicloridrina, tossica e cancerogena. Su queste basi, è stata individuata una strategia sintetica per la sintesi di prepolimeri innovativi per resine epossidiche, che utilizza come substrato di reazione diidrossibenzeni di origine naturale ed evita l'uso di epicloridrina e altri reagenti tossici o pericolosi. La suddetta strategia sintetica è basata sulla sequenza: allilazione dei diidrossibenzeni - epossidazione dei doppi legami ottenuti. In questa procedura non vengono utilizzati drastiche condizioni di reazione e il solvente è acqua, con una catalisi di trasferimento di fase o, in aggiunte di acetonitrile, in un sistema bifasico. La resa complessiva dei due “step” dipende dalla posizione dei due ossidrili nei diidrossibenzeni. Il reagente che porta la resa massima è l’idrochinone (1,4 diidrossibenzene), che, come riportato in letteratura, permette la formazione di resine epossidiche con proprietà simili alle resine di epicloridrina e bisfenolo A. The substitution of raw materials from fossil fuels with renewable biomass using a low environmental impact process is one of the greatest challenges of the "Green Chemistry". At the same time, the synthesis of epoxy resins provides the key to the realization of high added value materials. However, 90% of the production of epoxy resins is based on the use of bisphenol A, a xenoestrogen, and epichlorohydrin, that is toxic and carcinogenic. On these bases, a synthetic strategy for the synthesis of innovative prepolymers of epoxy resins, that uses dihydroxybenzenes of natural origin as reaction substrates and avoids the use of epichlorohydrin and other toxic or dangerous reagents has been identified. The above synthetic strategy is based on the sequence: allylation of dihydroxybenzenes - epoxidation of the double bonds obtained. In this procedure, drastic reaction conditions are dismissed and the solvent used is water with a phase transfer catalysis or, in addition, acetonitrile in a biphasic system. The overall yield of the two steps depends on the position of the two hydroxyls of the dihydroxybenzenes. The reagent that leads to the highest yield is hydroquinone (1,4 dihydroxybenzene), which, as reported in literature, allows the formation of epoxy resins with similar properties to the resins from bisphenol A and epichlorohydrin.
Resumo:
Si è proposto una serie di 4 assiomi per la MQ più deboli, e quindi più fondamentali, da cui è possibile dedurre i concetti di misura di probabilità, equazione di Schrodinger e operatori autoaggiunti, considerati i pilastri della MQ. Si è cercato di trovare le motivazioni fisiche che rendevano necessaria la loro formulazione e si sono sviluppate le conseguenze matematiche. In particolare ci si è focalizzati nel dimostrare che non a tutte le osservabili possono essere associati operatori simmetrici definiti su tutto lo spazio di Hilbert, da cui l’introduzione negli assiomi della MQ degli operatori simmetrici massimali densamente definiti; il punto fondamentale è che da questi ultimi è stato provato che si può arrivare alla corrispondenza biunivoca tra operatori autoaggiunti ed osservabili fisiche. Si è infine dimostrato che la condizione che un operatore sia simmetrico massimale non implica che esso sia autoaggiunto.
Resumo:
Il lavoro della tesi si basa su prove di reattivtà di etanolo su catalizzatori formati da ossidi misti contenenti vanadio, in particolare un ferro vanadato e un rame vanadato, allo scopo di determinare la possibilità di ottenere chemicals di interesse a partire da una materia rinnovabile in processi one-pot consumando in situ intermendi pericolosi ( es. acetaldeide). Le prove sono state effettuate in un reattore tubolare in vetro, in continuo e a letto fisso. Le analisi della miscela uscente dal reattore sono state eseguite online per gascromatografia. Le varie prove sono state eseguite variando la composizione della miscela reagente, in particolare aggiungendo alternativamente e simultaneamente acqua e ossigeno alla miscela di etanolo e azoto ( sempre presenti nell'alimentazione). Per ogni miscela sono state eseguite prove a varie temperature. I catalizzatori sono stati caratterizzati via spettroscopia Rama, IR, XRD prima e dopo le varie reattvità.
Resumo:
La tesi riguarda l'utilizzo del DNA come archivio digitale; vengono mostrati i vantaggi di questo approccio concettuale, il metodo di codifica per ottenere le stringhe di DNA partendo da un generico file, l'efficienza del protocollo e i suoi costi.
Resumo:
In questa tesi sulla forma collettiva, argomento molto dibattuto dagli studiosi, prendo in considerazione alcuni fra i più importanti testi teorici sull’architettura. Nel mio percorso di studio il libro di Fumihiko Maki “Ricerca sulla forma collettiva è il punto di partenza. Dopo averlo letto, studiato e tradotto ho scelto di concentrarmi sull’interessante classificazione che Maki fa a proposito delle forme in architettura. Questa vuole cercare di essere quanto mai universale e funzionale alla comprensione del progetto di architettura. Si parla di forma compositiva, megastruttura e forma a gruppo, e in queste rientrano le architetture del passato come quelle del presente. Per ognuna di queste tre forme ho scelto un trattato o libro che descrivesse ciascuna di esse in modo diverso o più ampio. Per la forma compositiva “Architettura della città” di Aldo Rossi; per la megastruttura “Le tentazioni dell’architettura: Megastruttura di Reyner Banham; per la forma a gruppo “Architettura senza architetti” di Bernard Rudofsky. Ho letto, studiato questi libri e ne riporto qui una relazione ragionata corredata da citazioni. Infine, nelle conclusioni, affianco il materiale fino ad ora accumulato ai miei progetti di architettura svolti durante gli anni di studio in questa facoltà, spiegandoli brevemente alla luce della classificazione di Maki e delle letture sopra menzionate.
Resumo:
Realizzazione di una libreria che permetta ad applicazioni di diverso tipo e distribuite sulla rete di scambiarsi messaggi con lo scopo di estendere le funzionalità di ciascuna applicazione con quelle fornite dalle altre applicazioni e di rendere virtuali le risorse aziendali, permettendo in questo modo alla logica di business del sistema sanitario di essere sviluppata e gestita indipendentemente dall’infrastruttura della rete e senza apportare modifiche alle applicazioni già sviluppate.
Resumo:
La microscopia Kerr magneto-ottica è una tecnica di caratterizzazione magnetica che permette di ottenere informazioni sulla magnetizzazione superficiale di un campione ferromagnetico. La sensibilità locale e superficiale di questa tecnica, che è determinata sia dalla capacità di un microscopio ottico di ottenere un'immagine della superficie del campione che dalla profondità di penetrazione della luce visibile nei metalli, la rende adatta allo studio delle proprietà fisiche di nanostrutture magnetiche. Attraverso l'uso del microscopio Kerr di proprietà del Gruppo di Nanomagnetismo parte del Centro Cooperativo di Ricerca nanoGUNE Consolider (San Sebastian - Spagna), è stato possibile indagare l'effetto dato dall'anisotropia di scambio in nanostrutture magnetiche, per capire il comportamento di tale effetto in geometrie confinate al variare della temperatura. Questo studio ha permesso di individuare i limiti dello strumento e di conseguenza di estenderne le funzionalità. I principali interventi eseguiti hanno riguardato la stabilizzazione meccanica del sistema e lo sviluppo di un nuovo programma di acquisizione dati. Inoltre, la capacità di ottenere cicli di isteresi da singole nanostrutture magnetiche è stata sfruttata nello sviluppo di un nuovo tipo di dispositivo per la manipolazione di nanoparticelle magnetiche in soluzione, il cui principio di funzionamento si basa sulla mobilità delle pareti di dominio all'interno di anelli ferromagnetici con dimensione micro o nanometrica e sull'accoppiamento magnetostatico tra tali pareti di dominio e nanoparticelle superparamagnetiche trasportate in soluzione.
Resumo:
Lo studio dell’intelligenza artificiale si pone come obiettivo la risoluzione di una classe di problemi che richiedono processi cognitivi difficilmente codificabili in un algoritmo per essere risolti. Il riconoscimento visivo di forme e figure, l’interpretazione di suoni, i giochi a conoscenza incompleta, fanno capo alla capacità umana di interpretare input parziali come se fossero completi, e di agire di conseguenza. Nel primo capitolo della presente tesi sarà costruito un semplice formalismo matematico per descrivere l’atto di compiere scelte. Il processo di “apprendimento” verrà descritto in termini della massimizzazione di una funzione di prestazione su di uno spazio di parametri per un ansatz di una funzione da uno spazio vettoriale ad un insieme finito e discreto di scelte, tramite un set di addestramento che descrive degli esempi di scelte corrette da riprodurre. Saranno analizzate, alla luce di questo formalismo, alcune delle più diffuse tecniche di artificial intelligence, e saranno evidenziate alcune problematiche derivanti dall’uso di queste tecniche. Nel secondo capitolo lo stesso formalismo verrà applicato ad una ridefinizione meno intuitiva ma più funzionale di funzione di prestazione che permetterà, per un ansatz lineare, la formulazione esplicita di un set di equazioni nelle componenti del vettore nello spazio dei parametri che individua il massimo assoluto della funzione di prestazione. La soluzione di questo set di equazioni sarà trattata grazie al teorema delle contrazioni. Una naturale generalizzazione polinomiale verrà inoltre mostrata. Nel terzo capitolo verranno studiati più nel dettaglio alcuni esempi a cui quanto ricavato nel secondo capitolo può essere applicato. Verrà introdotto il concetto di grado intrinseco di un problema. Verranno inoltre discusse alcuni accorgimenti prestazionali, quali l’eliminazione degli zeri, la precomputazione analitica, il fingerprinting e il riordino delle componenti per lo sviluppo parziale di prodotti scalari ad alta dimensionalità. Verranno infine introdotti i problemi a scelta unica, ossia quella classe di problemi per cui è possibile disporre di un set di addestramento solo per una scelta. Nel quarto capitolo verrà discusso più in dettaglio un esempio di applicazione nel campo della diagnostica medica per immagini, in particolare verrà trattato il problema della computer aided detection per il rilevamento di microcalcificazioni nelle mammografie.
Resumo:
The objective of this dissertation is to study the structure and behavior of the Atmospheric Boundary Layer (ABL) in stable conditions. This type of boundary layer is not completely well understood yet, although it is very important for many practical uses, from forecast modeling to atmospheric dispersion of pollutants. We analyzed data from the SABLES98 experiment (Stable Atmospheric Boundary Layer Experiment in Spain, 1998), and compared the behaviour of this data using Monin-Obukhov's similarity functions for wind speed and potential temperature. Analyzing the vertical profiles of various variables, in particular the thermal and momentum fluxes, we identified two main contrasting structures describing two different states of the SBL, a traditional and an upside-down boundary layer. We were able to determine the main features of these two states of the boundary layer in terms of vertical profiles of potential temperature and wind speed, turbulent kinetic energy and fluxes, studying the time series and vertical structure of the atmosphere for two separate nights in the dataset, taken as case studies. We also developed an original classification of the SBL, in order to separate the influence of mesoscale phenomena from turbulent behavior, using as parameters the wind speed and the gradient Richardson number. We then compared these two formulations, using the SABLES98 dataset, verifying their validity for different variables (wind speed and potential temperature, and their difference, at different heights) and with different stability parameters (zita or Rg). Despite these two classifications having completely different physical origins, we were able to find some common behavior, in particular under weak stability conditions.
Resumo:
La mancanza di procedure standard per la verifica delle strutture in compositi, al contrario dei materiali metallici, porta all’esigenza di una continua ricerca nel settore, al fine di ottenere risultati significativi che culminino in una standardizzazione delle procedure. In tale contesto si colloca la ricerca svolta per la stesura del presente elaborato, condotta presso il laboratorio DASML del TU Delft, nei Paesi Bassi. Il materiale studiato è un prepreg (preimpregnated) costituito da fibre di carbonio (M30SC) e matrice epossidica (DT120) con la particolare configurazione [0°/90°/±45°/±45°/90°/0°]. L’adesivo utilizzato per l’incollaggio è di tipo epossidico (FM94K). Il materiale è stato assemblato in laboratorio in modo da ottenere i provini da testare, di tipo DCB, ENF e CCP. Due differenti qualità dello stesso materiale sono state ottenute, una buona ottenuta seguendo le istruzione del produttore, ed una povera ottenuta modificando il processo produttivo suggerito, che risulta in un incollaggio di qualità nettamente inferiore rispetto al primo tipo di materiale. Lo scopo era quello di studiare i comportamenti di entrambe le qualità sotto due diversi modi di carico, modo I o opening mode e modo II o shear mode, entrambi attraverso test quasi-statici e a fatica, così da ottenere risultati comparabili tra di essi che permettano in futuro di identificare se si dispone di un materiale di buona qualità prima di procedere con il progetto dell’intera struttura. L’approccio scelto per lo studio dello sviluppo della delaminazione è un adattamento della teoria della Meccanica della Frattura Lineare Elastica (LEFM)
Resumo:
Lo scopo del lavoro è simulare il comportamento di un sistema di misura dell'assetto detto ARS (Attitude Reference System), dove sostanzialmente le misure fornite da giroscopi ed accelerometri, quindi accelerazioni e velocità angolari, vengono elaborate da un filtro osservatore dello stato che permette di ricavare la stima dell'angolo di elevazione Q e dell'angolo di inclinazione f, non misurabili direttamente, e quindi dell'orientamento del sistema rispetto al piano orizzontale.
Resumo:
Studio e ottimizzazione velivolo
Resumo:
Questo elaborato illustra il problema della determinazione di una tecnica per rendere la misura della cardiac output il più possibile accurata, economica e poco invasiva. A tale scopo è preso in esame un nuovo metodo basato sul modello WindKessel per la stima continua battito a battito di CO e TPR, partendo dall’analisi delle forme d’onda della pressione arteriosa periferica. Tale metodo ideato nel 2007 da T.A. Parlikar considera informazioni pressorie intrabattito e interbattito, in modo da ottenere stime soddisfacenti, che migliorano ulteriormente assumendo una complianza pressione-dipendente. Applicando il metodo a un data set di animali suini, contenente misurazioni della CO di riferimento su base battito-battito, si riscontra un errore di stima complessivo pari a un RMNSE medio variabile tra l’11% ed il 13%, inferiore alla soglia del 15% ritenuta accettabile in letteratura per scopi clinici. Confrontando questi risultati con quelli ottenuti attraverso l’applicazione di altri metodi riportati in letteratura allo stesso set di dati, è stato dimostrato che il metodo risulta tra i migliori. Le CO e TPR stimate, dopo le infusioni farmacologiche endovenose effettuate sugli animali, corrispondono abbastanza fedelmente alle risposte emodinamiche attese. Successivamente viene considerato l’obbiettivo di verificare l’applicabilità della procedura matematica sulla quale si fonda il metodo. Si implementa il procedimento e si applica il metodo su un data set simulato su base battito-battito, comprendente dati relativi a varie condizioni di funzionamento fisiologiche. Le stime di CO e TPR ottenute in questa fase inseguono discretamente le variazioni delle variabili emodinamiche simulate, dimostrandosi migliori nel caso di calibrazione con complianza pressione-dipendente.
Resumo:
The aim of the present thesis was to investigate the influence of lower-limb joint models on musculoskeletal model predictions during gait. We started our analysis by using a baseline model, i.e., the state-of-the-art lower-limb model (spherical joint at the hip and hinge joints at the knee and ankle) created from MRI of a healthy subject in the Medical Technology Laboratory of the Rizzoli Orthopaedic Institute. We varied the models of knee and ankle joints, including: knee- and ankle joints with mean instantaneous axis of rotation, universal joint at the ankle, scaled-generic-derived planar knee, subject-specific planar knee model, subject-specific planar ankle model, spherical knee, spherical ankle. The joint model combinations corresponding to 10 musculoskeletal models were implemented into a typical inverse dynamics problem, including inverse kinematics, inverse dynamics, static optimization and joint reaction analysis algorithms solved using the OpenSim software to calculate joint angles, joint moments, muscle forces and activations, joint reaction forces during 5 walking trials. The predicted muscle activations were qualitatively compared to experimental EMG, to evaluate the accuracy of model predictions. Planar joint at the knee, universal joint at the ankle and spherical joints at the knee and at the ankle produced appreciable variations in model predictions during gait trials. The planar knee joint model reduced the discrepancy between the predicted activation of the Rectus Femoris and the EMG (with respect to the baseline model), and the reduced peak knee reaction force was considered more accurate. The use of the universal joint, with the introduction of the subtalar joint, worsened the muscle activation agreement with the EMG, and increased ankle and knee reaction forces were predicted. The spherical joints, in particular at the knee, worsened the muscle activation agreement with the EMG. A substantial increase of joint reaction forces at all joints was predicted despite of the good agreement in joint kinematics with those of the baseline model. The introduction of the universal joint had a negative effect on the model predictions. The cause of this discrepancy is likely to be found in the definition of the subtalar joint and thus, in the particular subject’s anthropometry, used to create the model and define the joint pose. We concluded that the implementation of complex joint models do not have marked effects on the joint reaction forces during gait. Computed results were similar in magnitude and in pattern to those reported in literature. Nonetheless, the introduction of planar joint model at the knee had positive effect upon the predictions, while the use of spherical joint at the knee and/or at the ankle is absolutely unadvisable, because it predicted unrealistic joint reaction forces.
Resumo:
Il presente lavoro di tesi è stato svolto presso la DTU, Technical University of Denmark, nel Department of Energy Conversion and Storage, Riso Campus. Lo scopo del periodo di soggiorno estero è stato quello di caratterizzare appropriati moduli termoelettrici forniti da aziende del settore, utilizzando un opportuno apparato di caratterizzazione. Quest’ultimo è noto come “module test system” e, nello specifico, è stato fornito dalla PANCO GmbH, azienda anch’essa attiva nel campo delle tecnologie termoelettriche. Partendo da uno studio teorico dei fenomeni fisici interessati (effetto Seebeck per la produzione di potenza termoelettrica), si è cercato in seguito di analizzare le principali caratteristiche, ed elementi, del “module test system”. Successivamente a questa prima fase di analisi, sono stati condotti esperimenti che, con l’aiuto di modelli computazionali implementati attraverso il software Comsol Multiphysics, hanno permesso di studiare l’affidabilità del sistema di caratterizzazione. Infine, una volta acquisite le basi necessarie ad una corretta comprensione dei fenomeni fisici e delle caratteristiche relative alla strumentazione, sono stati analizzati moduli termoelettrici di tipo commerciale. In particolare, sono stati estrapolati dati quali correnti, tensioni, gradienti di temperatura, che hanno permesso di ricavare flussi termici, efficienze, e potenze che caratterizzano il modulo in questione durante le condizioni di funzionamento. I risultati ottenuti sono stati successivamente comparati con dati forniti dal produttore, presenti sul catalogo.