136 resultados para ipersuperfici quadriche quadrica di Klein superficie di Veronese
Resumo:
Viene proposta una possibile soluzione al problema del tracking multitarget, tramite una rete di sensori radar basata su tecnoligia ultra wide-band. L'area sorvegliata ha una superficie pari a 100 metri quadri e all'interno di essa si vuole tracciare la traiettoria di più persone.
Resumo:
Al fine di migliorare le tecniche di coltura cellulare in vitro, sistemi a bioreattore sono sempre maggiormente utilizzati, e.g. ingegnerizzazione del tessuto osseo. Spinner Flasks, bioreattori rotanti e sistemi a perfusione di flusso sono oggi utilizzati e ogni sistema ha vantaggi e svantaggi. Questo lavoro descrive lo sviluppo di un semplice bioreattore a perfusione ed i risultati della metodologia di valutazione impiegata, basata su analisi μCT a raggi-X e tecniche di modellizzazione 3D. Un semplice bioreattore con generatore di flusso ad elica è stato progettato e costruito con l'obiettivo di migliorare la differenziazione di cellule staminali mesenchimali, provenienti da embrioni umani (HES-MP); le cellule sono state seminate su scaffold porosi di titanio che garantiscono una migliore adesione della matrice mineralizzata. Attraverso un microcontrollore e un'interfaccia grafica, il bioreattore genera tre tipi di flusso: in avanti (senso orario), indietro (senso antiorario) e una modalità a impulsi (avanti e indietro). Un semplice modello è stato realizzato per stimare la pressione generata dal flusso negli scaffolds (3•10-2 Pa). Sono stati comparati tre scaffolds in coltura statica e tre all’interno del bioreattore. Questi sono stati incubati per 21 giorni, fissati in paraformaldehyde (4% w/v) e sono stati soggetti ad acquisizione attraverso μCT a raggi-X. Le immagini ottenute sono state poi elaborate mediante un software di imaging 3D; è stato effettuato un sezionamento “virtuale” degli scaffolds, al fine di ottenere la distribuzione del gradiente dei valori di grigio di campioni estratti dalla superficie e dall’interno di essi. Tale distribuzione serve per distinguere le varie componenti presenti nelle immagini; in questo caso gli scaffolds dall’ipotetica matrice cellulare. I risultati mostrano che sia sulla superficie che internamente agli scaffolds, mantenuti nel bioreattore, è presente una maggiore densità dei gradienti dei valori di grigio ciò suggerisce un migliore deposito della matrice mineralizzata. Gli insegnamenti provenienti dalla realizzazione di questo bioreattore saranno utilizzati per progettare una nuova versione che renderà possibile l’analisi di più di 20 scaffolds contemporaneamente, permettendo un’ulteriore analisi della qualità della differenziazione usando metodologie molecolari ed istochimiche.
Resumo:
In questo elaborato di tesi viene presentata la comparazione tra due codici CFD, rispettivamente Fluent e OpenFOAM, mediante simulazioni che sono alla base di uno studio numerico di flusso attorno ad un pantografo per treno ad alta velocità. Si è apprezzato quindi la facilità d’uso di un software venduto tramite licenza e la difficoltà di un software open source come OpenFOAM, il quale però ha vantaggi in termini di adattamento ai casi più specifici. Sono stati quindi studiati due casi, scambio termico in regime laminare attorno ad un cilindro bidimensionale e flusso turbolento completamente sviluppato in un canale. Tutte le simulazioni numeriche hanno raggiunto convergenza e sono state validate positivamente mediante confronto con dati sperimentali. Il primo caso prevede un cilindro investito da un flusso a temperatura minore rispetto alla temperatura della superficie del cilindro; per avere più riscontri, sono state condotte diverse prove a valori differenti del numero di Prandtl, e per ogni simulazione è stato ricavato il corrispettivo numero di Nusselt, successivamente comparato con i dati sperimentali per la validazione delle prove. A partire dalla creazione della griglia di calcolo, è stato effettuato uno studio del fenomeno in questione, creando così una griglia di calcolo sviluppata a valle del cilindro avente maggior densità di celle a ridosso della parte del cilindro. In aggiunta, svolgendo le prove con schemi numerici sia del primo che del secondo ordine, si è constatata la miglior sensibilità degli schemi numerici del secondo ordine rispetto a quelli del primo ordine. La seconda tipologia di simulazioni consiste in un flusso turbolento completamente sviluppato all’interno di un canale; sono state svolte simulazioni senza e con l’uso delle wall functions, e quindi usate griglie di calcolo differenti per i due tipi di simulazioni, già disponibili per entrambi i software. I dati ottenuti mostrano uno sforzo computazionale maggiore per le simulazioni che non prevedono l’uso delle wall functions, e quindi una maggiore praticità per le simulazioni con le wall functions. Inoltre, le simulazioni di questo secondo caso sono state svolte con diversi modelli di turbolenza; in Fluent sono stati utilizzati i modelli k-ε e RSM mentre in OpenFOAM è stato utilizzato solo il modello k-ε in quanto il modello RSM non è presente. La validazione dei risultati è affidata alla comparazione con i dati sperimentali ricavati da Moser et all mediante simulazioni DNS, mettendo in risalto la minor accuratezza delle equazioni RANS.
Resumo:
La geolocalizzazione è il processo tramite il quale è possibile mettere in relazione una certa informazione con un punto specifico della superficie terrestre, individuato tramite metodi di localizzazione (quindi il reperimento delle coordinate latidudinali e longitudinali) di un apparato elettronico, sfruttandone le caratteristiche fisiche o ricevendo informazioni dettagliate dallo strumento stesso. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni che possono essere aggiornate di frequente come la posizione e la velocità. La possibilità di rendere dinamico il reperimento di tali informazioni e di poterle rilevare in maniera sempre più dettagliata deriva dalla combinazione di diverse tecnologie che si sono sviluppare nel ventunesimo secolo e che danno ora la possibilità ad ogni dispositivo di poterle comunicare in tempo reale. Grazie alle caratteristiche sopracitate di correlare con immediatezza le informazioni al singolo dispositivo e alla sua posizione geografica, è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In questa tesi analizzerò i vari metodi di posizionamento fino ad oggi studiati, sia indoor (all’interno di edifici) che outdoor (all’esterno). Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Nel terzo e quarto capitolo esploro le tecniche esistenti rispettivamente per situazioni indoor e outdoor, tra cui GPS, localizzazione cellulare, sistemi a infrarossi, sistemi a onde radio e a ultrasuoni.Mi soffermerò inoltre sui vantaggi offerti da nuovi dispositivi con gli smartphones. Nel quinto capitolo analizzerò le caratteristiche di ogni istema, comparandole tra di loro. Farò poi riferimento ad alcuni casi reali di utilizzo di tali tecnologie, prima di concludere con alcune considerazioni personali.
Resumo:
Questo lavoro di tesi ha avuto come obiettivo quello di individuare e studiare diverse strategie di sintesi per la preparazione di catalizzatori a base di Pd-Cu supportati su materiali mesoporosi a basi di SiO2. Queste strategie sono state mirate a migliorare: -Distribuzione della fase metallica attiva e la sua accessibilità; -Formazione della fase mista Pd-Cu; -Dimensione delle specie metalliche sulla superficie; -Differenti caratteristiche morfologiche del supporto. I diversi catalizzatori preparati sono stati poi testati sulla reazione di idrodeclorurazione del 1,2-dicloro-1,1,2-trifluoro-2-(triflurometossi)etano (AM), svolta in fase gas con idrogeno a pressione atmosferica, con lo scopo di ottenere il composto insaturo corrispondente 1,1,2-trifluoro-2-(trifluorometossi)etene (MVE). Attualmente, il processo industriale per la produzione di MVE, è condotto con l’utilizzo di quantità stechiometriche di Zn in dimetilformammide; questo processo a causa delle quantità stechiometriche di ZnCl2 prodotto e dell'elevato consumo di solvente tossico risulta assai dispendioso dal punto di vista economico ed ambientale. La tipologia di materiali microporosi, già investigata, può limitare l'efficienza verso substrati ingombranti, è quindi interessante investigare catalizzatori con dimensione dei pori mesoporosi a base di silice; in particolare sono stati analizzati MCM-41 e silice amorfa GRACE® DAVICAT - 1401. In particolare, durante il lavoro di tesi sono stati sviluppati i seguenti argomenti: 1.Studio degli effetti della metodologia di sintesi e del contenuto metallico sui parametri chimico-fisici e catalitici dei sistemi a base di Pd-Cu supportati su MCM-41 e GRACE® DAVICAT - 1401; 2.Ottimizzazione del processo di sintesi dei supporti di MCM-41, ponendo attenzione alle quantità dei reagenti utilizzati, alla metodologia di eliminazione del templante e al tempo di trattamento idrotermale; 3.Ottimizzazione del processo di sintesi dei sistemi catalitici a base di Pd-Cu, al fine di ottenere una fase attiva costituita da particelle con dimensioni ridotte composte da una fase mista Pd-Cu.
Resumo:
“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.
Resumo:
Nella tesi si arriva a classificare le varietà di Seifert, particolari 3-varietà che ammettono una fibrazione in cerchi. Dopo un'introduzione sulla topologia delle varietà e sulla classificazione delle superfici, vengono presentate le 3-varietà e la decomposizione in fattori primi. Con l'esposizione della decomposizione JSJ vengono introdotte le varietà di Seifert. Infine vengono classificati i fibrati di Seifert, tramite la superficie di base e le pendenze delle fibre singolari.
Resumo:
Gli spazi di Teichmuller nacquero come risposta ad un problema posto diversi anni prima da Bernhard Riemann, che si domandò in che modo poter parametrizzare le strutture complesse supportate da una superficie fissata; in questo lavoro di tesi ci proponiamo di studiarli in maniera approfondita. Una superficie connessa, orientata e dotata di struttura complessa, prende il nome di superficie di Riemann e costituisce l’oggetto principe su cui si basa l’intero studio affrontato nelle pagine a seguire. Il teorema di uniformizzazione per le superfici di Riemann permette di fare prima distinzione netta tra esse, classificandole in superfici ellittiche, piatte o iperboliche. Due superfici di Riemann R ed S si dicono equivalenti se esiste un biolomorfismo f da R in S, e si dice che hanno la stessa struttura complessa. Certamente se le due superfici hanno genere diverso non possono essere equivalenti. Tuttavia, se R ed S sono superfci con lo stesso genere g ma non equivalenti, è comunque possibile dotare R di una struttura complessa, diversa dalla precedente, che la renda equivalente ad S. Questo permette di osservare che R è in grado di supportare diverse strutture complesse non equivalenti tra loro. Lo spazio di Teichmuller Tg di R è definito come lo spazio che parametrizza tutte le strutture complesse su R a meno di biolomorfismo. D’altra parte ogni superficie connessa, compatta e orientata di genere maggiore o uguale a 2 è in grado di supportare una struttura iperbolica. Il collegamento tra il mondo delle superfici di Riemann con quello delle superfici iperboliche è stato dato da Gauss, il quale provò che per ogni fissata superficie R le metriche iperboliche sono in corrispondenza biunivoca con le strutture complesse supportate da R stessa. Questo teorema permette di fornire una versione della definizione di Tg per superfici iperboliche; precisamente due metriche h1, h2 su R sono equivalenti se e soltanto se esiste un’isometria φ : (R, h1 ) −→ (R, h2 ) isotopa all’identità. Pertanto, grazie al risultato di Gauss, gli spazi di Teichmuller possono essere studiati sia dal punto di vista complesso, che da quello iperbolico.
Resumo:
La presente tesi ha riguardato lo studio numerico con un modello 3D dell' interazione tra lo scavo di una galleria urbana e un edificio esistente in muratura, la Stazione di Ferrara Porta Reno (risalente ai primi del '900). A tale scopo è stato utilizzato il programma di calcolo agli elementi finiti Plaxis 3D. Nello studio numerico, per il terreno è stato adottato un modello costitutivo avanzato elasto-plastico con incrudimento isotropo, l’Hardening soil model with small strain stiffness, mentre per la muratura e stato utilizzato il criterio di Mohr-Coulomb. Inoltre, lo scavo della galleria è stato simulato con una procedura per passi, tenendo in conto i principali aspetti del processo. La subsidenza in superficie è stata controllata applicando una contrazione fittizia lungo lo scudo. E’ stata svolta un'analisi numerica in condizione di campo libero, ossia in assenza di strutture, al fine di valutare i movimenti del terreno indotti dal processo di scavo; successivamente sono state eseguite diverse analisi accoppiate, in condizioni di simmetria e con eccentricità della costruzione rispetto all'asse della galleria, per studiare il complesso fenomeno di interazione galleria-terreno-struttura. I risultati di tali analisi accoppiate sono stati utilizzati per effettuare una stima del livello di danno atteso per l'edificio. Le analisi numeriche condotte hanno messo in luce, confermando quanto già noto in letteratura, che la presenza di un edificio a piano campagna interagente con l’opera di scavo modifica la forma del profilo dei cedimenti relativa alle condizioni di campo libero. Tale modifica, che dipende dalle specifiche caratteristiche di rigidezza e peso della struttura presa in esame, generalmente si traduce in una riduzione del cedimento differenziale che può influenzare in modo significativo la stima del danno sull’edificio. Ciò è tanto più evidente, quanto maggiore è la perdita di volume indotta dallo scavo della galleria.
Resumo:
I capodogli (Physeter macrocephalus) sono mammiferi marini con distribuzione cosmopolita; sono presenti anche nel Mar Mediterraneo, soprattutto nella zona occidentale del bacino. Per individuare la presenza di questi animali possono essere utilizzate differenti modalità. Questo studio è stato condotto tramite l’uso di metodi acustici passivi, in quanto i capodogli (P. macrocephalus) sono animali che emettono suoni. L’uso di metodi acustici ha alcuni vantaggi, infatti permette di individuare la presenza di un animale anche se si trova al di sotto della superficie dell’acqua, purché stia emettendo suoni. Le registrazioni possono essere effettuate indipendentemente dalle condizioni meteorologiche e per lunghi periodi di tempo, permettendo la continuità nella raccolta dei dati. Il lavoro di tesi è stato svolto nell’ambito di un Progetto di Ricerca de L’Oceanogràfic di Valencia. Le registrazioni sono state effettuate tramite lo strumento EAR (Ecological Acoustic Recorder) in due aree del Mar Balear, il Mar di Bamba e il Parco Nazionale di Cabrera, in differenti periodi, profondità e con diverse frequenze di campionamento (50 kHz e 5 kHz). I dati ottenuti sono stati analizzati tramite i programmi X-BAT (Extensible Bioacoustic Tool) e Adobe Audition 3.0 al fine di rilevare i pulsi emessi dai capodogli. Per entrambe le aree di studio i dati sono stati elaborati in modo da ottenere modelli giornalieri e stagionali delle ore positive e del numero di pulsi emessi. La presenza di P. macrocephalus è stata confermata in entrambe le aree di studio, e dal confronto delle analisi spettrali dei pulsi si può affermare che, nonostante le differenze, i pulsi registrati in entrambe le aree sono effettivamente emessi da capodogli. Il lavoro di Tesi permette di suggerire che per futuri studi sia applicata la frequenza di registrazione di 20 kHz utilizzando lo strumento SAMARUC, alla cui progettazione ha partecipato L’Oceanogràfic di Valencia.
Resumo:
Questo lavoro di tesi si occupa dello studio dei buchi neri e delle loro proprietà termodinamiche da un punto di vista teorico. Nella prima parte si affronta una analisi teorico-matematica che mostra la soluzione dell’equazione di Einstein in relatività generale per un problema a simmetria sferica. Da questa soluzione si osserva la possibile presenza nell’universo di oggetti ai quali nemmeno alla luce è data la possibilità di fuggire, chiamati buchi neri. Ad ogni buco nero è associato un orizzonte degli eventi che si comporta come una membrana a senso unico: materia e luce possono entrare ma niente può uscire. E` studiata inoltre la possibile formazione di questi oggetti, mostrando che se una stella supera un certo valore critico di massa, durante la fase finale della sua evoluzione avverrà un collasso gravitazionale che nessuna forza conosciuta sarà in grado di fermare, portando alla formazione di un buco nero. Nella seconda parte si studiano le leggi meccaniche dei buchi neri. Queste leggi descrivono l’evoluzione degli stessi attraverso parametri come l’area dell’orizzonte degli eventi, la massa e la gravità di superficie. Si delinea quindi una analogia formale tra queste leggi meccaniche e le quattro leggi della termodinamica, con l’area dell’orizzonte degli eventi che si comporta come l’entropia e la gravità di superficie come la temperatura. Nella terza parte, attraverso l’utilizzo della meccanica quantistica, si mostra che l’analogia non è solo formale. Ad un buco nero è associata l’emissione di uno spettro di radiazione che corrisponde proprio a quello di un corpo nero che ha una temperatura proporzionale alla gravità di superficie. Si osserva inoltre che l’area dell’orizzonte degli eventi può essere interpretata come una misura della informazione contenuta nel buco nero e di conseguenza della sua entropia.
Resumo:
In questo elaborato vengono studiate le proprietà optoelettroniche di film sottili di germanio nanoporosi ottenuti per impiantazione ionica. Viene trattata la tecnica sperimentale della Surface Photovoltage Spectroscopy nella configurazione Metal-Insulator-Semiconductor. Viene osservato che la presenza di struttura nanoporosa provoca due effetti: il primo è l’innalzamento del bandgap energetico dovuta al confinamento quantistico degli elettroni all’interno dei pori; il secondo è l’incremento del segnale SPV per quei film in cui è maggiore il rapporto tra superficie e volume.
Resumo:
In questa tesi si affronta la problematica di determinare l'orientazione della superficie di faglia che sarà interessata da scorrimento relativo, assegnato un certo sforzo tettonico Sigma in base ad un criterio di massima energia rilasciata. Dapprima, introdotte le nozioni di base della meccanica dei continui, si studia il criterio di fagliazione dato dalla teoria di Anderson. In seguito, una volta acquisito questo primo risultato, si applica la teoria delle dislocazioni elastiche, per studiare dal punto di vista energetico la stessa faglia, situata in un semispazio elastico. Assumendo che la faglia massimizzante l'energia rilasciata in seguito alla frattura del mezzo continuo, assegnati i dati del problema, sia quella che più probabilmente sarà soggetta ad attivazione e scorrimento, si confronta quanto ottenuto con i risultati della teoria della fagliazione di Anderson. Entrambi gli approcci presentano conclusioni simili, gli angoli di orientamento infatti sono compresi tra 1/2atan1/f e pi/4 con l'orientazione che tende a pi/4 diminuendo l'influenza dell'attrito o viceversa aumentando lo sforzo applicato sulla superficie di faglia. Tuttavia i due approcci presentano significative differenze quando l'energia rilasciata è molto maggiore di zero.
Resumo:
L’elaborato si propone di trattare i principali meccanismi di produzione dell’energia studiati in ambito astrofisico. L’ambiente di lavoro `e molto vasto e spazia dal “microscopico”, come le reazioni termonucleari, al “macroscopico”, come le contrazioni termodinamiche, le Supernovae, e i dischi di accrescimento. Non essendo possibile trattare tutti i meccanismi esistenti sono stati tralasciati i processi di conversione di energia, come ad esempio l’emissione di Sincrotrone, la Bremsstrahlung e l’effetto Compton Inverso, pur tenendo presente che, visti dall’esterno del sistema dove essi si verificano, tali processi possono essere considerati meccanismi che producono fotoni a spese dell’energia interna del sistema. Data la brevità del testo ci limiteremo ad affrontare solo i meccanismi relativi agli interni stellari, tralasciando per`o lo stadio finale di Supernovae. Una completa impostazione del problema richiederebbe la derivazione formale delle Equazioni fondamentali degli interni stellari che costituiscono l’insieme completo delle equazioni che governano la struttura interna delle stelle, il modo in cui l’energia viene trasportata dal core alla superficie, l’opacità e i tassi di produzione di energia. Si assume tale derivazione come già affrontata, riferendosi alle parti dei testi [5] e [6] in bibliografia che trattano questi argomenti.
Resumo:
Il Projection Mapping è una tecnologia che permette di proiettare delle immagini sulla superficie di uno o più oggetti, anche di forma irregolare, trasformandoli in display interattivi. Il suo utilizzo, abbinato a suoni e musiche, permette di creare una narrazione audio-visuale. La suggestione e l’emozione scaturite dalla visione di una performance di Projection Mapping su di un monumento pubblico, hanno stimolato la mia curiosità e mi hanno spinto a cercare di capire se era possibile realizzare autonomamente qualcosa di analogo. Obiettivo di questa tesi è perciò spiegare cos’è il Projection Mapping e fornire una serie di indicazioni utili per realizzarne un’applicazione interattiva con OpenFrameworks (un framework open-source in C++) e hardware a basso costo (un computer, un videoproiettore e un sensore Kinect).