949 resultados para ON-SI


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die Kapillarkraft entsteht durch die Bildung eines Meniskus zwischen zwei Festkörpen. In dieser Doktorarbeit wurden die Auswirkungen von elastischer Verformung und Flϋssigkeitadsorption auf die Kapillarkraft sowohl theoretisch als auch experimentell untersucht. Unter Verwendung eines Rasterkraftmikroskops wurde die Kapillarkraft zwischen eines Siliziumoxid Kolloids von 2 µm Radius und eine weiche Oberfläche wie n.a. Polydimethylsiloxan oder Polyisopren, unter normalen Umgebungsbedingungen sowie in variierende Ethanoldampfdrϋcken gemessen. Diese Ergebnisse wurden mit den Kapillarkräften verglichen, die auf einem harten Substrat (Silizium-Wafer) unter denselben Bedingungen gemessen wurden. Wir beobachteten eine monotone Abnahme der Kapillarkraft mit zunehmendem Ethanoldampfdruck (P) fϋr P/Psat > 0,2, wobei Psat der Sättigungsdampfdruck ist.rnUm die experimentellen Ergebnisse zu erklären, wurde ein zuvor entwickeltes analytisches Modell (Soft Matter 2010, 6, 3930) erweitert, um die Ethanoladsorption zu berϋcksichtigen. Dieses neue analytische Modell zeigte zwei verschiedene Abhängigkeiten der Kapillarkraft von P/Psat auf harten und weichen Oberflächen. Fϋr die harte Oberfläche des Siliziumwafers wird die Abhängigkeit der Kapillarkraft vom Dampfdruck vom Verhältnis der Dicke der adsorbierten Ethanolschicht zum Meniskusradius bestimmt. Auf weichen Polymeroberflächen hingegen hängt die Kapillarkraft von der Oberflächenverformung und des Laplace-Drucks innerhalb des Meniskus ab. Eine Abnahme der Kapillarkraft mit zunehmendem Ethanoldampfdruck hat demnach eine Abnahme des Laplace-Drucks mit zunehmendem Meniskusradius zur folge. rnDie analytischen Berechnungen, fϋr die eine Hertzsche Kontakt-deformation angenommen wurde, wurden mit Finit Element Methode Simulationen verglichen, welche die reale Deformation des elastischen Substrats in der Nähe des Meniskuses explizit berϋcksichtigen. Diese zusätzliche nach oben gerichtete oberflächenverformung im Bereich des Meniskus fϋhrt zu einer weiteren Erhöhung der Kapillarkraft, insbesondere fϋr weiche Oberflächen mit Elastizitätsmodulen < 100 MPa.rn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Primitive kohlige Chondrite sind Meteorite, die seit ihrer Entstehung im frühen Sonnensystem kaum verändert wurden und dadurch einen Einblick in Prozesse geben, die zur Bildung und Veränderung der ersten festen Materie führten. Solche Prozesse können anhand von Bruchstücken dieser Meteorite detailliert im Labor studiert werden, sodass Rückschlüsse auf die Entwicklung unseres Sonnensystems im frühen Stadium getroffen werden können. Ca-, Al-reiche Einschlüsse (CAIs) aus chondritischen Meteoriten sind die ersten Festkörper des Sonnensystems und enthalten viele refraktäre Metallnuggets (RMNs), welche hauptsächlich aus den Elementen Os, Ir, Ru, Mo und Pt bestehen. Nach weit verbreiteter Ansicht sind diese Nuggets wahrscheinlich im Gleichgewicht mit dem solaren Nebel kondensiert, bereits früher oder gleichzeitig mit Oxiden und Silikaten. Die exakten Mechanismen, die zu ihren heute beobachteten Eigenschaften führten, sind allerdings unklar. Um frühere Arbeiten fortzuführen, wurde eine hohe Anzahl RMNs in vier unterschiedlichen Typen von Meteoriten detailliert studiert, darunter solche aus dem nahezu unveränderten Acfer 094, Allende (CV3ox), Leoville (CV3red) und Murchison (CM2). Die RMNs wurden in-situ, assoziiert mit ihren Wirtsmineralen und auch in Säurerückständen gefunden, deren Präparationsprozedur in dieser Arbeit speziell für RMNs durch eine zusätzliche Dichtetrennung verbessert wurde.rnDie Ergebnisse decken eine Reihe von Ungereimtheiten zwischen den beobachteten RMN-Eigenschaften und einer Kondensationsherkunft auf, sowohl für Kondensation in solarer Umgebung, als auch für Kondensation aus Material von Supernovae oder roten Riesen, für die die Kondensationssequenzen refraktärer Metalle speziell für diesen Vergleich berechnet wurden. Stattdessen wurden in dieser Arbeit neue Einblicke in die RMN-Entstehung und die Entwicklung der ersten Festkörper (CAIs) durch eine Kombination aus experimentellen, isotopischen, strukturellen und petrologischen Studien an RMNs gewonnen. Viele der beobachteten Eigenschaften sind mit Ausfällung der RMN aus einer CAI-Schmelze vereinbar. Ein solches Szenario wird durch entsprechende Untersuchungen an synthetisch hergestellten, mit refraktären Metallen im Gleichgewicht stehenden CAI-Schmelzen bestätigt. Es folgt aus den Ergebnissen, dass die Mehrzahl der RMNs isotopisch solar ist und alle untersuchten RMNs innerhalb von CAIs bei rascher Abkühlung (um bis zu 1000 °C/40 sek.) einer CAI-Schmelze gebildet wurden. rn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nella tesi viene descritto il Network Diffusion Model, ovvero il modello di A. Ray, A. Kuceyeski, M. Weiner inerente i meccanismi di progressione della demenza senile. In tale modello si approssima l'encefalo sano con una rete cerebrale (ovvero un grafo pesato), si identifica un generale fattore di malattia e se ne analizza la propagazione che avviene secondo meccanismi analoghi a quelli di un'infezione da prioni. La progressione del fattore di malattia e le conseguenze macroscopiche di tale processo(tra cui principalmente l'atrofia corticale) vengono, poi, descritte mediante approccio matematico. I risultati teoretici vengono confrontati con quanto osservato sperimentalmente in pazienti affetti da demenza senile. Nella tesi, inoltre, si fornisce una panoramica sui recenti studi inerenti i processi neurodegenerativi e si costruisce il contesto matematico di riferimento del modello preso in esame. Si presenta una panoramica sui grafi finiti, si introduce l'operatore di Laplace sui grafi e si forniscono stime dall'alto e dal basso per gli autovalori. Al fine di costruire una cornice matematica completa si analizza la relazione tra caso discreto e continuo: viene descritto l'operatore di Laplace-Beltrami sulle varietà riemanniane compatte e vengono fornite stime dall'alto per gli autovalori dell'operatore di Laplace-Beltrami associato a tali varietà a partire dalle stime dall'alto per gli autovalori del laplaciano sui grafi finiti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The purpose of this work is to introduce to the Italian audience one of the best known works written by the Russian novelist Aleksej Ivanov. The title of the book we refer to is Geograf glubus propil, [The geography drank his globe away]. The novel features peculiarities and themes that can be interesting also for non-Russian readers, being also an example of how Russian contemporary literature has evolved through the years. Nevertheless, it has already been translated in French and Serbian. In last years, the author has become increasingly famous in Russia: he has won many prices and has published a large number of books, many of which were awarded with different literature prizes. Moreover, a film based on the plot of the novel analyzed has been released in 2013, carrying the same name of the book. The film received positive feedback from both cinema critics and mass audience. The following work has been divided into two parts: an introductory part where the author and his book are presented, together with the main character and his peculiarities. It is then explained the context in which the book was created, the purpose of the author and how the book was perceived by readers. In addition to that, I listed some of the problems I had to face while translating , and the solutions I found in order to solve them. The second part is fully dedicated to the translation itself.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli anni recenti, lo sviluppo dell’elettronica organica ha condotto all’impiego di materiali organici alla base di numerosi dispositivi elettronici, quali i diodi ad emissione di luce, i transistor ad effetto di campo, le celle solari e i rivelatori di radiazione. Riguardo quest’ultimi, gli studi riportati in letteratura si riferiscono per la maggiore a dispositivi basati su materiali organici a film sottile, che tuttavia presentano problemi relativi ad instabilità e degradazione. Come verrà illustrato, l’impiego di singoli cristalli organici come materiali alla base di questi dispositivi permette il superamento delle principali limitazioni che caratterizzano i rivelatori basati su film sottili. In questa attività sperimentale, dispositivi basati su cristalli organici semiconduttori verranno caratterizzati in base alle principali figure di merito dei rivelatori. Tra i campioni testati, alcuni dispositivi basati su singoli cristalli di 6,13-bis (triisopropylsilylethynyl)-pentacene (TIPS-Pentacene) e 5,6,11,12-tetraphenyltetracene (Rubrene) hanno mostrato interessanti proprietà e sono stati quindi maggiormente studiati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi ha come obiettivo l’analisi contrastiva della versione originale francese e di quella doppiata in italiano del film “Qu’est-ce qu’on a fait au bon Dieu”, del regista Philippe de Chauveron. Partendo da alcuni aspetti teorici spiegati nel primo capitolo, parlerò della traduzione audiovisiva e delle sue due tecniche maggiormente utilizzate, ossia doppiaggio e sottotitolaggio, oltre che ad accennare il contesto storico-sociale in cui è nata e si è sviluppata. In seguito mi concentrerò sull’analisi vera e propria del doppiaggio del film, prendendo in considerazione gli aspetti culturali di più difficile adattamento per i dialoghisti, quali il cibo, gli odonimi, il mondo dello spettacolo, l’ironia e gli aspetti extra-testuali di immagini e suoni. Infine, l’elaborato si concluderà con l’analisi degli aspetti linguistici più complessi per gli adattatori, come il dialetto, il turpiloquio e le espressioni idiomatiche, con un’attenzione particolare anche alla traduzione dei titoli.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel presente lavoro di tesi ho sviluppato un metodo di analisi di dati di DW-MRI (Diffusion-Weighted Magnetic Resonance Imaging)cerebrale, tramite un algoritmo di trattografia, per la ricostruzione del tratto corticospinale, in un campione di 25 volontari sani. Il diffusion tensor imaging (DTI) sfrutta la capacità del tensore di diffusione D di misurare il processo di diffusione dell’acqua, per stimare quantitativamente l’anisotropia dei tessuti. In particolare, nella sostanza bianca cerebrale la diffusione delle molecole di acqua è direzionata preferenzialmente lungo le fibre, mentre è ostacolata perpendicolarmente ad esse. La trattografia utilizza le informazioni ottenute tramite il DW imaging per fornire una misura della connettività strutturale fra diverse regioni del cervello. Nel lavoro si è concentrata l’attenzione sul fascio corticospinale, che è coinvolto nella motricità volontaria, trasmettendo gli impulsi dalla corteccia motoria ai motoneuroni del midollo spinale. Il lavoro si è articolato in 3 fasi. Nella prima ho sviluppato il pre-processing di immagini DW acquisite con un gradiente di diffusione sia 25 che a 64 direzioni in ognuno dei 25 volontari sani. Si è messo a punto un metodo originale ed innovativo, basato su “Regions of Interest” (ROIs), ottenute attraverso la segmentazione automatizzata della sostanza grigia e ROIs definite manualmente su un template comune a tutti i soggetti in esame. Per ricostruire il fascio si è usato un algoritmo di trattografia probabilistica che stima la direzione più probabile delle fibre e, con un numero elevato di direzioni del gradiente, riesce ad individuare, se presente, più di una direzione dominante (seconda fibra). Nella seconda parte del lavoro, ciascun fascio è stato suddiviso in 100 segmenti (percentili). Sono stati stimati anisotropia frazionaria (FA), diffusività media, probabilità di connettività, volume del fascio e della seconda fibra con un’analisi quantitativa “along-tract”, per ottenere un confronto accurato dei rispettivi percentili dei fasci nei diversi soggetti. Nella terza parte dello studio è stato fatto il confronto dei dati ottenuti a 25 e 64 direzioni del gradiente ed il confronto del fascio fra entrambi i lati. Dall’analisi statistica dei dati inter-subject e intra-subject è emersa un’elevata variabilità tra soggetti, dimostrando l’importanza di parametrizzare il tratto. I risultati ottenuti confermano che il metodo di analisi trattografica del fascio cortico-spinale messo a punto è risultato affidabile e riproducibile. Inoltre, è risultato che un’acquisizione con 25 direzioni di DTI, meglio tollerata dal paziente per la minore durata dello scan, assicura risultati attendibili. La principale applicazione clinica riguarda patologie neurodegenerative con sintomi motori sia acquisite, quali sindromi parkinsoniane sia su base genetica o la valutazione di masse endocraniche, per la definizione del grado di contiguità del fascio. Infine, sono state poste le basi per la standardizzazione dell’analisi quantitativa di altri fasci di interesse in ambito clinico o di studi di ricerca fisiopatogenetica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli anni la funzione dei social network è cambiata molte volte. Alle origini i social network erano uno strumento di connessione tra amici, ora sono siti internet in cui le persone mettono informazioni e quando un social network ha milioni di utenti, diventa un’incredibile sorgente di dati. Twitter è uno dei siti internet più visitati, e viene descritto come “the SMS of internet”, perchè è un social network che permette ai suoi utenti di inviare e leggere messaggi corti, di 140 caratteri, chiamati “tweets”. Con il passare del tempo Twitter `e diventato una fonte fondamentale di notizie. Il suo grande numero di utenti permette alle notizie di espandersi nella rete in modo virale. Molte persone hanno cercato di analizzare il potere dei tweet, come il contenuto positivo o negativo, mentre altri hanno cercato di capire se avessero un potere predittivo. In particolare nel mondo finanziario, sono state avviate molte ricerche per verificare l’esistenza di una effettiva correlazione tra i tweets e la fluttuazione del mercato azionario. L’effettiva presenza di tale relazione unita a un modello predittivo, potrebbe portare allo sviluppo di un modello che analizzando i tweets presenti nella rete, relativi a un titolo azionario, dia informazioni sulle future variazioni del titolo stesso. La nostra attenzione si è rivolata alla ricerca e validazione statistica di tale correlazione. Sono stati effettuati test su singole azioni, sulla base dei dati disponibili, poi estesi a tutto il dataset per vedere la tendenza generale e attribuire maggior valore al risultato. Questa ricerca è caratterizzata dal suo dataset di tweet che analizza un periodo di oltre 2 anni, uno dei periodi più lunghi mai analizzati. Si è cercato di fornire maggior valore ai risultati trovati tramite l’utilizzo di validazioni statistiche, come il “permutation test”, per validare la relazione tra tweets di un titolo con i relativi valori azionari, la rimozione di una percentuale di eventi importanti, per mostrare la dipendenza o indipendenza dei dati dagli eventi più evidenti dell’anno e il “granger causality test”, per capire la direzione di una previsione tra serie. Sono stati effettuati anche test con risultati fallimentari, dai quali si sono ricavate le direzioni per i futuri sviluppi di questa ricerca.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi mi occupo di spiegare come si comportano i veicoli autonomi per prendere tutte le decisioni e come i dati dei sensori di ogni auto vengono condivisi con la flotta di veicoli

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel presente lavoro espongo i risultati degli esperimenti svolti durante la mia internship all’Institut des NanoSciences de Paris (INSP), presso l’Università Pierre et Marie Curie (Paris VI), nel team "Phisico-Chimie et Dynamique des Surfaces", sotto la supervisione del Dott. Geoffroy Prévot. L’elaborato è stato redatto e in- tegrato sotto la guida del Dott. Pasquini, del dipartimento di Fisica e Astronomia dell’Università di Bologna. La tesi s’inserisce nel campo di ricerca del silicene, i.e. l’allotropo bidimensionale del silicio. Il cosidetto free-standing silicene è stato predetto teoricamente nel 2009 utilizzando calcoli di Density Functional Theory, e da allora ha stimolato un’intensa ricerca per la sua realizzazione sperimentale. La sua struttura elettronica lo rende particolarmente adatto per eventuali appli- cazioni tecnologiche e sperimentali, mentre lo studio delle sue proprietà è di grande interesse per la scienza di base. Nel capitolo 1 presento innanzitutto la struttura del silicene e le proprietà previste dagli studi pubblicati nella letteratura scientifica. In seguito espongo alcuni dei risultati sperimentali ottenuti negli ultimi anni, in quanto utili per un paragone con i risultati ottenuti durante l’internship. Nel capitolo 2 presento le tecniche sperimentali che ho utilizzato per effettuare le misure. Molto tempo è stato investito per ottenere una certa dimistichezza con gli apparati in modo da svolgere gli esperimenti in maniera autonoma. Il capitolo 3 è dedicato alla discussione e analisi dei risultati delle misure, che sono presentati in relazione ad alcune considerazioni esposte nel primo capitolo. Infine le conclusioni riassumono brevemente quanto ottenuto dall’analisi dati. A partire da queste considerazioni propongo alcuni esperimenti che potrebbero ulteriormente contribuire alla ricerca del silicene. I risultati ottenuti su Ag(111) sono contenuti in un articolo accettato da Physical Review B.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tomografia ad emissione di positroni (PET) è una tecnica di imaging di medicina nucleare, utilizzata oggi diffusamente in ambito clinico. Essa fornisce immagini e informazioni fisiologiche dei processi funzionali all’interno del corpo. La PET si basa sulla rilevazione di fotoni di annichilazione prodotti in seguito al decadimento di un radio farmaco iniettato nel paziente. I rilevatori convenzionali sono costituiti da un materiale scintillatore accoppiato ad un fotomoltiplicatore, solitamente un PMT o SiPM. Uno sviluppo della PET è la Time of Flight PET (ToF PET), attualmente già in commercio ed utilizzata con prestazioni eccellenti. Un’ulteriore modifica, che potenzialmente permetterebbe di ottenere una migliore risoluzione temporale, è la ToF PET basata sulla rilevazione di fotoni tramite radiazione Cherenkov, invece che luce di scintillazione. Questo lavoro di tesi è incentrato dunque su questa tecnica specifica. Si illustra una rassegna di pubblicazioni scientifiche degli ultimi anni riguardo ad essa con i relativi risultati ottenuti e i possibili sviluppi futuri. Infine si propone un approfondimento personale, nel quale, tramite un programma scritto in ROOT, si è realizzata una geometria di un sistema di rilevazione ToF PET. Esso prevede la rilevazione dei fotoni di annichilazione tramite un radiatore Cherenkov accoppiato ad un SiPM. In futuro questo potrà essere implementato e utilizzato per simulare il processo fisico della PET, verificando la validità e le prestazioni del sistema così sviluppato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi si concentra sull’infrastruttura di coordinazione TuCSoN on Android, realizzando il refactoring del servizio di geolocalizzazione platform-independent (lato infrastruttura) e platform-dependent (lato mobile device), nonché l’integrazione del modello event-driven con la proprietà di situatedness.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi si è studiato l’insorgere di eventi critici in un semplice modello neurale del tipo Integrate and Fire, basato su processi dinamici stocastici markoviani definiti su una rete. Il segnale neurale elettrico è stato modellato da un flusso di particelle. Si è concentrata l’attenzione sulla fase transiente del sistema, cercando di identificare fenomeni simili alla sincronizzazione neurale, la quale può essere considerata un evento critico. Sono state studiate reti particolarmente semplici, trovando che il modello proposto ha la capacità di produrre effetti "a cascata" nell’attività neurale, dovuti a Self Organized Criticality (auto organizzazione del sistema in stati instabili); questi effetti non vengono invece osservati in Random Walks sulle stesse reti. Si è visto che un piccolo stimolo random è capace di generare nell’attività della rete delle fluttuazioni notevoli, in particolar modo se il sistema si trova in una fase al limite dell’equilibrio. I picchi di attività così rilevati sono stati interpretati come valanghe di segnale neurale, fenomeno riconducibile alla sincronizzazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi si revisiona l'architettura di TuCSoN on Cloud. Sono trattati i problemi riguardanti la gestione dei nodi TuCSoN su un cloud simulato su Cloudify; ovvero come sono memorizzati i vari tuple centre per ogni utente. É inoltre trattato il problema della concorrenza e della sicurezza, ovvero di come é gestita la password dell'utente.