996 resultados para diffusione anelastica, Compton, apparato sperimentale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questi tesi viene studiata la teoria classica di diffusione del calore come modello parabolico per cui viene calcolata una soluzione attraverso il metodo di separazione delle variabili e il metodo delle onde dispersive. Viene poi affrontata la teoria alternativa proposta da Cattaneo del modello iperbolico del calore, allo scopo di superare il paradosso di velocità di propagazione infinita. Si conclude con alcuni esempi in cui lo stesso ragionamento viene applicato in diverse teorie diffusive e di reazione-diffusione in ambiti bio-matematici, come ad esempio la dinamica delle popolazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’attività sperimentale presentata in questo elaborato riguarda lo studio di una particolare applicazione che impiega la tecnologia laser per la lavorazione di materiali compositi ed è stata interamente svolta, in particolar modo nella sua parte operativa, presso i laboratori della Facoltà di Ingegneria a Bologna. Il lavoro di tesi ha come obiettivo fondamentale la valutazione degli effetti che i parametri di processo possono avere sulla qualità risultante nel procedimento di ablazione per i materiali compositi. Per questa indagine sono stati utilizzati campioni piani (tutti identici tra loro) con rinforzo in fibra di carbonio e matrice in resina epossidica, i quali sono stati lavorati con un laser Nd:YAG (λ = 1064 nm) funzionante in regime continuo. L’idea alla base dell’intera attività sperimentale è stata quella di realizzare una ablazione ottimale, rimuovendo dai campioni esclusivamente la resina (in maniera locale) e tentando, allo stesso tempo, di ottenere il minimo danneggiamento possibile per le fibre. Le prove effettuate non costituiscono naturalmente un punto di arrivo, bensì rappresentano piuttosto un punto di partenza per acquisire informazioni preliminari che potranno consentire, nel prossimo futuro, di proseguire con il perfezionamento del processo e la messa a punto dei parametri, al fine di conseguire una lavorazione che dia risultati effettivamente ottimali ed interessanti per l’eventuale applicazione industriale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prova informatica richiede l’adozione di precauzioni come in un qualsiasi altro accertamento scientifico. Si fornisce una panoramica sugli aspetti metodologici e applicativi dell’informatica forense alla luce del recente standard ISO/IEC 27037:2012 in tema di trattamento del reperto informatico nelle fasi di identificazione, raccolta, acquisizione e conservazione del dato digitale. Tali metodologie si attengono scrupolosamente alle esigenze di integrità e autenticità richieste dalle norme in materia di informatica forense, in particolare della Legge 48/2008 di ratifica della Convenzione di Budapest sul Cybercrime. In merito al reato di pedopornografia si offre una rassegna della normativa comunitaria e nazionale, ponendo l’enfasi sugli aspetti rilevanti ai fini dell’analisi forense. Rilevato che il file sharing su reti peer-to-peer è il canale sul quale maggiormente si concentra lo scambio di materiale illecito, si fornisce una panoramica dei protocolli e dei sistemi maggiormente diffusi, ponendo enfasi sulla rete eDonkey e il software eMule che trovano ampia diffusione tra gli utenti italiani. Si accenna alle problematiche che si incontrano nelle attività di indagine e di repressione del fenomeno, di competenza delle forze di polizia, per poi concentrarsi e fornire il contributo rilevante in tema di analisi forensi di sistemi informatici sequestrati a soggetti indagati (o imputati) di reato di pedopornografia: la progettazione e l’implementazione di eMuleForensic consente di svolgere in maniera estremamente precisa e rapida le operazioni di analisi degli eventi che si verificano utilizzando il software di file sharing eMule; il software è disponibile sia in rete all’url http://www.emuleforensic.com, sia come tool all’interno della distribuzione forense DEFT. Infine si fornisce una proposta di protocollo operativo per l’analisi forense di sistemi informatici coinvolti in indagini forensi di pedopornografia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fluxus è stato definito il più radicale e sperimentale movimento artistico degli anni Sessanta. Dalla prima comparsa ad oggi è stato osannato, analizzato, dimenticato e riscoperto molte volte, tuttora però rimane una delle più grandi incognite critiche della storia dell’arte del Novecento. La ricerca si sviluppa secondo uno schema tripartito: indagare origini, ascendenze e ispirazioni; collocare e contestualizzare il periodo di nascita e sviluppo; esaminare influenze e lasciti. Attraverso un confronto di manifesti, scritti autografi e opere si è cercato di verificare punti di contatto e di continuità tra Fluxus e le Avanguardie Storiche, con particolare riferimento a Futurismo e Dadaismo. Successivamente si è cercato di ricostruire le dinamiche che hanno portato, alla fine degli anni Cinquanta, al definirsi di un terreno fertile dal quale sono germinate esperienze strettamente legate quali Happening, Performance Art e lo stesso Fluxus, del quale si sono ripercorsi i cosiddetti “anni eroici” per evidenziarne le caratteristiche salienti. Nella terza sezione sono state individuate diverse ipotesi di continuazione dell’attitudine Fluxus, dal percorso storico-filologico dei precoci tentativi di musealizzazione, alle eredità dirette e indirette sulle generazioni successive di artisti, fino alla individuazione di idee e concetti la cui attualità rende Fluxus un elemento imprescindibile per la comprensione della cultura contemporanea.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi di laurea presentata si inserisce nell’ampio contesto della Sicurezza Informatica, in particolare tratta il problema del testing dei sistemi di sicurezza concepiti per contrapporsi alle odierne minacce: gli attacchi mirati (Targeted Attacks) ed in generale le minacce avanzate persistenti (Advanced Persistent Threats). Il principale obiettivo del lavoro svolto è lo sviluppo e la discussione di una metodologia di test per sistemi di sicurezza focalizzati su questo genere di problemi. Le linee guida proposte hanno lo scopo di aiutare a colmare il divario tra quello che viene testato e quello che in realt`a deve essere affrontato realmente. Le attività svolte durante la preparazione della tesi sono state sia di tipo teorico, per quanto concerne lo sviluppo di una metodologia per affrontare al meglio il testing di sistemi di sicurezza a fronte di attacchi mirati, che ne di tipo sperimentale in quanto si sono utilizzati tali concetti per lo svolgimento di test su più strumenti di difesa in uno scenario d’interesse reale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Progetto e analisi delle performance di un controllore realizzato con la metodologia fuzzy per una manovra di docking fra due dirigibili. Propedeutica a questo, è stata la campagna, presso la galleria del vento messa a disposizione dalla Clarkson University, di raccolta di dati sperimentali, che sono stati poi utilizzati per realizzare un simulatore con cui testare il controllore. Nel primo capitolo, si è presentato la tecnologia dei dirigibili, le varie tipologie ed una descrizione dei moderni concepts. Successivamente, sono state presentate le applicazioni nelle quali i moderni dirigibili possono essere impiegati. L’ultima parte tratta di due esempi di docking fra mezzi aerei: il rifornimento in volo e i “parasite aircrafts”. Il secondo capitolo, tratta della logica utilizzata dal controllore: la logica fuzzy. Le basi della teoria insiemistica classica sono state il punto di partenza per mostrare come, introducendo le funzioni di appartenenza, sia possibile commutare tra la teoria classica e fuzzy. La seconda parte del capitolo affronta le nozioni della teoria fuzzy, esponendo la metodologia con la quale è possibile inserire un controllore di questo tipo in un sistema “tradizionale”. Il terzo capitolo presenta il modello di volo dei dirigibili. Partendo dalla legge di Newton, introdotto il concetto di inerzia e massa aggiunte, si arriva alle equazioni del moto non lineari. L’ultima parte è stata dedicata alla linearizzazione delle equazioni e alla condizione di trim. Il quarto capitolo riguarda la campagna sperimentale di test in galleria del vento, con la realizzazione dei modelli in scala e la calibrazione della bilancia; successivamente, nel capitolo si commentano i dati sperimentali raccolti. Il quinto capitolo, mostra la metodologia con cui è possibile progettare un controllore fuzzy per il controllo della manovra di docking fra dirigibili. La seconda parte mostra le performance ottenute con questo tipo di sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analisi strutturale dell’ala di un UAV (velivolo senza pilota a bordo), sviluppata usando varie metodologie: misurazioni sperimentali statiche e dinamiche, e simulazioni numeriche con l’utilizzo di programmi agli elementi finiti. L’analisi statica è stata a sua volta portata avanti seguendo due differenti metodi: la classica e diretta determinazione degli spostamenti mediante l’utilizzo di un catetometro e un metodo visivo, basato sull’elaborazione di immagini e sviluppato appositamente a tale scopo in ambiente Matlab. Oltre a ciò è stata svolta anche una analisi FEM volta a valutare l’errore che si ottiene affrontando il problema con uno studio numerico. Su tale modello FEM è stata svolta anche una analisi di tipo dinamico con lo scopo di confrontare tali dati con i dati derivanti da un test dinamico sperimentale per ottenere informazioni utili per una seguente possibile analisi aeroelastica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La termografia è un metodo d’indagine ampiamente utilizzato nei test diagnostici non distruttivi, in quanto risulta una tecnica d’indagine completamente non invasiva, ripetibile nel tempo e applicabile in diversi settori. Attraverso tale tecnica è possibile individuare difetti superficiali e sub–superficiali, o possibili anomalie, mediante la rappresentazione della distribuzione superficiale di temperatura dell’oggetto o dell’impianto indagato. Vengono presentati i risultati di una campagna sperimentale di rilevamenti termici, volta a stabilire i miglioramenti introdotti da tecniche innovative di acquisizione termografica, quali ad esempio la super-risoluzione, valutando un caso di studio di tipo industriale. Si è effettuato un confronto tra gli scatti registrati, per riuscire a individuare e apprezzare le eventuali differenze tra le diverse modalità di acquisizione adottate. L’analisi dei risultati mostra inoltre come l’utilizzo dei dispositivi di acquisizione termografica in modalità super-resolution sia possibile anche su cavalletto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Open fractures of the leg represent a severe trauma. The combined approach, shared between plastic and orthopaedic surgeons, is considered to be important, although this multidisciplinary treatment is not routinely performed. Aim of this study was to verify whether the orthoplastic treatment is of any advantage over the traditional simply orthopedic treatment, through a multicentric inclusion of these unfrequent injuries into a prospective study. Material and methods: The following trauma centres were involved: Rizzoli Orthopaedic Institute/University of Bologna (leading centre) and Maggiore Hospital (Bologna, Italy), Frenchay Hospital (Bristol, United Kingdom), Jinnah Hospital (Lahore, Pakistan). All patients consecutively hospitalized in the mentioned centres between January 2012 and December 2013 due to tibial open fractures were included in the study and prospectively followed up to December 2014. Demographics and other clinical features were recorded, including the type of treatment (orthopaedic or orthoplastic). The considered outcome measures included duration of hospitalization, time for bone union and soft tissue closure, Enneking score at 3, 6 and 12 months, the incidence of osteomyelitis and other complications. Results: A total of 164 patients were included in the study. Out of them 68% were treated with an orthoplastic approach, whereas 32% received a purely orthopedic treatment. All considered outcome measures showed to be improved by the orthoplastic approach, compared to the orthopaedic one: time for soft tissue closure (2 versus 25 weeks), duration of hospital stay (22 versus 55 days), time for bone union (6 versus 8.5 months) , number of additional operations (0.6 versus 1.2) and functional recovery of the limb at 12 months (27 versus 19, Enneking’s score). All results were statistically significant. Conclusion: The combined orthoplastic approach to the treatment of open tibia fractures, in particular for high grade injuries (Gustilo 3B), is proven to improve the outcome of these severe injuries.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’accoppiamento articolare in ceramica è sempre più utilizzato in chirurgia protesica dell’anca per le sue eccellenti proprietà tribologiche. Tuttavia la fragilità della ceramica è causa di fallimenti meccanici. Abbiamo quindi condotto una serie di studi al fine di individuare un metodo efficace di diagnosi precoce del fallimento della ceramica. Abbiamo analizzato delle componenti ceramiche espiantate e abbiamo trovato un pattern di usura pre-frattura che faceva supporre una dispersione di particelle di ceramica nello spazio articolare. Per la diagnosi precoce abbiamo validato una metodica basata sulla microanalisi del liquido sinoviale. Per validare la metodica abbiamo eseguito un agoaspirato in 12 protesi ben funzionanti (bianchi) e confrontato i risultati di 39 protesi con segni di rottura con quelli di 7 senza segni di rottura. Per individuare i pazienti a rischio rottura i dati demografici di 26 pazienti con ceramica rotta sono stati confrontati con 49 controlli comparabili in termini demografici, tipo di ceramica e tipo di protesi. Infine è stata condotta una revisione sistematica della letteratura sulla diagnosi della rottura della ceramica. Nell’aspirato la presenza di almeno 11 particelle ceramiche di dimensioni inferiori a 3 micron o di una maggiore di 3 micron per ogni campo di osservazione sono segno di rottura della ceramica. La metodica con agoaspirato ha 100% di sensibilità e 88 % di specificità nel predire rotture della ceramica. Nel gruppo delle ceramiche rotte è stato trovato un maggior numero di malposizionamenti della protesi rispetto ai controlli (p=0,001). Il rumore in protesi con ceramica dovrebbe sollevare il sospetto di fallimento ed indurre ad eseguire una TC e un agoaspirato. Dal confronto con la letteratura la nostra metodica risulta essere la più efficace.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il rachide è stato suddiviso in tre colonne da Denis: anteriore e centrale comprendono la metà anteriore del corpo vertebrale, la metà posteriore e l’inizio dei peduncoli, mentre la colonna posteriore comprende l’arco e i peduncoli stessi. In caso di resezione o lesione della colonna anteriore e media è indicata la ricostruzione. Diverse tecniche e materiali possono essere usati per ricostruire il corpo vertebrale. Innesti vascolarizzati, autograft, allograft sono stati usati, così come impianti sintetici di titanio o materiale plastico come il PEEK (Poly etere etere ketone). Tutti questi materiali hanno vantaggi e svantaggi in termini di proprietà intrinseche, resistenza meccanica, modulo di elasticità, possibilità di trasmissione malattie, capacità di fondersi con l’osso ospite o meno. Le soluzioni più usate sono le cage in titanio o carbonio, il PMMA ( Poli methil metacrilato), gli innesti ossei massivi. Si è effettuato uno studio di coorte retrospettivo paragonando due gruppi di pazienti oncologici spinali trattati da due chirurghi esperti in un centro di riferimento, con vertebrectomia e ricostruzione della colonna anteriore: un gruppo con cage in carbonio o titanio, l’altro gruppo con allograft massivo armato di innesto autoplastico o mesh in titanio. Si sono confrontati i risultati in termini di cifosi segmenterai evolutiva, fusione ossea e qualità di vita del paziente. Il gruppo delle cage in carbonio / titanio ha avuto risultati leggermente migliori dal punto di vista biomeccanico ma non statisticamente significativo, mentre dal punto di vista della qualità di vita i risultati sono stati migliori nel gruppo allograft. Non ci sono stati fallimenti meccanici della colonna anteriore in entrambi i gruppi, con un Fu tra 12 e 60 mesi. Si sono paragonati anche i costi delle due tecniche. In conclusione l’allogar è una tecnica sicura ed efficace, con proprietà meccaniche solide, soprattutto se armato con autograft o mesi in titanio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In recent decades, Organic Thin Film Transistors (OTFTs) have attracted lots of interest due to their low cost, large area and flexible properties which have brought them to be considered the building blocks of the future organic electronics. Experimentally, devices based on the same organic material deposited in different ways, i.e. by varying the deposition rate of the molecules, show different electrical performance. As predicted theoretically, this is due to the speed and rate by which charge carriers can be transported by hopping in organic thin films, transport that depends on the molecular arrangement of the molecules. This strongly suggests a correlation between the morphology of the organic semiconductor and the performance of the OTFT and hence motivated us to carry out an in-situ real time SPM study of organic semiconductor growth as an almost unprecedent experiment with the aim to fully describe the morphological evolution of the ultra-thin film and find the relevant morphological parameters affecting the OTFT electrical response. For the case of 6T on silicon oxide, we have shown that the growth mechanism is 2D+3D, with a roughening transition at the third layer and a rapid roughening. Relevant morphological parameters have been extracted by the AFM images. We also developed an original mathematical model to estimate theoretically and more accurately than before, the capacitance of an EFM tip in front of a metallic substrate. Finally, we obtained Ultra High Vacuum (UHV) AFM images of 6T at lying molecules layer both on silicon oxide and on top of 6T islands. Moreover, we performed ex-situ AFM imaging on a bilayer film composed of pentacene (a p-type semiconductor) and C60 (an n-type semiconductor).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of this work is to provide a precise and accurate measurement of the 238U(n,gamma) reaction cross-section. This reaction is of fundamental importance for the design calculations of nuclear reactors, governing the behaviour of the reactor core. In particular, fast neutron reactors, which are experiencing a growing interest for their ability to burn radioactive waste, operate in the high energy region of the neutron spectrum. In this energy region inconsistencies between the existing measurements are present up to 15%, and the most recent evaluations disagree each other. In addition, the assessment of nuclear data uncertainty performed for innovative reactor systems shows that the uncertainty in the radiative capture cross-section of 238U should be further reduced to 1-3% in the energy region from 20 eV to 25 keV. To this purpose, addressed by the Nuclear Energy Agency as a priority nuclear data need, complementary experiments, one at the GELINA and two at the n_TOF facility, were scheduled within the ANDES project within the 7th Framework Project of the European Commission. The results of one of the 238U(n,gamma) measurement performed at the n_TOF CERN facility are presented in this work, carried out with a detection system constituted of two liquid scintillators. The very accurate cross section from this work is compared with the results obtained from the other measurement performed at the n_TOF facility, which exploit a different and complementary detection technique. The excellent agreement between the two data-sets points out that they can contribute to the reduction of the cross section uncertainty down to the required 1-3%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

È impossibile implementare sorgenti autenticamente casuali su hardware digitale. Quindi, storicamente, si è fatto ampio uso di generatori di numeri pseudo-casuali, evitando così i costi necessari per la progettazione di hardware analogico dedicato. Tuttavia, le sorgenti pseudo-casuali hanno proprietà (riproducibilità e periodicità) che si trasformano in vulnerabilità, nel caso in cui vengano adottate in sistemi di sicurezza informatica e all’interno di algoritmi crittografici. Oggi la richiesta di generatori di numeri autenticamente casuali è ai suoi massimi storici. Alcuni importanti attori dell’ICT sviluppato proprie soluzioni dedicate, ma queste sono disponibili solo sui sistemi moderni e di fascia elevata. È quindi di grande attualità rendere fruibili generatori autenticamente casuali per sistemi già esistenti o a basso costo. Per garantire sicurezza e al tempo stesso contenere i costi di progetto è opportuno pensare ad architetture che consentano di riusare parti analogiche già disponibili. Particolarmente interessanti risultano alcune architetture che, grazie all’utilizzo di dinamiche caotiche, consentono di basare buona parte della catena analogica di elaborazione su ADC. Infatti, tali blocchi sono ampiamente fruibili in forma integrata su architetture programmabili e microcontrollori. In questo lavoro, si propone un’implementazione a basso costo ed elevata flessibilità di un architettura basata su un ADC, inizialmente concepita all’Università di Bologna. La riduzione di costo viene ottenuta sfruttando il convertitore già presente all’interno di un microcontrollore. L’elevata flessibilità deriva dal fatto che il microcontrollore prescelto mette a disposizione una varietà di interfacce di comunicazione, tra cui quella USB, con la quale è possibile rendere facilmente fruibili i numeri casuali generati. Quindi, l’intero apparato comprende solo un microcontrollore e una minima catena analogica di elaborazione esterna e può essere interfacciato con estrema facilità ad elaboratori elettronici o sistemi embedded. La qualità della proposta, in termini di statistica delle sequenze casuali generate, è stata validata sfruttando i test standardizzati dall’U.S. NIST.