954 resultados para catene di Markov catene di Markov reversibili simulazione metodo Montecarlo


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato si è cercato di comprendere come la cultura italiana, rappresentata nello specifico dal metodo educativo Reggio Emilia, possa incontrare e convivere con quella cinese, nell'esperienza della Scuola Pechino, il progetto innovativo che è stato lanciato nel settembre 2015 dall’ambasciata italiana a Pechino e che offre i suoi servizi ai figli di coppie italiane e di coppie miste (con almeno un genitore italiano) espatriate in Cina. L’analisi prende spunto dalla traduzione dell'articolo Introduzione al metodo educativo italiano Reggio Emilia e confronto con il metodo educativo tradizionale cinese, pubblicato sul “Fujian Tribune”, in cui sono descritti i principi fondamentali del metodo Reggio, nel quale sono stati messi a confronto il modello raggiano con il metodo educativo tradizionale cinese, ponendo in rilievo le differenze che sussistono tra i due. Quello che si è cercato di capire è se il metodo Reggio possa essere integrato con successo nelle scuole dell’infanzia e negli asili nido cinesi, e con quali modalità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella presente tesi viene condotta l'analisi strutturale della testa di un supporto al bagno di saldatura elicoidale per tubi di acciaio. Dopo una breve introduzione sui tubi di acciaio e sul Metodo agli Elementi Finiti, si analizza la testa utilizzando un software open source. I risultati ottenuti consentono di ottimizzare la geometria della testa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell’Ottobre 2015, a seguito di alcuni fenomeni di instabilità avvenuti in corrispondenza delle scarpate lato fiume in sponda sinistra del Po, nel tratto compreso tra Casalmaggiore (CR) e Dosolo (MN), l'Agenzia Interregionale per il fiume Po (AIPO) ha commissionato un' estesa campagna di indagini geognostiche. L'ampio database reso disponibile è stato utilizzato in questa tesi di laurea con l'obiettivo di sviluppare, in collaborazione con i tecnici AIPO, una valida procedura per analizzare i dissesti delle scarpate lato fiume in questo tratto del Po e per identificare gli eventuali interventi di messa in sicurezza più idonei. Lo studio proposto si prefigge i seguenti obiettivi: • La caratterizzazione geotecnica dei terreni costituenti le strutture arginali in esame ed il relativo substrato; • La definizione del modello geotecnico del sistema arginale; • La valutazione della stabilità dell'argine; • La individuazione degli interventi di messa in sicurezza delle scarpate. Attraverso l’elaborazione delle prove CPTU è stato possibile determinare la stratigrafia e i parametri geotecnici delle diverse unità stratigrafiche presenti nelle sezioni considerate significative. Sono state quindi effettuate una serie di analisi con il metodo all'equilibrio limite, verificando la stabilità delle scarpate in condizioni di magra ordinaria e in condizioni di rapido svaso. Tenendo conto che la maggior parte dei tratti analizzati aveva già manifestato segni di instabilità o comunque indicava condizioni prossime al limite dell’equilibrio, si è proceduto in "back analysis" alla individuazione dei parametri di resistenza al taglio operativi, tenendo conto della variabilità degli stessi nell'ambito di una stessa unità stratigrafica. Infine tenendo presente i criteri di progetto degli interventi normalmente adottati sulle sponde, è stato possibile procedere alla modellazione di interventi mirati ad aumentare il fattore di sicurezza, analizzandone i relativi vantaggi e svantaggi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato verte sulla simulazione della gestione dei materiali dell’azienda Robopac. Il modello esposto è stato creato tramite il software Arena, il quale permette la riproduzione di una struttura aziendale reale ed è, per questo, uno strumento validissimo per esaminare situazioni critiche, nonché per confrontare alternative progettuali e validarle. Nello specifico, in tale tesi ci si propone di verificare, attraverso un’attenta analisi, come l’azienda Robopac gestisca i materiali nel suo percorso di elaborazione e trasformazione. Per gestione dei materiali si intende il coordinamento degli arrivi, il controllo sulle materie, il trasporto di tali materiali nei magazzini appositi e il successivo spostamento in linea. Questa indagine permetterà di valutare l’efficienza e l’utilizzo delle risorse, le tempistiche delle movimentazioni e l’eventuale creazione di code, così da cercare soluzioni che potrebbero migliorare e ottimizzare le operazioni. Il modello creato con Arena considera i sei codici-prodotto più rappresentativi e rende possibile una riproduzione conforme a ciò che è stato osservato. Inoltre sono analizzati i report forniti automaticamente da tale software e valutati l’utilizzo delle risorse e le giacenze a magazzino. Sarebbe interessante ampliare la simulazione esposta, prendendo in considerazione l’intero numero di codici prodotti, così da poter analizzare la totale gestione dei materiali e considerare eventuali differenze o scostamenti rispetto a quanto svolto in questa tesi. Un ulteriore ampliamento altrettanto valido potrebbe essere quello di coniugare la simulazione della gestione dei materiali con il modello della linea produttiva principale già realizzato con Arena. Ciò permetterebbe una più completa visione dell’azienda e l’indagine della realtà imprenditoriale diventerebbe più ampia, approfondita e dettagliata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This research deals with the production of pectic oligosaccharides (POS) from agro-industrial residues, with specific focus on development of continuous cross flow enzyme membrane reactor. Pectic oligosaccharides have recently gained attention due to their prebiotic activity. Lack of information on the continuous production of POS from agro-industrial residues formed the basis for the present study. Four residues i.e sugar beet pulp, onion hulls, pressed pumpkin cake and berry pomace were taken to study their pectin content. Based on the presence of higher galacturonic acid and arabinose (both homogalacturonan and rhamnogalacturonan) in sugar beet pulp and galacturonic acid (only homogalacturonan) in onion hulls, further optimization of different extraction methods of pectin (causing minimum damage to pectic chain) from these residues were done. The most suitable extractant for sugar beet pulp and onion hulls were nitric acid and sodium hexametaphosphate respectively. Further the experiments on the continuous production of POS from sugar beet pulp in an enzyme membrane reactor was initiated. Several optimization experiments indicated the optimum enzyme (Viscozyme) as well as feed concentration (25 g/L) to be used for producing POS from sugar beet pulp in an enzyme membrane reactor. The results highlighted that steady state POS production with volumetric and specific productivity of 22g/L/h and 11 g/gE/h respectively could be achieved by continuous cross flow filtration of sugar beet pulp pectic extract over 10 kDa membrane at residence time of 20 min. The POS yield of about 80% could be achieved using above conditions. Also, in this thesis preliminary experiments on the production and characterization of POS from onion hulls were conducted. The results revelaed that the most suitable enzyme for POS production from onion hulls is endo-polygalacturonase M2. The POS produced from onion hulls were present in the form of DP1 -DP10 in substituted as well as unsubstituted forms. This study clearly demonstrates that continuous production of POS from pectin rich sources can be achieved by using cross flow continuous enzyme membrane reactor.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo lavoro è stato individuare una possibile correlazione tra le condizioni ambientali e la presenza di Escherichia coli in vongole veraci. I dati sono relativi a campioni raccolti nel periodo 2007-2015 nella zona Sacca di Goro. Essi sono stati messi in relazione con alcuni parametri quali: salinità dell’acqua, temperatura, ossigeno di fondo, pH e livello del fiume Po di Volano. Sono stati presi in considerazione più di 523 campioni, in cui i conteggi di E. coli, mediante metodo MPN, sono stati suddivisi in tre categorie: cariche basse (<50 MPN/100g); intermedie (50-230 MPN/100g); alte, ovvero non conformi al regolamento europeo (>230 MPN/100g). La significatività della relazione tra E. coli e le variabili considerate è stata valutata attraverso il test Χ2 e il test di Kruskal-Wallis. Il test Χ2, è stato attuato ponendo in relazione anno, mese e stagione. In esso non è stato registrato nessun risultato significativo. L’analisi della varianza tramite test di Kruskal-Wallis ha evidenziato che gli unici risultati ottenuti, dando luogo ad una differenza significativa, sono relativi ai valori di salinità, dove in presenza di valori più bassi si osserva un numero maggiore di campioni con carica superiore al limite di legge. I dati ottenuti ponendo in relazione la temperatura delle acque e il livello del fiume Po di Volano non sono risultate significativamente diverse fra loro. Questi risultati sono chiaramente correlati al processo di depurazione delle vongole veraci che abbassano la carica microbica, ma ciò è correlato anche ai miglioramenti dei controlli delle acque reflue della Pianura Padana negli ultimi decenni, inoltre l’assenza di relazioni può essere imputata al fatto che la Sacca di Goro è un tratto di mare relativamente chiuso e quindi in qualche modo protetto dalle fluttuazioni stagionali di questi parametri, in una sorta di omeostasi ambientale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi verranno trattati sia il problema della creazione di un ambiente di simulazione a domini fisici misti per dispositivi RF-MEMS, che la definizione di un processo di fabbricazione ad-hoc per il packaging e l’integrazione degli stessi. Riguardo al primo argomento, sarà mostrato nel dettaglio lo sviluppo di una libreria di modelli MEMS all’interno dell’ambiente di simulazione per circuiti integrati Cadence c . L’approccio scelto per la definizione del comportamento elettromeccanico dei MEMS è basato sul concetto di modellazione compatta (compact modeling). Questo significa che il comportamento fisico di ogni componente elementare della libreria è descritto per mezzo di un insieme limitato di punti (nodi) di interconnessione verso il mondo esterno. La libreria comprende componenti elementari, come travi flessibili, piatti rigidi sospesi e punti di ancoraggio, la cui opportuna interconnessione porta alla realizzazione di interi dispositivi (come interruttori e capacità variabili) da simulare in Cadence c . Tutti i modelli MEMS sono implementati per mezzo del linguaggio VerilogA c di tipo HDL (Hardware Description Language) che è supportato dal simulatore circuitale Spectre c . Sia il linguaggio VerilogA c che il simulatore Spectre c sono disponibili in ambiente Cadence c . L’ambiente di simulazione multidominio (ovvero elettromeccanico) così ottenuto permette di interfacciare i dispositivi MEMS con le librerie di componenti CMOS standard e di conseguenza la simulazione di blocchi funzionali misti RF-MEMS/CMOS. Come esempio, un VCO (Voltage Controlled Oscillator) in cui l’LC-tank è realizzato in tecnologia MEMS mentre la parte attiva con transistor MOS di libreria sarà simulato in Spectre c . Inoltre, nelle pagine successive verrà mostrata una soluzione tecnologica per la fabbricazione di un substrato protettivo (package) da applicare a dispositivi RF-MEMS basata su vie di interconnessione elettrica attraverso un wafer di Silicio. La soluzione di packaging prescelta rende possibili alcune tecniche per l’integrazione ibrida delle parti RF-MEMS e CMOS (hybrid packaging). Verranno inoltre messe in luce questioni riguardanti gli effetti parassiti (accoppiamenti capacitivi ed induttivi) introdotti dal package che influenzano le prestazioni RF dei dispositivi MEMS incapsulati. Nel dettaglio, tutti i gradi di libertà del processo tecnologico per l’ottenimento del package saranno ottimizzati per mezzo di un simulatore elettromagnetico (Ansoft HFSSTM) al fine di ridurre gli effetti parassiti introdotti dal substrato protettivo. Inoltre, risultati sperimentali raccolti da misure di strutture di test incapsulate verranno mostrati per validare, da un lato, il simulatore Ansoft HFSSTM e per dimostrate, dall’altro, la fattibilit`a della soluzione di packaging proposta. Aldilà dell’apparente debole legame tra i due argomenti sopra menzionati è possibile identificare un unico obiettivo. Da un lato questo è da ricercarsi nello sviluppo di un ambiente di simulazione unificato all’interno del quale il comportamento elettromeccanico dei dispositivi RF-MEMS possa essere studiato ed analizzato. All’interno di tale ambiente, l’influenza del package sul comportamento elettromagnetico degli RF-MEMS può essere tenuta in conto per mezzo di modelli a parametri concentrati (lumped elements) estratti da misure sperimentali e simulazioni agli Elementi Finiti (FEM) della parte di package. Infine, la possibilità offerta dall’ambiente Cadence c relativamente alla simulazione di dipositivi RF-MEMS interfacciati alla parte CMOS rende possibile l’analisi di blocchi funzionali ibridi RF-MEMS/CMOS completi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le ricerche di carattere eustatico, mareografico, climatico, archeologico e geocronologico, sviluppatesi soprattutto nell’ultimo ventennio, hanno messo in evidenza che gran parte delle piane costiere italiane risulta soggetta al rischio di allagamento per ingressione marina dovuta alla risalita relativa del livello medio del mare. Tale rischio è la conseguenza dell’interazione tra la presenza di elementi antropici e fenomeni di diversa natura, spesso difficilmente discriminabili e quantificabili, caratterizzati da magnitudo e velocità molto diverse tra loro. Tra le cause preponderanti che determinano l’ingressione marina possono essere individuati alcuni fenomeni naturali, climatici e geologici, i quali risultano fortemente influenzati dalle attività umane soprattutto a partire dal XX secolo. Tra questi si individuano: - la risalita del livello del mare, principalmente come conseguenza del superamento dell’ultimo acme glaciale e dello scioglimento delle grandi calotte continentali; - la subsidenza. Vaste porzioni delle piane costiere italiane risultano soggette a fenomeni di subsidenza. In certe zone questa assume proporzioni notevoli: per la fascia costiera emiliano-romagnola si registrano ratei compresi tra 1 e 3 cm/anno. Tale subsidenza è spesso il risultato della sovrapposizione tra fenomeni naturali (neotettonica, costipamento di sedimenti, ecc.) e fenomeni indotti dall’uomo (emungimenti delle falde idriche, sfruttamento di giacimenti metaniferi, escavazione di materiali per l’edilizia, ecc.); - terreni ad elevato contenuto organico: la presenza di depositi fortemente costipabili può causare la depressione del piano di campagna come conseguenza di abbassamenti del livello della falda superficiale (per drenaggi, opere di bonifica, emungimenti), dello sviluppo dei processi di ossidazione e decomposizione nei terreni stessi, del costipamento di questi sotto il proprio peso, della carenza di nuovi apporti solidi conseguente alla diminuita frequenza delle esondazioni dei corsi d’acqua; - morfologia: tra i fattori di rischio rientra l’assetto morfologico della piana e, in particolare il tipo di costa (lidi, spiagge, cordoni dunari in smantellamento, ecc. ), la presenza di aree depresse o comunque vicine al livello del mare (fino a 1-2 m s.l.m.), le caratteristiche dei fondali antistanti (batimetria, profilo trasversale, granulometria dei sedimenti, barre sommerse, assenza di barriere biologiche, ecc.); - stato della linea di costa in termini di processi erosivi dovuti ad attività umane (urbanizzazione del litorale, prelievo inerti, costruzione di barriere, ecc.) o alle dinamiche idro-sedimentarie naturali cui risulta soggetta (correnti litoranee, apporti di materiale, ecc. ). Scopo del presente studio è quello di valutare la probabilità di ingressione del mare nel tratto costiero emiliano-romagnolo del Lido delle Nazioni, la velocità di propagazione del fronte d’onda, facendo riferimento allo schema idraulico del crollo di una diga su letto asciutto (problema di Riemann) basato sul metodo delle caratteristiche, e di modellare la propagazione dell’inondazione nell’entroterra, conseguente all’innalzamento del medio mare . Per simulare tale processo è stato utilizzato il complesso codice di calcolo bidimensionale Mike 21. La fase iniziale di tale lavoro ha comportato la raccolta ed elaborazione mediante sistema Arcgis dei dati LIDAR ed idrografici multibeam , grazie ai quali si è provveduto a ricostruire la topo-batimetria di dettaglio della zona esaminata. Nel primo capitolo è stato sviluppato il problema del cambiamento climatico globale in atto e della conseguente variazione del livello marino che, secondo quanto riportato dall’IPCC nel rapporto del 2007, dovrebbe aumentare al 2100 mediamente tra i 28 ed i 43 cm. Nel secondo e terzo capitolo è stata effettuata un’analisi bibliografica delle metodologie per la modellazione della propagazione delle onde a fronte ripido con particolare attenzione ai fenomeni di breaching delle difese rigide ed ambientali. Sono state studiate le fenomenologie che possono inficiare la stabilità dei rilevati arginali, realizzati sia in corrispondenza dei corsi d’acqua, sia in corrispondenza del mare, a discapito della protezione idraulica del territorio ovvero dell’incolumità fisica dell’uomo e dei territori in cui esso vive e produce. In un rilevato arginale, quale che sia la causa innescante la formazione di breccia, la generazione di un’onda di piena conseguente la rottura è sempre determinata da un’azione erosiva (seepage o overtopping) esercitata dall’acqua sui materiali sciolti costituenti il corpo del rilevato. Perciò gran parte dello studio in materia di brecce arginali è incentrato sulla ricostruzione di siffatti eventi di rottura. Nel quarto capitolo è stata calcolata la probabilità, in 5 anni, di avere un allagamento nella zona di interesse e la velocità di propagazione del fronte d’onda. Inoltre è stata effettuata un’analisi delle condizioni meteo marine attuali (clima ondoso, livelli del mare e correnti) al largo della costa emiliano-romagnola, le cui problematiche e linee di intervento per la difesa sono descritte nel quinto capitolo, con particolare riferimento alla costa ferrarese, oggetto negli ultimi anni di continui interventi antropici. Introdotto il sistema Gis e le sue caratteristiche, si è passati a descrivere le varie fasi che hanno permesso di avere in output il file delle coordinate x, y, z dei punti significativi della costa, indispensabili al fine della simulazione Mike 21, le cui proprietà sono sviluppate nel sesto capitolo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Photovoltaic (PV) conversion is the direct production of electrical energy from sun without involving the emission of polluting substances. In order to be competitive with other energy sources, cost of the PV technology must be reduced ensuring adequate conversion efficiencies. These goals have motivated the interest of researchers in investigating advanced designs of crystalline silicon solar (c-Si) cells. Since lowering the cost of PV devices involves the reduction of the volume of semiconductor, an effective light trapping strategy aimed at increasing the photon absorption is required. Modeling of solar cells by electro-optical numerical simulation is helpful to predict the performance of future generations devices exhibiting advanced light-trapping schemes and to provide new and more specific guidelines to industry. The approaches to optical simulation commonly adopted for c-Si solar cells may lead to inaccurate results in case of thin film and nano-stuctured solar cells. On the other hand, rigorous solvers of Maxwell equations are really cpu- and memory-intensive. Recently, in optical simulation of solar cells, the RCWA method has gained relevance, providing a good trade-off between accuracy and computational resources requirement. This thesis is a contribution to the numerical simulation of advanced silicon solar cells by means of a state-of-the-art numerical 2-D/3-D device simulator, that has been successfully applied to the simulation of selective emitter and the rear point contact solar cells, for which the multi-dimensionality of the transport model is required in order to properly account for all physical competing mechanisms. In the second part of the thesis, the optical problems is discussed. Two novel and computationally efficient RCWA implementations for 2-D simulation domains as well as a third RCWA for 3-D structures based on an eigenvalues calculation approach have been presented. The proposed simulators have been validated in terms of accuracy, numerical convergence, computation time and correctness of results.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The purpose of this thesis is the atomic-scale simulation of the crystal-chemical and physical (phonon, energetic) properties of some strategically important minerals for structural ceramics, biomedical and petrological applications. These properties affect the thermodynamic stability and rule the mineral-environment interface phenomena, with important economical, (bio)technological, petrological and environmental implications. The minerals of interest belong to the family of phyllosilicates (talc, pyrophyllite and muscovite) and apatite (OHAp), chosen for their importance in industrial and biomedical applications (structural ceramics) and petrophysics. In this thesis work we have applicated quantum mechanics methods, formulas and knowledge to the resolution of mineralogical problems ("Quantum Mineralogy”). The chosen theoretical approach is the Density Functional Theory (DFT), along with periodic boundary conditions to limit the portion of the mineral in analysis to the crystallographic cell and the hybrid functional B3LYP. The crystalline orbitals were simulated by linear combination of Gaussian functions (GTO). The dispersive forces, which are important for the structural determination of phyllosilicates and not properly con-sidered in pure DFT method, have been included by means of a semi-empirical correction. The phonon and the mechanical properties were also calculated. The equation of state, both in athermal conditions and in a wide temperature range, has been obtained by means of variations in the volume of the cell and quasi-harmonic approximation. Some thermo-chemical properties of the minerals (isochoric and isobaric thermal capacity) were calculated, because of their considerable applicative importance. For the first time three-dimensional charts related to these properties at different pressures and temperatures were provided. The hydroxylapatite has been studied from the standpoint of structural and phonon properties for its biotechnological role. In fact, biological apatite represents the inorganic phase of vertebrate hard tissues. Numerous carbonated (hydroxyl)apatite structures were modelled by QM to cover the broadest spectrum of possible biological structural variations to fulfil bioceramics applications.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the past two decades the work of a growing portion of researchers in robotics focused on a particular group of machines, belonging to the family of parallel manipulators: the cable robots. Although these robots share several theoretical elements with the better known parallel robots, they still present completely (or partly) unsolved issues. In particular, the study of their kinematic, already a difficult subject for conventional parallel manipulators, is further complicated by the non-linear nature of cables, which can exert only efforts of pure traction. The work presented in this thesis therefore focuses on the study of the kinematics of these robots and on the development of numerical techniques able to address some of the problems related to it. Most of the work is focused on the development of an interval-analysis based procedure for the solution of the direct geometric problem of a generic cable manipulator. This technique, as well as allowing for a rapid solution of the problem, also guarantees the results obtained against rounding and elimination errors and can take into account any uncertainties in the model of the problem. The developed code has been tested with the help of a small manipulator whose realization is described in this dissertation together with the auxiliary work done during its design and simulation phases.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo di questo lavoro è quello di analizzare la stabilità di uno spettro raggi X emesso da un tubo usurato per analisi cardiovascolari, in modo da verificare il suo comportamento. Successivamente questo tipo di analisi sarà effettuata su tubi CT. Per raggiungere questo scopo è stato assemblato un particolare set-up con un rivelatore al germanio criogenico in modo da avere la miglior risoluzione energetica possibile ed alcuni particolari collimatori così da ridurre il flusso fotonico per evitare effetti di pile-up. Il set-up è stato costruito in modo da avere il miglior allineamento possibile nel modo più veloce possibile, e con l'obiettivo di rendere l'intero sistema portabile. Il tubo usato è un SRM Philips tube per analisi cardiovascolari; questa scelta è stata fatta in modo da ridurre al minimo i fattori esterni (ottica elettromagnetica, emettitori) e concentrare l'attenzione solo sugli effetti, causati dalle varie esposizioni, sull'anodo (roughness e bending) e sul comportamento di essi durante il surriscaldamento e successivo raffreddamento del tubo. I risultati mostrano come durante un'esposizione alcuni fattori di usura del tubo possono influire in maniera sostanziale sullo spettro ottenuto e quindi alterare il risultato. Successivamente, nell'elaborato, mediante il software Philips di ricostruzione e simulazione dello spettro si è cercato di riprodurre, variando alcuni parametri, la differenza riscontrata sperimentalmente in modo da poter simulare l'instabilità e correggere i fattori che la causano. I risultati sono interessanti non solo per questo esperimento ma anche in ottica futura, per lo sviluppo di applicazioni come la spectral CT. Il passo successivo sarà quello di spostare l'attenzione su un CT tube e verificare se l'instabilità riscontrata in questo lavoro è persiste anche in una analisi più complessa come quella CT.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggi, i dispositivi portatili sono diventati la forza trainante del mercato consumer e nuove sfide stanno emergendo per aumentarne le prestazioni, pur mantenendo un ragionevole tempo di vita della batteria. Il dominio digitale è la miglior soluzione per realizzare funzioni di elaborazione del segnale, grazie alla scalabilità della tecnologia CMOS, che spinge verso l'integrazione a livello sub-micrometrico. Infatti, la riduzione della tensione di alimentazione introduce limitazioni severe per raggiungere un range dinamico accettabile nel dominio analogico. Minori costi, minore consumo di potenza, maggiore resa e una maggiore riconfigurabilità sono i principali vantaggi dell'elaborazione dei segnali nel dominio digitale. Da più di un decennio, diverse funzioni puramente analogiche sono state spostate nel dominio digitale. Ciò significa che i convertitori analogico-digitali (ADC) stanno diventando i componenti chiave in molti sistemi elettronici. Essi sono, infatti, il ponte tra il mondo digitale e analogico e, di conseguenza, la loro efficienza e la precisione spesso determinano le prestazioni globali del sistema. I convertitori Sigma-Delta sono il blocco chiave come interfaccia in circuiti a segnale-misto ad elevata risoluzione e basso consumo di potenza. I tools di modellazione e simulazione sono strumenti efficaci ed essenziali nel flusso di progettazione. Sebbene le simulazioni a livello transistor danno risultati più precisi ed accurati, questo metodo è estremamente lungo a causa della natura a sovracampionamento di questo tipo di convertitore. Per questo motivo i modelli comportamentali di alto livello del modulatore sono essenziali per il progettista per realizzare simulazioni veloci che consentono di identificare le specifiche necessarie al convertitore per ottenere le prestazioni richieste. Obiettivo di questa tesi è la modellazione del comportamento del modulatore Sigma-Delta, tenendo conto di diverse non idealità come le dinamiche dell'integratore e il suo rumore termico. Risultati di simulazioni a livello transistor e dati sperimentali dimostrano che il modello proposto è preciso ed accurato rispetto alle simulazioni comportamentali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca si propone d’indagare sul concetto di “congruità” riferito alle trasformazioni di specifici contesti urbani, e di definire quindi un metodo “non arbitrario” per la valutazione di opere esistenti o in progetto, al fine di riconoscerne il carattere di congruità o, al contrario, d’incongruità. Interventi d’inserimento e di trasformazione, alla scala del comparto urbanistico o anche alla scala edilizia, possono presentarsi come congrui o incongrui rispetto all’identità del luogo di appartenenza (organismo a scala urbana o territoriale). Congrua risulta l’opera che non si pone in (conclamato) contrasto rispetto ai caratteri identitari del contesto. Le definizioni d’incongruità e di opera incongrua, divengono il metro di giudizio del rapporto tra un intervento ed il suo contesto, e si applicano mediante una valutazione che sia metodologicamente fondata e verificata. La valutazione di congruità-incongruità può riferirsi a opere esistenti già realizzate, oppure a progetti di nuove opere; in questo secondo approccio il metodo di valutazione si configura come linea-guida per l’orientamento del progetto stesso in termini di congruità rispetto al contesto. In una fase iniziale la ricerca ha fissato i principi di base, con la definizione di ciò che deve intendersi per congruità e per profilo di congruità. La specifica di congruità, non potendosi basare su una consolidata letteratura (il concetto nei termini descritti è stato introdotto dalla legge 16/2002 della Regione Emilia-Romagna; la Regione stessa riconosce che il concetto è in fase di precisazione tramite sperimentazioni, studi e interventi pilota), muove dallo studio dei concetti di luogo, caratteri del luogo, identità del luogo, contesto urbano, trasformazione dell’ambiente costruito, tutela del patrimonio edilizio, sviluppo tipologico, e superfetazione incongrua. Questi concetti, pur mutuati da ambiti di ricerca affini, costituiscono i presupposti per la definizione di congruità delle trasformazioni di contesti urbani, rispetto all’identità del luogo, tramite la tutela e valorizzazione dei suoi caratteri tipologici costitutivi. Successivamente, la ricerca ha affrontato l’analisi di taluni casi-tipo di opere incongrue. A tale scopo sono stati scelti quattro casi-tipo d’interventi per rimozione di opere ritenute incongrue, indagando la metodologia di valutazione di congruità in essi applicata. Inoltre è stata sperimentata l’applicazione del metodo di valutazione per “categorie di alterazioni” tramite lo studio del centro storico di Reggio Emilia, assunto come contesto urbano campione. Lo studio analitico è sviluppato attraverso l’indagine del rapporto tra edifici e caratteri del contesto, individuando e classificando gli edifici ritenuti incongrui. Qui sono emersi i limiti del metodo di individuazione delle incongruità per categorie di alterazioni; di fatto le alterazioni definite a priori rispetto al contesto, determinano un giudizio arbitrario, in quanto disancorato dai caratteri del luogo. La definizione di ciò che è congruo o incongruo deve invece riferirsi a uno specifico contesto, e le alterazioni dei caratteri che rappresentano l’identità del luogo non possono definirsi a priori generalizzandone i concetti. Completando la ricerca nella direzione del risultato proposto, si è precisato il metodo di valutazione basato sulla coincidenza dei concetti di congruità e di pertinenza di fase, in rapporto allo sviluppo tipologico del contesto. La conoscenza del contesto nei suoi caratteri tipologici, è già metodo di valutazione: nella misura in cui sia possibile effettuare un confronto fra contesto ed opera da valutare. La valutazione non si pone come vincolo all’introduzione di nuove forme che possano rappresentare un’evoluzione dell’esistente, aggiornando il processo di sviluppo tipologico in relazione alle mutazioni del quadro esigenzialeprestazionale, ma piuttosto come barriera alle trasformazioni acritiche nei confronti del contesto, che si sovrappongano o ne cancellino inconsapevolmente i segni peculiari e identitari. In ultima analisi, ai fini dell’applicabilità dei concetti esposti, la ricerca indaga sulla convergenza tra metodo proposto e possibili procedure applicative; in questo senso chiarisce come sia auspicabile definire la congruità in relazione a procedure valutative aperte. Lo strumento urbanistico, inteso come sistema di piani alle diverse scale, è l’ambito idoneo a recepire la lettura della stratificazione dei segni indentitari rilevabili in un contesto; lettura che si attua tramite processi decisionali partecipati, al fine di estendere alla collettività la definizione d’identità culturale del luogo. La valutazione specifica di opere o progetti richiede quindi una procedura aperta, similmente alla procedura di valutazione in vigore presso le soprintendenze, basandosi sul concetto di responsabilità del progettista e del valutatore, in riferimento alla responsabilità della collettività, espressa invece nello strumento urbanistico. Infatti la valutazione di tipo oggettivo, basata sul riferimento a regolamenti o schemi precostituiti, confligge con il senso della valutazione metodologicamente fondata che, al contrario, è assunto teorico basilare della ricerca.