959 resultados para emissione spontanea,emissione stimolata,schema a quattro livelli,atomi,fotoni,Olografia


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Applications are subject of a continuous evolution process with a profound impact on their underlining data model, hence requiring frequent updates in the applications' class structure and database structure as well. This twofold problem, schema evolution and instance adaptation, usually known as database evolution, is addressed in this thesis. Additionally, we address concurrency and error recovery problems with a novel meta-model and its aspect-oriented implementation. Modern object-oriented databases provide features that help programmers deal with object persistence, as well as all related problems such as database evolution, concurrency and error handling. In most systems there are transparent mechanisms to address these problems, nonetheless the database evolution problem still requires some human intervention, which consumes much of programmers' and database administrators' work effort. Earlier research works have demonstrated that aspect-oriented programming (AOP) techniques enable the development of flexible and pluggable systems. In these earlier works, the schema evolution and the instance adaptation problems were addressed as database management concerns. However, none of this research was focused on orthogonal persistent systems. We argue that AOP techniques are well suited to address these problems in orthogonal persistent systems. Regarding the concurrency and error recovery, earlier research showed that only syntactic obliviousness between the base program and aspects is possible. Our meta-model and framework follow an aspect-oriented approach focused on the object-oriented orthogonal persistent context. The proposed meta-model is characterized by its simplicity in order to achieve efficient and transparent database evolution mechanisms. Our meta-model supports multiple versions of a class structure by applying a class versioning strategy. Thus, enabling bidirectional application compatibility among versions of each class structure. That is to say, the database structure can be updated because earlier applications continue to work, as well as later applications that have only known the updated class structure. The specific characteristics of orthogonal persistent systems, as well as a metadata enrichment strategy within the application's source code, complete the inception of the meta-model and have motivated our research work. To test the feasibility of the approach, a prototype was developed. Our prototype is a framework that mediates the interaction between applications and the database, providing them with orthogonal persistence mechanisms. These mechanisms are introduced into applications as an {\it aspect} in the aspect-oriented sense. Objects do not require the extension of any super class, the implementation of an interface nor contain a particular annotation. Parametric type classes are also correctly handled by our framework. However, classes that belong to the programming environment must not be handled as versionable due to restrictions imposed by the Java Virtual Machine. Regarding concurrency support, the framework provides the applications with a multithreaded environment which supports database transactions and error recovery. The framework keeps applications oblivious to the database evolution problem, as well as persistence. Programmers can update the applications' class structure because the framework will produce a new version for it at the database metadata layer. Using our XML based pointcut/advice constructs, the framework's instance adaptation mechanism is extended, hence keeping the framework also oblivious to this problem. The potential developing gains provided by the prototype were benchmarked. In our case study, the results confirm that mechanisms' transparency has positive repercussions on the programmer's productivity, simplifying the entire evolution process at application and database levels. The meta-model itself also was benchmarked in terms of complexity and agility. Compared with other meta-models, it requires less meta-object modifications in each schema evolution step. Other types of tests were carried out in order to validate prototype and meta-model robustness. In order to perform these tests, we used an OO7 small size database due to its data model complexity. Since the developed prototype offers some features that were not observed in other known systems, performance benchmarks were not possible. However, the developed benchmark is now available to perform future performance comparisons with equivalent systems. In order to test our approach in a real world scenario, we developed a proof-of-concept application. This application was developed without any persistence mechanisms. Using our framework and minor changes applied to the application's source code, we added these mechanisms. Furthermore, we tested the application in a schema evolution scenario. This real world experience using our framework showed that applications remains oblivious to persistence and database evolution. In this case study, our framework proved to be a useful tool for programmers and database administrators. Performance issues and the single Java Virtual Machine concurrent model are the major limitations found in the framework.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Database schemas, in many organizations, are considered one of the critical assets to be protected. From database schemas, it is not only possible to infer the information being collected but also the way organizations manage their businesses and/or activities. One of the ways to disclose database schemas is through the Create, Read, Update and Delete (CRUD) expressions. In fact, their use can follow strict security rules or be unregulated by malicious users. In the first case, users are required to master database schemas. This can be critical when applications that access the database directly, which we call database interface applications (DIA), are developed by third party organizations via outsourcing. In the second case, users can disclose partially or totally database schemas following malicious algorithms based on CRUD expressions. To overcome this vulnerability, we propose a new technique where CRUD expressions cannot be directly manipulated by DIAs any more. Whenever a DIA starts-up, the associated database server generates a random codified token for each CRUD expression and sends it to the DIA that the database servers can use to execute the correspondent CRUD expression. In order to validate our proposal, we present a conceptual architectural model and a proof of concept.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nella tesi si è affrontata l'analisi strutturale di cilindro e pistone, dello scrambler Ducati 400cc bicilindrico, utilizzando come materiale il carburo di silicio. Ricavati i risultati tramite un modello agli elementi finiti, sono stati confrontati con il materiale di base,cioè l'alluminio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo elaborato sono stati analizzati i vantaggi di un motore benzina GDI rispetto ad un motore PFI, studiando in particolar modo le tecnologie per la formazione della miscela omogenea e stratificata, le configurazioni spray-guided, wall-guided e air-guided della camera di combustione, i principali iniettori utilizzati e le loro caratteristiche. Inoltre è stato eseguito un approfondimento sui parametri che influenzano maggiormente l'emissione di inquinanti come la fasatura delle valvole, la posizione dell'iniettore e l'iniezione multipla, cercando di ottimizzarli in funzione delle nuove normative europee relative alle emissioni per i motori benzina. Infine è stata verificata l'efficienza dell'applicazione del filtro antiparticolato per motori benzina ad iniezione diretta (GPF).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'obiettivo di questo lavoro è quello di analizzare la potenza emessa da una carica elettrica accelerata. Saranno studiati due casi speciali: accelerazione lineare e accelerazione circolare. Queste sono le configurazioni più frequenti e semplici da realizzare. Il primo passo consiste nel trovare un'espressione per il campo elettrico e il campo magnetico generati dalla carica. Questo sarà reso possibile dallo studio della distribuzione di carica di una sorgente puntiforme e dei potenziali che la descrivono. Nel passo successivo verrà calcolato il vettore di Poynting per una tale carica. Useremo questo risultato per trovare la potenza elettromagnetica irradiata totale integrando su tutte le direzioni di emissione. Nell'ultimo capitolo, infine, faremo uso di tutto ciò che è stato precedentemente trovato per studiare la potenza emessa da cariche negli acceleratori.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo di questo lavoro è quello di analizzare i dati raccolti dal Large Area Telescope a bordo del satellite Fermi con l'obiettivo di ricavare il flusso di raggi-γ, di energia compresa tra 100 MeV e 300 GeV, prodotti dal Blazar PKS B1424-418 in un periodo compreso tra l'1 Gennaio 2012 e il 4 Settembre 2016. Secondo alcuni modelli questo blazar potrebbe essere infatti la prima sorgente di Ultra High Energy Cosmic Ray associata sperimentalmente all'emissione di neutrini. L'analisi dei dati è effettuata tramite il pacchetto di software Fermi Science Tools.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’obiettivo della mia tesi è stato quello di valutare gli effetti delle alte pressioni di omogeneizzazione sulla vitalità, idrofobicità, modulazione degli acidi grassi di membrana e la risposta genica, legata soprattutto alla biosintesi di acidi grassi, di Lactobacillus paracasei A13 quando sottoposto a trattamenti ad alta pressione di omogeneizzazione compresi tra 50 e 200 MPa. I dati di carico cellulare, registrati anche dopo trattamento a 200 MPa, hanno dimostrato che Lb. paracasei A13 è fortemente baro tollerante. Inoltre, il trattamento iperbarico induce un incremento di idrofobicità del ceppo, soprattutto quando trattato a 150 MPa, influenzando potenzialmente in modo positivo l’interazione tra il microrganismo oggetto di studio e l’intestino dell’ospite. I dati riguardanti gli acidi grassi hanno dimostrato che la membrana cellulare, ritenuta uno dei bersagli più suscettibili alla pressione, è in grado di rispondere agli stress sub letali provocati dal trattamento iperbarico. In particolare, all’aumentare della pressione, aumenta il grado d’insaturazione della membrana, accompagnato anche da un incremento degli acidi grassi ciclici, da una riduzione della catena carboniosa degli acidi grassi C12, 13, 14 e da una diminuzione degli idrossiacidi, giustificata con la ben nota capacità di molti batteri lattici di trasformarli, in condizioni di stress, in molecole quorum sensing quali ad esempio i furanoni. I dati relativi allo studio di specifici geni, indicano chiaramente una iperespressione dei geni fabH e fabD, responsabili delle prime fasi di biosintesi degli acidi grassi. Pertanto, la loro significativa iperespressione a 150 e 200 MPa rende ragione del significativo incremento di acidi grassi a corta catena registrato in tali condizioni. Anche il significativo aumento degli acidi grassi insaturi può essere spiegato attraverso l’incremento di espressione di fabF e fabZ responsabili dell’introduzione di doppi legami nella catena carboniosa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’obiettivo di questa tesi è stato quello di valutare gli effetti delle alte pressioni di omogeneizzazione sulla vitalità, idrofobicità e stato fisiologico generale di Lactobacillus paracasei A13 quando sottoposto a trattamenti ad alta pressione di omogeneizzazione compresi tra 50 e 200 MPa. Per valutare l’effetto del trattamento sulle cellule e la capacità di recupero dopo lo stress subito, sono state utilizzate le tecniche di microscopia a fluorescenza e di citometria di flusso. La citometria di flusso ha permesso misurare i cambiamenti fisiologici e morfologici delle cellule probiotiche oggetto di studio in rapporto al trattamento iperbarico applicato attraverso l’utilizzo di sonde quali SYBr green (SG) e Propidio Ioduro (PI). Queste modificazioni della cellula sono state rilevate anche in microscopia a fluorescenza, anche se l’utilizzo di questa tecnica non permette di quantificare la percentuale di cellule vive da quelle danneggiate. I dati ottenuti nella sperimentazione hanno dimostrato che la vitalità di Lb. paracasei non diminuisce all’aumentare della pressione e anche a 200 MPa non si assiste ad alcun calo significativo del carico cellulare. Dall’analisi dell’idrofobicità, effettuata subito dopo il trattamento, si è visto che il ceppo tende ad aumentare il suo livello di idrofobicità all’aumentare della pressione applicata e i massimi livelli sono stati registrati a 150 MPa. La citometria di flusso ha evidenziato che all’aumentare della pressione applicata si assiste ad una riduzione volumetrica delle cellule e ad un aumento del numero delle cellule morte e parzialmente danneggiate; tuttavia, quest’ultime hanno dimostrato una buona capacità di recupero in terreno MRS. I risultati ottenuti hanno permesso di individuare il livello di pressione ottimale in grado di massimizzare la velocità di recupero delle cellule e conseguentemente la loro funzionalità nei sistemi alimentari.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'industria automobilistica sta assistendo ad un importante cambiamento verso motorizzazioni con cilindrata unitaria minore, turbocompressi, e con iniezione diretta in camera, a causa delle normative sempre più stringenti sull'emissione di inquinanti allo scarico, inclusa la CO2 per ragioni legate all'effetto serra ed al contenimento dei consumi di fonti energetiche non rinnovabili. I motori turbocompressi lavorano con una pressione media effettiva maggiore, con conseguenti maggiori pressioni e temperature in camera, che di fatto aumentano il rischio di insorgenza di eventi di combustione anomale come pre-accensione e detonazione. Questo porta ad utilizzare il motore con angoli sub-ottimali di anticipo di accensione e con arricchimento della miscela per diminuire le temperature dei gas in ingresso alla turbina. Queste strategie non sono più compatibili con le nuove regolamentazioni, in quanto superano i limiti imposti di emissioni e consumo specifico in cicli reali di utilizzo su strada. Tra le varie possibili soluzioni, l'iniezione d'acqua è una tecnologia già conosciuta, che permette un controllo della tendenza alla detonazione. Il principio consiste nella riduzione della temperatura della carica grazie all'elevato calore latente di vaporizzazione della massa d'acqua iniettata. In questo lavoro sono stati valutati entrambi i layout di iniezione d'acqua, nel condotto e in camera di combustione, in due punti motore: massima potenza e massima coppia. La metodica di ricerca è stata di tipo numerico tramite l'utilizzo di simulazioni tridimensionali CFD a partire da una metodologia basata su modelli fisici solidamente validati. Il software commerciale utilizzato è stato AVL FIRE, che permette di manipolare in modo agevole i risultati sia al suo interno, sia tramite ambienti di calcolo esterno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduzione: dal 2018 è attiva in Emilia-Romagna una rete multidisciplinare per i casi di morte cardiaca improvvisa (MCI). In questo studio sono riportate le caratteristiche della rete e i risultati dei primi quattro anni di attività. Materiali e metodi: sono inclusi i casi di MCI avvenuti in Emilia-Romagna dal 2018 in soggetti con età > 1 anno e ≤55 anni. L’autopsia è stata eseguita secondo le raccomandazioni internazionali ed il cuore inviato all’Unità di Patologia Cardiovascolare del Policlinico di Sant’Orsola. A seconda degli scenari sono state eseguite analisi genetiche, tossicologiche e microbiologiche. In caso di patologie geneticamente determinate o nelle morti sine materia è stato avviato lo screening familiare. Risultati: nei primi quattro anni di attività sono pervenuti 83 casi (età media 37 anni). In tutti i casi è stato eseguito un esame cardio-patologico completo e in 55 soggetti (66%) l’analisi genetica. Tra i 75 casi completati, è stata identificata una causa certa/altamente probabile di decesso in 66 (88%). Le patologie coronariche sono la patologia più frequentemente diagnostica (20 casi, 27%) seguita dalle cardiomiopatie (21%), mentre in 9 soggetti è stata riscontrata una malattia infiammatoria. L’indagine genetica è stata completata in 42 casi, identificando in 8 una mutazione causativa o una variante verosimilmente patogena (materiale inidoneo in 9). Successivamente, è stato eseguito lo screening in 14 famiglie di probandi deceduti per patologie non acquisite identificando sei soggetti di altrettante famiglie con un fenotipo positivo o dubbio. L’analisi genetica ha permesso di individuare quattro parenti con la stessa mutazione/variante verosimilmente patogena del probando. Complessivamente, in quattro soggetti è stato impiantato un defibrillatore per la prevenzione primaria della MCI. Conclusioni: la rete multidisciplinare della MCI in Emilia-Romagna ha permesso di identificare una causa di decesso in quasi nove casi su dieci, diagnosticare diversi parenti affetti e approntare strategie preventive per la MCI.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le galassie passive sono sistemi dominati da popolazioni stellari vecchie, non mostrano tracce di formazione stellare (spettri compatibili con assenza di righe in emissione e caratterizzati da righe in assorbimento), e ci sono evidenze osservative che indicano che le galassie passive abbiano iniziato ad assemblare la loro massa stellare a z. Gli spettri delle galassie passive conservano traccia dei meccanismi fisici ed evolutivi della loro popolazione stellare. Laddove si hanno a disposizione spettri di buona qualità, ovvero che abbiano un rapporto segnale-rumore elevato, l’informazione contenuta in tali spettri può essere dedotta dalla misura dell’intensità di alcune righe in assorbimento. Burstein et al. (1984) hanno costruito un insieme di indici spettroscopici, chiamato sistema di indici di Lick, i quali misurano l’intensità delle principali righe in assorbimento (nella regione di lunghezze d’onda ottiche tra 4000-6000 Å), in termini di larghezza equivalente. in questa tesi è stato adottato il metodo degli indici di Lick per stimare i parametri evolutivi di un campione di galassie passive. Gli obiettivi principali di questa tesi sono due: 1.) studiare l’evoluzione col redshift dei parametri di età, metallicità totale e abbondanze relative di elementi α rispetto al ferro di un campione di galassie estratto spettroscopicamente dalla SDDS (Moresco et al., 2011). L’obiettivo finale è quello di dedurre informazioni sulla storia di formazione stellare delle galassie del campione. 2.) realizzare una simulazione per valutare la possibilità di misurare gli indici di Lick negli spettri di galassie passive che verranno osservate con la missione futura Euclid. Da questo studio è emerso un chiaro andamento evolutivo del campione in linea con quello previsto dallo scenario evolutivo del mass-downsizing, per il quale la SFH di una popolazione stellare è fortemente vincolata dalla massa della popolazione stessa, nel senso che al crescere della massa la formazione delle galassie passive si colloca in epoche progressivamente più remote, e l’assemblaggio della loro massa stellare avviene in tempi scala via via inferiori. Dalla simulazione è emerso un risultato molto importante che deriva dalla robustezza delle misure del D4000 e riguarda la possibilità di determinare il redshift di galassie a z ≥ 1.5 con Euclid.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo studio ha applicato la metodologia Life Cycle Assessment (LCA) con l’obiettivo di valutare i potenziali impatti ambientali derivanti dalla coltivazione dell’uva in due aziende a conduzione convenzionale del ravennate, denominate DZ e NG. Successivamente è stato applicato il modello RothC per simulare scenari sulla variazione del Soil Organic Carbon (SOC) e valutare in che misura le diverse pratiche agronomiche di gestione del suolo influenzino la variazione del SOC e la relativa emissione di CO2. Infine, i risultati dell’LCA sono stati integrati con quelli del modello RothC. Gli esiti dell’LCA indicano che, generalmente, sui diversi aspetti ambientali l’azienda DZ ha impatti superiori a quelli di NG soprattutto a causa di un maggiore utilizzo di fertilizzanti e pesticidi. Per quanto riguarda il contributo al riscaldamento globale (GWP), DZ mostra un impatto circa doppio di quello di NG. Il modello RothC ha individuato quali pratiche culturali aumentano il SOC mitigando le emissioni di CO2eq., in particolare: l’inerbimento perenne, la scelta di forme di allevamento con elevata produzione di residui culturali e l’utilizzo di ammendanti. L’integrazione dei valori dei due strumenti ha permesso di ottenere un bilancio globale di CO2eq. in cui le emissioni totali rispetto al GWP aumentano in DZ e diminuiscono in NG, portando a un impatto di DZ circa tre volte superiore rispetto a quello di NG. Fertilizzazione, potatura e lavorazione del suolo sono pratiche considerate nel calcolo del GWP in termini di consumo ed emissione dei processi produttivi, ma non come input di carbonio fornibili al suolo, determinando sovra o sottostima delle effettive emissioni di CO2eq. Questo studio dimostra l’utilità di incentivare la diffusione dell’applicazione integrata dei due strumenti nel settore viticolo, determinante per la comprensione e quantificazione delle emissioni di CO2 associate alla fase di coltivazione, sulla quale quindi indirizzare ottimizzazioni e approfondimenti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’obiettivo di questo studio è quello di valutare la stabilità foto-ossidativa di oli vegetali esposti a luce ultravioletta di bassa intensità per tempi brevi (da 5 min a 8 ore); lo scopo è quello di monitorare le prime fasi di ossidazione. Per la realizzazione di questo studio, è stato messo a punto un sistema di foto-ossidazione al fine di poter adottare condizioni di analisi le più ripetibili possibili e al fine di poter escludere il possibile effetto della temperatura. I campioni di olio analizzati nel presente lavoro di ricerca, tre oli raffinati e un olio extravergine di oliva, sono stati posti in provette di vetro trasparente da 20 ml, caricati poi all’interno della camera di ossidazione in gruppi di quattro e lasciati sotto l’effetto della luce ultravioletta per diversi tempi ovvero 0, 5, 10, 20, 30, 60, 240 e 480 minuti. Sono stati presi in considerazione i seguenti parametri qualitativi di analisi per valutare lo stato ossidativo dei nostri campioni, e cioè il numero di perossido, la concentrazione di esanale e il valore di p-anisidina. Dai risultati ottenuti è stato possibile osservare che complessivamente, a livelli di insaturazione e di presenza di antiossidanti naturali differenti, l’impatto dell’esposizione alla luce è stato piuttosto simile. I tre oli raffinati hanno mostrato valori ossidativi più contenuti, mentre per l’olio EVO sono state rilevate concentrazioni più alte sia per i perossidi che per l’esanale. Questo è dovuto alla presenza di alcuni composti ad azione pro-ossidante e composti aromatici che permangono nel prodotto in quanto questo olio non subisce il processo di raffinazione. La p-anisidina per tutte e quattro gli oli testati è rimasta piuttosto costante e lineare nel tempo senza subire considerevoli variazioni. Questo sottolinea il fatto che le condizioni di stress foto-ossidativo impiegate non sono state sufficienti a determinare un aumento significativo dei prodotti di ossidazione secondaria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il guadagno di un PMT è il fattore di amplificazione tra la corrente generata dal fotocatodo e quella finale dell’anodo. Quando un PMT è soggetto a una sorgente luminosa per lunghi periodi di tempo (processo noto come "invecchiamento"), il suo guadagno tende a diminuire. In questa tesi sono riportati i risultati della campagna di invecchiamento di un fotomoltiplicatore Hamamatsu R760. In particolare, è stato studiato come variasse il guadagno in funzione della carica integrata dal PMT tramite due principali tipi di misure: quella del guadagno assoluto, che consiste in singole misure di guadagno nella condizione di emissione di un singolo fotoelettrone alla volta, e quelle di guadagno relativo, le quali hanno permesso di studiare la dipendenza tra guadagno e voltaggio applicato al PMT. Il PMT in esame è stato fatto invecchiare fino a una carica integrata totale pari a 342 C. Una volta raggiunti i 282 C, è stato spento per 20 giorni, in modo da studiare l’eventuale capacità di recuperare guadagno durante i periodi di inattività. É stata osservata una rapida decrescita del guadagno nei primi 40 C integrati, com- inciando da 7.79 · 10^6 fino a un valore pari a 1.68 · 10^6, seguita da oscillazioni minori attorno a una decrescita lineare media. Dopo il periodo di inattività non è stato rilevato alcun recupero significativo di guadagno. Il guadagno del PMT dipende dal voltaggio applicato tramite una legge a potenza, i cui parametri sono stati misurati. In particolare, gli esponenti di tale relazione sono stati soggetti a una decrescita rapida iniziale (nei primi 40 C di carica integrata), seguita da una stabilizzazione. Inoltre, sono stati ricavati i valori di tensione da applicare al PMT per mantenere il guadagno a un valore costante di 1.5 · 10^5 in funzione della carica integrata. Questo valore è stato scelto come punto di lavoro per il rivelatore PLUME installato nell’esperimento LHCb, che utilizzerà questo tipo di PMT per la sua campagna di misure.