772 resultados para Leto, Giulio Pomponio.


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alcune patologie dell’occhio come la retinopatia diabetica, il pucker maculare, il distacco della retina possono essere curate con un intervento di vitrectomia. I rischi associati all’intervento potrebbero essere superati ricorrendo alla vitrectomia enzimatica con plasmina in associazione o in sostituzione della vitrectomia convenzionale. Inoltre, l’uso di plasmina autologa eviterebbe problemi di rigetto. La plasmina si ottiene attivando il plasminogeno con enzimi quali l’attivatore tissutale (tPA) e l’urochinasi ( uPA ) . La purificazione del plasminogeno dal sangue avviene normalmente attraverso cromatografia di affinità con resina. Tuttavia, le membrane di affinità costituiscono un supporto ideale per questa applicazione poiché possono essere facilmente impaccate prima dell’intervento, permettendo la realizzazione di un dispositivo monouso che fornisce un processo rapido ed economico. Obiettivo di questo lavoro è la preparazione di membrane di affinità per la purificazione del plasminogeno utilizzando L-lisina come ligando di affinità. Per questo scopo sono state usate membrane in cellulosa rigenerata ad attivazione epossidica, modificate con due diversi protocolli per l’immobilizzazione di L-lisina. La densità ligando è stata misurata mediante un saggio colorimetrico che usa l’acido arancio 7 come indicatore. La resa di immobilizzazione è stata studiata in funzione del tempo di reazione e della concentrazione di L-lisina. Le membrane ottimizzate sono state caratterizzate con esperimenti dinamici usando siero bovino e umano, i risultati sono stati confrontati con quelli ottenuti in esperimenti paralleli condotti con una resina commerciale di affinità con L-lisina. Durante gli esperimenti con siero, le frazioni provenienti da ogni fase cromatografica sono state raccolte e analizzate con HPLC ed elettroforesi SDS-PAGE. In particolare, l’elettroforesi dei campioni eluiti presenta una banda del plasminogeno ben definita indicando che le membrane di affinità con L-lisina sono adatte alla purificazione del plasminogeno. Inoltre, è emerso che le membrane hanno maggiore produttività della resina commerciale di riferimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present doctoral thesis is structured as a collection of three essays. The first essay, “SOC(HE)-Italy: a classification for graduate occupations” presents the conceptual basis, the construction, the validation and the application to the Italian labour force of the occupational classification termed SOC(HE)-Italy. I have developed this classification under the supervision of Kate Purcell during my period as a visiting research student at the Warwick Institute for Emplyment Research. This classification links the constituent tasks and duties of a particular job to the relevant knowledge and skills imparted via Higher Education (HE). It is based onto the SOC(HE)2010, an occupational classification first proposed by Kate Purcell in 2013, but differently constructed. In the second essay “Assessing the incidence and wage effects of overeducation among Italian graduates using a new measure for educational requirements” I utilize this classification to build a valid and reliable measure for job requirements. The lack of an unbiased measure for this dimension constitutes one of the major constraints to achieve a generally accepted measurement of overeducation. Estimations of overeducation incidence and wage effects are run onto AlmaLaurea data from the survey on graduates career paths. I have written this essay and obtained these estimates benefiting of the help and guidance of Giovanni Guidetti and Giulio Pedrini. The third and last essay titled “Overeducation in the Italian labour market: clarifying the concepts and addressing the measurement error problem” addresses a number of theoretical issues concerning the concepts of educational mismatch and overeducation. Using Istat data from RCFL survey I run estimates of the ORU model for the whole Italian labour force. In my knowledge, this is the first time ever such model is estimated on such population. In addition, I adopt the new measure of overeducation based onto the SOC(HE)-Italy classification.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo della tesi è individuare gli strumenti più indicati per scrivere un documento a carattere tecnico-scientifico e creare la relativa presentazione multimediale. La scelta degli strumenti è il risultato di un’analisi delle problematiche specifiche. Tuttavia è impossibile fare delle considerazione relativamente a questi strumenti senza averli mai usati in pratica. E' stato quindi scelto un argomento tecnico scientifico come esempio: I quaternioni nella Computher Grafica. L'argomento è stato esposto in una breve dispensa scritta con LaTeX. Nella dispensa sono state inserite diverse immagini generate con Inkscape. La presentazione multimediale è stata realizzata con PowerPoint. Dopo una breve descrizione di ogni programma segue l’esposizione di come essi rispondano alle particolari esigenze di stesura di una presentazione scientifica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The LHCb experiment at the LHC, by exploiting the high production cross section for $c\overline{c}$ quark pairs, offers the possibility to investigate $\mathcal{CP}$ violation in the charm sector with a very high precision.\\ In this thesis a measurement of time-integrated \(\mathcal{CP}\) violation using $D^0\rightarrow~K^+K^-$ and $D^0\rightarrow \pi^+\pi^-$ decays at LHCb is presented. The measured quantity is the difference ($\Delta$) of \(\mathcal{CP}\) asymmetry ($\mathcal{A}_{\mathcal{CP}}$) between the decay rates of $D^0$ and $\overline{D}^0$ mesons into $K^+K^–$ and $\pi^+\pi^-$ pairs.\\ The analysis is performed on 2011 data, collected at \(\sqrt{s}=7\) TeV and corresponding to an integrated luminosity of 1 fb\(^{-1}\), and 2012 data, collected at \(\sqrt{s}=8\) TeV and corresponding to an integrated luminosity of 2 fb\(^{-1}\).\\ A complete study of systematic uncertainties is beyond the aim of this thesis. However the most important systematic of the previous analysis has been studied. We find that this systematic uncertainty was due to a statistical fluctuation and then we demonstrate that it is no longer necessary to take into account.\\ By combining the 2011 and 2012 results, the final statistical precision is 0.08\%. When this analysis will be completed and published, this will be the most precise single measurement in the search for $\mathcal{CP}$ violation in the charm sector.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel mondo Open Source, la libreria grafica OpenGL è oggi ampiamente utilizzata in svariati settori come l'animazione 2D/3D, la modellazione CAD o nello sviluppo di videogiochi. A causa dei suoi innumerevoli usi e dell'astrazione che OpenGL permette di ottenere su diversi ambienti grafici, lo sviluppatore - che la utilizza - è vincolato a cercare librerie di supporto al fine di sfruttarne al meglio le potenzialità. Questa tesi si configura su questi presupposti, presentando una libreria di selezione e editing di mesh 3D basata su OpenGL. La libreria, chiamata libEditMesh, sfrutta il meccanismo geometrico del RayPicking permettendo all'utilizzatore di identificare col mouse punti, facce e lati di solidi in scena. La tesi si articola sostanzialmente in due parti: nella prima vengono proposte alcune soluzioni ad-hoc sviluppate su applicazioni già esistenti nel panorama openSource, e non; nella seconda vengono esposti gli algoritmi e funzioni implementate in libEditMesh.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

During recent decades, economists' interest in gender-related issues has risen. Researchers aim to show how economic theory can be applied to gender related topics such as peer effect, labor market outcomes, and education. This dissertation aims to contribute to our understandings of the interaction, inequality and sources of differences across genders, and it consists of three empirical papers in the research area of gender economics. The aim of the first paper ("Separating gender composition effect from peer effects in education") is to demonstrate the importance of considering endogenous peer effects in order to identify gender composition effect. This fact is analytically illustrated by employing Manski's (1993) linear-in-means model. The paper derives an innovative solution to the simultaneous identification of endogenous and exogenous peer effects: gender composition effect of interest is estimated from auxiliary reduced-form estimates after identifying the endogenous peer effect by using Graham (2008) variance restriction method. The paper applies this methodology to two different data sets from American and Italian schools. The motivation of the second paper ("Gender differences in vulnerability to an economic crisis") is to analyze the different effect of recent economic crisis on the labor market outcome of men and women. Using triple differences method (before-after crisis, harder-milder hit sectors, men-women) the paper used British data at the occupation level and shows that men suffer more than women in terms of probability of losing their job. Several explanations for the findings are proposed. The third paper ("Gender gap in educational outcome") is concerned with a controversial academic debate on the existence, degree and origin of the gender gap in test scores. The existence of a gap both in mean scores and the variability around the mean is documented and analyzed. The origins of the gap are investigated by looking at wide range of possible explanations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Curry-Howard isomorphism is the idea that proofs in natural deduction can be put in correspondence with lambda terms in such a way that this correspondence is preserved by normalization. The concept can be extended from Intuitionistic Logic to other systems, such as Linear Logic. One of the nice conseguences of this isomorphism is that we can reason about functional programs with formal tools which are typical of proof systems: such analysis can also include quantitative qualities of programs, such as the number of steps it takes to terminate. Another is the possiblity to describe the execution of these programs in terms of abstract machines. In 1990 Griffin proved that the correspondence can be extended to Classical Logic and control operators. That is, Classical Logic adds the possiblity to manipulate continuations. In this thesis we see how the things we described above work in this larger context.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di illustrare gli standard IEEE 802.22 WRAN e IEEE 802.16e Mobile WiMAX. Di questi standard verranno analizzate le caratteristiche principali, i metodi di funzoinamento ed alcuni protocolli. Nel primo capitolo viene fatta una breve spiegazione delle tecnologie wireless con un focus sullo spettro radio, sulle tecniche di modulazione dell’onda radio, sugli scenari operativi LOS, nLOS ed NLOS, sulle tecniche di duplexing e le tecniche di accesos multiplo, inoltre vengono brevente illustrate alcune delle problematiche che affliggono le trasmissioni senza fili ed infine vengono illustrate i quattro più comuni livelli di QoS. Nel secondo capitolo viene illustrato lo standard IEEE 802.22 con un focus sullo stato dell’arte della tecnologia WRAN, come si è sviluppato lo standard e per quali motivi è stato redatto, lo spettro di frequeza utilizzato e come, il funzionamento delle Cognitive Radio, i dispositivi che caratterizzano le reti WRAN e la topologia di rete utilizzata. In seguito sono spiegati nello specifico i livelli fisico e MAC e le loro caratteristiche e metodi di funzionamento. Nel terzo capitolo vengono illustrate le caratteristiche dello standard IEEE 802.16e cercando di riprendere gli stessi punti toccati nel capitolo precedente con una caratterizzazione dello standard nei suoi particolari.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Food Security has become an important issue in the international debate, particularly during the latest economic crisis. It relevant issue also for the Mediterranean Countries (MCs), particularly those of the southern shore, as they are is facing complex economic and social changes. On the one hand there is the necessity to satisfy the increasing and changing food demand of the growing population; on the other hand it is important to promote economic growth and adjust the agricultural production to food demand in a sustainable perspective. The assessment of food security conditions is a challenging task due to the multi-dimensional nature and complexity of the matter. Many papers in the scientific literature focus on the nutritional aspects of food security, while its economic issues have been addressed less frequently and only in recent times. Thus, the main objective of the research is to assess food (in)security conditions in the MCs. The study intends to identify and implement appropriate theoretical concepts and methodological tools to be used in the assessment of food security, with a particular emphasis on its economic dimension within MCs. The study follows a composite methodological approach, based on the identification and selection of a number of relevant variables, a refined set of indicators is identified by means of a two-step Principal Component Analysis applied to 90 countries and the PCA findings have been studied with particular attention to the MCs food security situation. The results of the study show that MCs have an higher economic development compared to low-income countries, however the economic and social disparities of this area show vulnerability to food (in)security, due to: dependency on food imports, lack of infrastructure and agriculture investment, climate condition and political stability and inefficiency. In conclusion, the main policy implications of food (in)security conditions in MCs are discussed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La geolocalizzazione è il processo tramite il quale è possibile mettere in relazione una certa informazione con un punto specifico della superficie terrestre, individuato tramite metodi di localizzazione (quindi il reperimento delle coordinate latidudinali e longitudinali) di un apparato elettronico, sfruttandone le caratteristiche fisiche o ricevendo informazioni dettagliate dallo strumento stesso. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni che possono essere aggiornate di frequente come la posizione e la velocità. La possibilità di rendere dinamico il reperimento di tali informazioni e di poterle rilevare in maniera sempre più dettagliata deriva dalla combinazione di diverse tecnologie che si sono sviluppare nel ventunesimo secolo e che danno ora la possibilità ad ogni dispositivo di poterle comunicare in tempo reale. Grazie alle caratteristiche sopracitate di correlare con immediatezza le informazioni al singolo dispositivo e alla sua posizione geografica, è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In questa tesi analizzerò i vari metodi di posizionamento fino ad oggi studiati, sia indoor (all’interno di edifici) che outdoor (all’esterno). Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Nel terzo e quarto capitolo esploro le tecniche esistenti rispettivamente per situazioni indoor e outdoor, tra cui GPS, localizzazione cellulare, sistemi a infrarossi, sistemi a onde radio e a ultrasuoni.Mi soffermerò inoltre sui vantaggi offerti da nuovi dispositivi con gli smartphones. Nel quinto capitolo analizzerò le caratteristiche di ogni istema, comparandole tra di loro. Farò poi riferimento ad alcuni casi reali di utilizzo di tali tecnologie, prima di concludere con alcune considerazioni personali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Word Sense Disambiguation è un problema informatico appartenente al campo di studi del Natural Language Processing, che consiste nel determinare il senso di una parola a seconda del contesto in cui essa viene utilizzata. Se un processo del genere può apparire banale per un essere umano, può risultare d'altra parte straordinariamente complicato se si cerca di codificarlo in una serie di istruzioni esguibili da una macchina. Il primo e principale problema necessario da affrontare per farlo è quello della conoscenza: per operare una disambiguazione sui termini di un testo, un computer deve poter attingere da un lessico che sia il più possibile coerente con quello di un essere umano. Sebbene esistano altri modi di agire in questo caso, quello di creare una fonte di conoscenza machine-readable è certamente il metodo che permette di affrontare il problema in maniera più diretta. Nel corso di questa tesi si cercherà, come prima cosa, di spiegare in cosa consiste la Word Sense Disambiguation, tramite una descrizione breve ma il più possibile dettagliata del problema. Nel capitolo 1 esso viene presentato partendo da alcuni cenni storici, per poi passare alla descrizione dei componenti fondamentali da tenere in considerazione durante il lavoro. Verranno illustrati concetti ripresi in seguito, che spaziano dalla normalizzazione del testo in input fino al riassunto dei metodi di classificazione comunemente usati in questo campo. Il capitolo 2 è invece dedicato alla descrizione di BabelNet, una risorsa lessico-semantica multilingua di recente costruzione nata all'Università La Sapienza di Roma. Verranno innanzitutto descritte le due fonti da cui BabelNet attinge la propria conoscenza, WordNet e Wikipedia. In seguito saranno illustrati i passi della sua creazione, dal mapping tra le due risorse base fino alla definizione di tutte le relazioni che legano gli insiemi di termini all'interno del lessico. Infine viene proposta una serie di esperimenti che mira a mettere BabelNet su un banco di prova, prima per verificare la consistenza del suo metodo di costruzione, poi per confrontarla, in termini di prestazioni, con altri sistemi allo stato dell'arte sottoponendola a diversi task estrapolati dai SemEval, eventi internazionali dedicati alla valutazione dei problemi WSD, che definiscono di fatto gli standard di questo campo. Nel capitolo finale vengono sviluppate alcune considerazioni sulla disambiguazione, introdotte da un elenco dei principali campi applicativi del problema. Vengono in questa sede delineati i possibili sviluppi futuri della ricerca, ma anche i problemi noti e le strade recentemente intraprese per cercare di portare le prestazioni della Word Sense Disambiguation oltre i limiti finora definiti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The first part of this work deals with the inverse problem solution in the X-ray spectroscopy field. An original strategy to solve the inverse problem by using the maximum entropy principle is illustrated. It is built the code UMESTRAT, to apply the described strategy in a semiautomatic way. The application of UMESTRAT is shown with a computational example. The second part of this work deals with the improvement of the X-ray Boltzmann model, by studying two radiative interactions neglected in the current photon models. Firstly it is studied the characteristic line emission due to Compton ionization. It is developed a strategy that allows the evaluation of this contribution for the shells K, L and M of all elements with Z from 11 to 92. It is evaluated the single shell Compton/photoelectric ratio as a function of the primary photon energy. It is derived the energy values at which the Compton interaction becomes the prevailing process to produce ionization for the considered shells. Finally it is introduced a new kernel for the XRF from Compton ionization. In a second place it is characterized the bremsstrahlung radiative contribution due the secondary electrons. The bremsstrahlung radiation is characterized in terms of space, angle and energy, for all elements whit Z=1-92 in the energy range 1–150 keV by using the Monte Carlo code PENELOPE. It is demonstrated that bremsstrahlung radiative contribution can be well approximated with an isotropic point photon source. It is created a data library comprising the energetic distributions of bremsstrahlung. It is developed a new bremsstrahlung kernel which allows the introduction of this contribution in the modified Boltzmann equation. An example of application to the simulation of a synchrotron experiment is shown.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Basata sul reperimento di un’ampia mole di testi giornalistici (come cronache, interviste, elzeviri e articoli di “Terza”) dedicati alle pratiche coreiche e pubblicati in Italia nel corso del ventennio fascista, la tesi ricostruisce i lineamenti di quello che, seppure ancora embrionale e certo non specialistico, si può comunque ritenere una sorta di “pensiero italiano” sulla danza del Primo Novecento. A partire dalla ricognizione sistematica di numerose testate quotidiane e periodiche e, pertanto, dalla costruzione di un nutrito corpus di fonti primarie, si è proceduto all’analisi dei testi reperiti attraverso un approccio metodologico che, fondamentalmente storiografico, accoglie tuttavia alcuni rudimenti interpretativi elaborati in ambito semiotico (con particolare riferimento alle teorizzazioni di Jurij Lotman e Umberto Eco), il tutto al fine di cogliere, pur nell’estrema varietà formale e contenutistica offerta dal materiale documentario, alcune dinamiche culturali di fondo attraverso le quali disegnare, da un lato, il panorama delle tipologie di danza effettivamente praticate sulle scene italiane del Ventennio,e, dall’altro, quello dell’insieme di pensieri, opinioni e gusti orbitanti attorno ad esse Ne è scaturita una trattazione fondamentalmente tripartita in cui, dopo la messa in campo delle questioni metodologiche, si passa dapprima attraverso l’indagine dei tre principali generi di danza che, nella stampa del periodo fascista, si ritenevano caratteristici della scena coreica internazionale – qui definiti nei termini di “ballo teatrale”, “ballo russo” e “danze libere” – e, successivamente, si presenta un approfondimento su tre singolari figure di intellettuali che, ognuno con un’attitudine estremamente personale, hanno dedicato alla danza un’attenzione speciale: Anton Giulio Bragaglia, Paolo Fabbri e Marco Ramperti. Un’ampia antologia critica completa il lavoro ripercorrendone gli snodi principali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Until few years ago, 3D modelling was a topic confined into a professional environment. Nowadays technological innovations, the 3D printer among all, have attracted novice users to this application field. This sudden breakthrough was not supported by adequate software solutions. The 3D editing tools currently available do not assist the non-expert user during the various stages of generation, interaction and manipulation of 3D virtual models. This is mainly due to the current paradigm that is largely supported by two-dimensional input/output devices and strongly affected by obvious geometrical constraints. We have identified three main phases that characterize the creation and management of 3D virtual models. We investigated these directions evaluating and simplifying the classic editing techniques in order to propose more natural and intuitive tools in a pure 3D modelling environment. In particular, we focused on freehand sketch-based modelling to create 3D virtual models, interaction and navigation in a 3D modelling environment and advanced editing tools for free-form deformation and objects composition. To pursuing these goals we wondered how new gesture-based interaction technologies can be successfully employed in a 3D modelling environments, how we could improve the depth perception and the interaction in 3D environments and which operations could be developed to simplify the classical virtual models editing paradigm. Our main aims were to propose a set of solutions with which a common user can realize an idea in a 3D virtual model, drawing in the air just as he would on paper. Moreover, we tried to use gestures and mid-air movements to explore and interact in 3D virtual environment, and we studied simple and effective 3D form transformations. The work was carried out adopting the discrete representation of the models, thanks to its intuitiveness, but especially because it is full of open challenges.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gas separation membranes of high CO2 permeability and selectivity have great potential in both natural gas sweetening and carbon dioxide capture. Many modified PIM membranes results permselectivity above Robinson upper bound. The big problem that should be solved for these polymers to be commercialized is their aging through time. In high glassy polymeric membrane such as PIM-1 and its modifications, solubility selectivity has more contribution towards permselectivity than diffusivity selectivity. So in this thesis work pure and mixed gas sorption behavior of carbon dioxide and methane in three PIM-based membranes (PIM-1, TZPIM-1 and AO-PIM-1) and Polynonene membrane is rigorously studied. Sorption experiment is performed at different temperatures and molar fraction. Sorption isotherms found from the experiment shows that there is a decrease of solubility as the temperature of the experiment increases for both gases in all polymers. There is also a decrease of solubility due to the presence of the other gas in the system in the mixed gas experiments due to competitive sorption effect. Variation of solubility is more visible in methane sorption than carbon dioxide, which will make the mixed gas solubility selectivity higher than that of pure gas solubility selectivity. Modeling of the system using NELF and Dual mode sorption model estimates the experimental results correctly Sorption of gases in heat treated and untreated membranes show that the sorption isotherms don’t vary due to the application of heat treatment for both carbon dioxide and methane. But there is decrease in the diffusivity coefficient and permeability of pure gases due to heat treatment. Both diffusivity coefficient and permeability decreases with increasing of heat treatment temperature. Diffusivity coefficient calculated from transient sorption experiment and steady state permeability experiment is also compared in this thesis work. The results reveal that transient diffusivity coefficient is higher than steady state diffusivity selectivity.