375 resultados para sottotitolaggio, pivot subtitling, subtitles, tecniche di sottotitolaggio, This is England
Measurement of CP asymmetries in $\lambda^0_b \to pk^-$ and $\lambda^0_b \to p \pi^-$ decays at LHCb
Resumo:
The LHCb experiment has been designed to perform precision measurements in the flavour physics sector at the Large Hadron Collider (LHC) located at CERN. After the recent observation of CP violation in the decay of the Bs0 meson to a charged pion-kaon pair at LHCb, it is interesting to see whether the same quark-level transition in Λ0b baryon decays gives rise to large CP-violating effects. Such decay processes involve both tree and penguin Feynman diagrams and could be sensitive probes for physics beyond the Standard Model. The measurement of the CP-violating observable defined as ∆ACP = ACP(Λ0b → pK−)−ACP(Λ0b →pπ−),where ACP(Λ0b →pK−) and ACP(Λ0b →pπ−) are the direct CP asymmetries in Λ0b → pK− and Λ0b → pπ− decays, is presented for the first time using LHCb data. The procedure followed to optimize the event selection, to calibrate particle identification, to parametrise the various components of the invariant mass spectra, and to compute corrections due to the production asymmetry of the initial state and the detection asymmetries of the final states, is discussed in detail. Using the full 2011 and 2012 data sets of pp collisions collected with the LHCb detector, corresponding to an integrated luminosity of about 3 fb−1, the value ∆ACP = (0.8 ± 2.1 ± 0.2)% is obtained. The first uncertainty is statistical and the second corresponds to one of the dominant systematic effects. As the result is compatible with zero, no evidence of CP violation is found. This is the most precise measurement of CP violation in the decays of baryons containing the b quark to date. Once the analysis will be completed with an exhaustive study of systematic uncertainties, the results will be published by the LHCb Collaboration.
Resumo:
Questo elaborato si propone di introdurre il lettore all’universo di Andrea Camilleri, con particolare riferimento alle peculiarità linguistiche che contraddistinguono le sue opere. La lingua da lui utilizzata risulta in una combinazione di dialetto siciliano, italiano standard et una lingua familiare semi-inventata, a cui si aggiunge la varietà di registri impiegati, che investono tutte le variazioni del repertorio linguistico italiano. Questo tipo di scrittura complica il lavoro del traduttore, in quanto poche sono le lingue straniere che presentano una varietà dialettale simile a quella italiana. In particolare la lingua francese, profondamente legata alla norma e al bon usage, risulta poco elastica e quindi restia agli “sconvolgimenti” che invece Camilleri apporta, con risultati divertenti e apprezzati. L’opera oggetto del nostro studio, La stagione della caccia, insiste particolarmente sulla varietà diatopica, varietà che la traduttrice francese Dominique Vittoz ha deciso di preservare impiegando una parlata regionale poco conosciuta, ma appartenente al suo ambito familiare: il lionese. In tal modo, ricorrendo a tecniche di equivalenza e di compensazione, la traduttrice riesce abilmente e rendere in francese la stessa espressività del testo italiano, caratterizzando i personaggi attraverso il loro modo di esprimersi. Lo scopo del nostro lavoro è quello di dimostrare, attraverso l’analisi di alcune parti del testo, che la variazione diatopica è presente tanto nell’opera originale quanto nella sua traduzione. Inoltre, questa analisi ci permetterà di confrontare la situazione sociolinguistica di Italia e Francia, e di passare in rassegna i problemi e le strategie della traduzione in prospettiva sociolinguistica, con particolare attenzione alla traduzione di un linguaggio non standard. Una questione che continua a suscitare numerosi dibattiti e affascina traduttori, autori e non solo.
Resumo:
L’idea di realizzare questo lavoro di ricerca sulla traduzione nell’ambito pubblicitario sorge da un interesse nell’analisi del linguaggio della pubblicità, sia nelle sue componenti psicologiche e persuasive che in quelle linguistiche. La pubblicità è oggi uno dei principali motori dell’economia, un canale di comunicazione diffuso in maniera sempre più capillare ed uno strumento estetico ed ideologico di massa, che condiziona il modo di guardare le cose in maniera decisiva. Con la globalizzazione e la necessità di esportare i prodotti di ogni paese a livello mondiale, ha assunto un’importanza fondamentale la traduzione degli annunci di promozione di questi prodotti finalizzata alla localizzazione dei messaggi pubblicitari, in contrasto alla tendenza alla globalizzazione linguistica. Questo lavoro si propone di analizzare proprio questo contrasto tra la necessità di adattare il testo al paese e alla cultura del destinatario e, d’altra parte, l’internazionalizzazione e standardizzazione dei messaggi, la situazione in cui questo contrasto sorge ed il modo in cui viene risolto. Partendo dalla descrizione delle origini del termine “pubblicità” nel tentativo di definirne il concetto, passando attraverso la descrizione dei suoi obiettivi e funzioni e descrivendo il processo persuasivo ed i diversi modi in cui la pubblicità può essere classificata, vengono spiegate le strategie traduttive del messaggio pubblicitario, le situazioni particolari in cui tali strategie sono applicate ed i loro fini. Vengono descritte le tecniche di traduzione applicate al nome del marchio, il modo in cui i riferimenti culturali presenti nell’annuncio vengono adattati ai diversi paesi e le tecniche traduttive adattate al mezzo di comunicazione e ai vari recettori. In seguito si descrive l’importanza della forza appellativa ed espressiva di ogni testo e della struttura testuale nella traduzione degli annunci e il modo in cui vengono adattati gli elementi grafici e la grafia durante la traduzione, terminando con alcuni esempi concreti di errori di traduzione di annunci pubblicitari.
Resumo:
Elliptical galaxies are one of the most characteristic objects we can find in the sky. In order to unveil their properties, such as their structure or chemical composition, one must study their spectral emission. In fact they seem to behave rather differently when observed with different eyes. This is because their light is mainly brought by two different components: optical radiation arises from its stars, while the X emission is primarly due to a halo of extremely hot gas in which ellipticals seem to be embedded. After a brief classification, the two main processes linked to these phenomena will be described, together with the informations we can collect thanks to them. Eventually, we will take a quick look at the other regions of the electromagnetic spectrum.
Resumo:
Holding the major share of stellar mass in galaxies and being also old and passively evolving, early-type galaxies (ETGs) are the primary probes in investigating these various evolution scenarios, as well as being useful means to provide insights on cosmological parameters. In this thesis work I focused specifically on ETGs and on their capability in constraining galaxy formation and evolution; in particular, the principal aims were to derive some of the ETGs evolutionary parameters, such as age, metallicity and star formation history (SFH) and to study their age-redshift and mass-age relations. In order to infer galaxy physical parameters, I used the public code STARLIGHT: this program provides a best fit to the observed spectrum from a combination of many theoretical models defined in user-made libraries. the comparison between the output and input light-weighted ages shows a good agreement starting from SNRs of ∼ 10, with a bias of ∼ 2.2% and a dispersion 3%. Furthermore, also metallicities and SFHs are well reproduced. In the second part of the thesis I performed an analysis on real data, starting from Sloan Digital Sky Survey (SDSS) spectra. I found that galaxies get older with cosmic time and with increasing mass (for a fixed redshift bin); absolute light-weighted ages, instead, result independent from the fitting parameters or the synthetic models used. Metallicities, instead, are very similar from each other and clearly consistent with the ones derived from the Lick indices. The predicted SFH indicates the presence of a double burst of star formation. Velocity dispersions and extinctiona are also well constrained, following the expected behaviours. As a further step, I also fitted single SDSS spectra (with SNR∼ 20), to verify that stacked spectra gave the same results without introducing any bias: this is an important check, if one wants to apply the method at higher z, where stacked spectra are necessary to increase the SNR. Our upcoming aim is to adopt this approach also on galaxy spectra obtained from higher redshift Surveys, such as BOSS (z ∼ 0.5), zCOSMOS (z 1), K20 (z ∼ 1), GMASS (z ∼ 1.5) and, eventually, Euclid (z 2). Indeed, I am currently carrying on a preliminary study to estabilish the applicability of the method to lower resolution, as well as higher redshift (z 2) spectra, just like the Euclid ones.
Resumo:
(9R)-9-hydroxystearic acid (9R-HSA) has been proven to have antitumoral activity because it is shown to inhibit histone deacetylase 1, an enzyme which activates DNA replication, and the (R)-enantiomer has been shown to be more active than the (S)-enantiomer both in vitro and by molecular docking. Hydroxyapatite is the main mineral component of bone and teeth and has been used for over 20 years in prostheses and their coating because it is biocompatible and bioactive. The goal of incorporating 9R-HSA into hydroxyapatite is to have a material that combines the bioactivity of HA with the antitumoral properties of 9R-HSA. In this work, 9R-HSA and its potassium salt were synthesized and the latter was also incorporated into hydroxyapatite. The content of (R)-9-hydroxystearate ion incorporated into the apatitic structure was shown to be a function of its concentration in solution and can reach values higher than 8.5%. (9R)-9-hydroxystearic acid modified hydroxyapatite was extensively characterized to determine the effect of the incorporation of the organic molecule. This incorporation does not significantly alter the unit cell but reduces the size of both the crystals as well as the coherent domains, mainly along the a-axis of hydroxyapatite. This is believed to be due to the coordination of the negatively charged carboxylate group to the calcium ions which are more exposed on the (100) face of the crystal, therefore limiting the growth mainly in this direction. Further analyses showed that the material becomes hydrophobic and more negatively charged with the addition of 9R-HSA but both of these properties reach a plateau at less than 5% wt of 9R-HSA.
Resumo:
Resource management is of paramount importance in network scenarios and it is a long-standing and still open issue. Unfortunately, while technology and innovation continue to evolve, our network infrastructure system has been maintained almost in the same shape for decades and this phenomenon is known as “Internet ossification”. Software-Defined Networking (SDN) is an emerging paradigm in computer networking that allows a logically centralized software program to control the behavior of an entire network. This is done by decoupling the network control logic from the underlying physical routers and switches that forward traffic to the selected destination. One mechanism that allows the control plane to communicate with the data plane is OpenFlow. The network operators could write high-level control programs that specify the behavior of an entire network. Moreover, the centralized control makes it possible to define more specific and complex tasks that could involve many network functionalities, e.g., security, resource management and control, into a single framework. Nowadays, the explosive growth of real time applications that require stringent Quality of Service (QoS) guarantees, brings the network programmers to design network protocols that deliver certain performance guarantees. This thesis exploits the use of SDN in conjunction with OpenFlow to manage differentiating network services with an high QoS. Initially, we define a QoS Management and Orchestration architecture that allows us to manage the network in a modular way. Then, we provide a seamless integration between the architecture and the standard SDN paradigm following the separation between the control and data planes. This work is a first step towards the deployment of our proposal in the University of California, Los Angeles (UCLA) campus network with differentiating services and stringent QoS requirements. We also plan to exploit our solution to manage the handoff between different network technologies, e.g., Wi-Fi and WiMAX. Indeed, the model can be run with different parameters, depending on the communication protocol and can provide optimal results to be implemented on the campus network.
Resumo:
One of the most undervalued problems by smartphone users is the security of data on their mobile devices. Today smartphones and tablets are used to send messages and photos and especially to stay connected with social networks, forums and other platforms. These devices contain a lot of private information like passwords, phone numbers, private photos, emails, etc. and an attacker may choose to steal or destroy this information. The main topic of this thesis is the security of the applications present on the most popular stores (App Store for iOS and Play Store for Android) and of their mechanisms for the management of security. The analysis is focused on how the architecture of the two systems protects users from threats and highlights the real presence of malware and spyware in their respective application stores. The work described in subsequent chapters explains the study of the behavior of 50 Android applications and 50 iOS applications performed using network analysis software. Furthermore, this thesis presents some statistics about malware and spyware present on the respective stores and the permissions they require. At the end the reader will be able to understand how to recognize malicious applications and which of the two systems is more suitable for him. This is how this thesis is structured. The first chapter introduces the security mechanisms of the Android and iOS platform architectures and the security mechanisms of their respective application stores. The Second chapter explains the work done, what, why and how we have chosen the tools needed to complete our analysis. The third chapter discusses about the execution of tests, the protocol followed and the approach to assess the “level of danger” of each application that has been checked. The fourth chapter explains the results of the tests and introduces some statistics on the presence of malicious applications on Play Store and App Store. The fifth chapter is devoted to the study of the users, what they think about and how they might avoid malicious applications. The sixth chapter seeks to establish, following our methodology, what application store is safer. In the end, the seventh chapter concludes the thesis.
Resumo:
Il presente lavoro ha come obiettivo quello di fornire informazioni generiche sul doppiaggio, comprendenti la sua nascita, il suo sviluppo e le tecniche adottare da traduttori, dialoghisti e adattatori che si occupano della traduzione audiovisiva. Partendo da questi aspetti generici, l’analisi si focalizzerà sulla traduzione per il doppiaggio, in particolare per quanto concerne gli aspetti umoristici e comici di serie televisive e film, prendendo come esempio più specifico la sitcom americana “How I Met Your Mother”. Lo studio si concentrerà su un confronto tra la versione originale americana in lingua inglese e la versione doppiata in italiano, individuando problemi legati alla traduzione, rese adeguate e, in alcuni casi, inadeguate. Nello specifico, nel primo capitolo si definiranno le fasi che hanno caratterizzato la storia del doppiaggio, dalla sua nascita al suo stato attuale. Successivamente si esporranno le tecniche di doppiaggio e le difficoltà che i traduttori inevitabilmente incontrano durante il processo di adattamento audiovisivo. Nel secondo capitolo, invece, si forniranno le definizioni di comicità e umorismo secondo diversi autori e fonti autorevoli, concentrandosi soprattutto sulle problematiche derivanti dalla non universalità dell’umorismo. Nella seconda parte del capitolo si analizzeranno più a fondo le tecniche del doppiaggio legate al mondo dell’umorismo e della comicità e le numerose problematiche derivanti dalla presenza di battute di spirito, giochi di parole e barzellette nella versione originale. Nel terzo e ultimo capitolo lo studio si focalizzerà sulla sitcom americana “How I Met Your Mother”, fornendone una breve trama e presentazione dei personaggi. L’analisi diverrà successivamente più dettagliata e riguarderà alcune espressioni comiche ricorrenti e dialoghi tratti dalla settima e ottava stagione della serie televisiva in questione, concentrandosi in particolare su quelle scene in cui entra in gioco l’umorismo e la loro resa nella lingua di arrivo, in questo caso l’italiano.
Resumo:
L’obbiettivo di questa tesi è quello di studiare le tecnologie e i metodi necessari alla simulazione degli effetti audio lineari, normalmente utilizzati per strumenti a corda elettrici, ed implementarla sullo smartphone. I vantaggi di questa idea sono evidenti nella versatilità e nella comodità di utilizzo, rispetto ai classici dispositivi impiegati dai musicisti (come gli effetti a pedali). Per fare ciò è necessaria la conoscenza delle tecniche di rappresentazione digitale di un segnale, come la trasformata di Fourier, il processo di campionamento e la trasformata Z, esposte nel Capitolo 1. Il Capitolo 2 continua l’introduzione trattando dei metodi utilizzati per creare effetti audio lineari tramite lo studio dei filtri FIR e IIR. Nel capitolo 3 sarà disponibile una classificazione degli effetti più utilizzati, seguiti dal procedimento di sviluppo di due sistemi: un equalizzatore a 10 bande e un delay, che saranno implementati nello smartphone. L’ultimo Capitolo, il quarto, spiega come è sviluppato il progetto, perché iOS è l’unico sistema operativo che permetta di farlo, ed indica le principali classi che necessitano di essere utilizzate.
Resumo:
Esposizione delle basi teoriche e delle tecniche di apprendimento in robotica, analisi del concetto di self-awareness ed esempi applicativi, concetti derivati quali continous self modelling e self-reflection, e casi di studio esemplificativi.
Resumo:
L’obiettivo della mia tesi è quello di presentare e confrontare due tipologie di tecniche di indagine cerebrale, l’EEG (Elettroencefalogramma) e la fMRI (Risonanza Magnetica funzionale), evidenziandone i vantaggi e gli svantaggi, e le loro applicazioni in campo medico. Successivamente è presentato lo sviluppo di un modello sperimentale volto allo studio del fenomeno della sinestesia, a partire da dati estratti mediante le tecniche precedenti.
Resumo:
Sono rari i problemi risolubili in maniera esatta in meccanica quantistica. Ciò è legato alle difficoltà matemtiche insite nella teoria dei quanti. Inoltre i problemi risolti, pur essendo in alcuni casi delle ottime approssimazioni, sono spesso delle astrazioni delle situazioni reali. Si pensi ad esempio al caso di una particella quantistica di un problema unidimensionale. Questi sistemi sono talmente astratti da violare un principio fondamentale, il principio di indetermi- nazione. Infatti le componenti dell’impulso e della posizione perpendicolari al moto sono nulle e quindi sono note con certezza ad ogni istante di tempo. Per poter ottenere una descrizione dei modelli che tendono alla realtà è necessario ricorrere alle tecniche di approssimazione. In questa tesi sono stati considerati i fenomeni che coinvolgono una interazione variabile nel tempo. In particolare nella prima parte è stata sviluppata la teoria delle rappresentazioni della meccanica quantistica necessaria per la definizione della serie di Dyson. Questa serie oper- atoriale dovrebbe convergere (il problema della convergenza non è banale) verso l’operatore di evoluzione temporale, grazie al quale è possibile conoscere come un sistema evolve nel tempo. Quindi riuscire a determinare la serie di Dyson fino ad un certo ordine costituisce una soluzione approssimata del problema in esame. Supponiamo che sia possibile scomporre l’hamiltoniana di un sistema fisico nella somma di due termini del tipo: H = H0 + V (t), dove V (t) è una piccola perturbazione dipendente dal tempo di un problema risolubile esattamente caratterizzato dall’hamiltoniana H0 . In tal caso sono applicabili i metodi della teoria perturbativa dipendente dal tempo. Sono stati considerati due casi limite, ovvero il caso in cui lo spettro dell’hamiltoniana imperturbata sia discreto e non degenere ed il caso in cui lo spettro sia continuo. La soluzione al primo ordine del caso discreto è stata applicata per poter formu- lare il principio di indeterminazione energia-tempo e per determinare le regole di selezione in approssimazione di dipolo elettrico. Il secondo caso è servito per spiegare il decadimento beta, rimanendo nel campo della teoria quantistica classica (per una trattazione profonda del problema sarebbe necessaria la teoria dei campi).
Resumo:
L'obiettivo di questa tesi è studiare la fattibilità dello studio della produzione associata ttH del bosone di Higgs con due quark top nell'esperimento CMS, e valutare le funzionalità e le caratteristiche della prossima generazione di toolkit per l'analisi distribuita a CMS (CRAB versione 3) per effettuare tale analisi. Nel settore della fisica del quark top, la produzione ttH è particolarmente interessante, soprattutto perchè rappresenta l'unica opportunità di studiare direttamente il vertice t-H senza dover fare assunzioni riguardanti possibili contributi dalla fisica oltre il Modello Standard. La preparazione per questa analisi è cruciale in questo momento, prima dell'inizio del Run-2 dell'LHC nel 2015. Per essere preparati a tale studio, le implicazioni tecniche di effettuare un'analisi completa in un ambito di calcolo distribuito come la Grid non dovrebbero essere sottovalutate. Per questo motivo, vengono presentati e discussi un'analisi dello stesso strumento CRAB3 (disponibile adesso in versione di pre-produzione) e un confronto diretto di prestazioni con CRAB2. Saranno raccolti e documentati inoltre suggerimenti e consigli per un team di analisi che sarà eventualmente coinvolto in questo studio. Nel Capitolo 1 è introdotta la fisica delle alte energie a LHC nell'esperimento CMS. Il Capitolo 2 discute il modello di calcolo di CMS e il sistema di analisi distribuita della Grid. Nel Capitolo 3 viene brevemente presentata la fisica del quark top e del bosone di Higgs. Il Capitolo 4 è dedicato alla preparazione dell'analisi dal punto di vista degli strumenti della Grid (CRAB3 vs CRAB2). Nel capitolo 5 è presentato e discusso uno studio di fattibilità per un'analisi del canale ttH in termini di efficienza di selezione.
Resumo:
La tesi si propone di descivere in generale i processi di produzione di neutroni e le tecniche per l’indagine della materia mediante scattering di neutroni. Si elucidano le potenzialità e i vantaggi dell’utilizzo dei neutroni nell’indagine della materia, descrivendo in modo basilare i concetti teorici della diffusione dei neutroni e le tecniche di scattering, in modo particolare lo scattering a piccolo angolo. Di questa tecnica si riporta un esperimento realizzato presso l’Institut Laue-Langevin, il quale posside gli sturmenti tra i più sofisticati al mondo per lo small-angle neutron scattering.