922 resultados para Euro VI NOx CO2 rapporto di compressione Skyactiv


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il rinnovato interesse da parte dei consumatori per le caratteristiche nutrizionali degli alimenti incentiva la ricerca in campo agroalimentare a sviluppare nuovi prodotti per il mercato attuale sempre più attento a salute e benessere. È in questo contesto che nasce a livello europeo il progetto Bake4Fun mirato allo sviluppo di soluzioni biotecnologiche innovative per la messa a punto di nuovi prodotti da forno funzionali. Nell’ambito di questo progetto europeo, lo scopo dello studio oggetto di questo elaborato di laurea è stato quello di valutare le proprietà antiossidanti e antinfiammatorie di diverse tipologie di pani creati ad hoc con farina di frumento o di farro e sottoposti a fermentazione convenzionale o con pasta madre (sourdough). Il farro appartiene alla famiglia dei cosiddetti “cereali antichi” e grazie al suo elevato profilo nutrizionale si presenta come un promettente candidato per la produzione di alimenti dalle proprietà benefiche. Similmente anche diverse tipologie di fermentazione sembrano in grado di possedere caratteristiche salutistiche. Pertanto, nell’ambito di B4F sono stati formulati e prodotti diversi tipi di pane e se ne sono voluti studiare i possibili effetti antiossidanti ed antiinfiammatori in vivo sul modello sperimentale del suino. Dopo 30 giorni di dieta arricchita con i diversi prodotti sperimentali miscelate in un rapporto di 1:1 con una dieta standard è stato valutato lo stato redox plasmatico mediante l’analisi di tre indicatori del danno ossidativo, quali TAC, GSH e TBARS. Il grado d’infiammazione è stato invece valutato attraverso l’analisi di otto citochine (IFNα, IFNγ, IL-1β, IL-4, IL-6, IL-8, IL-10 e TNFα) utilizzando un saggio multiparametrico di tipo ELISA. Tutti gli animali impiegati godevano di buona salute ed i loro plasmi sono stati analizzati sia all’inizio (T0) sia alla fine (T30) dell’esperimento. Sebbene i risultati conseguiti in relazione allo status ossidativo ed infiammatorio nei suini impiegati non abbiano evidenziato particolari differenze tra i diversi tipi di diete sperimentali, non si esclude che eventuali variazioni delle condizioni sperimentali possano portare a conclusioni diverse o che gli effetti siano maggiormente visibili a livello di altri parametri quali, ad esempio, la variazione della microflora intestinale o l’indice glicemico dei prodotti. Questa possibilità unitamente all’importanza degli effetti salutistici dei cereali antichi e delle diverse tipologie di fermentazione, giustificate da altre ricerche in letteratura, sottolineano la necessità di ulteriori studi in questo ambito.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato vuole illustrare alcuni risultati matematici di teoria della misura grazie ai quali si sono sviluppate interessanti conseguenze nel campo della statistica inferenziale relativamente al concetto di statistica sufficiente. Il primo capitolo riprende alcune nozioni preliminari e si espone il teorema di Radon-Nikodym, sulle misure assolutamente continue, con conseguente dimostrazione. Il secondo capitolo dal titolo ‘Applicazioni alla statistica sufficiente’ si apre con le definizioni degli oggetti di studio e con la presentazione di alcune loro proprietà matematiche. Nel secondo paragrafo si espongono i concetti di attesa condizionata e probabilità condizionata in relazione agli elementi definiti nel paragrafo iniziale. Si entra nel corpo di questo capitolo con il terzo paragrafo nel quale definiamo gli insiemi di misura, gli insiemi di misura dominati e il concetto di statistica sufficiente. Viene qua presentato un importante teorema di caratterizzazione delle statistiche sufficienti per insiemi dominati e un suo corollario che descrive la relativa proprietà di fattorizzazione. Definiamo poi gli insiemi omogenei ed esponiamo un secondo corollario al teorema, relativo a tali insiemi. Si considera poi l’esempio del controllo di qualità per meglio illustrare la nozione di statistica sufficiente osservando una situazione più concreta. Successivamente viene introdotta la nozione di statistica sufficiente a coppie e viene enunciato un secondo teorema di caratterizzazione in termini di rapporto di verosimiglianza. Si procede quindi ad un confronto tra questi due tipi di sufficienza. Tale confronto viene operato in due situazioni differenti e porta a risultati diversi per ogni caso. Si conclude dunque l’elaborato marcando ancora l’effettiva bontà di una statistica sufficiente in termini di informazioni contenute al suo interno.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Per “effetto domino” si intende uno scenario incidentale in cui un evento primario si propaga ad apparecchiature contigue tramite un vettore di impatto, con innesco di eventi incidentali secondari ed amplificazione delle conseguenze finali dell’incidente. Nei casi di maggior gravità gli effetti di scenari incidentali di questo tipo possono danneggiare contemporaneamente più impianti appartenenti allo stesso stabilimento oppure addirittura coinvolgere più stabilimenti. Gli incidenti dovuti ad effetto domino sono tra i più severi e complessi che possono avere luogo nell’industria di processo; la complessità che contraddistingue l’effetto domino influenza anche la definizione stessa del fenomeno e ne rende difficoltosa l’individuazione delle caratteristiche principali. È comunque condivisa l’idea che, perché uno scenario incidentale evolva con effetto domino, sia necessario l’elemento “propagazione”, ovvero lo sviluppo di uno o più scenari secondari causati dall’incidente iniziale con un aggravio dell’area di danno rispetto a quella connessa allo scenario incidentale iniziale. L’effetto domino è un argomento di grande interesse nell’ambito della valutazione del rischio di incidente rilevante, sia a causa dell’elevato rischio connesso alla sequenza di eventi incidentali che esso comporta, sia dell’indeterminazione ancora presente nelle metodologie di analisi e di valutazione del fenomeno stesso. La Direttiva Europea 2012/18/UE (la cosiddetta Direttiva Seveso III) ed il suo recente recepimento italiano, il D.Lgs. 105/2015, stabiliscono la necessità di valutare l’effetto domino tra stabilimenti, in particolare in aree industriali ad elevata concentrazione di attività a rischio di incidente rilevante. Tuttavia anche la valutazione dell’effetto domino all’interno dei singoli stabilimenti è importante, potendo essa rappresentare, da un certo punto di vista, il completamento dell’analisi di sicurezza dello stabilimento. In un contesto come quello dell’analisi del rischio di incidente rilevante, in corrispondenza dell’aggiornamento quinquennale del Rapporto di Sicurezza di stabilimento richiesto dalle norme di legge, nel presente lavoro di tesi è stata effettuata la valutazione dell’effetto domino intra-stabilimento per un sito a rischio di incidente, applicando la metodologia proposta nell’Allegato E del D.Lgs. 105/2015.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A partire dal 1° giugno 2015 è stato adottato ufficialmente in Europa il Regolamento 1272/2008/CE relativo alla classificazione, all'etichettatura e all'imballaggio delle sostanze e miscele pericolose, noto con il termine di Regolamento CLP. La data del 1° giugno 2015 coincide anche con il termine ultimo prescritto per il recepimento da parte degli Stati membri dell’Unione Europea della Direttiva 2012/18/UE sul controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose. Dunque, come recepimento della sopracitata direttiva, il 29 luglio 2015 è stato emanato in Italia il D.Lgs. 105/2015, che ha introdotto numerose novità indotte non solo dalla direttiva da cui discende, ma anche e soprattutto dal fatto che il Legislatore italiano ha colto l’occasione per legiferare su alcuni aspetti attuativi della direttiva, così da produrre quello che viene identificato in ambito nazionale come Testo Unico per il rischio di incidente rilevante. La variazione più evidente apportata dal D.Lgs. 105/2015 rispetto alla norma precedente è l’adeguamento dell’allegato 1 al Regolamento CLP; l’allegato 1 elenca le sostanze e le categorie di sostanze pericolose con i corrispondenti valori soglia da utilizzare per valutare l’assoggettabilità degli stabilimenti al Decreto. A fronte dell’emanazione del D.Lgs. 105/2015, l’impatto dell’adeguamento è controverso e non noto a priori: nonostante la classificazione degli stabilimenti assoggettabili si mantenga sempre su due livelli, non è da escludersi il possibile passaggio di uno stabilimento da una situazione a rischio basso ad una a rischio alto o viceversa oil suo ingresso o la sua fuoriuscita dal campo di applicazione del Decreto. Altri elementi innovativi introdotti dal D.Lgs. 105/2015 sono relativi ai contenuti del Rapporto di Sicurezza, che deve essere redatto e trasmesso dai Gestori degli stabilimenti a maggior rischio: viene disposta per generici stabilimenti la possibilità di adottare per l’analisi preliminare del rischio metodologie alternative al metodo ad indici finora esclusivamente previsto dalla norma italiana. Inoltre, nel testo del D.Lgs. 105/2015 vengono ufficialmente indicati i riferimenti a due metodi semplificati (uno per il suolo e sottosuolo e uno per le acque superficiali) per la valutazione del rischio di contaminazione ambientale causato da rilasci rilevanti di idrocarburi liquidi e/o sostanze eco-tossiche da depositi. Per quanto riguarda il rischio di incidenti tecnologici innescati da fenomeni naturali (rischio NaTech), la nuova norma sancisce la libertà di scelta da parte dei Gestori della metodologia di valutazione da adottare con riferimento allo stato dell’arte in materia. Al fine di applicare una prima valutazione delle novità introdotte dal D.Lgs. 105/2015, si è considerata l’applicazione di alcune valutazioni previste dal Decreto a due casi di studio reali: come primo caso si è scelto uno Stabilimento che effettua principalmente l’attividi produzione e deposito nel settore degli esplosivi e come secondo caso uno Stabilimento che produce e confeziona prodotti per la nutrizione e difesa vegetale rappresentati per lo più da fertilizzanti organo-minerali e agrofarmaci.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo studio abbiamo voluto tentare un approccio multifunzionale per l’analisi della società moderna, più precisamente per analizzare la figura della donna e dell’uomo in questa epoca, figure che non potrebbero essere analizzate senza considerare le tematiche genitoriali e familiari che sono alla base della società stessa, italiana e non solo. Abbiamo voluto indagare sia la figura materna che quella paterna, prendendo spunto dalle opere di Massimo Recalcati e di John Bowlby che tanto hanno meditato per quanto riguarda il rapporto della madre e del padre con il proprio figlio. Ci è sembrato necessario partire dalla famiglia e dalle figure genitoriali poiché queste costituiscono le fondamenta, sin dai tempi antichi, di ogni società, e considerare come sono variate tali figure nell’epoca ipermoderna costituisce un punto essenziale per delineare alcuni punti fondamentali di quella che Zygmunt Baumann ha definito società liquida. La scienza medica ha insegnato che alla base della «cultura» (in senso antropologico), di ogni cultura, sta il tenace legame del figlio con la propria madre, in un rapporto di dipendenza biologicamente determinato dalla prolungata infanzia dell’essere umano, condizionandone l’intera esistenza e, in qualche modo, sottraendogli sempre il raggiungimento della piena maturità. Infatti bisogna considerare che l’intera esistenza di un uomo, di qualsiasi essere umano, è influenzata da ciò che egli vede e sente nei primi anni di vita (nei primi 3 anni di vita, secondo la scienza), pertanto il rapporto con la madre, il primo rapporto con la figura materna, è basilare per la vita futura dell’individuo. Una volta terminato il ruolo materno, ossia quando il ragazzo è pronto per entrare nella società, è il padre (o meglio, la figura paterna) ad accompagnarlo nel suo raggiungimento della virile maturità e a prenderlo per mano durante il periodo, cosiddetto, della castrazione (psicologica), ossia della piena maturità e del distacco dal “seno materno”. Il femminismo con i suoi movimenti degli anni ’70 ha portato ad una rottura, ad una vera e propria rivoluzione nel rapporto tra le parti. La donna ha acquisito una sempre maggiore consapevolezza portando non solo ad un nuovo e rinnovato tipo di femminilità, ma anche, dirimpetto, ad una differente tipologia di mascolinità, probabilmente meno consapevole e più debole, alimentando una sorta di sentimento ginecofobico che acuisce man mano che si va avanti, nonché un’assenza di dialogo tra i due universi, quello femminile e quello maschile, con una paura di fondo da parte di quest’ultimo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo del presente elaborato è la proposta di traduzione in italiano di un romanzo contemporaneo dello scrittore argentino Félix Bruzzone, Los topos, che racconta la storia di un giovane, orfano di entrambi i genitori desaparecidos, e della sua ricerca del presunto fratello nato in cattività. Nello specifico, il viaggio del narratore-protagonista costituisce il tentativo, destinato al fallimento, di recuperare la sua identità perduta e costruire vincoli familiari e affettivi in una società violenta, dove la sparizione forzata, sotto altre forme, è ancora una pratica abituale. Con i suoi tratti comici e grotteschi, l’opera rivendica in modo creativo una certa indipendenza dal tradizionale discorso vittimizzante sulla memoria, sia nello sviluppo della storia che nelle strategie stilistiche e narrative. I primi tre capitoli di questa tesi inquadrano Los topos in un contesto culturale e letterario e presentano un’analisi delle ragioni dell’originalità dell’opera nell’ambito della produzione letteraria su questo tema: in particolare, nel Capitolo I vengono illustrati i fatti storici relativi all’ultima dittatura militare argentina (1976 - 1983) e le ripercussioni sociali del regime negli anni successivi; il secondo capitolo contiene un breve ritratto di Félix Bruzzone e un’intervista realizzata all’autore nel contesto di un rapporto di collaborazione e di un periodo di ricerca svolto in Argentina, che si sono rivelati fondamentali per l’interpretazione e la traduzione del testo originale; il Capitolo III è dedicato all’analisi del romanzo dal punto di vista tematico, narrativo, linguistico e stilistico. Gli ultimi due Capitoli sono relativi all’attividi traduzione dell’opera: il quarto contiene la versione italiana, proposta integralmente, mentre nel quinto vengono esaminate le strategie adottate per la risoluzione dei principali problemi traduttivi, con l’obiettivo di base di riprodurre l’apparato ritmico dell’oralità che caratterizza il testo originale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Vol. 16 includes general index (p. [361]-366)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi, svolta nell’ambito dell’esperimento BEC3 presso il LENS di Firenze, si propone di studiare i problemi connessi alla variazione improvvisa di corrente in elementi induttivi, come sono le bobine utilizzate per generare campi magnetici. Nell’esperimento BEC3, come in molti esperimenti di atomi freddi, vi è spesso la necessità di compiere operazioni di questo genere anche in tempi brevi. Verrà analizzato il sistema di controllo incaricato di invertire la corrente in una bobina, azione che va effettuata in tempi dell’ordine di qualche millisecondo ed evitando i danni dovuti alle alte tensioni che si sviluppano ai capi della bobina. Per questa analisi sono state effettuate simulazioni del circuito e misure sperimentali, allo scopo di determinare il comportamento e stimare la durata dell’operazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le apparecchiature di manovra tramite isolamento a gas (GIS) sono in funzione da più di 45 anni e hanno dimostrato un alto livello di affidabilità, con tassi di difetto molto bassi. Tuttavia, il riscontro pratico indica che alcuni dei guasti che si verificano durante il servizio sono legati a difetti del sistema di isolamento. Molti di questi difetti possono essere rilevati tramite diagnostica con scariche parziali (PD). Per la rilevazione PD, viene utilizzato il metodo UHF perché meno sensibile ai disturbi e quindi più facile da gestire in confronto al metodo convenzionale secondo IEC 60270. Un rapporto di Electra pubblicato nel 1999 dal CIGRE Task Force 15/33.03.05 descrive la procedura in due fasi per la verifica della sensibilità del sistema UHF in modo molto generale. Dopo 15 anni dalla sua applicazione, è diventata necessaria una descrizione più dettagliata, sia su misure necessarie al test di laboratorio (Passaggio 1) che sul test in loco (Passaggio 2).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi svolta nell’ambito della geotecnica ha L’obiettivo di porre l’attenzione sul comportamento dei cedimenti secondari, quindi sul coefficiente di consolidazione secondaria Cα mediante l’esecuzione di una prova edometrica su di una sezione di campione estratto in sito, dove si evidenzia una percentuale di contenuto organico molto alta (torba).Si introduce il concetto di terreno organico a partire dalla genesi fino ad una classificazione atta a distinguere terreni con percentuali di componente organica differenti. Si spiega la teoria della consolidazione monodimensionale, quindi la prova edometrica, riportando in maniera grafica e analitica tutti i coefficienti che da essa si possono ricavare a partire dai parametri di compressione volumetrica fino alla consolidazione primaria e secondaria (o creep)si descrivono dettagliatamente la strumentazione e la procedura di prova. Descrivendo l’edometro utilizzato in laboratorio e tutti gli accessori ad esso collegati, il campione da analizzare, la procedura di preparazione del campione alla prova edometrica, trovando alcune proprietà fisiche del campione, come il contenuto d’acqua e il contenuto organico, ed in fine riportando i passaggi della prova edometrica in modo tale da poter essere riprodotta.Si analizzano tutti i risultati ottenuti durante la prova in maniera analitica e grafica, osservando e commentando la forma dei grafici ottenuti in relazione al materiale che compone il campione ed i tempi impiegati per eseguire la prova.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo di questa sperimentazione è stata la valutazione in vitro dell’attività prebiotica di un sottoprodotto dell’industria alimentare, il pastazzo di agrumi, ed una pianta officinale largamente diffusa in natura, l’equiseto, nei confronti di alcuni batteri lattici isolati da feci di origine umana. Come riferimento si sono utilizzati due composti a riconosciuta attività prebiotica, l’inulina ed i frutto-oligosaccaridi (FOS), e ceppi di Bifidobacterium isolati da un preparato commerciale (Bifiselle®, Bromatech). I ceppi batterici utilizzati per tale prova sono stati isolati da campioni fecali di individui caratterizzati da differenti regimi alimentari – onnivoro, vegano od ovo-latto vegetariano -nell’ambito delle attività relative al progetto PRIN 2010-2011 “Microrganismi negli alimenti e nell'uomo: studio del microbiota e del relativo metaboloma in funzione della dieta onnivora, vegetariana o vegana (Gut4Diet)”. I risultati ottenuti hanno messo in evidenza come alcuni dei ceppi studiati posseggano una buona capacità di crescita in terreni di coltura con sottoprodotti agrumari ed equiseto come fonti di carbonio. Tramite analisi delle molecole volatili si sono determinate più di 60 molecole appartenenti principalmente alle classi degli acidi organici e loro esteri, alcoli, aldeidi, chetoni e pirazine. Tra queste vi sono alcuni esteri di acidi grassi a corta catena che si sono accumulati soprattutto nei sistemi addizionati di equiseto, FOS ed inulina. E’ noto che gli acidi grassi a corta catena sono prodotti dalla flora batterica intestinale durante la fermentazione di polisaccaridi non digeribili ed esplicano un ruolo protettivo nei confronti di differenti patologie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this article, we will try to demonstrate that there are strong analogies between literature and new media, as they were both born to satisfy a human need. We will try to show that the inglorious world of media and the prestigious literary universe are walking – without knowing – in the same direction. Therefore, it would be easier to confute the recent theory that declares the death of literature after the rise of new media. Only an honest and interdisciplinary dialogue can reveal all sorts of hidden structural homologies, uncovering new creative horizons.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sono stati analizzati i circuiti neurali addetti all'elaborazione matematica, a partire da quelli di start-up neurocognitivo per l'apprendimento del numero e del calcolo, capacità innate e già presenti alla nascita. I protagonisti sono il sistema della stima approssimativa del numero e quello di individuazione degli oggetti multipli e, spesso, le difficoltà che si incontrano durante un compito matematico (o la lentezza per portarlo a termine) sono date dalla difficile interazione tra questi e le loro sottocomponenti, continuamente riprogrammate dall'esecutivo centrale per poter supervisionare i processi di problem solving. Per la costruzione e lo sviluppo del calcolo più elevato, occorrono alcune capacità di base come il concetto di corrispondenza biunivoca, quello di ordinamento di un insieme, di maggioranza, di raddoppio e di dimezzamento, per mezzo delle quali ogni procedura si può ridurre ad una serie di operazioni più semplici. Queste funzioni vengono controllate e coordinate dal Sistema Attentivo Esecutivo che presiede tutte le attividi problem solving. I ragazzi che presentano deficit altamente specifici in una o più abilità matematiche di base vengono definiti discalculici e tra i loro tratti caratteristici vi sono l'incapacità di comprendere le numerosità, i principi delle operazioni e di elaborare strategie risolutive adatte ad ogni esercizio. Non tutti i ragazzi che presentano difficoltà in matematica sono discalculici: a tal proposito ho svolto una sperimentazione didattica in 10 classi di un I.T.I.S. , per cercare di capire se i concetti reputati consolidati alla scuola secondaria di 1° grado, lo sono realmente in quella di 2° e per mostrare le diverse tipologie di errori compiuti dai ragazzi clinici e non. I risultati sono stati largamente al di sotto delle aspettative, anche negli esercizi in cui è stato permesso l'uso della calcolatrice, lasciandomi presagire che gli errori commessi siano perlopiù di concetto piuttosto che di calcolo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le rotture a fatica dei componenti sono dovute principalmente alle tensioni di trazione generate da carichi ciclici e variabili nel tempo. Le cricche causate da questo tipo di tensioni possono propagarsi e crescere fino a causare danni catastrofici nel componente. La fatica costituisce uno dei fattori principali di rottura delle strutture aeronautiche; in campo aeronautico sono quindi molto diffusi dei trattamenti superficiali che permettono di indurre tensioni di compressione che contrastano quelle di trazione, in modo tale da ritardare o prevenire le rotture dovute al fenomeno della fatica. Esistono diverse tecniche per raggiungere questo risultato e permettere di prolungare la vita a fatica di un componente metallico, la più nota è sicuramente il Laser Shock Peening (LSP). Nel corso degli ultimi anni la maggior parte delle ricerche condotte rispetto a questa tecnica sono state incentrate sugli effetti meccanici che questo trattamento ha sul materiale in modo da determinare la configurazione ottimale per ottenere una distribuzione delle tensioni il più efficace possibile ai fini della vita a fatica; sono state svolte diverse prove sperimentali per studiare il ruolo dei parametri del laser e ottimizzare la procedura del LSP. Tra le tecniche utilizzate per valutare gli effetti del LSP in termini di tensioni residue, spiccano, oltre ai metodi computazionali, l'X-ray Diffraction (XRD) e l'Incremental Hole Drilling (IHD). L'elaborato di tesi qui presentato ha come scopo il confronto tra i livelli di tensioni residue riscontrate all'interno di provini sottili in lega di alluminio, sottoposti a differenti trattamenti laser, attraverso i suddetti metodi XRD e IHD. I risultati, già noti, ottenuti con la tecnica l'XRD sono stati posti a verifica attraverso dei test svolti con l'IHD presso i laboratori MaSTeRLab della Scuola di Ingegneria dell'Università di Bologna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Modello Standard delle particelle elementari prevede l’universalità del sapore leptonico, cioè l’uguaglianza della probabilità di accoppiamento dei bosoni di gauge carichi dell’interazione debole con tutti i leptoni. Recentemente, le Collaborazioni LHCb, BaBar e Belle, misurando il rapporto tra i branching ratio dei decadimenti $B^0\to D^{∗− }\tau^+\nu_{\tau} e $B^0 →D^{∗−}\mu^+\nu_{\mu}, hanno osservato una deviazione dai valori previsti dal Modello Standard di 3.9 deviazioni standard. Questo interessante risultato, se confermato, indicherebbe l’esistenza di nuove particelle, come per esempio il bosone di Higgs carico. Analogamente ai decadimenti del mesone $B^0$ , è possibile cercare effetti analoghi anche nel rapporto di branching ratio dei decadimenti $D^0\to K^ −\mu^+\nu_{\mu}$ e $D^0\to K^−e^+\nu_e$ . In questo lavoro di tesi è stato realizzato uno studio preliminare di questa misura. In particolare, è stato studiata, tramite simulazioni Monte Carlo, la ricostruzione del processo $D^{*\pm}\to D^0 (\to K^− \mu+\nu_{\mu})\pi_s^{\pm}$ nell’esperimento LHCb. Questo canale ha la particolarità di avere una particella invisibile, il neutrino, al rivelatore LHCb. Tuttavia, mediante vincoli cinematici e topologici, è possibile ricavare le componenti dell’impulso del neutrino, con risoluzioni non paragonabili a quelle di una particella visibile, ma comunque accettabili. In questa tesi sono riportati i calcoli che permettono di ottenere queste informazioni ed è stata studiata la risoluzione sulla massa invariante del $D^{∗\pm}$ . La tesi è organizzata nel seguente modo: il primo capitolo riporta le motivazioni della misura dei rapporti dei branching ratio e l’attuale stato sperimentale; il secondo capitolo contiene una breve descrizione del rivelatore LHCb; il terzo capitolo, infine, descrive lo studio di fattibilità della ricostruzione del decadimento $D^0\to K^-\mu^+\nu_{\mu}.