855 resultados para parametri cosmologici


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Blockchain è un deposito di dati distribuito costituito da una lista di record (in continua crescita) resistente a modifiche e revisioni, anche da parte degli operatori dei nodi (computer) su cui risiede. I dati sono sicuri anche in presenza di partecipanti non affidabili o disonesti alla rete. Una copia totale o parziale della blockchain è memorizzata su tutti i nodi. I record contenuti sono di due tipi: le transazioni, che sono i dati veri e propri, e i blocchi, che sono la registrazione di quanto ed in quale ordine le transazioni sono state inserite in modo indelebile nel database. Le transazioni sono create dai partecipanti alla rete nelle loro operazioni (per esempio, trasferimento di valuta ad un altro utente), mentre i blocchi sono generati da partecipanti speciali, i cosiddetti “miners”, che utilizzano software e a volte hardware specializzato per creare i blocchi. L’attività dei miners viene ricompensata con l’assegnazione di “qualcosa”, nel caso della rete Bitcoin di un certo numero di unità di valuta. Spesso negli esempi si fa riferimento alla Blockchain di Bitcoin perché è la catena di blocchi implementata per prima, e l'unica ad avere una dimensione consistente. Le transazioni, una volta create, vengono distribuite sui nodi con un protocollo del tipo “best effort”. La validità di una transazione viene verificata attraverso il consenso dei nodi della rete sulla base di una serie di parametri, che variano secondo l’implementazione specifica dell’architettura. Una volta verificata come valida, la transazione viene inserita nel primo blocco libero disponibile. Per evitare che ci sia una duplicazione delle informazioni l’architettura prevede un sistema di time stamping, che non richiede un server centralizzato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sezione d'urto differenziale di produzione di coppie t/t viene misurata utilizzando dati raccolti nel 2012 dall'esperimento CMS in collisioni protone-protone con un'energia nel centro di massa di 8 TeV. La misura viene effettuata su eventi che superano una serie di selezioni applicate al fine di migliorare il rapporto segnale/rumore. In particolare, facendo riferimento al canale all-hadronic, viene richiesta la presenza di almeno sei jet nello stato finale del decadimento della coppia t/t di cui almeno due con quark b. Ottenuto un campione di eventi sufficientemente puro, si può procedere con un fit cinematico, che consiste nel minimizzare una funzione chi quadro in cui si considera tra i parametri liberi la massa invariante associata ai quark top; le cui distribuzioni, richiedendo che il chi quadro sia <10, vengono ricostruite per gli eventi candidati, per il segnale, ottenuto mediante eventi simulati, e per il fondo, modellizzato negando la presenza di jet con b-tag nello stato finale del decadimento della coppia t/t. Con le suddette distribuzioni, attraverso un fit di verosimiglianza, si deducono le frazioni di segnale e di fondo presenti negli eventi. È dunque possibile riempire un istogramma di confronto tra gli eventi candidati e la somma di segnale+fondo per la massa invariante associata ai quark top. Considerando l'intervallo di valori nel quale il rapporto segnale/rumore è migliore si possono ottenere istogrammi di confronto simili al precedente anche per la quantità di moto trasversa del quark top e la massa invariante e la rapidità del sistema t/t. Infine, la sezione d'urto differenziale è misurata attraverso le distribuzioni di tali variabili dopo aver sottratto negli eventi il fondo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel sistema nervoso centrale i neuroni comunicano l'uno con l'altro attraverso le connessioni sinaptiche e sono soggetti a centinaia di stimoli, ma hanno la capacità di distinguerli l'uno dall'altro. L'abilità delle sinapsi di interpretare questi cambiamenti morfologici e biochimici è detta \textit{plasticità sinaptica} e l'obiettivo di questa tesi è proprio studiare un modello per le dinamiche di questo affascinante processo, da un punto di vista prima deterministico e poi stocastico. Infatti le reazioni che inducono la plasticità sinaptica sono ben approssimate da equazioni differenziali non lineari, ma nel caso di poche molecole bisogna tener conto delle fluttuazioni e quindi sono necessari dei metodi di analisi stocastici. Nel primo capitolo, dopo aver introdotto gli aspetti fondamentali del sistema biochimico coinvolto e dopo aver accennato ai diversi studi che hanno approcciato l'argomento, viene illustrato il modello basato sull'aggregazione delle proteine (PADP) volto a spiegare la plasticità sinaptica. Con il secondo capitolo si introducono i concetti matematici che stanno alla base dei processi stocastici, strumenti utili per studiare e descrivere la dinamica dei sistemi biochimici. Il terzo capitolo introduce una giustificazione matematica riguardo la modellizzazione in campo medio e vede una prima trattazione del modello, con relativa applicazione, sui moscerini. Successivamente si applica il modello di cui sopra ai mammiferi e se ne studia nel dettaglio la dinamica del sistema e la dipendenza dai parametri di soglia che portano alle varie transizioni di fase che coinvolgono le proteine. Infine si è voluto osservare questo sistema da un punto di vista stocastico inserendo il rumore di Wiener per poi confrontare i risultati con quelli ottenuti dall'approccio deterministico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro prende le mosse da un problema di dinamica dei fasci relativo a un metodo di separazione di un fascio di particelle recentemente messo in funzione nell’sincrotrone PS al CERN. In questo sistema, variando adiabaticamente i parametri di un campo magnetico, nello spazio delle fasi si creano diverse isole di stabilità (risonanze) in cui le particelle vengono catturate. Dopo una parte introduttiva in cui si ricava, a partire dalle equazioni di Maxwell, l’hamiltoniana di una particella sottoposta ai campi magnetici che si usano negli acceleratori, e una presentazione generale della teoria dell’invarianza adiabatica, si procede analizzando la dinamica di tali sistemi. Inizialmente si prende in considerazione l’hamiltoniana mediata sulle variabili veloci, considerando perturbazioni (kick) dei termini dipolare e quadrupolare. In ognuno dei due casi, si arriva a determinare la probabilità che una particella sia catturata nella risonanza. Successivamente, attraverso un approccio perturbativo, utilizzando le variabili di azione ed angolo, si calcola la forza della risonanza 4:1 per un kick quadrupolare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un problema fondamentale nello studio delle particelle elementari è disporre di misure più accurate possibile delle traiettorie che queste seguono all'interno dei rivelatori. La precisione di misura dei parametri di traccia è importante per poter descrivere accuratamente gli eventi e le interazioni che avvengono all'interno dei rivelatori. LHCb è un esempio di esperimento progettato con lo scopo di ottenere misure di precisione dei parametri della cinematica delle particelle per poter studiare la violazione delle simmetrie. Rivelatori come quello dell'esperimento LHCb utilizzano avanzate tecniche di tracciamento per individuare le traiettorie. Queste sono influenzate da fattori di rumore dovuti all'interazione tra le particelle e il materiale del rivelatore stesso. Nell'analisi delle misure effettuate quindi occorre tenere conto che sia la sensibilità del rivelatore che i fattori di rumore contribuiscono nella determinazione dell'incertezza sulla misura. Uno strumento matematico usato per ottenere precise stime dei parametri di traccia è il filtro di Kalman, che implementato su un campione di misure di una determinata grandezza, consente di minimizzare gli effetti dovuti a rumori statistici. In questo lavoro di tesi sono stati studiati la struttura e il funzionamento del rivelatore dell'esperimento LHCb e dei sistemi di tracciamento che lo caratterizzano e che ne costituiranno il futuro aggiornamento. Inoltre è stata analizzata l'azione del filtro di Kalman, implementandolo in una simulazione di tracciamento al calcolatore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un nuovo marcatore per l'identificazione rapida del sesso del cervo (Cervus elaphus). Il cervo (Cervus elaphus) è una specie cacciabile economicamente importante che risente di alcuni problemi di conservazione. La conoscenza di parametri di popolazione come il rapporto sessi è importante per la sua gestione e conservazione. In questo studio, utilizzando condizioni poco specifiche per l’amplificazione di un frammento del cromosoma Y già descritto in precedenza, descriviamo un metodo che permette una rapida e corretta identificazione del sesso in questa specie, producendo due amplicons diversi nei maschi e uno nelle femmine. I due frammenti, diversi per il peso molecolare, sono facilmente separabili mediante elettroforesi in gel di agarosio, permettendo l'identificazione del sesso con un unico test in campioni biologici come carcasse, embrioni recuperati da femmine abbattute e, forse, peli o escrementi (se la qualità del DNA è accettabile). Questo metodo può essere di aiuto in studi sul rapporto sessi degli embrioni, sulla mortalità associata al sesso o sul rapporto sessi in popolazioni selvatiche o semiselvatiche, con ricadute applicative per le analisi demografiche, la gestione venatoria e la conservazione

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nello studio di sistemi dinamici si cerca una trasformazione nello spazio delle fasi, detta trasformazione canonica, che lasci invariato il sistema di Hamilton e che porti a una funzione hamiltoniana che non dipenda più dai parametri lagrangiani, ma solo dai momenti. Si arriva quindi all'equazione di Hamilton-Jacobi che è una particolare equazione differenziale alle derivate parziali con incognita una funzione phi a valori scalari. Nei casi in cui ci siano n parametri lagrangiani si definisce il concetto di varietà lagrangiana come una varietà su cui si annulla la forma simplettica canonica e sotto l'ipotesi che esista una proiezione su R^n i punti di questa varietà si scrivono come (x,grad(phi(x)) e soddisfano l'equazione di Hamilton-Jacobi. Infine si illustra come una funzione phi trovata in questo modo permetta di approssimare l'equazione di Schroedinger.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le zone costiere appartengono alle aree con alta densità di popolazione, nonostante queste regioni siano le più vulnerabili al rischio di onde violente da tempesta e alla tracimazione di esse. In aggiunta, a causa del cambiamento climatico e all’innalzamento del livello del mare, si prevede un incremento nel numero e nell’intensità di tempeste violente. Come risultato, un grande quantitativo di acqua può tracimare, ciò porta all’instabilità e all’allagamento dell’eventuale opera atta alla protezione della costa, un disastro per la sicurezza della popolazione e per l’economia della zona. Per risolvere queste problematiche si è scelta una geometria tipica di difesa della costa e si è compiuta un’analisi di sensitività del modello, analizzando se al variare dei parametri caratteristici del muro paraonde e del relativo parapetto, il modello avverte una variazione della portata di tracimazione. Attraverso questo studio si vuole scoprire qual è la configurazione di cresta che da un punto di vista progettuale è il compromesso migliore tra efficacia della riduzione della portata e sollecitazioni accettabili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto di dottorato che verrà presentato in questa tesi è focalizzato sullo sviluppo di un metodo sperimentale per la produzione di protesi personalizzate utilizzando il processo di fabbricazione additiva di Selective Laser Melting (SLM). L’obiettivo è quello di definire una condizione di processo ottimizzata per applicazioni in ambito chirurgico che possa essere generalizzabile, ovvero che ne garantisca la riproducibilità al variare dell’anatomia del paziente e che rappresenti la base per estendere il metodo ad altre componenti protesiche. Il lavoro si è sviluppato lungo due linee principali, la cui convergenza ha permesso di realizzare prototipi di protesi complete utilizzando un solo processo: da una parte la produzione di componenti a massima densità per il raggiungimento di elevate resistenze meccaniche, buona resistenza ad usura e corrosione e controllo di tensioni residue e deformazione delle parti stampate. Dall’altra si sono studiate strutture reticolari a geometria e porosità controllata per favorire l’osteointegrazione della componente protesica post impianto. In questo studio sono stati messe a confronto le possibili combinazioni tra parametri di processo e sono state individuate le correlazioni con le proprietà finali dei componenti stampati. Partendo da queste relazioni si sono sviluppate le strategie tecnologiche per la progettazione e la produzione dei componenti. I test sperimentali svolti e i risultati ottenuti hanno dimostrato la fattibilità dell’utilizzo del processo SLM per la produzione di protesi personalizzate e sono stati fabbricati i primi prototipi funzionali. La fabbricazione di protesi personalizzate richiede, però, anche la progettazione e la produzione di strumentario chirurgico ad hoc. Per questo motivo, parallelamente allo studio della lega di Cromo Cobalto, sono stati eseguiti i test anche su campioni in INOX 316L. Anche in questo caso è stato possibile individuare una finestra operativa di processo che garantisse proprietà meccaniche comparabili, e in alcuni casi superiori, a quelle ottenute con processi convenzionali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La chirurgia conservativa o l’esofagectomia, possono essere indicate per il trattamento della disfagia nell’acalasia scompensata. L’esofagectomia è inoltre finalizzata alla prevenzione dello sviluppo del carcinoma esofageo. Gli obiettivi erano: a) definire prevalenza e fattori di rischio per il carcinoma epidermoidale; b) confrontare i risultati clinici e funzionali di Heller-Dor con pull-down della giunzione esofagogastrica (PD-HD) ed esofagectomia. I dati in analisi, ricavati da un database istituito nel 1973 e finalizzato alla ricerca prospettica, sono stati: a) le caratteristiche cliniche, radiologiche ed endoscopiche di 573 pazienti acalasici; b) il risultato oggettivo e la qualità della vita, definita mediante questionario SF-36, dopo intervento di PD-HD (29 pazienti) e dopo esofagectomia per acalasia scompensata o carcinoma (20 pazienti). Risultati: a) sono stati diagnosticati 17 carcinomi epidermoidali ed un carcinosarcoma (3.14%). Fattori di rischio sono risultati essere: il diametro esofageo (p<0.001), il ristagno esofageo (p<0.01) e la durata dei sintomi dell’acalasia (p<0.01). Secondo l’albero di classificazione, soltanto i pazienti con esito insufficiente del trattamento ai controlli clinico-strumentali ed acalasia sigmoidea presentavano un rischio di sviluppare il carcinoma squamocellulare del 52.9%. b) Non sono state riscontrate differenze statisticamente significative tra i pazienti sottoposti ad intervento conservativo e quelli trattati con esofagectomia per quanto concerne l’esito dell’intervento valutato mediante parametri oggettivi (p=0.515). L’analisi della qualità della vita non ha evidenziato differenze statisticamente significative per quanto concerne i domini GH, RP, PF e BP. Punteggi significativamente più elevati nei domini RE (p=0.012), VT (p<0.001), MH (p=0.001) e SF (p=0.014) sono stati calcolati per PD-HD rispetto alle esofagectomie. In conclusione, PD-HD determina una miglior qualità della vita, ed è pertanto la procedura di scelta per i pazienti con basso rischio di cancro. A coloro che abbiano già raggiunto i parametri di rischio, si offrirà l’esofagectomia o l'opzione conservativa seguita da protocolli di follow-up.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I progressi della biologia molecolare assieme alle nuove tecnologie di sequenziamento applicate su scala genomica alla genetica molecolare, hanno notevolmente elevato la conoscenza sulle componenti di base della biologia e delle patologie umane. All’interno di questo contesto, prende piede lo studio delle sequenze genetiche dei batteri, consentendo dunque, una migliore comprensione di ciò che si nasconde dietro le malattie legate all’uomo. Il seguente lavoro di tesi si propone come obiettivo l’analisi del DNA del batterio Listeria monocytogenes, un microrganismo presente nel suolo e in grado di contaminare l’acqua e gli alimenti. Lo scopo principale è quello di confrontare la variabilità tecnica e biologica, al fine di capire quali siano gli SNPs reali (Single Nucleotide Polymorphism) e quali artefatti tecnici. La prima parte, quindi, comprende una descrizione del processo di individuazione degli SNPs presenti nel DNA dei campioni in esame, in particolare di tre isolati diversi e tre copie. Nella seconda parte, invece, sono effettuate delle indagini statistiche sui parametri relativi agli SNPs individuati, ad esempio il coverage o il punteggio di qualità assegnato alle basi. Il fine ultimo è quello di andare a verificare se sussistano particolari differenze tra gli SNPs dei vari isolati batterici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo di questa tesi era caratterizzare il forno dell'Electrolux, andando a capire quali fossero i fenomeni di scambio termico presenti all'interno della cavità durante le diverse modalità di funzionamento (statico e ventilato) ed al variare del set-point. Tale obiettivo è stato raggiunto in maniera graduale: inizialmente si è caratterizzato il forno a vuoto e, successivamente, è stato utilizzato un "mattone standard" che simulasse la reale presenza del cibo. Quest'ultimo passo è stato realizzato seguendo la normativa "TM SP000003129 - EU Energy Consumption Test for Electric Ovens" relativa alla determinazione dell'indice di efficienza del forno. Mentre il primo obiettivo è stato raggiunto con successo, la determinazione dell'indice di efficienza è stata influenzata da parametri non controllabili, facendo si che i risultati ottenuti non corrispondessero a quelli dichiarati dalla casa costruttrice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo del lavoro di tesi ha riguardato il confronto tra due soluzioni impiantistiche per la deodorazione di olio di semi di girasole e mais in uno specifico ambito aziendale (Tampieri S.P.A. Faenza). La nuova linea di deodorazione è stato progettata per abbattere il residuo di pesticida e di molecole tossiche quali 2/3 – MCPD e Ges, migliorando anche alcuni parametri di qualità degli oli di semi raffinati. Le prestazioni dell'impianto sono state valutate confrontando le differenze tra alcuni parametri di prodotto, con particolare riguardo ai glicerol esteri (GEs). Il nuovo deodoratore: - ha risolto il problema dei pesticidi (grazie al vuoto più spinto) e migliorato molti parametri di qualità degli oli di semi; - non ha abbassato la carica dei 2/3 MCPD, poiché l’aumento di questi ultimi è legato al livello di degradazione della materia prima da una parte, dall’acidità delle terre decoloranti dall’altra; – ha abbassato la carica dei GE, grazie al minor tempo di stazionamento dell’olio in colonna ed alla maggiore efficienza, dovuta in gran parte alla camera di post stripping. Si è passati da 880 ppb a 290 ppb per il mais (che comunque presenta un valore più alto perché maggiori sono i suoi valori iniziali di DAG) e da 120 ppb a <100 per il girasole.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I compositi laminati presentano problematiche legate alla delaminazione, ovvero al distaccamento delle lamine costituenti, ed allo scarso smorzamento delle vibrazioni (damping). L’obiettivo del presente elaborato di tesi è lo sviluppo e la produzione di membrane nanofibrose prodotte mediante elettrofilatura di blend polimeriche per la modifica strutturale di compositi laminati al fine di migliorarne la proprietà di damping e la resistenza alla delaminazione. Particolare attenzione è stata posta all’ottimizzazione sia dei parametri della soluzione (principalmente concentrazione e sistema solvente) che dei parametri di processo (portata, voltaggio applicato e distanza ago-collettore). La morfologia delle nanofibre è stata osservata mediante microscopia a scansione elettronica (SEM), la quale ha confermato la presenza di nanofibre con diametro nanometrico (200-800 nm), e prive di difetti (beads). Inoltre, le membrane sono state caratterizzate termicamente (TGA e DSC) e meccanicamente (prove di trazione).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Tesi nasce a seguito della richiesta da parte di un’Azienda Socia del Consorzio Esperienza Energia di un servizio di supporto per l’ottimizzazione del proprio Sistema di Gestione dell’Energia (SGE/EnMS) ed in particolare per l’implementazione di metodologie di budgeting più efficienti rispetto a quelle attualmente utilizzate. Questo lavoro di Tesi si è sviluppato in due parti: Nella prima parte viene descritto, a livello generale, che cosa si intende per Sistema di Gestione dell’Energia o Energy Management System e quali sono i vantaggi nell’implementazione di tale sistema in una realtà industriale. Successivamente, viene presentata la norma “UNI CEI EN ISO 50001: Sistemi di Gestione dell’Energia – Requisiti e linee guida per l’uso” attraverso una breve introduzione su quelli che sono i requisiti e gli obiettivi descritti nella norma. Nella seconda parte viene descritta l’implementazione pratica di un SGE presso un’Azienda Socia di CEE, partendo dalla raccolta sia dei dati di consumo a livello globale (LIVELLO A) che a livello di Edificio (LIVELLO B), sia dall'individuazione dei principali Energy Drivers (parametri) che veicolano i consumi. Attraverso questi dati è stato creato un Modello di calcolo per la definizione dei consumi di Riferimento (Energy Baseline); tale Baseline traccia i dati di prestazione energetica da cui si parte per andare a costruire per l’azienda i principali Indicatori Energetici (EnPI, Energy Performance Indicators). Il modello energetico così costruito è stato quindi tarato sui consumi energetici misurati al fine di fornire all'Azienda un algoritmo di stima dei propri consumi energetici futuri, sia mensili che annuali. Il processo di taratura ha dimostrato come il modello energetico dell’azienda che è stato costruito in questa Tesi sia da ritenersi uno strumento affidabile per la previsione dei consumi energetici futuri ipotizzando un certo livello di produzione industriale nel corso dell’anno oggetto di simulazione.