960 resultados para Sui generis


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo di questa tesi, in base all'analisi di atti di convegni e workshop, lettura di libri e articoli pubblicati in siti Web, in materie di gamification, è per prima cosa, spiegare il concetto della gamification, partendo da alcune definizioni date da ricercatori e progettisti di videogiochi, cercando di capire sia i fattori positivi, sia i fattori negativi. Si vogliono elencare e spiegare gli elementi di gioco che compongono la gamification, con particolare attenzione alle meccaniche, come punti, distintivi, premi e dinamiche, come competenza, espressione di sè, status sociale, elementi collegati tra di loro, analizzando quali meccaniche originano certe dinamiche. Si cercherà anche di analizzare la gamification sotto gli aspetti psicologici e di User Experience che innescano le motivazioni intrinseche ed estrinseche delle persone, le prime azionate dalle meccaniche, le seconde azionate dalle dinamiche della gamification e l'importanza di ciò nella progettazione di applicazioni gamificate. Si vogliono esaminare ed illustrare in generale, progetti i quali adottano tecniche di gamification, che spaziano dal fitness fino ad attività di marketing per capire i benefici riscontrati. Si vuole inoltre scoprire se ci sono dei validi presupposti per sviluppare App gamificate per smarphone, che sfruttino alcune specifiche tecniche dei dispositivi mobili come, connettività, il GPS ed i sensori come ad esempio, l'accelerometro ed altre tecnologie come il lettore NFC, QR-code. Infine, come caso di studio, saranno testate tre app per smarphone, Foursquare, tramite la quale un utente può consultare e lasciare consigli sui luoghi nelle sue vicinanze, Swarm, tramite la quale un utente oltre ad effettuare il check-in in un luogo, può vedere se ci sono amici nelle vicinanze e Waze, tramite la quale un utente può inviare ed apprendere informazioni relative al traffico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il 17 agosto 1999 un violento terremoto di Mw 7,4 (terremoto di Izmit) ha interessato l’area del Golfo di Izmit, dove il segmento settentrionale della Faglia Nord-Anatolica (FNA) entra nel Mare di Marmara. Oltre a causare enormi danni e un numero di vittime altissimo (oltre 20000), la dislocazione orizzontale di oltre 5 metri in prossimità dell’epicentro ha caricato tettonicamente il segmento della FNA verso Istanbul. Da qui, l’importanza di un modello geologico-strutturale condiviso dalla comunità scientifica per questo ramo della Faglia Nord Anatolica, per la formulazione dei modelli di stima del rischio sismico in una zona della Turchia molto densamente popolata (oltre 12 milioni di persone). I numerosi studi di geologia e geofisica marina condotti nel Golfo di Izmit e più in generale nel Mare di Marmara, hanno avuto un grosso impulso in concomitanza del terremoto del 1999 e negli anni successivi, quando il Mare di Marmara è stato inserito tra i siti di importanza strategica. Nonostante la grande mole di dati raccolti e le pubblicazioni di lavori importanti che hanno contribuito a portare nuova luce sulla geologia di questo territorio complesso, permangono ancora incertezze e controversie sui rapporti le tra la formazione del bacino di Marmara e la FNA. Questo lavoro di tesi ha lo scopo di esaminare la cinematica della FNA nell’area del Mare di Marmara, in generale, ed in particolare lungo i vari bacini allineati lungo il ramo settentrionale: da Est verso Ovest, il Bacino di Cinarcik, il Bacino di Kumburgaz, il Bacino Centrale ed il Bacino di Tekirdag. Analizzeremo la natura e il grado di attività dei segmenti individuati da zone di trasferimento (bending o overstep) e tenteremo di cartografare la geometria, lo stile strutturale e la lunghezza di ciascun segmento, per effettuare una stima del potenziale sismogenetico di ciascun ramo utilizzando relazioni empiriche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I rivelatori a stato solido per raggi X hanno applicazioni in diversi ambiti, in particolare sono ampiamente utilizzati in ambito medico, in ambito industriale e come dispositivi per la sicurezza. Essendo molto diffusi nella nostra quotidianità si è sempre alla ricerca di nuovi materiali e di nuove tecniche di fabbricazione in grado di ridurne i costi di produzione. Le ricerche attuali sono incentrate sullo studio di nuovi materiali sensibili ai raggi X, l'attenzione è particolarmente diretta ai semiconduttori organici. Questi materiali risultano molto interessanti in quanto sono solubili in molti solventi, tale caratteristica permette lo sviluppo di nuove tecniche di fabbricazione a basso costo per rivelatori di grandi aree. Una delle tecniche di maggiore interesse è la stampa a inchiostro su substrati flessibili e trasparenti. In questa tesi si analizzeranno le proprietà elettriche, in particolare la variazione del segnale di corrente in seguito all'irraggiamento da raggi X, di alcuni campioni costituiti da TIPS-pentacene. Ci si soffermerà in particolare sui metodi con cui tali cristalli sono stati deposti quali inkjet e drop-cast.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Digital Marketing si occupa di tutto quello che possiamo fare, grazie ad Internet, per far crescere il business aziendale. Le tecnologie informatiche negli ultimi anni stanno producendo degli effetti pervasivi sulle infrastrutture delle imprese, sui prodotti, sui mercati e sui consumatori, con una rilevanza tale all'interno di un periodo di tempo relativamente limitato che non è possibile riscontrare in nessuna epoca passata. Coinvolgono le relazioni tra imprese, i mercati dei consumatori, le relazioni tra gli stessi consumatori, le singole componenti del marketing mix (prodotto, prezzo, comunicazione, distribuzione) e le loro modalità di interazione e di gestione all'interno della strategia di marketing dell'impresa. L'evoluzione del mondo digitale ha portato imprese e consumatori a dover affrontare un cambiamento radicale del paradigma di marketing e comunicazione che vede la relazione e l'interazione al centro di uno scambio di messaggi bilaterali altamente personalizzati e costanti. Il marketing non è un processo lineare ma circolare, in cui ascolto e comprensione dei bisogni e delle forze che agiscono sui mercati, progettazione dei prodotti o servizi in grado di rispondere alle nuove opportunità individuate, si integrano e cambiano continuamente. Quando si parla di Internet e commercio non si pensa solo all'e-commerce, ovvero all'acquisto e al pagamento del prodotto su Internet. La Rete ha acquisito un'influenza basilare in tutte le fasi precedenti all'acquisto infatti sul Web si attuano attività di ricerca e raccolta di informazioni, selezione, comparazione e perfezionamento che precedono la decisione d'acquisto e che specialmente per i beni durevoli e dall'alto valore monetario rappresentano un momento cruciale del processo d'acquisto. Questo fenomeno ha condizionato uno scenario di mercato in cui si sono abbassate le barriere di accesso all'informazione, si sono ridotti i tempi di relazione tra le persone e tra le persone e l'azienda e in alcuni settori sono crollare le barriere all'ingresso permettendo, attraverso la creazione di attività online di raggiungere e instaurare una relazione diretta. Questo elaborato si propone come un'analisi del digital marketing. Suddiviso in sei capitoli vuole dare una soddisfacente panoramica di questo nuovo marketing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elevato consumo e il limitato tasso di rimozione dei farmaci favoriscono l’entrata di questi composti, biologicamente attivi, nell’ambiente acquatico. Essendo continuamente aggiunti, più velocemente di quanto si degradino, tali sostanze diventano pseudo-persistenti nell’ambiente, e gli organismi acquatici possono risultarne esposti a lungo termine. Per limitare gli effetti avversi di ambienti inquinanti, gli organismi più resistenti hanno sviluppato vari meccanismi di protezione cellulare, fra cui il sistema denominato Multixenobiotic resistance (MXR). Tale meccanismo agisce da sistema di detossificazione attraverso l’azione di specifici trasportatori transmembrana quali la P-glicoproteina (Pgp) e la Multidrug Resistance-associated Protein (MRP). Questi, codificati rispettivamente dai prodotti genici ABCB e ABCC, favorendo l’efflusso attivo di composti tossici, prevengono il loro accumulo cellulare e, dunque, i loro potenziali effetti dannosi. Tuttavia, alcune sostanze possono influenzare questo delicato meccanismo, esponendo gli organismi acquatici agli effetti tossici degli inquinanti. In questo lavoro di Tesi è stato condotto uno studio sperimentale in vitro volto a determinare i possibili effetti dell’antidepressivo fluoxetina (FX), dell’antiepilettico carbamazepina (CBZ) e del β-bloccante propranololo (PROP) sul meccanismo MXR, in emociti di Mytilus galloprovincialis. In particolare si è valutata l’azione di questi farmaci sulla funzionalità dei trasportatori e/o sulla modulazione trascrizionale. I risultati ottenuti hanno dimostrato l’importante effetto del PROP, della CBZ e della FX sul sistema MXR. In particolare, il PROP e la CBZ alterano tale sistema, agendo, principalmente, sui livelli di espressione del prodotto genico ABCB, nonostante influenzino anche i livelli di ABCC. La FX, invece, non porta ad alterazioni dell’attività MXR totale, sebbene induca variazioni sui livelli di espressione di ABCB. In conclusione, le analisi dei profili trascrizionali dimostrano che la proteina predominante nell’efflusso di tali contaminanti negli emociti di M. galloprovincialis è la P-glicoproteina e che le variazioni dell’attività MXR osservate in questa Tesi sono il risultato combinato dell’azione dei farmaci analizzati come modulatori trascrizionali e come substrati da parte dei trasportatori MXR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerosi lavori apparsi sulla letteratura scientifica negli ultimi decenni hanno evidenziato come, dall’inizio del XX secolo, la temperatura media globale sia aumentata. Tale fenomeno si è fatto più evidente dagli anni ’80, infatti ognuno degli ultimi tre decenni risulta più caldo dei precedenti. L’Europa e l’area mediterranea sono fra le regioni in cui il riscaldamento risulta più marcato, soprattutto per le temperature massime (dal 1951 sono cresciute di +0.39 °C per decennio) che hanno mostrato trend maggiori delle minime. Questo comportamento è stato osservato anche a scala nazionale (+0.25°C/dec per le massime e +0.20°C/dec per le minime). Accanto all’aumento dei valori medi è stato osservato un aumento (diminuzione) degli eventi di caldo (freddo) estremo, studiati attraverso la definizione di alcuni indici basati sui percentili delle distribuzioni. Resta aperto il dibattito su quali siano le cause delle variazioni negli eventi estremi: se le variazioni siano da attribuire unicamente ad un cambiamento nei valori medi, quindi ad uno shift rigido della distribuzione, o se parte del segnale sia dovuto ad una variazione nella forma della stessa, con un conseguente cambiamento nella variabilità. In questo contesto si inserisce la presente tesi con l’obiettivo di studiare l’andamento delle temperature giornaliere sul Trentino-Alto-Adige a partire dal 1926, ricercando cambiamenti nella media e negli eventi estremi in due fasce altimetriche. I valori medi delle temperature massime e minime hanno mostrato un evidente riscaldamento sull’intero periodo specialmente per le massime a bassa quota (`0.13 ̆ 0.03 °C/dec), con valori più alti per la primavera (`0.22 ̆ 0.05 °C/dec) e l’estate (`0.17 ̆ 0.05 °C/dec). Questi trends sono maggiori dopo il 1980 e non significativi in precedenza. L’andamento del numero di giorni con temperature al di sopra e al di sotto delle soglie dei percentili più estremi (stimate sull’intero periodo) indica un chiaro aumento degli estremi caldi, con valori più alti per le massime ad alta quota ( fino a +26.8% per il 99-esimo percentile) e una diminuzione degli estremi freddi (fino a -8.5% per il primo percentile delle minime a bassa quota). Inoltre, stimando anno per anno le soglie di un set di percentili e confrontando i loro trend con quelli della mediana, si è osservato, unicamente per le massime, un trend non uniforme verso temperature più alte, con i percentili più bassi (alti) caratterizzati da trend inferiori (superiori) rispetto a quello della mediana, suggerendo un allargamento della PDF.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivo di questa tesi è cercare di mostrare come il mobile può diventare molto utile per le aziende sia a livello di guadagno sia a livello di comunicazione aziendale con i propri clienti. Il tema principale sviluppato nell'elaborato riguarda il Mobile Marketing e gli strumenti più proficui utilizzati da questa nuova tecnica di marketing, in particolar modo le App. In primo luogo viene trattato il tema del brand: importante mezzo comunicativo che dal primo momento intacca il pensiero del cliente e ne veicola le scelte di acquisto. Frutto di un'analisi ben più specifica è l'argomento del mobile marketing, le strategie migliori da adoperare per sfruttare al meglio i device portatili, i vantaggi maggiori che riceveranno le aziende che lo adotteranno e un piccolo accenno sui principali strumenti del mobile. Infine di svilupperà maggiormente l'argomento delle Applicazioni mobili e di quelle app brandizzate che hanno riscontrato maggior successo tra gli utenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tesi sullo studio di algoritmi per il confronto di documenti XML, panoramica sui vari algoritmi. Focalizzazione sull'algoritmo NDiff e in particolare sulla gestione degli attributi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La precisione delle misure dell’accelerazione di gravità effettuate grazie ai gravimetri più moderni fornisce importanti informazioni relative ai processi deformativi, che avvengono nel nostro pianeta. In questa tesi il primo capitolo illustra alcuni fondamenti della teoria dell’elasticità ed in particolare la possibilità di descrivere qualunque sorgente deformativa interna alla Terra tramite una distribuzione di “forze equivalenti” con risultante e momento nulli. Inoltre descriviamo i diversi contributi alle variazioni di gravità prodotte da tali eventi. Il secondo capitolo fornisce alcune tecniche di soluzione dell’equazione di Laplace, utilizzate in alcuni calcoli successivi. Nel terzo capitolo si sviluppano le soluzioni trovate da Mindlin nel 1936, che analizzò spostamenti e deformazioni generate da una forza singola in un semispazio elastico omogeneo con superficie libera. Si sono effettuati i calcoli necessari per passare da una forza singola a un dipolo di forze e una volta trovate queste soluzioni si sono effettuate combinazioni di dipoli al fine di ottenere sorgenti deformative fisicamente plausibili, come una sorgente isotropa o una dislocazione tensile (orizzontale o verticale), che permettano di descrivere fenomeni reali. Nel quarto capitolo si descrivono i diversi tipi di gravimetri, assoluti e relativi, e se ne spiega il funzionamento. Questi strumenti di misura sono infatti utilizzati in due esempi che vengono descritti in seguito. Infine, nel quinto capitolo si sono applicati i risultati ottenuti nel terzo capitolo al fine di descrivere i fenomeni avvenuti ai Campi Flegrei negli anni ‘80, cercando il tipo di processo deformativo più adatto alla descrizione sia della fase di sollevamento del suolo che quella di abbassamento. Confrontando le deformazioni e le variazioni residue di gravità misurate prima e dopo gli eventi deformativi con le previsioni dei modelli si possono estrarre importanti informazioni sui processi in atto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli squali bianchi sono tra i più importanti predatori dei Pinnipedi (Klimley et al., 2001; Kock, 2002). La loro principale strategia di caccia consiste nel pattugliare le acque circostanti ad una colonia di otarie e nell’attaccarle quando queste sono in movimento, mentre si allontanano o avvicinano all’isola (Klimley et al., 2001; Kock, 2002). Tuttavia, la strategia e la dinamica della predazione osservate anche in relazione al ciclo riproduttivo della preda e le tattiche comportamentali messe in atto dalla preda per ridurre la probabilità di predazione, e quindi diminuire la sua mortalità, sono ancora poco conosciute. Con questo studio, effettuato nell’area di Seal Island all’interno della baia di Mossel Bay in Sud Africa, abbiamo cercato di definire proprio questi punti ancora poco conosciuti. Per studiare la strategia e le dinamica di predazione dello squalo bianco abbiamo utilizzato il sistema di monitoraggio acustico, in modo da poter approfondire le conoscenze sui loro movimenti e quindi sulle loro abitudini. Per dare un maggiore supporto ai dati ottenuti con la telemetria acustica abbiamo effettuato anche un monitoraggio visivo attraverso l’attrazione (chumming) e l’identificazione fotografica degli squali bianchi. Per comprendere invece i loro movimenti e le tattiche comportamentali messi in atto dalle otarie orsine del capo per ridurre la probabilità di predazione nella baia di Mossel Bay, abbiamo utilizzato il monitoraggio visivo di 24 ore, effettuato almeno una volta al mese, dalla barca nell’area di Seal Island. Anche se gli squali bianchi sono sempre presenti intorno all’isola i dati ottenuti suggeriscono che la maggior presenza di squali/h si verifica da Maggio a Settembre che coincide con l’ultima fase di svezzamento dei cuccioli delle otarie del capo, cioè quando questi iniziano a foraggiare lontano dall'isola per la prima volta; durante il sunrise (alba) durante il sunset (tramonto) quando il livello di luce ambientale è bassa e soprattutto quando la presenza delle prede in acqua è maggiore. Quindi possiamo affermare che gli squali bianchi a Seal Island prendono delle decisioni che vanno ad ottimizzare la loro probabilità di catturare una preda. I risultati preliminari del nostro studio indicano anche che il numero di gruppi di otarie in partenza dall'isola di notte sono di gran lunga maggiori di quelle che partono durante il giorno, forse questo potrebbe riflettere una diminuzione del rischio di predazione; per beneficiare di una vigilanza condivisa, le otarie tendono in media a formare gruppi di 3-5 o 6-9 individui quando si allontanano dall’isola e questo probabilmente le rende meno vulnerabili e più attente dall’essere predate. Successivamente ritornano all’isola da sole o in piccoli gruppi di 2 o 3 individui. I gruppi più piccoli probabilmente riflettono la difficoltà delle singole otarie a riunirsi in gruppi coordinati all'interno della baia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro è stato svolto nell'ambito della collaborazione NUCLEX, esperimento della Commissione Nazionale 3 dell'INFN per lo studio della dinamica delle reazioni nucleari indotte da ioni pesanti. In particolare l'oggetto della tesi riguarda l'analisi del decadimento di un nucleo di Carbonio-12 eccitato in seguito ad una reazione nucleare. Più precisamente in questa tesi si studia il decadimento di un nucleo di Carbonio-12 che, interagendo con un altro nucleo di Carbonio-12, si eccita lasciando il bersaglio di Carbonio nello stato fondamentale. La reazione studiata è 12C + 12C a 95 MeV. L'analisi è stata effettuata selezionando, fra tutti gli eventi, quelli che hanno 3 particelle α nello stato finale. Ciò permette di mettere in evidenza alcuni stati eccitati del Carbonio-12, fra cui il cosiddetto stato di Hoyle, importante soprattutto per gli aspetti astrofisici. In particolare il modo di decadimento è legato alla probabilità di formazione, che è un punto importante nella formazione degli elementi nelle stelle. E' importante infatti poter determinare se il processo di decadimento è istantaneo, cioè il Carbonio emette tre particelle α contemporaneamente, oppure sequenziale, cioè il Carbonio emette in primo luogo una particella α ed un nucleo di Berillio-8, il quale a sua volta decade in due particelle α. Nel Capitolo 1 si introdurrà l'aspetto teorico e fenomenologico del problema, verranno descritte in breve le reazioni nucleari tra ioni pesanti con un approfondimento sui processi di decadimento del Carbonio eccitato. Nel Capitolo 2 saranno descritti gli apparati utilizzati per le misure: in particolare l'apparato GARFIELD utilizzato per la rivelazione delle particelle cariche emesse nel decadimento, ed il rivelatore Ring Counter (RCo) utilizzato soprattutto per la rivelazione delle particelle α di decadimento del proiettile eccitato. Si accenna anche alle tecniche usate per identificare le particelle α. Nel Capitolo 3 verrà descritta l'analisi dei dati effettuata ed in particolare verranno mostrati gli osservabili per poter discriminare il meccanismo di decadimento sequenziale o democratico. Verranno infine tracciate alcune conclusioni in base ai risultati raggiunti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro saranno inizialmente discusse le tecniche medianti le quali sono cresciuti i monocristalli organici confrontando le tecniche di crescita proprie dell’elettronica organica con quelle utilizzate comunemente in quella inorganica. Successivamente si introdurrà il problema del trasporto elettronico con particolare riguardo verso alcune molecole come il rubrene o il pentacene. Tramite il modello microscopico verranno studiate le interazioni elettrone-fonone, locale e non locale, in particolare nei cristalli di rubrene e DMQtT–F4TCNQ attraverso la teoria del piccolo polarone di Holstein. Dopo aver sottolineato i limiti di questa teoria ne verrà proposta una alternativa basata sui lavori di Troisi e supportata da evidenze sperimentali. Tra le tecniche utilizzate per l’analisi dei campioni verranno discusse le basi della teoria del funzionale di densità. L’attenzione sarà rivolta ai cristalli ordinati mentre una breve descrizione sarà riservata per quelli disordinati o amorfi. Nel capitolo 3 verrà trattato il ruolo degli eccitoni all’interno dei semiconduttori organici, mentre nell’ultimo capitolo si discuterà di diverse applicazioni dei semiconduttori organici come la costruzione di FET e di detector per raggi X. Infine verranno mostrati il setup sperimentale e il procedimento per l’estrazione di parametri di bulk in un semiconduttore organico tramite analisi SCLC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Associazioni Non Profit giocano un ruolo sempre più rilevante nella vita dei cittadini e rappresentano un'importante realtà produttiva del nostro paese; molto spesso però risulta difficile trovare informazioni relative ad eventi, attività o sull'esistenza stessa di queste associazioni. Per venire in contro alle esigenze dei cittadini molte Regioni e Province mettono a disposizione degli elenchi in cui sono raccolte le informazioni relative alle varie organizzazioni che operano sul territorio. Questi elenchi però, presentano spesso grossi problemi, sia per quanto riguarda la correttezza dei dati, sia per i formati utilizzati per la pubblicazione. Questi fattori hanno portato all'idea e alla necessità di realizzare un sistema per raccogliere, sistematizzare e rendere fruibili le informazioni sulle Associazioni Non Profit presenti sul territorio, in modo che questi dati possano essere utilizzati liberamente da chiunque per scopi diversi. Il presente lavoro si pone quindi due obiettivi principali: il primo consiste nell'implementazione di un tool in grado di recuperare le informazioni sulle Associazioni Non Profit sfruttando i loro Siti Web; questo avviene per mezzo dell'utilizzo di tecniche di Web Crawling e Web Scraping. Il secondo obiettivo consiste nel pubblicare le informazioni raccolte, secondo dei modelli che ne permettano un uso libero e non vincolato; per la pubblicazione e la strutturazione dei dati è stato utilizzato un modello basato sui principi dei linked open data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’esperimento CMS a LHC ha raccolto ingenti moli di dati durante Run-1, e sta sfruttando il periodo di shutdown (LS1) per evolvere il proprio sistema di calcolo. Tra i possibili miglioramenti al sistema, emergono ampi margini di ottimizzazione nell’uso dello storage ai centri di calcolo di livello Tier-2, che rappresentano - in Worldwide LHC Computing Grid (WLCG)- il fulcro delle risorse dedicate all’analisi distribuita su Grid. In questa tesi viene affrontato uno studio della popolarità dei dati di CMS nell’analisi distribuita su Grid ai Tier-2. Obiettivo del lavoro è dotare il sistema di calcolo di CMS di un sistema per valutare sistematicamente l’ammontare di spazio disco scritto ma non acceduto ai centri Tier-2, contribuendo alla costruzione di un sistema evoluto di data management dinamico che sappia adattarsi elasticamente alle diversi condizioni operative - rimuovendo repliche dei dati non necessarie o aggiungendo repliche dei dati più “popolari” - e dunque, in ultima analisi, che possa aumentare l’“analysis throughput” complessivo. Il Capitolo 1 fornisce una panoramica dell’esperimento CMS a LHC. Il Capitolo 2 descrive il CMS Computing Model nelle sue generalità, focalizzando la sua attenzione principalmente sul data management e sulle infrastrutture ad esso connesse. Il Capitolo 3 descrive il CMS Popularity Service, fornendo una visione d’insieme sui servizi di data popularity già presenti in CMS prima dell’inizio di questo lavoro. Il Capitolo 4 descrive l’architettura del toolkit sviluppato per questa tesi, ponendo le basi per il Capitolo successivo. Il Capitolo 5 presenta e discute gli studi di data popularity condotti sui dati raccolti attraverso l’infrastruttura precedentemente sviluppata. L’appendice A raccoglie due esempi di codice creato per gestire il toolkit attra- verso cui si raccolgono ed elaborano i dati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nei prossimi anni sia il Large Hadron Collider al CERN che i relativi esperimenti saranno oggetto di programmi di upgrade. Per i rivelatori una delle motivazioni dell’upgrade è l’invecchiamento che inevitabilmente ne peggiorerebbe le prestazioni in mancanza di interventi. Si sono studiati gli effetti dell’invecchiamentO del rivelatore di muoni a grande angolo di CMS sulla ricostruzione di eventi H→ 4μ: un canale centrale nel programma futuro di fisica delle alte energie e la cui identificazione è affidata essenzialmente al rivelatore di muoni. Benchè la ridondanza, insita nel progetto del rivelatore, riduca l’impatto dell’inefficienza locale sui risultati finali, si è osservato dalla simulazione che, mentre il 30% di hit persi si traduce nella perdita dell’8% di eventi H→4μ, il 30% di camere non funzionanti causa un perdita di eventi che può arrivare al 27%. Poichè la disattivazione di un’intera camera può essere l’effetto del danneggiamento dell’elettronica di lettura, la quale è attualmente situata nella caverna sperimentale ed esposta quindi alle radiazioni, questi risultati potrebbero indicare la necessità di prevedere nel programma di upgrade la sostituzione dell’elettronica con nuovi dispositivi da collocarsi fuori della caverna, al riparo dalle radiazioni.