926 resultados para reti ibride,Router Cisco,Switch HP,Raspberry Pi,interfacciamento,routing,switching,protocollo OSPF
Resumo:
Nell'elaborato si analizzano aspetti della teoria dei giochi e della multi-criteria decision-making. La riflessione serve a proporre le basi per un nuovo modello di protocollo di routing in ambito Mobile Ad-hoc Networks. Questo prototipo mira a generare una rete che riesca a gestirsi in maniera ottimale grazie ad un'acuta tecnica di clusterizzazione. Allo stesso tempo si propone come obiettivo il risparmio energetico e la partecipazione collaborativa di tutti i componenti.
Resumo:
In questo lavoro di tesi è stato studiato lo spettro di massa invariante del sistema J/psi pi+ pi-, m(J/psi pi+ pi-), in collisioni protone-protone a LHC, con energia nel centro di massa sqrt(s)) pari a 8 TeV, alla ricerca di nuovi stati adronici. Lo studio è stato effettuato su un campione di dati raccolti da CMS in tutto il 2012, corrispondente ad una luminosità integrata di 18.6 fb-1. Lo spettro di massa invariante m(J/psi pi+ pi-), è stato ricostruito selezionando gli eventi J/psi->mu+ mu- associati a due tracce cariche di segno opposto, assunte essere pioni, provenienti da uno stesso vertice di interazione. Nonostante l'alta statistica a disposizione e l'ampia regione di massa invariante tra 3.6 e 6.0 GeV/c^2 osservata, sono state individuate solo risonanze già note: la risonanza psi(2S) del charmonio, lo stato X(3872) ed una struttura più complessa nella regione attorno a 5 GeV/c^2, che è caratteristica della massa dei mesoni contenenti il quark beauty (mesoni B). Al fine di identificare la natura di tale struttura, è stato necessario ottenere un campione di eventi arricchito in adroni B. È stata effettuata una selezione basata sull'elevata lunghezza di decadimento, che riflette la caratteristica degli adroni B di avere una vita media relativamente lunga (ordine dei picosecondi) rispetto ad altri adroni. Dal campione così ripulito, è stato possibile distinguere tre sottostrutture nello spettro di massa invariante in esame: una a 5.36 GeV/c^2, identificata come i decadimenti B^0_s-> J/psi pi+ pi-, un'altra a 5.28 GeV/c^2 come i candidati B^0-> J/psi pi+ pi- e un'ultima allargata tra 5.1 e 5.2 GeV/c^2 data da effetti di riflessione degli scambi tra pioni e kaoni. Quest'ultima struttura è stata identificata come totalmente costituita di una combinazione di eventi B^0-> J/psi K+ pi- e B^0_s-> J/psi K+ K-.
Resumo:
Il lavoro è parte integrante di un progetto di ricerca del Ministero della Salute ed è stato sviluppato presso la Fisica Sanitaria ed il reparto di Radioterapia Oncologica dell’Azienda Ospedaliero Universitaria di Modena. L’obiettivo è la realizzazione di modelli predittivi e di reti neurali per tecniche di warping in ambito clinico. Modifiche volumetrico-spaziali di organi a rischio e target tumorali, durante trattamenti tomoterapici, possono alterare la distribuzione di dose rispetto ai constraints delineati in fase di pianificazione. Metodologie radioterapiche per la valutazione di organ motion e algoritmi di registrazione ibrida permettono di generare automaticamente ROI deformate e quantificare la divergenza dal piano di trattamento iniziale. Lo studio si focalizzata sulle tecniche di Adaptive Radiation Therapy (ART) mediante la meta-analisi di 51 pazienti sottoposti a trattamento mediante Tomotherapy. Studiando il comportamento statistico del campione, sono state generate analisi predittive per quantificare in tempo reale divergenze anatomico dosimetriche dei pazienti rispetto al piano originale e prevedere la loro ripianificazione terapeutica. I modelli sono stati implementati in MATLAB, mediante Cluster Analysis e Support Vector Machines; l’analisi del dataset ha evidenziato il valore aggiunto apportabile dagli algoritmi di deformazione e dalle tecniche di ART. La specificità e sensibilità della metodica è stata validata mediante l’utilizzo di analisi ROC. Gli sviluppi del presente lavoro hanno aperto una prospettiva di ricerca e utilizzo in trattamenti multicentrici e per la valutazione di efficacia ed efficienza delle nuove tecnologie in ambito RT.
Resumo:
La presente ricerca consiste nel validare ed automatizzare metodiche di Adaptive Radiation Therapy (ART), che hanno come obiettivo la personalizzazione continua del piano di trattamento radioterapico in base alle variazioni anatomiche e dosimetriche del paziente. Tali variazioni (casuali e/o sistematiche) sono identificabili mediante l’utilizzo dell’imaging diagnostico. Il lavoro svolto presso la struttura di Fisica Medica dell’Azienda Ospedaliera Universitaria del Policlinico di Modena, si inserisce in un progetto del Ministero della Salute del bando Giovani Ricercatori dal titolo: “Dose warping methods for IGRT and ADAPTIVERT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments”. Questa metodica si sta affermando sempre più come nuova opportunità di trattamento e, per tale motivo, nasce l’esigenza di studiare e automatizzare processi realizzabili nella pratica clinica, con un utilizzo limitato di risorse. Si sono sviluppati script che hanno permesso l’automazione delle operazioni di Adaptive e deformazioni, raccogliendo i dati di 51 pazienti sottoposti a terapia mediante Tomotherapy. L’analisi delle co-registrazioni deformabili delle strutture e delle dosi distribuite, ha evidenziato criticità del software che hanno reso necessario lo sviluppo di sistemi di controllo dei risultati, per facilitare l’utente nella revisione quotidiana dei casi clinici. La letteratura riporta un numero piuttosto limitato di esperienze sulla validazione e utilizzo su larga scala di questi tools, per tale motivo, si è condotto un esame approfondito della qualità degli algoritmi elastici e la valutazione clinica in collaborazione di fisici medici e medici radioterapisti. Sono inoltre stati sviluppati principi di strutturazione di reti Bayesiane, che consentono di predirre la qualità delle deformazioni in diversi ambiti clinici (H&N, Prostata, Polmoni) e coordinare il lavoro quotidiano dei professionisti, identificando i pazienti, per i quali sono apprezzabili variazioni morfo-dosimetriche significative. Da notare come tale attività venga sviluppata automaticamente durante le ore notturne, sfruttando l’automation come strumento avanzato e indipendente dall’operatore. Infine, il forte sviluppo, negli ultimi anni della biomeccanica applicata al movimento degli organi (dimostrato dalla numerosa letteratura al riguardo), ha avuto come effetto lo sviluppo, la valutazione e l’introduzione di algoritmi di deformazione efficaci. In questa direzione, nel presente lavoro, si sono analizzate quantitivamente le variazioni e gli spostamenti delle parotidi, rispetto all’inizio del trattamento, gettando le basi per una proficua linea di ricerca in ambito radioterapico.
Resumo:
L'indagine condotta, avvalendosi del paradigma della social network analysis, offre una descrizione delle reti di supporto personale e del capitale sociale di un campione di 80 italiani ex post un trattamento terapeutico residenziale di lungo termine per problemi di tossicodipendenza. Dopo aver identificato i profili delle reti di supporto sociale degli intervistati, si è proceduto, in primis, alla misurazione e comparazione delle ego-centered support networks tra soggetti drug free e ricaduti e, successivamente, all'investigazione delle caratteristiche delle reti e delle forme di capitale sociale – closure e brokerage – che contribuiscono al mantenimento dell'astinenza o al rischio di ricaduta nel post-trattamento. Fattori soggettivi, come la discriminazione pubblica percepita e l'attitudine al lavoro, sono stati inoltre esplorati al fine di investigare la loro correlazione con la condotta di reiterazione nell'uso di sostanze. Dai risultati dello studio emerge che un più basso rischio di ricaduta è positivamente associato ad una maggiore attitudine al lavoro, ad una minore percezione di discriminazione da parte della società, all'avere membri di supporto con un più alto status socio-economico e che mobilitano risorse reputazionali e, infine, all'avere reti più eterogenee nell'occupazione e caratterizzate da più elevati livelli di reciprocità. Inoltre, il capitale sociale di tipo brokerage contribuisce al mantenimento dell'astinenza in quanto garantisce l'accesso del soggetto ad informazioni meno omogenee e la sua esposizione a opportunità più numerose e differenziate. I risultati dello studio, pertanto, dimostrano l'importante ruolo delle personal support networks nel prevenire o ridurre il rischio di ricaduta nel post-trattamento, in linea con precedenti ricerche che suggeriscono la loro incorporazione nei programmi terapeutici per tossicodipendenti.
Resumo:
Con l'avanzare della tecnologia, i Big Data hanno assunto un ruolo importante. In questo lavoro è stato implementato, in linguaggio Java, un software volto alla analisi dei Big Data mediante R e Hadoop/MapReduce. Il software è stato utilizzato per analizzare le tracce rilasciate da Google, riguardanti il funzionamento dei suoi data center.
Resumo:
Nell'elaborato sono analizzati diversi tipi di algoritmi di routing per reti VANET. Nel secondo capitolo verrà fornita una panoramica delle reti MANET e VANET. Nel terzo capitolo sono viste le caratteristiche delle reti VANET. Nel quarto verranno esposte le peculiarità di classificazione dei protocolli di routing routing e nel quinto capitolo saranno analizzati diversi protocolli di routing proposti fino ad ora nella letteratura.
Resumo:
The LHCb experiment at the LHC, by exploiting the high production cross section for $c\overline{c}$ quark pairs, offers the possibility to investigate $\mathcal{CP}$ violation in the charm sector with a very high precision.\\ In this thesis a measurement of time-integrated \(\mathcal{CP}\) violation using $D^0\rightarrow~K^+K^-$ and $D^0\rightarrow \pi^+\pi^-$ decays at LHCb is presented. The measured quantity is the difference ($\Delta$) of \(\mathcal{CP}\) asymmetry ($\mathcal{A}_{\mathcal{CP}}$) between the decay rates of $D^0$ and $\overline{D}^0$ mesons into $K^+K^–$ and $\pi^+\pi^-$ pairs.\\ The analysis is performed on 2011 data, collected at \(\sqrt{s}=7\) TeV and corresponding to an integrated luminosity of 1 fb\(^{-1}\), and 2012 data, collected at \(\sqrt{s}=8\) TeV and corresponding to an integrated luminosity of 2 fb\(^{-1}\).\\ A complete study of systematic uncertainties is beyond the aim of this thesis. However the most important systematic of the previous analysis has been studied. We find that this systematic uncertainty was due to a statistical fluctuation and then we demonstrate that it is no longer necessary to take into account.\\ By combining the 2011 and 2012 results, the final statistical precision is 0.08\%. When this analysis will be completed and published, this will be the most precise single measurement in the search for $\mathcal{CP}$ violation in the charm sector.
Resumo:
Quando la probabilità di misurare un particolare valore di una certa quantità varia inversamente come potenza di tale valore, il quantitativo è detto come seguente una power-law, conosciuta anche come legge di Zipf o distribuzione di Pareto. Obiettivo di questa tesi sarà principalmente quello di verificare se il campione esteso di imprese segue la power-law (e se sì, in che limiti). A tale fine si configureranno i dati in un formato di rete monomodale, della quale si studieranno alcune macro-proprietà di struttura a livllo complessivo e con riferimento alle componenti (i singoli subnet distinti) di maggior dimensione. Successivamente si compiranno alcuni approfondimenti sulla struttura fine di alcuni subnet, essenzialmente rivolti ad evidenziare la potenza di unapproccio network-based, anche al fine di rivelare rilevanti proprietà nascoste del sistema economico soggiacente, sempre, ovviamente, nei limiti della modellizzazione adottata. In sintesi, ciò che questo lavoro intende ottenere è lo sviluppo di un approccio alternativo al trattamento dei big data a componente relazionale intrinseca (in questo caso le partecipazioni di capitale), verso la loro conversione in "big knowledge": da un insieme di dati cognitivamente inaccessibili, attraverso la strutturazione dell'informazione in modalità di rete, giungere ad una conoscenza sufficientemente chiara e giustificata.
Resumo:
Il suolo, oltre a rappresentare la base su cui si sviluppa la vita, è anche il luogo in cui si sviluppano l’industrializzazione, le reti viarie, i commerci; è quindi sottoposto a continue pressioni di tipo antropico che inducono modificazioni chimiche, biologiche della sua composizione. I metalli pesanti sono tra i più importanti inquinanti del suolo, sebbene siano presenti all’interno di esso come materiale costituente, le loro concentrazioni possono aumentare a causa di immissioni antropiche, modificando quindi la struttura del suolo rendendolo inquinato. In questo lavoro di tesi, avente come area d’interesse una porzione della provincia di Mantova precisamente ad est della città e parte della provincia di Verona e Rovigo si è voluto analizzare le caratteristiche composizionali dei suoli, al fine di determinare situazioni di arricchimento imputabili o all’uso del suolo o all’origine del sedimento. A questo proposito si è ritenuto opportuno impostare un confronto tra le concentrazioni totali dei metalli in superficie e quelle in profondità, questo non è stato sempre possibile in quanto la litologia dell’area non ha permesso, in alcuni casi, il prelievo del campione profondo. I suoli sono stati sottoposti ad analisi per il contenuto totale degli elementi maggiori e in traccia tramite analisi XRF, è stata poi eseguita la Loi per determinare la percentuale di perdita della materia organica, applicato l’indice di geoaccumolo ed infine sono state create grazie all’ausilio del software Qgis mappe di concentrazione di metalli pesanti quali Cromo, Nichel, Rame, Zinco, Piombo, Arsenico e Vanadio relative all’area di interesse di questo lavoro di tesi.
Resumo:
In molti sistemi di distribuzione idrici una percentuale significativa di acqua viene persa passando dagli impianti di trattamento alle utenze, a causa di danneggiamenti nei diversi componenti delle reti. Le perdite idriche sono un problema costoso, non solo in termini di spreco di una preziosa risorsa naturale, ma anche in termini economici. L’obiettivo principale di questo lavoro è stato quello di identificare possibili sviluppi per le attrezzature e metodi già esistenti al fine di rilevare in modo automatico perdite idriche in condotte in plastica. A questo proposito è stata studiata l’efficacia di metodi basati sull’analisi di vibrazioni e suoni. In particolare ci si è concentrati sull’uso di accelerometri e idrofoni e, successivamente, sull’uso di sensori di emissioni acustiche. Dopo una prima fase di ricerca approfondita sulla dinamica dei fenomeni vibro-acustici che si verificano nelle condotte, sulla teoria delle emissioni acustiche, sulla caratterizzazione di segnali di perdita in condotte in plastica e sulle principali attrezzature usate attualmente per l’individuazione delle perdite, si è passati alla fase sperimentale. La fase sperimentale può essere distinta in due parti. La prima ha avuto come obiettivo il confronto tra segnali acquisiti da accelerometro e idrofono relativamente all’efficacia nell’individuazione di perdite idriche mediante apposito algoritmo ed ha coinvolto numerosi test sul campo, eseguiti sotto condizioni controllate in un impianto di rilevamento perdite sperimentale, appositamente costruito, adiacente alla sede della Divisione Reti R & S di Hera a Forlì. La seconda fase, invece, ha avuto come obiettivo la determinazione dell’efficacia del metodo delle emissioni acustiche per l’individuazione di perdite idriche ed ha visto l’esecuzione di altrettanti test, eseguiti sotto condizioni controllate, in un impianto sperimentale più semplice del precedente.
Resumo:
Der semileptonische Zerfall K^±→π^0 μ^± υ ist ein geeigneter Kanal zur Be-stimmung des CKM-Matrixelementes 〖|V〗_us |. Das hadronische Matrixelement dieses Zerfalls wird durch zwei dimensionslose Formfaktoren f_± (t) beschrieben. Diese sind abhängig vom Impulsübertrag t=〖(p_K-p_π)〗^2 auf das Leptonpaar. Zur Bestimmung von 〖|V〗_us | dienen die Formfaktoren als wichtige Parameter zur Berechnung des Phasenraumintegrals dieses Zerfalls. Eine präzise Messung der Formfaktoren ist zusätzlich dadurch motiviert, dass das Resultat des NA48-Experimentes von den übrigen Messungen der Experimente KLOE, KTeV und ISTRA+ abweicht. Die Daten einer Messperiode des NA48/2 -Experimentes mit offenem Trigger aus dem Jahre 2004 wurden analysiert. Daraus wählte ich 1.8 Millionen K_μ3^±-Zerfallskandidaten mit einem Untergrundanteil von weniger als 0.1% aus. Zur Bestimmung der Formfaktoren diente die zweidimensionale Dalitz-Verteilung der Daten, nachdem sie auf Akzeptanz des Detektors und auf radiative Effekte korrigiert war. An diese Verteilung wurde die theoretische Parameter-abhängige Funktion mit einer Chiquadrat-Methode angepasst. Es ergeben sich für quadratische, Pol- und dispersive Parametrisierung folgende Formfaktoren: λ_0=(14.82±〖1.67〗_stat±〖0.62〗_sys )×〖10〗^(-3) λ_+^'=(25.53±〖3.51〗_stat±〖1.90〗_sys )×〖10〗^(-3) λ_+^''=( 1.40±〖1.30〗_stat±〖0.48〗_sys )×〖10〗^(-3) m_S=1204.8±〖32.0〗_stat±〖11.4〗_(sys ) MeV/c^2 m_V=(877.4±〖11.1〗_stat±〖11.2〗_(sys ) MeV/c^2 LnC=0.1871±〖0.0088〗_stat±〖0.0031〗_(sys )±=〖0.0056〗_ext Λ_+=(25.42±〖0.73〗_stat±〖0.73〗_(sys )±=〖1.52〗_ext )×〖10〗^(-3) Die Resultate stimmen mit den Messungen der Experimente KLOE, KTeV und ISTRA+ gut überein, und ermöglichen eine Verbesserung des globalen Fits der Formfaktoren. Mit Hilfe der dispersiven Parametrisierung der Formfaktoren, unter Verwendung des Callan-Treiman-Theorems, ist es möglich, einen Wert für f_± (0) zu bestimmen. Das Resultat lautet: f_+ (0)=0.987±〖0.011〗_(NA48/2)±〖0.008〗_(ext ) Der für f_+ (0) berechnete Wert stimmt im Fehler gut mit den vorherigen Messungen von KTeV, KLOE und ISTRA+ überein, weicht jedoch um knapp zwei Standardabweichungen von der theoretischen Vorhersage ab.
Resumo:
Il sistema ferroviario ha sempre ricoperto un ruolo rilevante nel nostro Paese sia per il trasporto di persone, sia per il trasporto di merci: risulta, quindi, essenziale per il commercio e per il turismo. A differenza della strada in cui i veicoli circolano “a vista”, una ferrovia richiede che i sistemi di distanziamento dei treni siano indipendenti dalla visibilità dei veicoli, poiché gli spazi di frenatura sono solitamente molto maggiori della distanza di visibilità stessa. Per questo motivo i sistemi di segnalamento e sicurezza ricoprono un ruolo di primo piano. Nel tempo sono stati effettuati ingenti investimenti che hanno portato all'impiego di nuove tecnologie le quali hanno permesso la progettazione di sistemi safety critical contenenti componenti informatici hardware e software. La caratteristica principale di tali sistemi è la proprietà di non arrecare danno alla vita umana o all'ambiente: tale proprietà viene comunemente associata al termine anglosassone safety per distinguerla dall’accezione di "protezione da violazioni all'integrità del sistema" che il termine "sicurezza" usualmente assume. Lo sviluppo economico e tecnologico a cui abbiamo assistito nell’ultimo ventennio ha inevitabilmente reso tali sistemi ancora più sofisticati e di conseguenza complessi, richiedendo allo stesso tempo requisiti e garanzie di buon funzionamento sempre più marcati ed articolati. È proprio a questi motivi che si devono gli studi su quella che viene definita la dependability dei sistemi di computazione, verso cui si concentrano e convogliano buona parte degli sforzi e delle risorse in fase di ricerca e progettazione. Il lavoro di tesi che segue è stato svolto in collaborazione con due grandi imprese del territorio nazionale: RFI (Reti Ferroviarie Italiane) e Sirti. Inizialmente abbiamo interagito con RFI per entrare nell’ambiente ferroviario ed assimilarne il lessico e i bisogni. All’interno di RFI è stato effettuato un tirocinio nel quale ci siamo occupati del “processo off-line” riguardante la gestione in sicurezza di una stazione; tale attività deve essere effettuata da RFI prima della messa in esercizio di una nuova stazione. Per far questo abbiamo dovuto utilizzare i programmi di preparazione dei dati messi a disposizione da Sirti. In un secondo momento abbiamo approfondito l’argomentazione della safety interfacciandoci con Sirti, una delle società che forniscono sistemi safety critical computerizzati per il controllo delle stazioni. In collaborazione con essa ci siamo addentrati nel loro sistema scoprendo le loro scelte implementative e come hanno raggiunto i loro obiettivi di safety. Infine, ci siamo occupati dell'inserimento nel sistema di una nuova funzionalità, per aumentarne l’affidabilità e la sicurezza, e delle problematiche relative all'impiego del componente che la realizza.
Resumo:
Imprese di piccole e grandi dimensioni hanno dovuto convivere con il ritmo di uscita di nuovi e più potenti modelli di PC, consolle per videogiochi, telefoni cellulari, tablet, fotocamere digitali. I cicli di vita si sono ridotti drasticamente, tanto da far sembrare un’emergenza il rilascio di un nuovo prodotto quasi ogni anno. Le aziende, se ancora non lo hanno fatto, sono chiamate ad affrontare una transizione interna per aggiornare le politiche aziendali in modo da stare al passo con il progresso tecnologico. Se un tempo le regole interne vietavano o scoraggiavano l’utilizzo di dispositivi personali nell’ambiente di lavoro, nell’era moderna sono costrette ad accettarlo se non addirittura ad incoraggiarlo ed il fenomeno che mi accingerò ad analizzare in questo elaborato, denominato Bring Your Own Device (BYOD), punta proprio all’esplorazione degli sforzi progettuali che sono richiesti ad una grande azienda multinazionale per poter recepire i trend informatici. Con più di cinque miliardi di dispositivi mobili in tutto il mondo – e solo 2 miliardi di computer – il passaggio al ‘mobile’ come forma principale di collegamento alle reti aziendali procede con sempre maggiore rapidità. Negli anni recenti si è potuto assistere all’evoluzione del panorama di dispositivi portatili che ha permesso ad un pubblico di users sempre più vasto di potersi permettere l’acquisto di dispositivi di ultima generazione a prezzi non proibitivi. I fornitori di tecnologie hanno confezionato prodotti sempre più pensati per un uso privato, fornendo un’ampia scelta di soluzioni non solo a livello enterprise, come accadeva agli albori del boom tecnologico, ma maggiormente rivolte al singolo consumatore. Guardando ai trend sviluppatisi negli anni recenti, è possibile riconoscere una scia di segnali che preannunciavano quanto sta avvenendo adesso con il BYOD.
Resumo:
The systematic exploration of excited meson and baryon states was the central topic of the COMPASS physics program in the years 2008 and 2009 at the CERN facility. A hadron beam of 190 GeV/c particle momentum was impinging on a 40 cm long liquid hydrogen target to create excited states of beam particles by diffractive processes. The presented work is about the study of the process $K^- p rightarrow K^- pi^+ pi^- p_{recoil}$ where special emphasis is put on how kaons were distinguished from pions with the CEDAR detectors in the initial channel as well as with the RICH detector in the final states. At the end formed 270 000 events an invariant K pi pi mass distribution of overlapping resonances. In addition a detailed MC simulation study of 44 million decays in the range of 0.8 < m(K pi pi) [GeV/c^2] < 3.0 was performed and analysed for acceptance corrections.All information was combined into a mass independent partial wave analysis to observe resonances of individual particles. The main contribution was found in the JP = 0+, 1+, 2- and 2+ spin-parity states.