954 resultados para reti ibride,Router Cisco,Switch HP,Raspberry Pi,interfacciamento,routing,switching,protocollo OSPF
Resumo:
La tesi tratta del miglioramento di una simulazione VoIP in ambiente OmNet++. La simulazione è stata resa più realistica grazie all'introduzione di molteplici host mobili che si muovono attraverso un percorso casuale all'interno di uno scenario cittadino.
Resumo:
The goal of this thesis was an experimental test of an effective theory of strong interactions at low energy, called Chiral Perturbation Theory (ChPT). Weak decays of kaon mesons provide such a test. In particular, K± → π±γγ decays are interesting because there is no tree-level O(p2) contribution in ChPT, and the leading contributions start at O(p4). At this order, these decays include one undetermined coupling constant, ĉ. Both the branching ratio and the spectrum shape of K± → π±γγ decays are sensitive to this parameter. O(p6) contributions to K± → π±γγ ChPT predict a 30-40% increase in the branching ratio. From the measurement of the branching ratio and spectrum shape of K± → π±γγ decays, it is possible to determine a model dependent value of ĉ and also to examine whether the O(p6) corrections are necessary and enough to explain the rate.About 40% of the data collected in the year 2003 by the NA48/2 experiment have been analyzed and 908 K± → π±γγ candidates with about 8% background contamination have been selected in the region with z = mγγ2/mK2 ≥ 0.2. Using 5,750,121 selected K± → π±π0 decays as normalization channel, a model independent differential branching ratio of K± → π±γγ has been measured to be:BR(K± → π±γγ, z ≥ 0.2) = (1.018 ± 0.038stat ± 0.039syst ± 0.004ext) ∙10-6. From the fit to the O(p6) ChPT prediction of the measured branching ratio and the shape of the z-spectrum, a value of ĉ = 1.54 ± 0.15stat ± 0.18syst has been extracted. Using the measured ĉ value and the O(p6) ChPT prediction, the branching ratio for z =mγγ2/mK2 <0.2 was computed and added to the measured result. The value obtained for the total branching ratio is:BR(K± → π±γγ) = (1.055 ± 0.038stat ± 0.039syst ± 0.004ext + 0.003ĉ -0.002ĉ) ∙10-6, where the last error reflects the uncertainty on ĉ.The branching ratio result presented here agrees with previous experimental results, improving the precision of the measurement by at least a factor of five. The precision on the ĉ measurement has been improved by approximately a factor of three. A slight disagreement with the O(p6) ChPT branching ratio prediction as a function of ĉ has been observed. This mightrnbe due to the possible existence of non-negligible terms not yet included in the theory. Within the scope of this thesis, η-η' mixing effects in O(p4) ChPT have also been measured.
Resumo:
I sistemi di raccomandazione per come li conosciamo nascono alla fine del XX secolo, e si sono evoluti fino ai giorni nostri approcciandosi a numerosi campi, tra i quali analizzeremo l’ingegneria del software, la medicina, la gestione delle reti aziendali e infine, come argomento focale della tesi, l’e-Learning. Dopo una rapida panoramica sullo stato dell’arte dei sistemi di raccomandazione al giorno d’oggi, discorrendo velocemente tra metodi puri e metodi ibridi ottenuti come combinazione dei primi, analizzeremo varie applicazioni pratiche per dare un’idea al lettore di quanto possano essere vari i settori di utilizzo di questi software. Tratteremo nello specifico il funzionamento di varie tecniche per la raccomandazione in ambito e-Learning, analizzando tutte le problematiche che distinguono questo settore da tutti gli altri. Nello specifico, dedicheremo un’intera sezione alla descrizione della psicologia dello studente, e su come capire il suo profilo cognitivo aiuti a suggerire al meglio la giusta risorsa da apprendere nel modo più corretto. È doveroso, infine, parlare di privacy: come vedremo nel primo capitolo, i sistemi di raccomandazione utilizzano al massimo dati sensibili degli utenti al fine di fornire un suggerimento il più accurato possibile. Ma come possiamo tutelarli contro intrusioni e quindi contro violazioni della privacy? L’obiettivo di questa tesi è quindi quello di presentare al meglio lo stato attuale dei sistemi di raccomandazione in ambito e-Learning e non solo, in modo da costituire un riferimento chiaro, semplice ma completo per chiunque si volesse affacciare a questo straordinario ed affascinante mondo della raccomandazione on line.
Resumo:
La città medievale di Leopoli-Cencelle (fondata da Papa Leone IV nell‘854 d.C. non lontano da Civitavecchia) è stata oggetto di studio e di periodiche campagne di scavo a partire dal 1994. Le stratigrafie investigate con metodi tradizionali, hanno portato alla luce le numerose trasformazioni che la città ha subìto nel corso della sua esistenza in vita. Case, torri, botteghe e strati di vissuto, sono stati interpretati sin dall’inizio dello scavo basandosi sulla documentazione tradizionale e bi-dimensionale, legata al dato cartaceo e al disegno. Il presente lavoro intende re-interpretare i dati di scavo con l’ausilio delle tecnologie digitali. Per il progetto sono stati utilizzati un laser scanner, tecniche di Computer Vision e modellazione 3D. I tre metodi sono stati combinati in modo da poter visualizzare tridimensionalmente gli edifici abitativi scavati, con la possibilità di sovrapporre semplici modelli 3D che permettano di formulare ipotesi differenti sulla forma e sull’uso degli spazi. Modellare spazio e tempo offrendo varie possibilità di scelta, permette di combinare i dati reali tridimensionali, acquisiti con un laser scanner, con semplici modelli filologici in 3D e offre l’opportunità di valutare diverse possibili interpretazioni delle caratteristiche dell’edificio in base agli spazi, ai materiali, alle tecniche costruttive. Lo scopo del progetto è andare oltre la Realtà Virtuale, con la possibilità di analizzare i resti e di re-interpretare la funzione di un edificio, sia in fase di scavo che a scavo concluso. Dal punto di vista della ricerca, la possibilità di visualizzare le ipotesi sul campo favorisce una comprensione più profonda del contesto archeologico. Un secondo obiettivo è la comunicazione a un pubblico di “non-archeologi”. Si vuole offrire a normali visitatori la possibilità di comprendere e sperimentare il processo interpretativo, fornendo loro qualcosa in più rispetto a una sola ipotesi definitiva.
Resumo:
Quadro normativo sui Dispositivi Medici e la sua evoluzione (2007/47,UNI CEI EN ISO 14971). Software DM: processo di certificazione,gestione di reti IT medicali, ruoli e responsabilità (CEI 80001-1). Casi d'uso: Linee guida: MEDDEV e linee guida svedesi più relativi esempi applicabili alle aziende sanitarie.
Resumo:
In dieser Arbeit wurden die vielfältigen Anwendungsmöglichkeiten von Carbazol-reichen Verbindungen in unterschiedlichen Architekturen von pi-konjugierten Materialien untersucht. Die Darstellung der Makrozyklen in Kapitel 1 erfolgte über eine templatunterstützte Synthese, da die ausschließlich über ihre para-Position verknüpften Einheiten einen Zugang über ihre Geometrie nicht erlaubten. Cyclododeca-2,7-fluoren wurde als zyklische Modellverbindung für die zahlreichen bekannten linearen Oligo- und Polyfluorene dargestellt, um den Einfluss der Ringstruktur auf die optischen Eigenschaften dieser blau emittierenden Verbindungen zu untersuchen. Motiviert von den geringen Ausbeuten bei der Zyklisierung des Rings unter Yamamoto-Bedingungen wurde nach einer alternativen Kupplungsreaktion gesucht, die den Zugang zu größeren Substanzmengen erlaubt. Die Einführung von terminalen Ethinylgruppen an die zu verknüpfenden Bausteine erlaubte über die Glaser-Eglinton-Reaktion nicht nur eine Verbesserung der Reaktionsausbeute um den Faktor 10, sondern gleichzeitig auch die Erweiterung des Durchmessers auf rund 5 nm. Demonstriert wurde dies anhand der Darstellung von Cyclo[tetrakis(2,7-diethinyltriscarbazol)] und Cyclo[tetrakis(2,7-diethinyltrisfluoren)].rnDer zweite Abschnitt der Dissertation befasste sich mit ausgedehnten zweidimensionalen Strukturen, zu denen auch mehrsträngige Polymere zählen. Für die Darstellung eines Doppelstrang-Polymers mit hoher Periodizität in den beiden in regelmäßigen Abständen verknüpften Strängen wurde ein neues Konzept entwickelt, dass den Zugang zu solchen Verbindungen erlauben sollte. Dieses basierte auf einem vierfach funktionalisierten Carbazol-Makromonomer. Die Polymerisationen wurden in zwei Schritten über Glaser-Eglinton-Reaktionen durchgeführt. Um unkontrollierte Kupplungen zu vermeiden, wurden zwei der vier reaktiven Positionen am Monomer zunächst über Schutzgruppen maskiert und nach der ersten Polymerisation wieder aktiviert. Neben diesem Ansatz über oxidative Ethinylkupplungen wurde auch eine Organometall-Variante mit einem Platin-Komplex im Polymerrückgrat vorgestellt. rnIm dritten Kapitel wurde die Darstellung von Donor-Akzeptor-Polymeren mit niedriger Bandlücke für den Einsatz in organischen Solarzellen besprochen. Im Gegensatz zu den bisherigen Ansätzen in der Literatur wurden hier ganz gezielt Donor- und Akzeptor-Einheiten mit einer Länge von mindestens 1,5 nm synthetisiert und kombiniert, um zu untersuchen, welche Auswirkungen der Einsatz solcher Makromonomere auf die Eigenschaften der Materialien hat. Dabei bestand der Akzeptor-Baustein in drei Polymeren aus Bis[2,7-di-(4,4,5,5-tetramethyl-1,3,2-dioxaborolan-2-yl)-9,9,18,18-tetraoctylindeno[1,2-b]-yl]-indeno[1,2-b]fluoren-12,15-dion, während die Donor-Stärke durch den Übergang von einem reinen leiterverbrückten Carbazol-Monomer über eine gemischte Carbazol-Thiophen-Einheit hin zu einem reinen Thiophen-Precursor variiert wurde. Dabei zeigte das Polymer mit Thiophen als Donor den höchsten Zellwirkungsgrad von 0,41 %.rn
Resumo:
Il presente lavoro di tesi si inserisce nel contesto dei sistemi ITS e intende realizzare un insieme di protocolli in ambito VANET relativamente semplici ma efficaci, in grado di rilevare la presenza di veicoli in avvicinamento a un impianto semaforico e di raccogliere quelle informazioni di stato che consentano all’infrastruttura stradale di ottenere una stima il più possibile veritiera delle attuali condizioni del traffico in ingresso per ciascuna delle direzioni previste in tale punto. Si prevede di raccogliere i veicoli in gruppi durante il loro avvicinamento al centro di un incrocio. Ogni gruppo sarà costituito esclusivamente da quelle vetture che stanno percorrendo uno stesso tratto stradale e promuoverà l’intercomunicazione tra i suoi diversi membri al fine di raccogliere e integrare i dati sulla composizione del traffico locale. Il sistema realizzato cercherà di trasmettere alle singole unità semaforiche un flusso di dati sintetico ma costante contenente le statistiche sull’ambiente circostante, in modo da consentire loro di applicare politiche dinamiche e intelligenti di controllo della viabilità. L’architettura realizzata viene eseguita all’interno di un ambiente urbano simulato nel quale la mobilità dei nodi di rete corrisponde a rilevazioni reali effettuate su alcune porzioni della città di Bologna. Le performance e le caratteristiche del sistema complessivo vengono analizzate e commentate sulla base dei diversi test condotti.
Resumo:
L’obiettivo del lavoro consiste nell’implementare una metodologia operativa volta alla progettazione di reti di monitoraggio e di campagne di misura della qualità dell’aria con l’utilizzo del laboratorio mobile, ottimizzando le posizioni dei dispositivi di campionamento rispetto a differenti obiettivi e criteri di scelta. La revisione e l’analisi degli approcci e delle indicazioni fornite dalla normativa di riferimento e dai diversi autori di lavori scientifici ha permesso di proporre un approccio metodologico costituito da due fasi operative principali, che è stato applicato ad un caso studio rappresentato dal territorio della provincia di Ravenna. La metodologia implementata prevede l’integrazione di numerosi strumenti di supporto alla valutazione dello stato di qualità dell’aria e degli effetti che gli inquinanti atmosferici possono generare su specifici recettori sensibili (popolazione residente, vegetazione, beni materiali). In particolare, la metodologia integra approcci di disaggregazione degli inventari delle emissioni attraverso l’utilizzo di variabili proxy, strumenti modellistici per la simulazione della dispersione degli inquinanti in atmosfera ed algoritmi di allocazione degli strumenti di monitoraggio attraverso la massimizzazione (o minimizzazione) di specifiche funzioni obiettivo. La procedura di allocazione sviluppata è stata automatizzata attraverso lo sviluppo di un software che, mediante un’interfaccia grafica di interrogazione, consente di identificare delle aree ottimali per realizzare le diverse campagne di monitoraggio
Resumo:
Nell'elaborato si analizzano aspetti della teoria dei giochi e della multi-criteria decision-making. La riflessione serve a proporre le basi per un nuovo modello di protocollo di routing in ambito Mobile Ad-hoc Networks. Questo prototipo mira a generare una rete che riesca a gestirsi in maniera ottimale grazie ad un'acuta tecnica di clusterizzazione. Allo stesso tempo si propone come obiettivo il risparmio energetico e la partecipazione collaborativa di tutti i componenti.
Resumo:
In questo lavoro di tesi è stato studiato lo spettro di massa invariante del sistema J/psi pi+ pi-, m(J/psi pi+ pi-), in collisioni protone-protone a LHC, con energia nel centro di massa sqrt(s)) pari a 8 TeV, alla ricerca di nuovi stati adronici. Lo studio è stato effettuato su un campione di dati raccolti da CMS in tutto il 2012, corrispondente ad una luminosità integrata di 18.6 fb-1. Lo spettro di massa invariante m(J/psi pi+ pi-), è stato ricostruito selezionando gli eventi J/psi->mu+ mu- associati a due tracce cariche di segno opposto, assunte essere pioni, provenienti da uno stesso vertice di interazione. Nonostante l'alta statistica a disposizione e l'ampia regione di massa invariante tra 3.6 e 6.0 GeV/c^2 osservata, sono state individuate solo risonanze già note: la risonanza psi(2S) del charmonio, lo stato X(3872) ed una struttura più complessa nella regione attorno a 5 GeV/c^2, che è caratteristica della massa dei mesoni contenenti il quark beauty (mesoni B). Al fine di identificare la natura di tale struttura, è stato necessario ottenere un campione di eventi arricchito in adroni B. È stata effettuata una selezione basata sull'elevata lunghezza di decadimento, che riflette la caratteristica degli adroni B di avere una vita media relativamente lunga (ordine dei picosecondi) rispetto ad altri adroni. Dal campione così ripulito, è stato possibile distinguere tre sottostrutture nello spettro di massa invariante in esame: una a 5.36 GeV/c^2, identificata come i decadimenti B^0_s-> J/psi pi+ pi-, un'altra a 5.28 GeV/c^2 come i candidati B^0-> J/psi pi+ pi- e un'ultima allargata tra 5.1 e 5.2 GeV/c^2 data da effetti di riflessione degli scambi tra pioni e kaoni. Quest'ultima struttura è stata identificata come totalmente costituita di una combinazione di eventi B^0-> J/psi K+ pi- e B^0_s-> J/psi K+ K-.
Resumo:
Il lavoro è parte integrante di un progetto di ricerca del Ministero della Salute ed è stato sviluppato presso la Fisica Sanitaria ed il reparto di Radioterapia Oncologica dell’Azienda Ospedaliero Universitaria di Modena. L’obiettivo è la realizzazione di modelli predittivi e di reti neurali per tecniche di warping in ambito clinico. Modifiche volumetrico-spaziali di organi a rischio e target tumorali, durante trattamenti tomoterapici, possono alterare la distribuzione di dose rispetto ai constraints delineati in fase di pianificazione. Metodologie radioterapiche per la valutazione di organ motion e algoritmi di registrazione ibrida permettono di generare automaticamente ROI deformate e quantificare la divergenza dal piano di trattamento iniziale. Lo studio si focalizzata sulle tecniche di Adaptive Radiation Therapy (ART) mediante la meta-analisi di 51 pazienti sottoposti a trattamento mediante Tomotherapy. Studiando il comportamento statistico del campione, sono state generate analisi predittive per quantificare in tempo reale divergenze anatomico dosimetriche dei pazienti rispetto al piano originale e prevedere la loro ripianificazione terapeutica. I modelli sono stati implementati in MATLAB, mediante Cluster Analysis e Support Vector Machines; l’analisi del dataset ha evidenziato il valore aggiunto apportabile dagli algoritmi di deformazione e dalle tecniche di ART. La specificità e sensibilità della metodica è stata validata mediante l’utilizzo di analisi ROC. Gli sviluppi del presente lavoro hanno aperto una prospettiva di ricerca e utilizzo in trattamenti multicentrici e per la valutazione di efficacia ed efficienza delle nuove tecnologie in ambito RT.
Resumo:
La presente ricerca consiste nel validare ed automatizzare metodiche di Adaptive Radiation Therapy (ART), che hanno come obiettivo la personalizzazione continua del piano di trattamento radioterapico in base alle variazioni anatomiche e dosimetriche del paziente. Tali variazioni (casuali e/o sistematiche) sono identificabili mediante l’utilizzo dell’imaging diagnostico. Il lavoro svolto presso la struttura di Fisica Medica dell’Azienda Ospedaliera Universitaria del Policlinico di Modena, si inserisce in un progetto del Ministero della Salute del bando Giovani Ricercatori dal titolo: “Dose warping methods for IGRT and ADAPTIVERT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments”. Questa metodica si sta affermando sempre più come nuova opportunità di trattamento e, per tale motivo, nasce l’esigenza di studiare e automatizzare processi realizzabili nella pratica clinica, con un utilizzo limitato di risorse. Si sono sviluppati script che hanno permesso l’automazione delle operazioni di Adaptive e deformazioni, raccogliendo i dati di 51 pazienti sottoposti a terapia mediante Tomotherapy. L’analisi delle co-registrazioni deformabili delle strutture e delle dosi distribuite, ha evidenziato criticità del software che hanno reso necessario lo sviluppo di sistemi di controllo dei risultati, per facilitare l’utente nella revisione quotidiana dei casi clinici. La letteratura riporta un numero piuttosto limitato di esperienze sulla validazione e utilizzo su larga scala di questi tools, per tale motivo, si è condotto un esame approfondito della qualità degli algoritmi elastici e la valutazione clinica in collaborazione di fisici medici e medici radioterapisti. Sono inoltre stati sviluppati principi di strutturazione di reti Bayesiane, che consentono di predirre la qualità delle deformazioni in diversi ambiti clinici (H&N, Prostata, Polmoni) e coordinare il lavoro quotidiano dei professionisti, identificando i pazienti, per i quali sono apprezzabili variazioni morfo-dosimetriche significative. Da notare come tale attività venga sviluppata automaticamente durante le ore notturne, sfruttando l’automation come strumento avanzato e indipendente dall’operatore. Infine, il forte sviluppo, negli ultimi anni della biomeccanica applicata al movimento degli organi (dimostrato dalla numerosa letteratura al riguardo), ha avuto come effetto lo sviluppo, la valutazione e l’introduzione di algoritmi di deformazione efficaci. In questa direzione, nel presente lavoro, si sono analizzate quantitivamente le variazioni e gli spostamenti delle parotidi, rispetto all’inizio del trattamento, gettando le basi per una proficua linea di ricerca in ambito radioterapico.
Resumo:
L'indagine condotta, avvalendosi del paradigma della social network analysis, offre una descrizione delle reti di supporto personale e del capitale sociale di un campione di 80 italiani ex post un trattamento terapeutico residenziale di lungo termine per problemi di tossicodipendenza. Dopo aver identificato i profili delle reti di supporto sociale degli intervistati, si è proceduto, in primis, alla misurazione e comparazione delle ego-centered support networks tra soggetti drug free e ricaduti e, successivamente, all'investigazione delle caratteristiche delle reti e delle forme di capitale sociale – closure e brokerage – che contribuiscono al mantenimento dell'astinenza o al rischio di ricaduta nel post-trattamento. Fattori soggettivi, come la discriminazione pubblica percepita e l'attitudine al lavoro, sono stati inoltre esplorati al fine di investigare la loro correlazione con la condotta di reiterazione nell'uso di sostanze. Dai risultati dello studio emerge che un più basso rischio di ricaduta è positivamente associato ad una maggiore attitudine al lavoro, ad una minore percezione di discriminazione da parte della società, all'avere membri di supporto con un più alto status socio-economico e che mobilitano risorse reputazionali e, infine, all'avere reti più eterogenee nell'occupazione e caratterizzate da più elevati livelli di reciprocità. Inoltre, il capitale sociale di tipo brokerage contribuisce al mantenimento dell'astinenza in quanto garantisce l'accesso del soggetto ad informazioni meno omogenee e la sua esposizione a opportunità più numerose e differenziate. I risultati dello studio, pertanto, dimostrano l'importante ruolo delle personal support networks nel prevenire o ridurre il rischio di ricaduta nel post-trattamento, in linea con precedenti ricerche che suggeriscono la loro incorporazione nei programmi terapeutici per tossicodipendenti.
Resumo:
Con l'avanzare della tecnologia, i Big Data hanno assunto un ruolo importante. In questo lavoro è stato implementato, in linguaggio Java, un software volto alla analisi dei Big Data mediante R e Hadoop/MapReduce. Il software è stato utilizzato per analizzare le tracce rilasciate da Google, riguardanti il funzionamento dei suoi data center.
Resumo:
Nell'elaborato sono analizzati diversi tipi di algoritmi di routing per reti VANET. Nel secondo capitolo verrà fornita una panoramica delle reti MANET e VANET. Nel terzo capitolo sono viste le caratteristiche delle reti VANET. Nel quarto verranno esposte le peculiarità di classificazione dei protocolli di routing routing e nel quinto capitolo saranno analizzati diversi protocolli di routing proposti fino ad ora nella letteratura.