954 resultados para reti ibride,Router Cisco,Switch HP,Raspberry Pi,interfacciamento,routing,switching,protocollo OSPF


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Negli ultimi anni i progressi tecnologici in termini di miniaturizzazione elettronica, hanno permesso la realizzazione di componenti hardware ed in particolare di microprocessori e sensori dalle dimensioni ridottissime. Questo ha favorito la recente diffusione di reti di sensori wireless (Wireless Sensor Network) basate su sistemi embedded più o meno complessi ed applicate a settori di mercato che vanno dalla domotica alle applicazioni industriali, fino al monitoraggio dei pazienti. Lo scopo di questa tesi, svolta in collaborazione con la società Rinnova di Forlì, consiste nell’implementazione di un dimostratore che mostri la reale capacità di realizzare una rete WS che si appoggia su di un sistema embedded commerciale ed ampiamente diffuso come la piattaforma Arduino ed in grado di rilevare il livello di ammoniaca presente negli allevamenti di pollame. Tale gas infatti, se presente in quantità notevole, provoca una dannosa alterazione comportamentale dei polli e risulta quindi un parametro molto importante da monitorare. Oltre al sensore di ammoniaca, misurazione principale richiesta dal progetto, ne sono stati aggiunti uno per la temperatura ed uno per l’umidità. L’architettura finale implementata è quella tipica di una rete a stella, in cui il master centrale colleziona a polling i dati provenienti dai sensori collegati agli slave e li invia ad un server web, rendendoli accessibili mediante la rete Internet. L’utente finale può così accedere alla pagina web da un qualunque PC dotato di connessione Internet, monitorare i dati dei sensori e soprattutto verificare quando il livello di ammoniaca supera la soglia di attenzione, potendo così intervenire immediatamente nell’allevamento per effettuare le dovute operazioni di pulizia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il progetto descritto in questo documento consiste fondamentalmente nell'integrazione di applicazioni context-aware su dispositivi mobili con reti di sensori e nello studio delle problematiche derivanti, vantaggi e potenziali utilizzi. La rete è stata costruita sfruttando l'insieme di protocolli per comunicazioni via radio Zigbee, particolarmente adatti per interazione tra dispositivi a basso consumo energetico e che necessitano di uno scarso tasso di trasferimento di dati. Le informazioni ottenute da sensori di varia natura sono processate da microcontrollori Arduino, scelti per la loro versatilità di utilizzo e design open source. Uno o più dispositivi sono designati per aggregare i dati rilevati dai singoli nodi in un unico pacchetto di informazioni, semanticamente correlate tra loro, quindi emetterle in broadcast su una diversa interfaccia di rete, in modo che diverse applicazioni esterne in ascolto possano riceverle e manipolarle. Viene utilizzato un protocollo specifico per la comunicazione tra i microcontrollori e le applicazioni che si interfacciano con la rete, costruito su misura per dispositivi con risorse limitate. L'applicazione context-aware che interagisce con la rete è stata sviluppata su piattaforma Android, la cui particolare flessibilità favorisce una migliore capacità di gestire i dati ottenuti. Questa applicazione è in grado di comunicare con la rete, manipolare i dati ricevuti ed eventualmente intraprendere azioni specifiche in totale indipendenza dal suo utilizzatore. Obiettivo del progetto è quello di costruire un meccanismo di interazione tra le tecnologie più adattivo e funzionale possibile.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The study of the objects LaTène type found in middle-eastern alpine region (Trentino Alto Adige-Südtirol, Engadina, North Tirol, Voralberg and Villach basin) is aimed to a better comprehension of the complex net of relationships established among the Celts, settled both in the central Europe territories and, since the IV century b.C., in the Po Plain, and the local populations. The ancient authors, who called the inhabitants of this area Raeti, propose for this territory the usual pattern according to which, the population of a region was formed consequently to a migration or was caused by the hunting of pre-existing peoples. The archaeologists, in the last thirty years, recognized a cultural facies typical of the middle-eastern alpine territory during the second Iron Age, and defined that as Fritzens-Sanzeno culture (from the sites of Fritzens, Inn valley, and Sanzeno, Non Valley). The so-called Fritzens-Sanzeno culture spread out without breaks from the material culture of the final Bronze Age and the first Iron Age. This local substratum, characterized by a ceramic repertoire strongly standardized, by peculiar architectural solutions and by a particular typology of rural sacred places (Brandopferplätze), accepted, above all during the second Iron Age, the strong influences coming from the Etruscan world and from the Celtic one (evident in the presence of objects of ornament, of glass artefacts, of elements of the weaponry and of coins). The objects LaTène type become, with different degrees of reliability, important markers of the relationships existing between the Celts and the Raeti, although the ways of interaction (cultural influence, people's movements, commercial exchanges, gifts among élites etc.) is not still clear. The revision of published data and the study of unpublished materials allows to define a rich and articulated picture both to chronological level and to territorial one.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The quark condensate is a fundamental free parameter of Chiral Perturbation Theory ($chi PT$), since it determines the relative size of the mass and momentum terms in the power expansion. In order to confirm or contradict the assumption of a large quark condensate, on which $chi PT$ is based, experimental tests are needed. In particular, the $S$-wave $pipi$ scattering lengths $a_0^0$ and $a_0^2$ can be predicted precisely within $chi PT$ as a function of this parameter and can be measured very cleanly in the decay $K^{pm} to pi^{+} pi^{-} e^{pm} stackrel{mbox{tiny(---)}}{nu_e}$ ($K_{e4}$). About one third of the data collected in 2003 and 2004 by the NA48/2 experiment were analysed and 342,859 $K_{e4}$ candidates were selected. The background contamination in the sample could be reduced down to 0.3% and it could be estimated directly from the data, by selecting events with the same signature as $K_{e4}$, but requiring for the electron the opposite charge with respect to the kaon, the so-called ``wrong sign'' events. This is a clean background sample, since the kaon decay with $Delta S=-Delta Q$, that would be the only source of signal, can only take place through two weak decays and is therefore strongly suppressed. The Cabibbo-Maksymowicz variables, used to describe the kinematics of the decay, were computed under the assumption of a fixed kaon momentum of 60 GeV/$c$ along the $z$ axis, so that the neutrino momentum could be obtained without ambiguity. The measurement of the form factors and of the $pipi$ scattering length $a_0^0$ was performed in a single step by comparing the five-dimensional distributions of data and MC in the kinematic variables. The MC distributions were corrected in order to properly take into account the trigger and selection efficiencies of the data and the background contamination. The following parameter values were obtained from a binned maximum likelihood fit, where $a_0^2$ was expressed as a function of $a_0^0$ according to the prediction of chiral perturbation theory: f'_s/f_s = 0.133+- 0.013(stat)+- 0.026(syst) f''_s/f_s = -0.041+- 0.013(stat)+- 0.020(syst) f_e/f_s = 0.221+- 0.051(stat)+- 0.105(syst) f'_e/f_s = -0.459+- 0.170(stat)+- 0.316(syst) tilde{f_p}/f_s = -0.112+- 0.013(stat)+- 0.023(syst) g_p/f_s = 0.892+- 0.012(stat)+- 0.025(syst) g'_p/f_s = 0.114+- 0.015(stat)+- 0.022(syst) h_p/f_s = -0.380+- 0.028(stat)+- 0.050(syst) a_0^0 = 0.246+- 0.009(stat)+- 0.012(syst)}+- 0.002(theor), where the statistical uncertainty only includes the effect of the data statistics and the theoretical uncertainty is due to the width of the allowed band for $a_0^2$.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Das Standardmodell (SM) der Teilchenphysik beschreibt sehr präzise die fundamentalen Bausteine und deren Wechselwirkungen (WW). Trotz des Erfolges gibt es noch offene Fragen, die vom SM nicht beantwortet werden können. Ein noch noch nicht abgeschlossener Test besteht aus der Messung der Stärke der schwachen Kopplung zwischen Quarks. Neutrale B- bzw. $bar{B}$-Mesonen können sich innerhalb ihrer Lebensdauer über einen Prozeß der schwachen WW in ihr Antiteilchen transformieren. Durch die Messung der Bs-Oszillation kann die Kopplung Vtd zwischen den Quarksorten Top (t) und Down (d) bestimmt werden. Alle bis Ende 2005 durchgeführten Experimente lieferten lediglich eine untere Grenze für die Oszillationsfrequenz von ms>14,4ps-1. Die vorliegenden Arbeit beschreibt die Messung der Bs-Oszillationsfrequenz ms mit dem semileptonischen Kanal BsD(-)+. Die verwendeten Daten stammen aus Proton-Antiproton-Kollisionen, die im Zeitraum von April 2002 bis März 2006 mit dem DØ-Detektor am Tevatron-Beschleuniger des Fermi National Accelerator Laboratory bei einer Schwerpunktsenergie von $sqrt{s}$=1,96TeV aufgezeichnet wurden. Die verwendeten Datensätze entsprechen einer integrierten Luminosität von 1,3fb-1 (620 millionen Ereignisse). Für diese Oszillationsmessung wurde der Quarkinhalt des Bs-Mesons zur Zeit der Produktion sowie des Zerfalls bestimmt und die Zerfallszeit wurde gemessen. Nach der Rekonstruktion und Selektion der Signalereignisse legt die Ladung des Myons den Quarkinhalt des Bs-Mesons zur Zeit des Zerfalls fest. Zusätzlich wurde der Quarkinhalt des Bs-Mesons zur Zeit der Produktion markiert. b-Quarks werden in $pbar{p}$-Kollisionen paarweise produziert. Die Zerfallsprodukte des zweiten b-Hadrons legen den Quarkinhalt des Bs-Mesons zur Zeit der Produktion fest. Bei einer Sensitivität von msenss=14,5ps-1 wurde eine untere Grenze für die Oszillationsfrequenz ms>15,5ps-1 bestimmt. Die Maximum-Likelihood-Methode lieferte eine Oszillationsfrequenz ms>(20+2,5-3,0(stat+syst)0,8(syst,k))ps-1 bei einem Vertrauensniveau von 90%. Der nicht nachgewiesene Neutrinoimpuls führt zu dem systematischen Fehler (sys,k). Dieses Resultat ergibt zusammen mit der entsprechenden Oszillation des Bd-Mesons eine signifikante Messung der Kopplung Vtd, in Übereinstimmung mit weiteren Experimenten über die schwachen Quarkkopplungen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il termine cloud ha origine dal mondo delle telecomunicazioni quando i provider iniziarono ad utilizzare servizi basati su reti virtuali private (VPN) per la comunicazione dei dati. Il cloud computing ha a che fare con la computazione, il software, l’accesso ai dati e servizi di memorizzazione in modo tale che l’utente finale non abbia idea della posizione fisica dei dati e la configurazione del sistema in cui risiedono. Il cloud computing è un recente trend nel mondo IT che muove la computazione e i dati lontano dai desktop e dai pc portatili portandoli in larghi data centers. La definizione di cloud computing data dal NIST dice che il cloud computing è un modello che permette accesso di rete on-demand a un pool condiviso di risorse computazionali che può essere rapidamente utilizzato e rilasciato con sforzo di gestione ed interazione con il provider del servizio minimi. Con la proliferazione a larga scala di Internet nel mondo le applicazioni ora possono essere distribuite come servizi tramite Internet; come risultato, i costi complessivi di questi servizi vengono abbattuti. L’obbiettivo principale del cloud computing è utilizzare meglio risorse distribuite, combinarle assieme per raggiungere un throughput più elevato e risolvere problemi di computazione su larga scala. Le aziende che si appoggiano ai servizi cloud risparmiano su costi di infrastruttura e mantenimento di risorse computazionali poichè trasferiscono questo aspetto al provider; in questo modo le aziende si possono occupare esclusivamente del business di loro interesse. Mano a mano che il cloud computing diventa più popolare, vengono esposte preoccupazioni riguardo i problemi di sicurezza introdotti con l’utilizzo di questo nuovo modello. Le caratteristiche di questo nuovo modello di deployment differiscono ampiamente da quelle delle architetture tradizionali, e i meccanismi di sicurezza tradizionali risultano inefficienti o inutili. Il cloud computing offre molti benefici ma è anche più vulnerabile a minacce. Ci sono molte sfide e rischi nel cloud computing che aumentano la minaccia della compromissione dei dati. Queste preoccupazioni rendono le aziende restie dall’adoperare soluzioni di cloud computing, rallentandone la diffusione. Negli anni recenti molti sforzi sono andati nella ricerca sulla sicurezza degli ambienti cloud, sulla classificazione delle minacce e sull’analisi di rischio; purtroppo i problemi del cloud sono di vario livello e non esiste una soluzione univoca. Dopo aver presentato una breve introduzione sul cloud computing in generale, l’obiettivo di questo elaborato è quello di fornire una panoramica sulle vulnerabilità principali del modello cloud in base alle sue caratteristiche, per poi effettuare una analisi di rischio dal punto di vista del cliente riguardo l’utilizzo del cloud. In questo modo valutando i rischi e le opportunità un cliente deve decidere se adottare una soluzione di tipo cloud. Alla fine verrà presentato un framework che mira a risolvere un particolare problema, quello del traffico malevolo sulla rete cloud. L’elaborato è strutturato nel modo seguente: nel primo capitolo verrà data una panoramica del cloud computing, evidenziandone caratteristiche, architettura, modelli di servizio, modelli di deployment ed eventuali problemi riguardo il cloud. Nel secondo capitolo verrà data una introduzione alla sicurezza in ambito informatico per poi passare nello specifico alla sicurezza nel modello di cloud computing. Verranno considerate le vulnerabilità derivanti dalle tecnologie e dalle caratteristiche che enucleano il cloud, per poi passare ad una analisi dei rischi. I rischi sono di diversa natura, da quelli prettamente tecnologici a quelli derivanti da questioni legali o amministrative, fino a quelli non specifici al cloud ma che lo riguardano comunque. Per ogni rischio verranno elencati i beni afflitti in caso di attacco e verrà espresso un livello di rischio che va dal basso fino al molto alto. Ogni rischio dovrà essere messo in conto con le opportunità che l’aspetto da cui quel rischio nasce offre. Nell’ultimo capitolo verrà illustrato un framework per la protezione della rete interna del cloud, installando un Intrusion Detection System con pattern recognition e anomaly detection.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Seit Frühjahr 2004 wird der Crystal Ball-Detektor am Photonenstrahl des Mainzer Mikrotrons für Koinzidenzexperimente zur Untersuchung der Struktur der Nukleonen genutzt. Aufbau und Inbetriebnahme des Kalorimeters, insbesondere der neuen Detektorelektronik, bilden einen Schwerpunkt dieser Arbeit. Komponenten wurden neu konstruiert oder auf ihre Verwendbarkeit geprüft und nögenfalls modifiziert. Nach erfolgreichem Abschluss der Aufbauphase wurden Experimente zur Produktion von $pi$- und $eta$-Mesonen am Proton mit mehr als 2500 Stunden Strahlbetrieb durchgeführt. Den zweiten Schwerpunkt der Dissertation bildet die erstmalige Messung der Helizitätsasymmetrie I$^odot$ in der Photoproduktion zweier neutraler Pionen. Zum Verstädnis des Anregungsspektrums der Nukleonen müssen Experimente mit polarisierten Photonen und/oder polarisierten Targets durchgeführt werden. Da Modelle trotz unterschiedlicher Annahmen unpolarisiert gemessene Größen vergleichbar gut reproduzieren, ist die Bestimmung der auf Modellunterschiede empfindlichen Polarisationsobservablen unumgäglich. Im Gegensatz zur Einpionproduktion tritt in der Zweipionproduktion eine Einfachpolarisationsobservable auf, die mit zirkular polarisierten Photonen am unpolarisierten Proton gemessen werden kann. Diese wurde in der Reaktion $gamma$ p $rightarrow$ p $pi^0$ $pi^0$ und in $gamma$ p $rightarrow$ p $pi^+$ $pi^-$ energie- und winkelabhägig bestimmt. Die Ergebnisse weichen stark von den Modellvorhersagen ab.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di ricerca intende analizzare l’importanza dei modelli organizzativi a reti per rispondere alla sfida della complessità del momento storico, politico, sociologico, economico; in modo particolare in Sanità per rispondere all’esigenza di mettere al centro la persona nel percorso di cura ed ottenere una migliore integrazione delle cure. Sebbene i vantaggi delle reti siano bene descritti in letteratura sono ancora pochi gli studi nell’ambito della valutazione. Il caso di studio ha riguardato la rete oncologica romagnola così come percepita dagli informatori chiave, dagli operatori (medici, infermieri, amministrativi) e dalle persone con esperienza di tumore. Dall’analisi degli informatori chiave emerge forte che la rete nasce per dare risposte di qualità ai bisogni dei pazienti, mentre per gli operatori quanto sia importante la dimensione delle relazioni umane e avere valori condivisi per raggiungere obiettivi di efficacia e qualità delle cure. Per quanto riguarda invece la percezione delle persone con esperienza di tumore si rileva quanto sia importante l’appropriatezza della traiettoria di cura nonché l’avere continuità in un percorso, già di per sé difficile, oltre all’importanza dell’umanizzazione dei servizi e della corretta comunicazione medico paziente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’idea fondamentale da cui prende avvio la presente tesi di dottorato è che sia possibile parlare di una svolta nel modo di concettualizzare e implementare le politiche sociali, il cui fuoco diviene sempre più la costruzione di reti di partnership fra attori pubblici e privati, in cui una serie di soggetti sociali plurimi (stakeholders) attivano fra loro una riflessività relazionale. L’ipotesi generale della ricerca è che, dopo le politiche improntate a modelli statalisti e mercatisti, o un loro mix, nella politica sociale italiana emerga l’esigenza di una svolta riflessiva e relazionale, verso un modello societario, sussidiario e plurale, e che di fatto – specie a livello locale – stiano sorgendo molte iniziative in tal senso. Una delle idee più promettenti sembra essere la creazione di distretti sociali per far collaborare tra loro attori pubblici, privati e di Terzo settore al fine di creare forme innovative di servizi per la famiglia e la persona. La presente tesi si focalizza sul tentativo della Provincia di Trento di distrettualizzare le politiche per la famiglia. Tramite l’analisi del progetto “Trentino – Territorio Amico della Famiglia” e di una sua verticalizzazione, il Distretto Famiglia, si è studiato l’apporto delle partnership pubblico-privato nella formazione di strumenti innovativi di governance che possano determinare una svolta morfogenetica nell’elaborazione di politiche per la famiglia. Le conclusioni del lavoro, attraverso una comparazione tra esperienze territoriali, presentano la differenziazione delle partnership sociali, in base ad alcuni variabili (pluralità di attori, pluralità di risorse, shared project, capitale sociale, decision making, mutual action, logiche di lavoro relazionale, sussidiarietà). Le diverse modalità di gestione delle partnership (capacitante, professionale e generativa) sintetizzano i portati culturali, strutturali e personali coinvolti nelle singole costruzioni. Solo le partnership che interpretano il loro potenziale regolativo e promozionale secondo la riflessività relazionale tendono a generare beni comuni nel contesto sociale.