928 resultados para QUIC UDP TCP HTTP reti protocolli google


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo documento ho analizzato lo scenario della passata e dell’odierna Internet, dal classico protocollo HTTP, al protocollo sperimentale QUIC, argomento di questa tesi. In primis ho analizzato gli attuali protocolli utilizzati nella rete e ricercato i motivi che hanno portato a crearne di nuovi, successivamente ho effettuato un analisi teorica del protocollo affidandomi ai documenti forniti dall'IETF, poi in un capitolo a sé ho descritto l'handshake crittografato tipico di questo protocollo ed infine nell'ultimo capitolo ho mostrato graficamente e praticamente come lavora il protocollo in una reale implementazione. Dopo aver completato questa tesi, mi sono potuto rendere conto di quanto sia necessario un cambio di rotta verso protocolli di rete più veloci, sicuri ed affidabili. I classici protocolli oramai non sono più sufficienti a soddisfare le migliaia di richieste di connessione e presentano, come si vedrà, delle lacune a cui bisogna porre rimedio. Gran parte della popolazione mondiale ha accesso al web,ed è uno strumento ormai alla portata di tutti e non più privilegio di pochi e ci si augura per il bene della rete Internet che tale protocollo o protocolli simili possano prendere presto piede per una migliore esperienza di navigazione a livello globale. Probabilmente saranno necessari molti anni, ma l’idea che già si pensi ad un futuro non tanto prossimo fa ben sperare su quello che ci aspetta. Nella lettura di questa tesi si vedrà come queste ultime affermazioni possano diventare realtà.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

An intrinsic challenge associated with evaluating proposed techniques for detecting Distributed Denial-of-Service (DDoS) attacks and distinguishing them from Flash Events (FEs) is the extreme scarcity of publicly available real-word traffic traces. Those available are either heavily anonymised or too old to accurately reflect the current trends in DDoS attacks and FEs. This paper proposes a traffic generation and testbed framework for synthetically generating different types of realistic DDoS attacks, FEs and other benign traffic traces, and monitoring their effects on the target. Using only modest hardware resources, the proposed framework, consisting of a customised software traffic generator, ‘Botloader’, is capable of generating a configurable mix of two-way traffic, for emulating either large-scale DDoS attacks, FEs or benign traffic traces that are experimentally reproducible. Botloader uses IP-aliasing, a well-known technique available on most computing platforms, to create thousands of interactive UDP/TCP endpoints on a single computer, each bound to a unique IP-address, to emulate large numbers of simultaneous attackers or benign clients.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

针对目前基于Internet的遥操作机器人系统普遍完成任务简单,复杂度低,影响力有限的状况,本文将遥操作技术和Internet技术应用于具有高动态性、高协作性和高对抗性的机器人足球系统中,建立了基于Internet的遥操作机器人足球系统的体系结构,提供了该系统的软件设计方法,并针对网络通信设计了应用UDP协议进行连接和数据传输的方法.实际建立的基于Internet的3对3遥操作机器人足球系统验证了系统设计方法的可行性和有效性.通过实验验证了应用UDP协议进行连接和数据传输相对于应用TCP协议的优越性.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

UDP-galactose 4-epimerase (GALE; EC 5.1.3.2; UniProt: Q14376) catalyses the interconversion of UDP-galactose and UDP-glucose (figure 1a). In the majority of eukaryotes studied to date, the enzyme is also able to interconvert UDP-N-acetylgalactosamine (UDP-GalNAc) and UDP-N-acetylglucosamine (UDP-GlcNAc) (figure 1b). The first of these reactions occurs as part of the Leloir pathway, which converts galactose into the glycolytic intermediate glucose 6-phosphate. Both reactions are important in the maintenance of UDP-monosaccharide pools and, consequently, in supplying raw materials for the glycosylation of proteins and lipids. The enzyme has attracted considerable research interest because mutations in the corresponding gene are associated with the genetic disease type III galactosemia (OMIN #230350). There is also some interest in using the enzyme as a biocatalyst to interconvert its substrates and related UDP-monosaccharides.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

To interconnect a wireless sensor network (WSN) to the Internet, we propose to use TCP/IP as the standard protocol for all network entities. We present a cross layer designed communication architecture, which contains a MAC protocol, IP, a new protocol called Hop-to-Hop Reliability (H2HR) protocol, and the TCP Support for Sensor Nodes (TSS) protocol. The MAC protocol implements the MAC layer of beacon-less personal area networks (PANs) as defined in IEEE 802.15.4. H2HR implements hop-to-hop reliability mechanisms. Two acknowledgment mechanisms, explicit and implicit ACK are supported. TSS optimizes using TCP in WSNs by implementing local retransmission of TCP data packets, local TCP ACK regeneration, aggressive TCP ACK recovery, congestion and flow control algorithms. We show that H2HR increases the performance of UDP, TCP, and RMST in WSNs significantly. The throughput is increased and the packet loss ratio is decreased. As a result, WSNs can be operated and managed using TCP/IP.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il seguente lavoro di tesi si inserisce all'interno di un progetto accademico volto alla realizzazione di un sistema capace elaborare immagini utilizzando una rete FPGA, acquisite da un sensore. Ogni scrittura di un nuovo frame in memoria RAM genera un interrupt. L'obiettivo della tesi è creare un sistema client/server che permetta il trasferimento del flusso di frame dalla ZedBoard a un PC e la visualizzazione a video. Il progetto eseguito sulla ZedBoard è proposto in due versioni: la prima in assenza di sistema operativo (Standalone) e una seconda implementata su Linux. Il progetto eseguito sul PC è compatibile con Linux e Windows. La visualizzazione delle immagini è implementata utilizzando la libreria OpenCV.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resumen tomado del autor. El proyecto se encuentra en la web del centro: http://sites.google.com/site/cpsaindioteria/projectes-de-centre/treball-en-equip

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introducción: La Calidad de vida en el trabajo tiene componentes objetivos y subjetivos, es la manera como se vive la cotidianidad en el ambiente laboral. Involucra condiciones de trabajo, relaciones sociales, percepciones de satisfacción o insatisfacción derivadas de la conjunción de factores en el sentido de sentirse realizado con sus propias expectativas y proyectos (1). La calidad de vida laboral puede estar directamente relacionada con las condiciones de trabajo en las que se desempeñan los trabajadores. El personal de la salud representa entre el 6 al 7% de la población económicamente activa en la Región de las Américas (2), el abordaje de su problemática debe hacerse desde la protección social en salud,enfocando acciones conducentes al mejoramiento integral de las condiciones de vida de la sociedad en general, a través de la Gestión del Recurso Humano. Métodos: Estudio transversal en 102 trabajadores que cumplen con criterios de inclusión y exclusión, sobre percepción de calidad de vida laboral y condiciones de salud y trabajo, en dos instituciones prestadoras de Servicios de salud públicas de baja complejidad de los Municipios de Samacá y Ramiriquí en Boyacá en el 2014. Resultados: Del total de los trabajadores encuestados el 64,7 % son asistenciales, el 80,4 son mujeres, el 60 % tienen contrato indirecto. 71 % devenga un salario entre 1 y 2 SMMLV. El 74 % de los trabajadores administrativos laboran ocho (8) horas diarias mañana y tarde, 44 % de los asistenciales laboran ocho (8) horas diarias mañana y tarde y 41 % cumplen jornadas de doce (12) horas diarias inclusive en la noche, en relación a seguridad e higiene hay exposiciones al ruido y a secreciones y desechos de personas o animales. El principal factor de riesgo ergonómico son los movimientos repetidos en administrativos (74,3%) y Asistenciales (76,9 %). El 93,1 % de los trabajadores perciben su salud entre excelente y buena. En cuanto a la Calidad de Vida Laboral sólo el 15% de los trabajadores expresan insatisfacción por la forma de contratación, 56% están entre satisfechos y medianamente satisfechos con el salario recibido, la satisfacción con la oportunidad de aplicar la creatividad e iniciativa en el trabajo es del 90 %, el 33 % de los trabajadores están satisfechos con la capacitación brindada por la institución y sólo el 27 % expresan siempre el respeto a los derechos laborales; Un bajo porcentaje(28 %) de los trabajadores expresan que reciben siempre de parte de usuarios o clientes muestras de reconocimiento por las actividades que realizan; la tenencia de la vivienda se ha dado por el empleo, sin embargo el porcentaje de motivación laboral más alto se da en los asistenciales (81,8 %) que en los administrativos (75,8%). Se encontró escasa asociación estadística entre las variables de Calidad de Vida y las variables de Condiciones de Trabajo y salud Discusión: En esta población la percepción de los trabajadores no refleja una insatisfacción marcada, es entonces ¿el grado de satisfacción de las necesidades humanas un indicador de la mejor o peor calidad de vida laboral? o simplemente la calidad de vida laboral depende del cubrimiento de las expectativas individuales. Este estudio es coincidente con otros en que la proporción mayoritaria de quienes trabajan en salud son mujeres, se deben focalizar acciones desde la perspectiva de género en el sector salud que hagan parte de políticas públicas y de reformas a la salud apuntando a la reducción del impacto de la carga del trabajo en la salud.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The biological response following subcutaneous and bone implantation of beta-wollastonite(beta-W)-doped alpha-tricalcium phosphate bioceramics in rats was evaluated. Tested materials were: tricalciurn phosphate (TCP), consisting of a mixture of alpha- and beta-polymorphs; TCP doped with 5 wt. % of beta-W (TCP5W), composed of alpha-TCP as only crystalline phase; and TCP doped with 15 wt. % of beta-W (TCP15), containing crystalline alpha-TCP and beta-W. Cylinders of 2x1 mm were implanted in tibiae and backs of adult male Rattus norvegicus, Holtzman rats. After 7, 30 and 120 days, animals were sacrificed and the tissue blocks containing the implants were excised, fixed and processed for histological examination. TCP, TCP5W and TCP15W implants were biocompatible but neither bioactive nor biodegradable in rat subcutaneous tissue. They were not osteoinductive in connective tissue either. However, in rat bone tissue beta-W-doped alpha-TCP implants (TCP5W and TCP15W) were bioactive, biodegradable and osteoconductive. The rates of biodegradation and new bone formation observed for TCP5W and TCP15W implants in rat bone tissue were greater than for non-doped TCP.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En las décadas de 1950 y 1960, pese a las aparentes dificultades de comunicación con el exterior, la arquitectura española miró hacia fuera constantemente. La potencia de la arquitectura moderna latinoamericana, junto a las diferencias instrumentales y geográficas, la hacían difícilmente importable a un contexto materialmente escaso y excesivamente tradicional. Sin embargo, dicha producción interesó y se difundió notablemente durante ambas décadas. Este artículo pretende varias cosas a la vez. Por una parte, proporcionar una panorámica global sobre difusión de la arquitectura latinoamericana fuera de su continente. Para ello nos serviremos básicamente del que probablemente fue el medio más potente con el que contaron: las revistas especializadas de arquitectura. Pero también pretende ser una llamada de atención hacia las publicaciones periódicas españolas, mucho menos conocidas que otras europeas pero, sin embargo, repletas de buena arquitectura.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

The congestion control mechanisms of TCP make it vulnerable in an environment where flows with different congestion-sensitivity compete for scarce resources. With the increasing amount of unresponsive UDP traffic in today's Internet, new mechanisms are needed to enforce fairness in the core of the network. We propose a scalable Diffserv-like architecture, where flows with different characteristics are classified into separate service queues at the routers. Such class-based isolation provides protection so that flows with different characteristics do not negatively impact one another. In this study, we examine different aspects of UDP and TCP interaction and possible gains from segregating UDP and TCP into different classes. We also investigate the utility of further segregating TCP flows into two classes, which are class of short and class of long flows. Results are obtained analytically for both Tail-drop and Random Early Drop (RED) routers. Class-based isolation have the following salient features: (1) better fairness, (2) improved predictability for all kinds of flows, (3) lower transmission delay for delay-sensitive flows, and (4) better control over Quality of Service (QoS) of a particular traffic type.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questa tesi si propone di presentare e classificare per caratteristiche simili i protocolli di routing che ad oggi sono utilizzati nelle Cognitive Radio Ad Hoc Networks. Pertanto dapprima nel Capitolo 1 si introdurranno le radio cognitive con i concetti che sono alla base di questa tecnologia e le principali motivazioni che hanno portato alla loro nascita e poi al loro sviluppo. Nel Capitolo 2 si parlerà delle cognitive networks o meglio delle cognitive radio networks, e delle loro peculiarità. Nel terzo e nel quarto capitolo si affronteranno le CRAHNs e in particolare quali sono le sfide a cui devono far fronte i protocolli di routing che operano su di essa, partendo dall'esaminare quali sono le differenze che distinguono questa tipologia di rete da una classica rete wireless ad hoc con nodi in grado di muoversi nello spazio (una MANET). Infine nell'ultimo capitolo si cercherà di classificare i protocolli in base ad alcune loro caratteristiche, vedendo poi più nel dettaglio alcuni tra i protocolli più usati.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questa tesi si basa su una serie di lavori precedenti, volti ad analizzare la correlazione tra i modelli AUML e le reti di Petri, per riuscire a fornire una metodologia di traduzione dai primi alle seconde. Questa traduzione permetterà di applicare tecniche di model checking alle reti così create, al fine di stabilire le proprietà necessarie al sistema per poter essere realizzato effettivamente. Verrà poi discussa un'implementazione di tale algoritmo sviluppata in tuProlog ed un primo approccio al model checking utilizzando il programma Maude. Con piccole modifiche all'algoritmo utilizzato per la conversione dei diagrammi AUML in reti di Petri, è stato possibile, inoltre, realizzare un sistema di implementazione automatica dei protocolli precedentemente analizzati, verso due piattaforme per la realizzazione di sistemi multiagente: Jason e TuCSoN. Verranno quindi presentate tre implementazioni diverse: la prima per la piattaforma Jason, che utilizza degli agenti BDI per realizzare il protocollo di interazione; la seconda per la piattaforma TuCSoN, che utilizza il modello A&A per rendersi compatibile ad un ambiente distribuito, ma che ricalca la struttura dell'implementazione precedente; la terza ancora per TuCSoN, che sfrutta gli strumenti forniti dalle reazioni ReSpecT per generare degli artefatti in grado di fornire una infrastruttura in grado di garantire la realizzazione del protocollo di interazione agli agenti partecipanti. Infine, verranno discusse le caratteristiche di queste tre differenti implementazioni su un caso di studio reale, analizzandone i punti chiave.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Fra le varie ragioni della crescente pervasività di Internet in molteplici settori di mercato del tutto estranei all’ICT, va senza dubbio evidenziata la possibilità di creare canali di comunicazione attraverso i quali poter comandare un sistema e ricevere da esso informazioni di qualsiasi genere, qualunque distanza separi controllato e controllore. Nel caso specifico, il contesto applicativo è l’automotive: in collaborazione col Dipartimento di Ingegneria Elettrica dell’Università di Bologna, ci si è occupati del problema di rendere disponibile a distanza la grande quantità di dati che i vari sotto-sistemi componenti una automobile elettrica si scambiano fra loro, sia legati al tipo di propulsione, elettrico appunto, come i livelli di carica delle batterie o la temperatura dell’inverter, sia di natura meccanica, come i giri motore. L’obiettivo è quello di permettere all’utente (sia esso il progettista, il tecnico riparatore o semplicemente il proprietario) il monitoraggio e la supervisione dello stato del mezzo da remoto nelle sue varie fasi di vita: dai test eseguiti su prototipo in laboratorio, alla messa in strada, alla manutenzione ordinaria e straordinaria. L’approccio individuato è stato quello di collezionare e memorizzare in un archivio centralizzato, raggiungibile via Internet, tutti i dati necessari. Il sistema di elaborazione a bordo richiede di essere facilmente integrabile, quindi di piccole dimensioni, e a basso costo, dovendo prevedere la produzione di molti veicoli; ha inoltre compiti ben definiti e noti a priori. Data la situazione, si è quindi scelto di usare un sistema embedded, cioè un sistema elettronico di elaborazione progettato per svolgere un limitato numero di funzionalità specifiche sottoposte a vincoli temporali e/o economici. Apparati di questo tipo sono denominati “special purpose”, in opposizione ai sistemi di utilità generica detti “general purpose” quali, ad esempio, i personal computer, proprio per la loro capacità di eseguire ripetutamente un’azione a costo contenuto, tramite un giusto compromesso fra hardware dedicato e software, chiamato in questo caso “firmware”. I sistemi embedded hanno subito nel corso del tempo una profonda evoluzione tecnologica, che li ha portati da semplici microcontrollori in grado di svolgere limitate operazioni di calcolo a strutture complesse in grado di interfacciarsi a un gran numero di sensori e attuatori esterni oltre che a molte tecnologie di comunicazione. Nel caso in esame, si è scelto di affidarsi alla piattaforma open-source Arduino; essa è composta da un circuito stampato che integra un microcontrollore Atmel da programmare attraverso interfaccia seriale, chiamata Arduino board, ed offre nativamente numerose funzionalità, quali ingressi e uscite digitali e analogici, supporto per SPI, I2C ed altro; inoltre, per aumentare le possibilità d’utilizzo, può essere posta in comunicazione con schede elettroniche esterne, dette shield, progettate per le più disparate applicazioni, quali controllo di motori elettrici, gps, interfacciamento con bus di campo quale ad esempio CAN, tecnologie di rete come Ethernet, Bluetooth, ZigBee, etc. L’hardware è open-source, ovvero gli schemi elettrici sono liberamente disponibili e utilizzabili così come gran parte del software e della documentazione; questo ha permesso una grande diffusione di questo frame work, portando a numerosi vantaggi: abbassamento del costo, ambienti di sviluppo multi-piattaforma, notevole quantità di documentazione e, soprattutto, continua evoluzione ed aggiornamento hardware e software. È stato quindi possibile interfacciarsi alla centralina del veicolo prelevando i messaggi necessari dal bus CAN e collezionare tutti i valori che dovevano essere archiviati. Data la notevole mole di dati da elaborare, si è scelto di dividere il sistema in due parti separate: un primo nodo, denominato Master, è incaricato di prelevare dall’autovettura i parametri, di associarvi i dati GPS (velocità, tempo e posizione) prelevati al momento della lettura e di inviare il tutto a un secondo nodo, denominato Slave, che si occupa di creare un canale di comunicazione attraverso la rete Internet per raggiungere il database. La denominazione scelta di Master e Slave riflette la scelta fatta per il protocollo di comunicazione fra i due nodi Arduino, ovvero l’I2C, che consente la comunicazione seriale fra dispositivi attraverso la designazione di un “master” e di un arbitrario numero di “slave”. La suddivisione dei compiti fra due nodi permette di distribuire il carico di lavoro con evidenti vantaggi in termini di affidabilità e prestazioni. Del progetto si sono occupate due Tesi di Laurea Magistrale; la presente si occupa del dispositivo Slave e del database. Avendo l’obiettivo di accedere al database da ovunque, si è scelto di appoggiarsi alla rete Internet, alla quale si ha oggi facile accesso da gran parte del mondo. Questo ha fatto sì che la scelta della tecnologia da usare per il database ricadesse su un web server che da un lato raccoglie i dati provenienti dall’autovettura e dall’altro ne permette un’agevole consultazione. Anch’esso è stato implementato con software open-source: si tratta, infatti, di una web application in linguaggio php che riceve, sotto forma di richieste HTTP di tipo GET oppure POST, i dati dal dispositivo Slave e provvede a salvarli, opportunamente formattati, in un database MySQL. Questo impone però che, per dialogare con il web server, il nodo Slave debba implementare tutti i livelli dello stack protocollare di Internet. Due differenti shield realizzano quindi il livello di collegamento, disponibile sia via cavo sia wireless, rispettivamente attraverso l’implementazione in un caso del protocollo Ethernet, nell’altro della connessione GPRS. A questo si appoggiano i protocolli TCP/IP che provvedono a trasportare al database i dati ricevuti dal dispositivo Master sotto forma di messaggi HTTP. Sono descritti approfonditamente il sistema veicolare da controllare e il sistema controllore; i firmware utilizzati per realizzare le funzioni dello Slave con tecnologia Ethernet e con tecnologia GPRS; la web application e il database; infine, sono presentati i risultati delle simulazioni e dei test svolti sul campo nel laboratorio DIE.