774 resultados para Read-to-peer


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Background: Cardiovascular diseases (CVD) are the leading cause of morbidity and mortality worldwide. CVD mainly comprise of coronary heart disease and stroke and were ranked first and fourth respectively amongst leading causes of death in the United States. Influenza (flu) causes annual outbreaks and pandemics and is increasingly recognized as an important trigger for acute coronary syndromes and stroke. Influenza vaccination is an inexpensive and effective strategy for prevention of influenza related complications in high risk individuals. Though it is recommended for all CVD patients, Influenza vaccine is still used at suboptimal levels in these patients owing to prevailing controversy related to its effectiveness in preventing CVD. This review was undertaken to critically assess the effectiveness of influenza vaccination as a primary or secondary prevention method for CVD. ^ Methods: A systematic review was conducted using electronic databases OVID MEDLINE, PUBMED (National Library of Medicine), EMBASE, GOOGLE SCHOLAR and TRIP (Turning Research into Practice). The study search was limited to peer-reviewed articles published in English language from January 1970 through May 2012. The case control studies, cohort studies and randomized controlled trials related to influenza vaccination and CVD, with data on at least one of the outcomes were identified. In the review, only population-based epidemiologic studies in all ethnic groups and of either sex and with age limitation of 30 yrs or above, with clinical CVD outcomes of interest were included. ^ Results: Of the 16 studies (8 case control studies, 6 cohort studies and 2 randomized controlled trials) that met the inclusion criteria, 14 studies reported that there was a significant benefit in u influenza vaccination as primary or secondary prevention method for preventing new cardiovascular events. In contrary to the above findings, two studies mentioned that there was no significant benefit of vaccination in CVD prevention. ^ Conclusion: The available body of evidence in the review elucidates that vaccination against influenza is associated with reduction in the risk of new CVD events, hospitalization for coronary heart disease and stroke and as well as the risk of death. The study findings disclose that the influenza vaccination is very effective in CVD prevention and should be encouraged for the high risk population. However, larger and more future studies like randomized control trials are needed to further evaluate and confirm these findings. ^

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The collective impact of humans on biodiversity rivals mass extinction events defining Earth's history, but does our large population also present opportunities to document and contend with this crisis? We provide the first quantitative review of biodiversity-related citizen science to determine whether data collected by these projects can be, and are currently being, effectively used in biodiversity research. We find strong evidence of the potential of citizen science: within projects we sampled (n = 388), ~1.3 million volunteers participate, contributing up to US Dollar 2.5 billion in-kind annually. These projects exceed most federally-funded studies in spatial and temporal extent, and collectively they sample a breadth of taxonomic diversity. However, only 12% of the 388 projects surveyed obviously provide data to peer-reviewed scientific articles, despite the fact that a third of these projects have verifiable, standardized data that are accessible online. Factors influencing publication included project spatial scale and longevity and having publically available data, as well as one measure of scientific rigor (taxonomic identification training). Because of the low rate at which citizen science data reach publication, the large and growing citizen science movement is likely only realizing a small portion of its potential impact on the scientific research community. Strengthening connections between professional and non-professional participants in the scientific process will enable this large data resource to be better harnessed to understand and address global change impacts on biodiversity.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

To build a house for a poet. To make a house for dreaming, living and dying. A house in which to read, to write and to think. = Levantar una casa para un poeta. Hacer una casa para soñar, vivir, morir. Para leer, escribir, pensar.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

CUIDANDO.COM es una plataforma online o marketplace destinado a mejorar la búsqueda y contratación de servicios de asistencia a la Tercera Edad. Este marketplace online permitirá a las familias encontrar la mejor asistencia y cuidado para sus mayores. A su vez ayudará a cuidadores a encontrar familias para la prestación de sus servicios. Es decir será una plataforma “peer- to-peer” que aprovechando el modelo de economía de comunidades colaborativas, conectará oferta y demanda a la hora de contratar, de forma ágil. Esta plataforma será de acceso consultivo gratuito tanto a clientes (ancianos/familiares) como a proveedores (cuidadores), pero únicamente se podrá ejecutar la contratación de dichos servicios, una vez se hayan registrado y ejecutado la compra a través de dicha plataforma. Únicamente se podrán dar los datos de contactos de oferta y demanda una vez se tramite la operación. CUIDANDO.COM recibirá sus ingresos en una fase inicial del negocio, cobrando a ambas partes una comisión por tramitar la contratación a través de la plataforma: - al cliente final por la posibilidad de buscar, filtrar, comparar y contratar - al cuidador por darle la oportunidad de publicar una oferta de empleo y conseguir trabajo remunerado

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este Trabajo de Fin de Grado se va a explicar el procedimiento seguido a la hora de estudiar, diseñar y desarrollar Ackuaria, un portal de monitorización y análisis de estadísticas de comunicaciones en tiempo real. Después, se mostrarán los resultados obtenidos y la interfaz gráfica desarrollada para una mejor experiencia de usuario. Ackuaria se apoyará en el uso de Licode, un proyecto de código libre desarrollado en la Universidad Politécnica de Madrid, más concretamente en el Grupo de Internet de Nueva Generación de la Escuela Técnica Superior de Ingenieros de Telecomunicación. Licode ofrece la posibilidad de crear un servicio de streaming y videoconferencia en la propia infraestructura del usuario. Está diseñado para ser totalmente escalable y su uso está orientado principalmente al Cloud, aunque es perfectamente utilizable en una infraestructura física. Licode a su vez se basa en WebRTC, un protocolo desarrollado por la W3C (World Wide Web Consortium) y el IETF (Internet Engineering Task Force) pensado para poder transmitir y recibir flujos de audio, video y datos a través del navegador. No necesita ninguna instalación adicional, por lo que establecer una sesión de videoconferencia Peer-to-Peer es realmente sencillo. Con Licode se usa una MCU (Multipoint Control Unit) para evitar que todas las conexiones entre los usuarios sean Peer-To-Peer. Actúa como un cliente WebRTC más por el que pasan todos los flujos, que se encarga de multiplexar y redirigir donde sea necesario. De esta forma se ahorra ancho de banda y recursos del dispositivo de una forma muy significativa. Existe la creciente necesidad de los usuarios de Licode y de cualquier servicio de videoconferencia en general de poder gestionar su infraestructura a partir de datos y estadísticas fiables. Sus objetivos son muy variados: desde estudiar el comportamiento de WebRTC en distintos escenarios hasta monitorizar el uso de los usuarios para poder contabilizar después el tiempo publicado por cada uno. En todos los casos era común la necesidad de disponer de una herramienta que permitiese conocer en todo momento qué está pasando en el servicio de Licode, así como de almacenar toda la información para poder ser analizada posteriormente. Para conseguir desarrollar Ackuaria se ha realizado un estudio de las comunicaciones en tiempo real con el objetivo de determinar qué parámetros era indispensable y útil monitorizar. A partir de este estudio se ha actualizado la arquitectura de Licode para que obtuviese todos los datos necesarios y los enviase de forma que pudiesen ser recogidos por Ackuaria. El portal de monitorización entonces tratará esa información y la mostrará de forma clara y ordenada, además de proporcionar una API REST al usuario.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Poder clasificar de manera precisa la aplicación o programa del que provienen los flujos que conforman el tráfico de uso de Internet dentro de una red permite tanto a empresas como a organismos una útil herramienta de gestión de los recursos de sus redes, así como la posibilidad de establecer políticas de prohibición o priorización de tráfico específico. La proliferación de nuevas aplicaciones y de nuevas técnicas han dificultado el uso de valores conocidos (well-known) en puertos de aplicaciones proporcionados por la IANA (Internet Assigned Numbers Authority) para la detección de dichas aplicaciones. Las redes P2P (Peer to Peer), el uso de puertos no conocidos o aleatorios, y el enmascaramiento de tráfico de muchas aplicaciones en tráfico HTTP y HTTPS con el fin de atravesar firewalls y NATs (Network Address Translation), entre otros, crea la necesidad de nuevos métodos de detección de tráfico. El objetivo de este estudio es desarrollar una serie de prácticas que permitan realizar dicha tarea a través de técnicas que están más allá de la observación de puertos y otros valores conocidos. Existen una serie de metodologías como Deep Packet Inspection (DPI) que se basa en la búsqueda de firmas, signatures, en base a patrones creados por el contenido de los paquetes, incluido el payload, que caracterizan cada aplicación. Otras basadas en el aprendizaje automático de parámetros de los flujos, Machine Learning, que permite determinar mediante análisis estadísticos a qué aplicación pueden pertenecer dichos flujos y, por último, técnicas de carácter más heurístico basadas en la intuición o el conocimiento propio sobre tráfico de red. En concreto, se propone el uso de alguna de las técnicas anteriormente comentadas en conjunto con técnicas de minería de datos como son el Análisis de Componentes Principales (PCA por sus siglas en inglés) y Clustering de estadísticos extraídos de los flujos procedentes de ficheros de tráfico de red. Esto implicará la configuración de diversos parámetros que precisarán de un proceso iterativo de prueba y error que permita dar con una clasificación del tráfico fiable. El resultado ideal sería aquel en el que se pudiera identificar cada aplicación presente en el tráfico en un clúster distinto, o en clusters que agrupen grupos de aplicaciones de similar naturaleza. Para ello, se crearán capturas de tráfico dentro de un entorno controlado e identificando cada tráfico con su aplicación correspondiente, a continuación se extraerán los flujos de dichas capturas. Tras esto, parámetros determinados de los paquetes pertenecientes a dichos flujos serán obtenidos, como por ejemplo la fecha y hora de llagada o la longitud en octetos del paquete IP. Estos parámetros serán cargados en una base de datos MySQL y serán usados para obtener estadísticos que ayuden, en un siguiente paso, a realizar una clasificación de los flujos mediante minería de datos. Concretamente, se usarán las técnicas de PCA y clustering haciendo uso del software RapidMiner. Por último, los resultados obtenidos serán plasmados en una matriz de confusión que nos permitirá que sean valorados correctamente. ABSTRACT. Being able to classify the applications that generate the traffic flows in an Internet network allows companies and organisms to implement efficient resource management policies such as prohibition of specific applications or prioritization of certain application traffic, looking for an optimization of the available bandwidth. The proliferation of new applications and new technics in the last years has made it more difficult to use well-known values assigned by the IANA (Internet Assigned Numbers Authority), like UDP and TCP ports, to identify the traffic. Also, P2P networks and data encapsulation over HTTP and HTTPS traffic has increased the necessity to improve these traffic analysis technics. The aim of this project is to develop a number of techniques that make us able to classify the traffic with more than the simple observation of the well-known ports. There are some proposals that have been created to cover this necessity; Deep Packet Inspection (DPI) tries to find signatures in the packets reading the information contained in them, the payload, looking for patterns that can be used to characterize the applications to which that traffic belongs; Machine Learning procedures work with statistical analysis of the flows, trying to generate an automatic process that learns from those statistical parameters and calculate the likelihood of a flow pertaining to a certain application; Heuristic Techniques, finally, are based in the intuition or the knowledge of the researcher himself about the traffic being analyzed that can help him to characterize the traffic. Specifically, the use of some of the techniques previously mentioned in combination with data mining technics such as Principal Component Analysis (PCA) and Clustering (grouping) of the flows extracted from network traffic captures are proposed. An iterative process based in success and failure will be needed to configure these data mining techniques looking for a reliable traffic classification. The perfect result would be the one in which the traffic flows of each application is grouped correctly in each cluster or in clusters that contain group of applications of similar nature. To do this, network traffic captures will be created in a controlled environment in which every capture is classified and known to pertain to a specific application. Then, for each capture, all the flows will be extracted. These flows will be used to extract from them information such as date and arrival time or the IP length of the packets inside them. This information will be then loaded to a MySQL database where all the packets defining a flow will be classified and also, each flow will be assigned to its specific application. All the information obtained from the packets will be used to generate statistical parameters in order to describe each flow in the best possible way. After that, data mining techniques previously mentioned (PCA and Clustering) will be used on these parameters making use of the software RapidMiner. Finally, the results obtained from the data mining will be compared with the real classification of the flows that can be obtained from the database. A Confusion Matrix will be used for the comparison, letting us measure the veracity of the developed classification process.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A leitura compartilhada de livros para crianças é uma atividade que tem sido estudada como forma de ensino incidental de vocabulário, que envolve, dentre outros processos, o responder por exclusão. O objetivo do presente trabalho foi investigar a ocorrência de aprendizagem de relações entre estímulos visuais (figuras) com seus respectivos estímulos auditivos (palavras) a partir de diferentes condições de leitura compartilhada de livros para crianças com Síndrome de Down (SD) e com desenvolvimento típico (DT). Para a pesquisa foram desenvolvidos dois estudos. No Estudo 1, participaram seis crianças com SD com seis a sete anos, e seis crianças com DT com três a quatro anos (amostras pareadas em função do nível de vocabulário). Foi utilizado um livro de história produzido pela pesquisadora, no qual havia dois substantivos e dois adjetivos desconhecidos (estímulos visuais S1, S2, A1, A2), apresentados uma única vez na história. Esse livro foi lido para cada criança duas vezes em sequência por sessão e em cada sessão foi realizada uma condição de leitura diferente. Foram apresentadas três condições de leitura e cada criança passou por todas, mas em diferentes ordens (contrabalanceamento). Na Condição 1, o livro foi lido para a criança sem intervenções. Na Condição 2, o livro foi lido para a criança e ela tinha que repetir o nome dos estímulos desconhecidos. Na Condição 3, o livro foi lido e foram realizadas perguntas relacionadas aos estímulos-alvo. Ao final de cada sessão foram realizadas sondas de aprendizagem (sondas de emparelhamento ao modelo e nomeação), e após uma semana da última sessão foi aplicada uma sonda de manutenção e uma de generalização. As crianças com DT apresentaram maior número de acertos que as com SD, e os acertos foram mais relacionados ao estímulo S1. As crianças não aprenderam a relação nome-cor. A análise dos resultados sugeriu que o número de estímulos-alvo era excessivo e com apresentações insuficientes no livro. No Estudo 2 participaram seis crianças com DT de 3 a 4 anos e seis crianças com SD, de 5 a 8 anos. O procedimento utilizado no Estudo 2 foi semelhante ao primeiro com as seguintes alterações no livro: utilização de apenas duas relações-alvo (um substantivo-alvo e um adjetivo-alvo - S2 e A3), cada uma sendo apresentada três vezes ao longo da história, em figuras que possibilitavam o responder por exclusão. Também foi acrescentada uma tentativa de exclusão nas sondas de aprendizagem. Nesse estudo, todas as crianças com DT conseguiram selecionar e nomear estímulo S2 e duas mostraram indícios de aprendizagem do estímulo A3. As crianças com SD apresentaram um menor número de acertos nas sondas de emparelhamento, mas apresentaram algumas nomeações corretas, o que não foi observado no Estudo 1. Os dados sugerem que as mudanças realizadas no livro melhoram o desempenho das crianças com DT, mas não o das crianças com SD. Não foram encontradas diferenças entre as condições de leituras nos dois estudos. No entanto, são necessários estudos adicionais para avaliar essas diferentes condições e as variáveis envolvidas na aprendizagem de palavras a partir da leitura compartilhada de livro.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Michel Bauwens es filósofo, consultor de Internet y teórico de las redes peer to peer (P2P). Fundador de la Foundation fo P2P Alternatives, director de la revista Wave y editor del conocido newsletter Pluralities-Integration, en esta conversación nos avanza algunas de las consecuencias profundas que están acarreando- y podrán acarrear en el futuro- las recientes innovaciones tecnológicas y sociales asociadas con el P2P.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El siguiente artículo hace una reflexión crítica sobre los MOOC, prestando especial atención al análisis de los nuevos sistemas de evaluación; en concreto, el método peer to peer, y cómo esto afecta al rol de docentes y estudiantes. El estudio se ha llevado a cabo tomando como referencia dos sMOOC liderados por el Proyecto Europeo ECO (Elearning, Communication and Open-data: Massive Mobile, Ubiquitous and Open Learning). Los resultados que se presentan han sido analizados desde una perspectiva cuantitativa, utilizando como muestra a los miembros de la comunidad de aprendizaje que han participado en ambos cursos. A través de la utilización de un cuestionario se ha podido conocer cómo han valorado su experiencia formativa y su grado de satisfacción. La mitad de los sujetos encuestados ha considerado adecuado y justo el nuevo sistema evaluativo, sin embargo existe otra mitad que lo considera injusto y que tiene lagunas. Se ha abordado la evaluación como una parte intrínseca del proceso educativo y por ello se ha enfatizado en aspectos como el empoderamiento del alumnado, la cultura de la participación y la interacción social, conceptos que nos acercan a nuevos modelos de aprendizaje que potencian el intelecto colectivo y dejan atrás sistemas transmisivos de conocimiento.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Title from f. 1r.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Questa tesi si pone l'obiettivo di implementare in ambiente Linux un'applicazione di sincronizzazione, chiamata DTNbox, che permetta lo scambio di file tra due nodi di una rete classificabile come Delay-/Disruption-Tolerant Network (DTN), ossia una rete in cui a causa di ritardi, interruzioni, partizionamento, non sia possibile utilizzare l'usuale architettura di rete TCP/IP. E' evidente che i problemi menzionati rendono estremamente più complessa la sincronizzazione fra cartelle rispetto ad Internet, da cui le peculiarità di DTNbox rispetto ad altre applicazioni in rete visto che, ad esempio, non è possibile la sincronizzazione tramite un nodo centrale, come in Dropbox e similari, ma occorre basarsi su comunicazioni peer-to-peer. L'oggetto della mia tesi si è quindi sviluppato principalmente su tre direzioni: • Implementare, utilizzando il linguaggio di programmazione C, le funzionalità previste dal nuovo progetto per Linux • Integrarne e modificarne le parti ritenute carenti, man mano che i test parziali ne hanno mostrato la necessità • Testarne il suo corretto funzionamento Si è deciso pertanto di dare precedenza alla scrittura delle parti fondamentali del programma quali i moduli di controllo, la struttura e gestione del database e lo scambio di messaggi tra due nodi appartenenti ad una rete DTN per poter arrivare ad una prima versione funzionante del programma stesso, in modo che eventuali future tesi possano concentrarsi sullo sviluppo di una interfaccia grafica e sull'aggiunta di nuovi comandi e funzionalità accessorie. Il programma realizzato è stato poi testato su macchine virtuali grazie all'uso dello strumento Virtualbricks.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

"Catalogue of the library": v. 1, p. [497]-512; "Additions to the library": v. 3, p. [513]-522; "Constitution and by-laws": v. 6, 13 p.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

"Paper read to the Civic society of Glasgow on 20th January, 1898."

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Numbering for v.56 is supplied. Title page reads: Supplemental volume, containing I. Chapter of incorporation, II. Address of Council, III. Papers read to the society during the sessions 1846-7, 1847-8. London, 1852.