450 resultados para Streaming


Relevância:

10.00% 10.00%

Publicador:

Resumo:

We discuss the development and performance of a low-power sensor node (hardware, software and algorithms) that autonomously controls the sampling interval of a suite of sensors based on local state estimates and future predictions of water flow. The problem is motivated by the need to accurately reconstruct abrupt state changes in urban watersheds and stormwater systems. Presently, the detection of these events is limited by the temporal resolution of sensor data. It is often infeasible, however, to increase measurement frequency due to energy and sampling constraints. This is particularly true for real-time water quality measurements, where sampling frequency is limited by reagent availability, sensor power consumption, and, in the case of automated samplers, the number of available sample containers. These constraints pose a significant barrier to the ubiquitous and cost effective instrumentation of large hydraulic and hydrologic systems. Each of our sensor nodes is equipped with a low-power microcontroller and a wireless module to take advantage of urban cellular coverage. The node persistently updates a local, embedded model of flow conditions while IP-connectivity permits each node to continually query public weather servers for hourly precipitation forecasts. The sampling frequency is then adjusted to increase the likelihood of capturing abrupt changes in a sensor signal, such as the rise in the hydrograph – an event that is often difficult to capture through traditional sampling techniques. Our architecture forms an embedded processing chain, leveraging local computational resources to assess uncertainty by analyzing data as it is collected. A network is presently being deployed in an urban watershed in Michigan and initial results indicate that the system accurately reconstructs signals of interest while significantly reducing energy consumption and the use of sampling resources. We also expand our analysis by discussing the role of this approach for the efficient real-time measurement of stormwater systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Enriquillo and Azuei are saltwater lakes located in a closed water basin in the southwestern region of the island of La Hispaniola, these have been experiencing dramatic changes in total lake-surface area coverage during the period 1980-2012. The size of Lake Enriquillo presented a surface area of approximately 276 km2 in 1984, gradually decreasing to 172 km2 in 1996. The surface area of the lake reached its lowest point in the satellite observation record in 2004, at 165 km2. Then the recent growth of the lake began reaching its 1984 size by 2006. Based on surface area measurement for June and July 2013, Lake Enriquillo has a surface area of ~358 km2. Sumatra sizes at both ends of the record are 116 km2 in 1984 and 134 km2in 2013, an overall 15.8% increase in 30 years. Determining the causes of lake surface area changes is of extreme importance due to its environmental, social, and economic impacts. The overall goal of this study is to quantify the changing water balance in these lakes and their catchment area using satellite and ground observations and a regional atmospheric-hydrologic modeling approach. Data analyses of environmental variables in the region reflect a hydrological unbalance of the lakes due to changing regional hydro-climatic conditions. Historical data show precipitation, land surface temperature and humidity, and sea surface temperature (SST), increasing over region during the past decades. Salinity levels have also been decreasing by more than 30% from previously reported baseline levels. Here we present a summary of the historical data obtained, new sensors deployed in the sourrounding sierras and the lakes, and the integrated modeling exercises. As well as the challenges of gathering, storing, sharing, and analyzing this large volumen of data in a remote location from such a diverse number of sources.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A colaboração visual, recurso que permite a troca de informações de forma remota, é construída em cima de uma combinação de diversas ferramentas, na qual estão incluídos: videoconferência, “streaming de vídeo”, compartilhamento e transferência de informações e imagens (colaboração em cima de dados) entre outros. Estas soluções, vêm utilizando cada vez mais, o protocolo IP e a Internet para o transporte dos sinais. Com este objetivo, o ITU-T lançou a recomendação H.323, que definiu um padrão confiável, que permite a troca de sinais multimídia em redes de pacotes sem qualidade de serviço. Entretanto, com o passar dos anos percebeu-se que aplicações que manipulam voz e vídeo, precisam que as redes de pacotes tenham capacidade de prover características semelhantes às oferecidas por redes de comutação por circuito, para o transporte dos sinais multimídia. Neste sentido, redes IP podem utilizar mecanismos de qualidade de serviço como o DiffServ, para prover tratamento adequado dos sinais de áudio e vídeo e assim, aumentar a qualidade percebida pelos usuários. As aplicações de colaboração visual são notáveis candidatas a utilização de mecanismos de QoS da rede. Neste caso é desejável que estas aplicações estejam aptas a especificar o nível de qualidade de serviço desejado e requisitem este nível de serviço para a rede. Neste contexto, o trabalho apresenta um modelo para o desenvolvimento de um terminal H.323 capaz de requisitar qualidade de serviço para a rede IP, visando aumentar a qualidade percebida pelo usuário em relação aos sinais de mídia. Neste terminal foi incluída uma entidade chamada de EPQoSE, responsável pela sinalização de QoS em benefício do terminal. Além disso, o modelo proposto neste texto apresenta um sistema de gerenciamento baseado em políticas, responsável por controlar as requisições de QoS dos terminais H.323, dentro de um domínio. Como o terminal precisa se comunicar com estas entidades, apresentamos no trabalho, a maneira como ele faz isso e definimos um conjunto de funções que devem ser implementadas pelo QoSM no terminal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho foi desenvolvido num estágio na empresa ABS GmbH sucursal em Portugal, e teve como foco a compressão de imagem e vídeo com os padrões JPEG e H.264, respetivamente. Foi utilizada a plataforma LeopardBoard DM368, com um controlador ARM9. A análise do desempenho de compressão de ambos os padrões foi realizada através de programas em linguagem C, para execução no processador DM368. O programa para compressão de imagem recebe como parâmetros de entrada o nome e a resolução da imagem a comprimir, e comprime-a com 10 níveis de quantização diferentes. Os resultados mostram que é possível obter uma velocidade de compressão até 73 fps (frames per second) para a resolução 1280x720, e que imagens de boa qualidade podem ser obtidas com rácios de compressão até cerca de 22:1. No programa para compressão de vídeo, o codificador está configurado de acordo com as recomendações para as seguintes aplicações: videoconferência, videovigilância, armazenamento e broadcasting/streaming. As configurações em cada processo de codificação, o nome do ficheiro, o número de frames e a resolução do mesmo representam os parâmetros de entrada. Para a resolução 1280x720, foram obtidas velocidades de compressão até cerca de 68 fps, enquanto para a resolução 1920x1088 esse valor foi cerca de 30 fps. Foi ainda desenvolvida uma aplicação com capacidades para capturar imagens ou vídeos, aplicar processamento de imagem, compressão, armazenamento e transmissão para uma saída DVI (Digital Visual Interface). O processamento de imagem em software permite melhorar dinamicamente as imagens, e a taxa média de captura, compressão e armazenamento é cerca de 5 fps para a resolução 1280x720, adequando-se à captura de imagens individuais. Sem processamento em software, a taxa sobe para cerca de 23 fps para a resolução 1280x720, sendo cerca de 28 fps para a resolução 1280x1088, o que é favorável à captura de vídeo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Internet applications such as media streaming, collaborative computing and massive multiplayer are on the rise,. This leads to the need for multicast communication, but unfortunately group communications support based on IP multicast has not been widely adopted due to a combination of technical and non-technical problems. Therefore, a number of different application-layer multicast schemes have been proposed in recent literature to overcome the drawbacks. In addition, these applications often behave as both providers and clients of services, being called peer-topeer applications, and where participants come and go very dynamically. Thus, servercentric architectures for membership management have well-known problems related to scalability and fault-tolerance, and even peer-to-peer traditional solutions need to have some mechanism that takes into account member's volatility. The idea of location awareness distributes the participants in the overlay network according to their proximity in the underlying network allowing a better performance. Given this context, this thesis proposes an application layer multicast protocol, called LAALM, which takes into account the actual network topology in the assembly process of the overlay network. The membership algorithm uses a new metric, IPXY, to provide location awareness through the processing of local information, and it was implemented using a distributed shared and bi-directional tree. The algorithm also has a sub-optimal heuristic to minimize the cost of membership process. The protocol has been evaluated in two ways. First, through an own simulator developed in this work, where we evaluated the quality of distribution tree by metrics such as outdegree and path length. Second, reallife scenarios were built in the ns-3 network simulator where we evaluated the network protocol performance by metrics such as stress, stretch, time to first packet and reconfiguration group time

Relevância:

10.00% 10.00%

Publicador:

Resumo:

There is a high prevalence of leprosy in the Amazon region of Brazil. We have developed a distance education course in leprosy for training staff of the Family Health Teams (FHTs). The course was made available through a web portal. Tele-educational resources were mediated by professors and coordinators, and included the use of theoretical content available through the web, discussion lists, Internet chat, activity diaries, 3-D video animations (Virtual Human on Leprosy), classes in video streaming and case simulation. Sixty-five FHT staff members were enrolled. All of them completed the course and 47 participants received a certificate at the end of the course. At the end of the course, 48 course-evaluation questionnaires were answered. A total of 47 participants (98%) considered the course as excellent. The results demonstrate the feasibility of an interactive, tele-education model as an educational resource for staff in isolated regions. Improvements in diagnostic skills should increase diagnostic suspicion of leprosy and may contribute to early detection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pós-graduação em Agronomia (Energia na Agricultura) - FCA

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho faz uma análise de desempenho de aplicações triple play através da tecnologia Power Line Communication, fazendo uma abordagem direcionada para qualidade de serviço e qualidade de experiência. Apresenta resultados obtidos em cenários residenciais onde o uso desta tecnologia como última milha mostra-se uma solução passível de implementação diante dos testes realizados com transmissões de chamadas VoIP, transmissões de vídeo em alta definição e dados. O conceito de rede doméstica, interligando todos os pontos de uma casa, vem representando um novo rumo na definição de um padrão global, no qual a transmissão de dados por meio da fiação elétrica será uma das tecnologias empregadas e de maior destaque. Também será mostrado o desempenho das métricas avaliadas como jitter, largura de banda, perda de pacotes, PSNR, MOS, VQM, SSIM e suas correlações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O padrão IEEE 802.16, também chamado de WiMAX, é uma tecnologia da rede banda larga sem fio para áreas metropolitanas, utilizado como alternativa para transmissão de sinal de Internet a regiões que não possuem infraestrutura de rede cabeada. Atualmente, o ensino desta tecnologia em sala de aula é meramente teórico, o que dificulta a compreensão dos alunos com relação a determinadas funcionalidades do WiMAX. Nesse sentido, a presente dissertação aborda o projeto de desenvolvimento de um simulador em Realidade Virtual, chamado SwImax, voltado para auxílio do ensino do padrão IEEE 802.16. Assim, o SwImax simula algumas características do funcionamento deste padrão, quais sejam: faixas de frequência de operação, área de cobertura, procedimento de handover, transmissão sem linha de visada, entre outros. A dissertação apresenta os trabalhos correlatos que influenciaram o desenvolvimento do projeto, além de um resumo acerca do padrão IEEE 802.16. O texto apresenta também as ferramentas utilizadas no desenvolvimento do SwImax e a implementação do simulador. Ao final do desenvolvimento, o software foi submetido a uma avaliação dos usuários, de modo que os resultados também são abordados nesta dissertação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As redes de Veículos Aéreos Não Tripulados (VANTs) têm potencializado o uso de aplicações multimídia devido ao seu elevado grau de mobilidade e versatilidade. Esse crescimento ocorre pela facilidade de acesso e utilização dos VANTs quadricópteros em diversas aplicações civis. As aplicações civis têm como característica principal o uso de dados multimídia, como vídeos, por oferecerem uma perspectiva visual mais detalhada do ambiente. A transmissão desse tipo de dado nas redes VANTs por meio de protocolos geográ cos melhora a taxa de entrega de dados. Entretanto, ela ainda não é su ciente para prover qualidade de experiência (QoE). Isso ocorre devido ao elevado grau de mobilidade dos quadricópteros que ocasiona quebras de enlace durante a transmissão multimídia. Por consequência, ela prejudica a conectividade e induz a altas perdas de pacotes e atrasos. Então, este trabalho propõe um mecanismo, chamado RCRV, com base em técnicas de predição de mobilidade em termos de posicionamento e da estimativa do tempo de enlace para realçar a tomada de decisão de roteamento em protocolos geográ cos. Além disso, ele utiliza critérios que consideram os comportamentos de mobilidade dos VANTs. Assim, o RCRV possibilita o prolongamento da conectividade nas redes VANTs. O RCRV é um mecanismo que complementa as estratégias de roteamento dos protocolos geográ cos. Desse modo, adicionou-se o RCRV ao protocolo GPSR a m de avaliar os ganhos e benefícios do mecanismo em um protocolo de roteamento geográ co. Simulações foram realizadas com diferentes velocidades e números de VANTs. Os resultados mostraram que o RCRV aumenta a conectividade da transmissão, melhorando a entrega do conteúdo multimídia e a qualidade do vídeo observado pelo usuário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As tecnologias wireless vêm evoluindo de forma rápida nas últimas décadas, pois são uma eficiente alternativa para transmissão de informações, sejam dados, voz, vídeos e demais serviços de rede. O conhecimento do processo de propagação dessas informações em diferentes ambientes é um fator de grande importância para o planejamento e o desenvolvimento de sistemas de comunicações sem fio. Devido ao rápido avanço e popularização dessas redes, os serviços oferecidos tornaram-se mais complexos e com isso, necessitam de requisitos de qualidades para que sejam ofertados ao usuário final de forma satisfatória. Devido a isso, torna-se necessário aos projetistas desses sistemas, uma metodologia que ofereça uma melhor avaliação do ambiente indoor. Essa avaliação é feita através da análise da área de cobertura e do comportamento das métricas de serviços multimídia em qualquer posição do ambiente que está recebendo o serviço. O trabalho desenvolvido nessa dissertação objetiva avaliar uma metodologia para a predição de métricas de qualidade de experiência. Para isso, foram realizadas campanhas de medições de transmissões de vídeo em uma rede sem fio e foram avaliados alguns parâmetros da rede (jitter de pacotes/frames, perda de pacotes/frames) e alguns parâmetros de qualidade de experiência (PSNR, SSIM e VQM). Os resultados apresentaram boa concordância com os modelos da literatura e com as medições.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Despite their importance in the evaluation of petroleum and gas reservoirs, measurements of self-potential data under borehole conditions (well-logging) have found only minor applications in aquifer and waste-site characterization. This can be attributed to lower signals from the diffusion fronts in near-surface environments because measurements are made long after the drilling of the well, when concentration fronts are already disappearing. Proportionally higher signals arise from streaming potentials that prevent using simple interpretation models that assume signals from diffusion only. Our laboratory experiments found that dual-source self-potential signals can be described by a simple linear model, and that contributions (from diffusion and streaming potentials) can be isolated by slightly perturbing the borehole conditions. Perturbations are applied either by changing the concentration of the borehole-filling solution or its column height. Parameters useful for formation evaluation can be estimated from data measured during perturbations, namely, pore water resistivity, pressure drop across the borehole wall, and electrokinetic coupling parameter. These are important parameters to assess, respectively, water quality, aquifer lateral continuity, and interfacial properties of permeable formations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The barred spiral galaxy M83 (NGC5236) has been observed in the 12CO J=1–0 and J=2–1 millimetre lines with the Swedish-ESO Submillimetre Telescope (SEST). The sizes of the CO maps are 100×100, and they cover the entire optical disk. The CO emission is strongly peaked toward the nucleus. The molecular spiral arms are clearly resolved and can be traced for about 360º. The total molecular gas mass is comparable to the total Hi mass, but H2 dominates in the optical disk. Iso-velocity maps show the signature of an inclined, rotating disk, but also the effects of streaming motions along the spiral arms. The dynamical mass is determined and compared to the gas mass. The pattern speed is determined from the residual velocity pattern, and the locations of various resonances are discussed. The molecular gas velocity dispersion is determined, and a trend of decreasing dispersion with increasing galactocentric radius is found. A total gas (H2+Hi+He) mass surface density map is presented, and compared to the critical density for star formation of an isothermal gaseous disk. The star formation rate (SFR) in the disk is estimated using data from various star formation tracers. The different SFR estimates agree well when corrections for extinctions, based on the total gas mass map, are made. The radial SFR distribution shows features that can be associated with kinematic resonances. We also find an increased star formation efficiency in the spiral arms. Different Schmidt laws are fitted to the data. The star formation properties of the nuclear region, based on high angular resolution HST data, are also discussed.