822 resultados para Multicast Filtering


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Convectively coupled Kelvin waves over the South American continent are examined through the use of temporal and spatial filtering of reanalysis, satellite, and gridded rainfall data. They are most prominent from November to April, the season analyzed herein. The following two types of events are isolated: those that result from preexisting Kelvin waves over the eastern Pacific Ocean propagating into the continent, and those that apparently originate over Amazonia, forced by disturbances propagating equatorward from central and southern South America. The events with precursors in the Pacific are mainly upper-level disturbances, with almost no signal at the surface. Those events with precursors over South America, on the other hand, originate as upper-level synoptic wave trains that pass over the continent and resemble the ""cold surges`` documented by Garreaud and Wallace. As the wave train propagates over the Andes, it induces a southerly low-level wind that advects cold air to the north. Precipitation associated with a cold front reaches the equator a few days later and subsequently propagates eastward with the characteristics of a Kelvin wave. The structures of those waves originating over the Pacific are quite similar to those originating over South America as they propagate to eastern South America and into the Atlantic. South America Kelvin waves that originate over neither the Pacific nor the midlatitudes of South America can also be identified. In a composite sense, these form over the eastern slope of the Andes Mountains, close to the equator. There are also cases of cold surges that reach the equator yet do not form Kelvin waves. The interannual variability of the Pacific-originating events is related to sea surface temperatures in the central-eastern Pacific Ocean. When equatorial oceanic conditions are warm, there tends to be an increase in the number of disturbances that reach South America from the Pacific.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We recently predicted the existence of random primordial magnetic fields (RPMFs) in the form of randomly oriented cells with dipole-like structure with a cell size L(0) and an average magnetic field B(0). Here, we investigate models for primordial magnetic field with a similar web-like structure, and other geometries, differing perhaps in L(0) and B(0). The effect of RPMF on the formation of the first galaxies is investigated. The filtering mass, M(F), is the halo mass below which baryon accretion is severely depressed. We show that these RPMF could influence the formation of galaxies by altering the filtering mass and the baryon gas fraction of a halo, f(g). The effect is particularly strong in small galaxies. We find, for example, for a comoving B(0) = 0.1 mu G, and a reionization epoch that starts at z(s) = 11 and ends at z(e) = 8, for L(0) = 100 pc at z = 12, the f(g) becomes severely depressed for M < 10(7) M(circle dot), whereas for B(0) = 0 the f(g) becomes severely depressed only for much smaller masses, M < 10(5) M(circle dot). We suggest that the observation of M(F) and f(g) at high redshifts can give information on the intensity and structure of primordial magnetic fields.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A particle filter method is presented for the discrete-time filtering problem with nonlinear ItA ` stochastic ordinary differential equations (SODE) with additive noise supposed to be analytically integrable as a function of the underlying vector-Wiener process and time. The Diffusion Kernel Filter is arrived at by a parametrization of small noise-driven state fluctuations within branches of prediction and a local use of this parametrization in the Bootstrap Filter. The method applies for small noise and short prediction steps. With explicit numerical integrators, the operations count in the Diffusion Kernel Filter is shown to be smaller than in the Bootstrap Filter whenever the initial state for the prediction step has sufficiently few moments. The established parametrization is a dual-formula for the analysis of sensitivity to gaussian-initial perturbations and the analysis of sensitivity to noise-perturbations, in deterministic models, showing in particular how the stability of a deterministic dynamics is modeled by noise on short times and how the diffusion matrix of an SODE should be modeled (i.e. defined) for a gaussian-initial deterministic problem to be cast into an SODE problem. From it, a novel definition of prediction may be proposed that coincides with the deterministic path within the branch of prediction whose information entropy at the end of the prediction step is closest to the average information entropy over all branches. Tests are made with the Lorenz-63 equations, showing good results both for the filter and the definition of prediction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The use of the spin of the electron as the ultimate logic bit-in what has been dubbed spintronics-can lead to a novel way of thinking about information flow. At the same time single-layer graphene has been the subject of intense research due to its potential application in nanoscale electronics. While defects can significantly alter the electronic properties of nanoscopic systems, the lack of control can lead to seemingly deleterious effects arising from the random arrangement of such impurities. Here we demonstrate, using ab initio density functional theory and non-equilibrium Green`s functions calculations, that it is possible to obtain perfect spin selectivity in doped graphene nanoribbons to produce a perfect spin filter. We show that initially unpolarized electrons entering the system give rise to 100% polarization of the current due to random disorder. This effect is explained in terms of different localization lengths for each spin channel which leads to a new mechanism for the spin filtering effect that is disorder-driven.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

An all-in-one version of a capacitively coupled contactless conductivity detector is introduced. The absence of moving parts (potentiometers and connectors) makes it compact (6.5 cm(3)) and robust. A local oscillator, working at 1.1 MHz, was optimized to use capillaries of id from 20 to 100 lam. Low noise circuitry and a high-resolution analog-to-digital converter (ADC) (21 bits effective) grant good sensitivities for capillaries and background electrolytes currently used in capillary electrophoresis. The fixed frequency and amplitude of the signal generator is a drawback that is compensated by the steady calibration curves for conductivity. Another advantage is the possibility of determining the inner diameter of a capillary by reading the ADC when air and subsequently water flow through the capillary. The difference of ADC reading may be converted into the inner diameter by a calibration curve. This feature is granted by the 21-bit ADC, which eliminates the necessity of baseline compensation by hardware. In a typical application, the limits of detection based on the 3 sigma criterion (without baseline filtering) were 0.6, 0.4, 0.3, 0.5, 0.6, and 0.8 mu mol/L for K(+), Ba(2+), Ca(2+), Na(+), Mg(2+), and Li(+), respectively, which is comparable to other high-quality implementations of a capacitively coupled contactless conductivity detector.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

IPTV is now offered by several operators in Europe, US and Asia using broadcast video over private IP networks that are isolated from Internet. IPTV services rely ontransmission of live (real-time) video and/or stored video. Video on Demand (VoD)and Time-shifted TV are implemented by IP unicast and Broadcast TV (BTV) and Near video on demand are implemented by IP multicast. IPTV services require QoS guarantees and can tolerate no more than 10-6 packet loss probability, 200 ms delay, and 50 ms jitter. Low delay is essential for satisfactory trick mode performance(pause, resume,fast forward) for VoD, and fast channel change time for BTV. Internet Traffic Engineering (TE) is defined in RFC 3272 and involves both capacity management and traffic management. Capacity management includes capacityplanning, routing control, and resource management. Traffic management includes (1)nodal traffic control functions such as traffic conditioning, queue management, scheduling, and (2) other functions that regulate traffic flow through the network orthat arbitrate access to network resources. An IPTV network architecture includes multiple networks (core network, metronetwork, access network and home network) that connects devices (super head-end, video hub office, video serving office, home gateway, set-top box). Each IP router in the core and metro networks implements some queueing and packet scheduling mechanism at the output link controller. Popular schedulers in IP networks include Priority Queueing (PQ), Class-Based Weighted Fair Queueing (CBWFQ), and Low Latency Queueing (LLQ) which combines PQ and CBWFQ.The thesis analyzes several Packet Scheduling algorithms that can optimize the tradeoff between system capacity and end user performance for the traffic classes. Before in the simulator FIFO,PQ,GPS queueing methods were implemented inside. This thesis aims to implement the LLQ scheduler inside the simulator and to evaluate the performance of these packet schedulers. The simulator is provided by ErnstNordström and Simulator was built in Visual C++ 2008 environmentand tested and analyzed in MatLab 7.0 under windows VISTA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The objective of this thesis work, is to propose an algorithm to detect the faces in a digital image with complex background. A lot of work has already been done in the area of face detection, but drawback of some face detection algorithms is the lack of ability to detect faces with closed eyes and open mouth. Thus facial features form an important basis for detection. The current thesis work focuses on detection of faces based on facial objects. The procedure is composed of three different phases: segmentation phase, filtering phase and localization phase. In segmentation phase, the algorithm utilizes color segmentation to isolate human skin color based on its chrominance properties. In filtering phase, Minkowski addition based object removal (Morphological operations) has been used to remove the non-skin regions. In the last phase, Image Processing and Computer Vision methods have been used to find the existence of facial components in the skin regions.This method is effective on detecting a face region with closed eyes, open mouth and a half profile face. The experiment’s results demonstrated that the detection accuracy is around 85.4% and the detection speed is faster when compared to neural network method and other techniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Carol Clancy, Senior Council for the National Center for Children and Families, makes a scholarly plea for libraries to filter pornography.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

First Amendment issues heat up with the advent of the digital age and its ability to bring pornography to every library, free of charge.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Is it possible to say something positive about Internet filtering in libraries and not have everyone, including your mother, call you a wild-eyed, hidebound, neo-Nazi bashi-bazouk? No, of course not, but I'm going to try to anyway.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As técnicas de sensoriarnento remoto e geoprocessamento são fundamentais para processamento e integração de dados de mapeamento geológico/geotécnico, principalmente estudos de gerenciamento e planejamento. A área estudada compreende o município de Três Cachoeiras. Litoral Norte do Rio Grande do Sul o qual inclui-se na "Reserva da Biosfera da Mata Atlântica". O município tem st: deparado com problemas de localização de sitios adequados à disposição final dos resíduos sólidos. bem como o assentamento de loteamentos residenciais e industriais, localização de jazidas de extração de material para construção, fontes de abastecimento de água e necessidade de criação de áreas de preservação ambiental. O objetivo deste trabalho foi produzir mapeamentos da área em questão, através da pesquisa geológico-geotécnica desenvolvida com emprego de imagens de satélite e fotografias aéreas, em que as informações foram cruzadas no SIG. Baseado nisto, investigaram-se os aspectos acima mencionados. a partir de uma contribuição geológico/geotécnica ao município, incluindo-se levantamento de campo, fotointerpretação, processamento e classificação de imagens do município de Três Cachoeiras, sendo os dados integrados num sistema de geoprocessamento. Utilizando-se cartas planialtimétricas, fotografias aéreas e imagem de satélite LANDSAT TM5. foram criados planos de informação como o limite da área estudada, a estrutura viária municipal, a delimitação de reservas ecológicas baseadas na legislação ambiental vigente e, por meio do modelo numérico do terreno, a carta de declividade. A fotointerpretação gerou planos de rede de drenagem, litológica. morfoestruturas e formações superficiais. Os dados de campo. sobrepostos às litológicas obtidas por fotointerpretação, produziram a carta litológica. No tratamento das imagem, foram gerados produtos com contraste, operações entre bandas, filtragens e análise de componentes principais, os quais contribuíram parira classificação da imagem e resultando nos planos de rochas/solos e cobertura/uso do solo (carta de uso atual do solo). O cruzamento destas informações permitiu a obtenção da carta de formações superficiais, lidrogeológica que, juntamente com as cartas litológica, declividades e uso atual do solo distribuíram os atributos do meio físico em planos elaborados por novos cruzamentos, que satisfazem o objetivo do estudo, sendo estes planos o produto final, ou seja, cartas de recomendação: a extração de materiais para construção civil; a implantação de obras de infraestrutura; a disposição de resíduos sólidos e loteamentos; geotécnica à agricultura; à implantação de áreas destinadas à preservação ambienta1 e recuperação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tese apresenta o SAM (Sistema Adaptativo para Multimídia), que consiste numa ferramenta de transmissão e recepção de sinais multimídia através de redes de computadores. A ferramenta pode ser utilizada para transmissões multimídia gravadas (vídeo sob demanda) ou ao vivo, como aulas a distância síncronas, shows e canais de TV. Seu maior benefício é aumentar o desempenho e a acessibilidade da transmissão, utilizando para isso um sinal codificado em camadas, onde cada camada é transmitida como um grupo multicast separado. O receptor, utilizando a ferramenta, adapta-se de acordo com a sua capacidade de rede e máquina no momento. Assim, por exemplo, um receptor com acesso via modem e outro via rede local podem assistir à transmissão na melhor qualidade possível para os mesmos. O principal foco da Tese é no algoritmo de controle de congestionamento do SAM, que foi denominado ALM (Adaptive Layered Multicast). O algoritmo ALM tem como objetivo inferir o nível de congestionamento existente na rede, determinando a quantidade de camadas que o receptor pode suportar, de forma que a quantidade de banda recebida gere um tráfego na rede que seja eqüitativo com outros tráfegos ALM concorrentes, ou outros tráfegos TCP concorrentes. Como se trata de transmissões multimídia, é desejável que a recepção do sinal seja estável, ou seja, sem muitas variações de qualidade, entretanto, o tráfego TCP concorrente é muito agressivo, dificultando a criação de um algoritmo estável. Dessa forma, desenvolveu-se dois algoritmos que formam o núcleo desta Tese: o ALMP (voltado para redes privativas), e o ALMTF (destinado a concorrer com tráfego TCP). Os elementos internos da rede, tais como os roteadores, não necessitam quaisquer modificações, e o protocolo funciona sobre a Internet atual. Para validar o método, se utilizou o software NS2 (Network Simulator), com modificações no código onde requerido. Além disso, efetuou-se uma implementação inicial para comparar os resultados das simulações com os da implementação real. Em http://www.inf.unisinos.br/~roesler/tese e também no CD anexo a esta Tese, cuja descrição encontra-se no Anexo B, podem ser encontrados todos os programas de apoio desenvolvidos para esta Tese, bem como a maior parte da bibliografia utilizada, o resultado das simulações, o código dos algoritmos no simulador e o código do algoritmo na implementação real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tendo como motivação o desenvolvimento de uma representação gráfica de redes com grande número de vértices, útil para aplicações de filtro colaborativo, este trabalho propõe a utilização de superfícies de coesão sobre uma base temática multidimensionalmente escalonada. Para isso, utiliza uma combinação de escalonamento multidimensional clássico e análise de procrustes, em algoritmo iterativo que encaminha soluções parciais, depois combinadas numa solução global. Aplicado a um exemplo de transações de empréstimo de livros pela Biblioteca Karl A. Boedecker, o algoritmo proposto produz saídas interpretáveis e coerentes tematicamente, e apresenta um stress menor que a solução por escalonamento clássico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho analisou 2770 empresas nos BRICs entre 1995 e 2008 para identificar quais os setores mais atrativos para investimento conforme a relação risco-retorno, geração de valor e a tradição da Organização Industrial (IO). Os resultados reforçam os de Fama e French (1992), Mohanram (2005) e Goldszmidt, Brito e Vasconcelos (2007), porém divergem de World Bank (2008) quanto à China. Constatou-se que os setores mais atrativos na perspectiva de risco-retorno sobre o patrimônio líquido seriam óleo & gás na Rússia e mineração no Brasil, Índia e China, enquanto aqueles com menor atratividade seriam os setores têxtil, motores, máquinas & ferramentas e telecomunicações no Brasil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho relata as atividades de estudo, projeto e implementação de uma aplicação distribuída que explora mecanismos básicos empregados em comunicação de grupo. O estudo é focado no desenvolvimento e uso dos conceitos de sincronismo virtual e em resultados aplicáveis para tolerância a falhas. O objetivo deste trabalho é o de demonstrar as repercussões práticas das principais características do modelo de sincronismo virtual no suporte à tolerância a falhas. São preceitos básicos os conceitos e primitivas de sistemas distribuídos utilizando troca de mensagens, bem como as alternativas de programação embasadas no conceito de grupos. O resultado final corresponde a um sistema Cliente/Servidor, desenvolvido em Java RMI, para simular um sistema distribuído com visões de grupo atualizadas em função da ocorrência de eventos significativos na composição dos grupos (sincronismo virtual). O sistema apresenta tratamento a falhas para o colapso (crash) de processos, inclusive do servidor (coordenador do grupo), e permite a consulta a dados armazenados em diferentes servidores. Foi projetado e implementado em um ambiente Windows NT, com protocolo TCP/IP. O resultado final corresponde a um conjunto de classes que pode ser utilizado para o controle da composição de grupos (membership). O aplicativo desenvolvido neste trabalho disponibiliza seis serviços, que são: inclusão de novos membros no grupo, onde as visões de todos os membros são atualizadas já com a identificação do novo membro; envio de mensagens em multicast aos membros participantes do grupo; envio de mensagens em unicast para um membro específico do grupo; permite a saída voluntária de membros do grupo, fazendo a atualização da visão a todos os membros do grupo; monitoramento de defeitos; e visualização dos membros participantes do grupo. Um destaque deve ser dado ao tratamento da suspeita de defeito do coordenador do grupo: se o mesmo sofrer um colapso, o membro mais antigo ativo é designado como o novo coordenador, e todos os membros do grupo são atualizados sobre a situação atual quanto à coordenação do grupo.