912 resultados para Routing schemes
Resumo:
O principal objetivo deste trabalho foi identificar e caracterizar a evolução diária da Camada Limite Atmosférica (CLA) na Região da Grande Vitória (RGV), Estado do Espírito Santo, Brasil e na Região de Dunkerque (RD), Departamento Nord Pas-de-Calais, França, avaliando a acurácia de parametrizações usadas no modelo meteorológico Weather Research and Forecasting (WRF) em detectar a formação e atributos da Camada Limite Interna (CLI) que é formada pelas brisas marítimas. A RGV tem relevo complexo, em uma região costeira de topografia acidentada e uma cadeia de montanhas paralela à costa. A RD tem relevo simples, em uma região costeira com pequenas ondulações que não chegam a ultrapassar 150 metros, ao longo do domínio de estudos. Para avaliar os resultados dos prognósticos feitos pelo modelo, foram utilizados os resultados de duas campanhas: uma realizada na cidade de Dunkerque, no norte da França, em Julho de 2009, utilizando um sistema light detection and ranging (LIDAR), um sonic detection and ranging (SODAR) e dados de uma estação meteorológica de superfície (EMS); outra realizada na cidade de Vitória – Espírito Santo, no mês de julho de 2012, também usando um LIDAR, um SODAR e dados de uma EMS. Foram realizadas simulações usando três esquemas de parametrizações para a CLA, dois de fechamento não local, Yonsei University (YSU) e Asymmetric Convective Model 2 (ACM2) e um de fechamento local, Mellor Yamada Janjic (MYJ) e dois esquemas de camada superficial do solo (CLS), Rapid Update Cycle (RUC) e Noah. Tanto para a RGV quanto para a RD, foram feitas simulações com as seis possíveis combinações das três parametrizações de CLA e as duas de CLS, para os períodos em que foram feitas as campanhas, usando quatro domínios aninhados, sendo os três maiores quadrados com dimensões laterais de 1863 km, 891 km e 297 km, grades de 27 km, 9 km e 3 km, respectivamente, e o domínio de estudo, com dimensões de 81 km na direção Norte-Sul e 63 km na Leste-Oeste, grade de 1 km, com 55 níveis verticais, até um máximo de, aproximadamente, 13.400 m, mais concentrados próximos ao solo. Os resultados deste trabalho mostraram que: a) dependendo da configuração adotada, o esforço computacional pode aumentar demasiadamente, sem que ocorra um grande aumento na acurácia dos resultados; b) para a RD, a simulação usando o conjunto de parametrizações MYJ para a CLA com a parametrização Noah produziu a melhor estimativa captando os fenômenos da CLI. As simulações usando as parametrizações ACM2 e YSU inferiram a entrada da brisa com atraso de até três horas; c) para a RGV, a simulação que usou as parametrizações YSU para a CLA em conjunto com a parametrização Noah para CLS foi a que conseguiu fazer melhores inferências sobre a CLI. Esses resultados sugerem a necessidade de avaliações prévias do esforço computacional necessário para determinadas configurações, e sobre a acurácia de conjuntos de parametrizações específicos para cada região pesquisada. As diferenças estão associadas com a capacidade das diferentes parametrizações em captar as informações superficiais provenientes das informações globais, essenciais para determinar a intensidade de mistura turbulenta vertical e temperatura superficial do solo, sugerindo que uma melhor representação do uso de solo é fundamental para melhorar as estimativas sobre a CLI e demais parâmetros usados por modelos de dispersão de poluentes atmosféricos.
Resumo:
Esta tese se propôs investigar a lógica inferencial das ações e suas significações em situações que mobilizam as noções de composição probabilística e acaso, bem como o papel dos modelos de significação no funcionamento cognitivo de adultos. Participaram 12 estudantes adultos jovens da classe popular, voluntários, de ambos os sexos, de um curso técnico integrado ao Ensino Médio da Educação de Jovens e Adultos. Foram realizados três encontros, individualmente, com registro em áudio e planilha eletrônica, utilizando-se dois jogos, o Likid Gaz e o Lucky Cassino, do software Missão Cognição (Haddad-Zubel, Pinkas & Pécaut, 2006), e o jogo Soma dos Dados (Silva, Rossetti & Cristo, 2012). Os procedimentos da tarefa foram adaptados de Silva e Frezza (2011): 1) apresentação do jogo; 2) execução do jogo; 3) entrevista semiestruturada; 4) aplicação de três situações-problema com intervenção segundo o Método Clínico; 5) nova partida do jogo; e 6) realização de outras duas situações-problema sem intervenção do Método Clínico. Elaboraram-se níveis de análise heurística, compreensão dos jogos e modelos de significação a partir da identificação de particularidades de procedimentos e significações nos jogos. O primeiro estudo examinou as implicações dos modelos de significação e representações prévias no pensamento do adulto, considerando que o sujeito organiza suas representações ou esquemas prévios relativos a um objeto na forma de modelos de significação em função do grau de complexidade e novidade da tarefa e de sua estrutura lógico matemática, que evoluem por meio do processo de equilibração; para o que precisa da demanda a significar esse aspecto da 13 realidade. O segundo estudo investigou a noção de combinação deduzível evidenciada no jogo Likid Gaz, identificando o papel dos modelos de significação na escolha dos procedimentos, implicando na rejeição de condutas de sistematização ou enumeração. Houve predominância dos níveis iniciais de análise heurística do jogo. O terceiro estudo examinou a noção de probabilidade observada no jogo Lucky Cassino, no qual a maioria dos participantes teve um nível de compreensão do jogo intermediário, com maior diversidade de modelos de significação em relação aos outros jogos, embora com predominância dos mais elementares. A síntese das noções de combinação, probabilidade e acaso foi explorada no quarto estudo pelo jogo Soma dos Dados (Silva, Rossetti & Cristo, 2012), identificando-se que uma limitação para adequada compreensão das ligações imbricadas nessas noções é a implicação significante – se aleatório A, então indeterminado D (notação A D), com construção de pseudonecessidades e pseudo-obrigações ou mesmo necessidades locais, generalizadas inapropriadamente. A resistência ou obstáculos do objeto deveria provocar perturbações, mas a estrutura cognitiva, o ambiente social e os modelos culturais, e a afetividade podem interferir nesse processo.
Modelagem da distribuição geográfica atual e futura de Guerlinguetus (Rodentia, Sciuridae) no Brasil
Resumo:
O gênero Guerlinguetus, pertencente à família Sciuridae, possui sete espécies existentes no Brasil. Essas espécies têm sido tratadas como sinônimos de Sciurus aestuans, mas foram distinguidas em um gênero próprio com base nas revisões taxonômicas mais abrangentes disponíveis até recentemente. Apesar disso, pouco há na literatura sobre a distribuição das espécies desse gênero no Brasil e nenhuma pesquisa visando o conhecimento de sua distribuição futura havia sido realizada. A modelagem de distribuição potencial de espécies tem se tornado um componente importante dos planos de conservação e uma grande quantidade de técnicas têm sido desenvolvidas com esta finalidade. Ela pode ser uma ferramenta importante para determinar o grau de ameaça principalmente em espécies ou grupos com poucas informações disponíveis sobre sua distribuição. Com isso, o objetivo do presente trabalho foi verificar a influência das possíveis mudanças climáticas na distribuição das espécies de Guerlinguetus no Brasil, através da modelagem potencial das distribuições atual e futura dessas espécies. Para isso foram utilizados dados climáticos e topográficos e o cenário pessimista de emissão de CO2 (A2) para o ano 2070, do Modelo de Circulação Geral CSIRO, com base no quarto relatório do Painel Intergovernamental de Mudanças Climáticas. Os modelos gerados apresentaram perda significativa de áreas consideradas ambientalmente adequadas, do modelo de distribuição atual para o modelo de distribuição futura para as espécies de Guerlinguetus, com exceção de G. aestuans. Apesar da expansão da região potencial de distribuição de G. aestuans para o ano de 2070, a média dos valores de adequabilidade ambiental diminuiu em relação ao modelo de distribuição atual. A localização dessas espécies de hábito arborícola em áreas geograficamente espalhadas dentro da Amazônia, Cerrado e Mata Atlântica é preocupante, devido a grande perda de área original desses biomas, tornando possível a hipótese de ameaça à sobrevivência das espécies devido a mudanças ambientais futuras.
Resumo:
Este trabalho apresenta um serviço de reconfiguração dinâmica para Redes de Sensores sem Fio. O trabalho inclui o projeto e a definição de uma arquitetura conceitual que suporta a coleta de uma variedade de informações contextuais e provê uma abstração alto nível para especificação de roteamento sensível ao contexto através de reconfiguração de métricas de roteamento e parâmetros de comunicação. O objetivo da infraestrutura proposta é possibilitar a criação de regras que adaptem o comportamento da rede em tempo de execução, em função dessas informações contextuais. Uma implementação da arquitetura para o protocolo RPL e o sistema operacional Contiki foi realizada, mostrando a viabilidade da abordagem proposta.
Resumo:
In this work, we consider the numerical solution of a large eigenvalue problem resulting from a finite rank discretization of an integral operator. We are interested in computing a few eigenpairs, with an iterative method, so a matrix representation that allows for fast matrix-vector products is required. Hierarchical matrices are appropriate for this setting, and also provide cheap LU decompositions required in the spectral transformation technique. We illustrate the use of freely available software tools to address the problem, in particular SLEPc for the eigensolvers and HLib for the construction of H-matrices. The numerical tests are performed using an astrophysics application. Results show the benefits of the data-sparse representation compared to standard storage schemes, in terms of computational cost as well as memory requirements.
Resumo:
RESUMO: Neste estudo investigou-se a influência dos meios audiovisuais na tomada de decisão pelos utentes em cirurgias oftalmológicas, especialmente nas cirurgias refractivas. A metodologia escolhida integrou métodos quantitativos e qualitativos, com o objectivo de abranger a máxima amplitude da descrição, explicação e compreensão do objecto a ser investigado. Procura-se evidenciar e analisar sentimentos, motivações e atitudes individuais, como escolhas e tomada de decisão, bem como, perceber a relação entre o processo de comunicação médico / paciente e a tomada de decisão. Foram usados: um questionário, material digital e vídeos com as principais cirurgias refractivas apresentadas aos utentes, com uma amostra de n= 150 participantes do Serviço de Oftalmologia da HOSPOR e SAMS Centro de 01 de Julho 2008 a 28 de Fevereiro de 2009, com a faixa etária de 20 a 80 anos, com diagnóstico escolhido. Os dados recolhidos foram analisados pelo SPSS 18. A fundamentação teórica está baseada no estudo da captação e disfunções no trajecto da imagem, observando-se os componentes da aquisição do conhecimento: sensação, percepção, pensamento, consciência, memória, imaginação, linguagem, informação, bem como bioética, comunicação médica e a tomada de decisão, na qual se valoriza a educação do Utente para decidir. O resultado desta investigação aponta para novos paradigmas nos processos de informação / decisão consciente, indicando a necessidade de se investir na educação e na informação médica humanizada aos utentes para haver maior conhecimento, participação, satisfação e eficácia na terapêutica a ser escolhida. ABSTRACT: This paper analyzes how information and communication technologies, in particular the media of some ophthalmologic surgery, can help better decisions meaning new ways of information and new relationship between doctor and patient. This study investigates how doctors take hold of technological resources and discuss the client`s decision. We used the quantitative and qualitative structured interview of client who are visually impaired, especially myopia / hyperopia / astigmatism, presbyopia and cataract. We used a questionnaire, material and digital videos with the leading refractive surgery presented to the clients, with a sample of n = 150 participants of the Department of Ophthalmology, and SAMS HOSPOR Center from 01 July 2008 to 28 February 2009, with range 20 to 80 years, diagnosed chosen. The data collected were analyzed by SPSS. The theoretical study is based on the capture and routing of image and perception, observing neuro-psycho-social components: sensation, perception, visual perception, consciousness, knowledge, memory, imagination, language, information, bioethics and decision-making, in which values education of user to decide. The result of this research points to new paradigms in information processing / conscious decision, indicating the necessity of investing in education and humane medical information to the Users in order to archive a greater awareness,participation, satisfaction and effectiveness in the treatment to choose.
Resumo:
In MIMO systems the antenna array configuration in the BS and MS has a large influence on the available channel capacity. In this paper, we first introduce a new Frequency Selective (FS) MIMO framework for macro-cells in a realistic urban environment. The MIMO channel is built over a previously developed directional channel model, which considers the terrain and clutter information in the cluster, line-of-sight and link loss calculations. Next, MIMO configuration characteristics are investigated in order to maximize capacity, mainly the number of antennas, inter-antenna spacing and SNR impact. Channel and capacity simulation results are presented for the city of Lisbon, Portugal, using different antenna configurations. Two power allocations schemes are considered, uniform distribution and FS spatial water-filling. The results suggest optimized MIMO configurations, considering the antenna array size limitations, specially at the MS side.
Resumo:
O trabalho apresentado nesta dissertação refere-se à concepção, projecto e realização experimental de um conversor estático de potência tolerante a falhas. Foram analisados trabalhos de investigação sobre modos de falha de conversores electrónicos de potência, topologias de conversores tolerantes a falhas, métodos de detecção de falhas, entre outros. Com vista à concepção de uma solução, foram nomeados e analisados os principais modos de falhas para três soluções propostas de conversores com topologias tolerantes a falhas onde existem elementos redundantes em modo de espera. Foram analisados os vários aspectos de natureza técnica dos circuitos de potência e guiamento de sinais onde se salientam a necessidade de tempos mortos entre os sinais de disparo de IGBT do mesmo ramo, o isolamento galvânico entre os vários andares de disparo, a necessidade de minimizar as auto-induções entre o condensador DC e os braços do conversor de potência. Com vista a melhorar a fiabilidade e segurança de funcionamento do conversor estático de potência tolerante a falhas, foi concebido um circuito electrónico permitindo a aceleração da actuação normal de contactores e outro circuito responsável pelo encaminhamento e inibição dos sinais de disparo. Para a aplicação do conversor estático de potência tolerante a falhas desenvolvido num accionamento com um motor de corrente contínua, foi implementado um algoritmo de controlo numa placa de processamento digital de sinais (DSP), sendo a supervisão e actuação do sistema realizados em tempo-real, para a detecção de falhas e actuação de contactores e controlo de corrente e velocidade do motor utilizando uma estratégia de comando PWM. Foram realizados ensaios que, mediante uma detecção adequada de falhas, realiza a comutação entre blocos de conversores de potência. São apresentados e discutidos resultados experimentais, obtidos usando o protótipo laboratorial.
Resumo:
O trabalho apresentado por este documento aborda os problemas que advêm da necessidade de integração de aplicações, desenvolvidas em diferentes instantes no tempo, por diferentes equipas de trabalho, que para enriquecer os processos de negócio necessitam de comunicar entre si. A integração das aplicações tem de ser feita de forma opaca para estas, sendo disponibilizada por uma peça de software genérica, robusta e sem custos para as equipas desenvolvimento, na altura da integração. Esta integração tem de permitir que as aplicações comuniquem utilizando os protocolos que desejarem. Este trabalho propõe um middleware orientado a mensagens como solução para o problema identificado. A solução apresentada por este trabalho disponibiliza a comunicação entre aplicações que utilizam diferentes protocolos, permite ainda o desacoplamento temporal, espacial e de sincronismo na comunicação das aplicações. A implementação da solução tem base num sistema publish/subscribe orientado ao conteúdo e tem de lidar com as maiores exigências computacionais que este tipo de sistema acarta, sendo que a utilização deste se justifica com o enriquecimento da semântica de subscrição de eventos. Esta implementação utiliza uma arquitectura semi-distribuída, com o objectivo de aumentar a escalabilidade do sistema. A utilização da arquitectura semi-distribuída implica que a implementação da solução tem de lidar com o encaminhamento de eventos e divulgação das subscrições, pelos vários servidores de eventos. A implementação da solução disponibiliza garantias de persistência, processamento transaccional e tolerância a falhas, assim como transformação de eventos entre os diversos protocolos. A extensibilidade da solução é conseguida à custa de um sistema de pluggins que permite a adição de suporte a novos protocolos de comunicação. Os protocolos suportados pela implementação final do trabalho são RestMS e TCP.
Resumo:
Hoje em dia, há cada vez mais informação audiovisual e as transmissões ou ficheiros multimédia podem ser partilhadas com facilidade e eficiência. No entanto, a adulteração de conteúdos vídeo, como informação financeira, notícias ou sessões de videoconferência utilizadas num tribunal, pode ter graves consequências devido à importância desse tipo de informação. Surge então, a necessidade de assegurar a autenticidade e a integridade da informação audiovisual. Nesta dissertação é proposto um sistema de autenticação de vídeo H.264/Advanced Video Coding (AVC), denominado Autenticação de Fluxos utilizando Projecções Aleatórias (AFPA), cujos procedimentos de autenticação, são realizados ao nível de cada imagem do vídeo. Este esquema permite um tipo de autenticação mais flexível, pois permite definir um limite máximo de modificações entre duas imagens. Para efectuar autenticação é utilizada uma nova técnica de autenticação de imagens, que combina a utilização de projecções aleatórias com um mecanismo de correcção de erros nos dados. Assim é possível autenticar cada imagem do vídeo, com um conjunto reduzido de bits de paridade da respectiva projecção aleatória. Como a informação de vídeo é tipicamente, transportada por protocolos não fiáveis pode sofrer perdas de pacotes. De forma a reduzir o efeito das perdas de pacotes, na qualidade do vídeo e na taxa de autenticação, é utilizada Unequal Error Protection (UEP). Para validação e comparação dos resultados implementou-se um sistema clássico que autentica fluxos de vídeo de forma típica, ou seja, recorrendo a assinaturas digitais e códigos de hash. Ambos os esquemas foram avaliados, relativamente ao overhead introduzido e da taxa de autenticação. Os resultados mostram que o sistema AFPA, utilizando um vídeo com qualidade elevada, reduz o overhead de autenticação em quatro vezes relativamente ao esquema que utiliza assinaturas digitais e códigos de hash.
Resumo:
O RoF (Radio over Fiber) é uma tecnologia que permite a transmissão de sinais rádio de elevada largura de banda, fornecida pela fibra óptica, e simultaneamente mantêm a característica de mobilidade das redes de comunicação móvel. Esta dissertação de mestrado tem como objectivo estudar, simular e comparar sistemas RoF com modulação directa e com modulação externa, utilizando um sinal WiMAX, por ser uma tecnologia recente e com potencial de utilização futura. Desta forma foram avaliados três tipos de moduladores externos, sendo que o modulador EA (Electro-Absorption) é o que permite obter melhores valores de EVM e de SNR devido ao facto deste ter menores perdas de inserção na fibra. Da comparação entre o esquema com modulação directa e o esquema com modulação externa, é possível concluir que para larguras de banda mais baixas a utilização de modulação directa é mais eficiente que a modulação externa, mas à medida que a largura de banda aumenta a modulação externa apresenta claramente melhor desempenho. Isto deve-se ao facto de a modulação directa produzir mais chirp que a modulação externa, sendo que o chirp limita a largura de banda e o comprimento da fibra. De forma a melhorar o desempenho do sistema com modulação directa foi introduzido uma fibra com compensação de dispersão. Foi possível concluir que a utilização de fibra com compensação de dispersão é uma boa solução quando se pretende transmitir sinais de elevada largura de banda em esquemas com modulação directa.
Resumo:
Recently, several distributed video coding (DVC) solutions based on the distributed source coding (DSC) paradigm have appeared in the literature. Wyner-Ziv (WZ) video coding, a particular case of DVC where side information is made available at the decoder, enable to achieve a flexible distribution of the computational complexity between the encoder and decoder, promising to fulfill novel requirements from applications such as video surveillance, sensor networks and mobile camera phones. The quality of the side information at the decoder has a critical role in determining the WZ video coding rate-distortion (RD) performance, notably to raise it to a level as close as possible to the RD performance of standard predictive video coding schemes. Towards this target, efficient motion search algorithms for powerful frame interpolation are much needed at the decoder. In this paper, the RD performance of a Wyner-Ziv video codec is improved by using novel, advanced motion compensated frame interpolation techniques to generate the side information. The development of these type of side information estimators is a difficult problem in WZ video coding, especially because the decoder only has available some reference, decoded frames. Based on the regularization of the motion field, novel side information creation techniques are proposed in this paper along with a new frame interpolation framework able to generate higher quality side information at the decoder. To illustrate the RD performance improvements, this novel side information creation framework has been integrated in a transform domain turbo coding based Wyner-Ziv video codec. Experimental results show that the novel side information creation solution leads to better RD performance than available state-of-the-art side information estimators, with improvements up to 2 dB: moreover, it allows outperforming H.264/AVC Intra by up to 3 dB with a lower encoding complexity.
Resumo:
Tribimaximal leptonic mixing is a mass-independent mixing scheme consistent with the present solar and atmospheric neutrino data. By conveniently decomposing the effective neutrino mass matrix associated to it, we derive generic predictions in terms of the parameters governing the neutrino masses. We extend this phenomenological analysis to other mass-independent mixing schemes which are related to the tribimaximal form by a unitary transformation. We classify models that produce tribimaximal leptonic mixing through the group structure of their family symmetries in order to point out that there is often a direct connection between the group structure and the phenomenological analysis. The type of seesaw mechanism responsible for neutrino masses plays a role here, as it restricts the choices of family representations and affects the viability of leptogenesis. We also present a recipe to generalize a given tribimaximal model to an associated model with a different mass-independent mixing scheme, which preserves the connection between the group structure and phenomenology as in the original model. This procedure is explicitly illustrated by constructing toy models with the transpose tribimaximal, bimaximal, golden ratio, and hexagonal leptonic mixing patterns.
Resumo:
The design and development of simulation models and tools for Demand Response (DR) programs are becoming more and more important for adequately taking the maximum advantages of DR programs use. Moreover, a more active consumers’ participation in DR programs can help improving the system reliability and decrease or defer the required investments. DemSi, a DR simulator, designed and implemented by the authors of this paper, allows studying DR actions and schemes in distribution networks. It undertakes the technical validation of the solution using realistic network simulation based on PSCAD. DemSi considers the players involved in DR actions, and the results can be analyzed from each specific player point of view.
Resumo:
This chapter addresses the resolution of scheduling in manufacturing systems subject to perturbations. The planning of Manufacturing Systems involves frequently the resolution of a huge amount and variety of combinatorial optimisation problems with an important impact on the performance of manufacturing organisations. Examples of those problems are the sequencing and scheduling problems in manufacturing management, routing and transportation, layout design and timetabling problems.