709 resultados para Ruído (Telecom)
Resumo:
Point pattern matching in Euclidean Spaces is one of the fundamental problems in Pattern Recognition, having applications ranging from Computer Vision to Computational Chemistry. Whenever two complex patterns are encoded by two sets of points identifying their key features, their comparison can be seen as a point pattern matching problem. This work proposes a single approach to both exact and inexact point set matching in Euclidean Spaces of arbitrary dimension. In the case of exact matching, it is assured to find an optimal solution. For inexact matching (when noise is involved), experimental results confirm the validity of the approach. We start by regarding point pattern matching as a weighted graph matching problem. We then formulate the weighted graph matching problem as one of Bayesian inference in a probabilistic graphical model. By exploiting the existence of fundamental constraints in patterns embedded in Euclidean Spaces, we prove that for exact point set matching a simple graphical model is equivalent to the full model. It is possible to show that exact probabilistic inference in this simple model has polynomial time complexity with respect to the number of elements in the patterns to be matched. This gives rise to a technique that for exact matching provably finds a global optimum in polynomial time for any dimensionality of the underlying Euclidean Space. Computational experiments comparing this technique with well-known probabilistic relaxation labeling show significant performance improvement for inexact matching. The proposed approach is significantly more robust under augmentation of the sizes of the involved patterns. In the absence of noise, the results are always perfect.
Resumo:
Resumo não disponível.
Resumo:
Com a evolução tecnológica e a crescente disputa no mercado, as empresas passaram a investir em novas tecnologias e métodos organizacionais que buscassem um aumento da produtividade e qualidade. Esta pesquisa, por meio de um estudo de caso, teve como objetivo levantar e analisar as condições ergonômicas na organização do escritório de uma empresa segundo tendências que contemplam redução de custo e rapidez na comunicação. Neste modelo, o escritório, identificado como aberto ou panorâmico, característica dos sistemas de gerenciamento corporativos, se, por um lado, apresentou vantagens, como a facilidade de comunicação e melhor controle da chefia sobre os trabalhadores, por outro lado, expôs também uma face negativa, porque normalmente tais atividades laborais exigem o exercício da concentração mental, e, em um escritório assim disposto, o trabalhador percebe os murmúrios desse ambiente como uma incômoda sensação que resulta em comprometimento da capacidade de concentração e queda tanto no rendimento quanto na produtividade. Tomou-se como ponto de partida uma queixa de perturbação que se instalou no setor sob a forma de ruído. Este estudo centrou sua investigação em três pontos: a percepção do trabalhador no ambiente organizacional, a sistemática da troca de informações e as características físicas do modelo de escritório. Os resultados indicaram que a troca de informações intensificada, a forma de distribuição do layout e o modelo de escritório adotado afetam negativamente o desempenho do indivíduo, comprometendo-lhe o rendimento laboral e a saúde; no entanto, um vez modificada, não apenas a disposição dos postos de trabalho, mas também as características do mobiliário, e, ainda, levado a efeito um processo educacional quanto ao controle do tom de voz tais mudanças podem tornar o ambiente, para o desenvolvimento mais eficiente das atividades, sem comprometimento do fluxo de comunicação.
Resumo:
Esta tese propõe um modelo para descrever o campo de velocidade do vento originado numa tormenta elétrica. O escoamento descendente que ocorre durante uma tormenta elétrica madura é modelado como um campo de fluxo axial simétrico. A evolução da velocidade do vento com o tempo é considerada por meio de uma função de modulação empírica. As flutuações da velocidade ao redor da velocidade média em evolução são representadas por um processo aleatório do tipo ruído branco em faixa. Todos os parâmetros utilizados no modelo estão relacionados a variáveis meteorológicas, tais como a altura e diâmetro da nuvem cumulonimbus causadora do evento, a diferença de pressão e a distância entre o solo e a base da nuvem. Adicionalmente considera-se que a nuvem é transportada numa direção pré escolhida pelo vento de fundo, que pode ser devido à circulação geral na região ou a um ciclone extra-tropical. O campo de velocidades do vento resulta da superposição de ambos campos. O modelo é validado comparando as velocidades do vento determinadas em eventos simulados, com registros de estações meteorológicas. Adicionalmente, perfis verticais previstos pelo modelo são comparados com vários perfis para tormentas elétricas propostos na literatura. Finalmente, séries de velocidade máximas anuais a altura padrão de 10m foram simuladas para três estações meteorológicas no sul do Brasil, para as quais dados experimentais são conhecidos, em termos do número médio de tormentas elétricas por ano e das funções distribuição de probabilidade que caracterizam o vento de fundo. A comparação com séries de registros máximos existentes é satisfatória, dando credibilidade adicional ao modelo proposto.
Resumo:
Este trabalho avalia a importância e o desempenho dos atributos de qualidade nos serviços de conectividade de redes de uma concessionária de telecomunicações, segundo a percepção dos seus clientes. Foi realizado um levantamento qualitativo para identificar os atributos de qualidade mais importantes para os clientes, e a partir deste foi realizada uma pesquisa quantitativa na população de 161 clientes do estado do Rio Grande do Sul que utilizam estes serviços. Ao aplicar os resultados da pesquisa em uma matriz de importância x desempenho, foi possível classificar os atributos de qualidade destes serviços em ordem de importância, bem como avaliar o seu desempenho comparado com os atributos de qualidade dos mesmos serviços dos concorrentes. A identificação de atributos considerados importantes e com desempenho percebido pelos clientes inferior aos concorrentes, trouxe a necessidade de melhorar as características da qualidade nos serviços de conectividade de redes da Brasil Telecom. Para tanto, foi utilizada a metodologia QFD (Quality Function Deployment ou Desdobramento da Função Qualidade), que permite captar as necessidades, expectativas e desejos do consumidor e traduzi-las em requisitos de qualidade para um determinado serviço ou produto. Com base na priorização das características da qualidade definidas no QFD, foi proposto um plano de melhoria das especificações de qualidade dos serviços de conectividade de redes da concessionária de telecomunicações do estado do Rio Grande do Sul.
Resumo:
Analisa a reestruturação do setor de telecomunicações brasileiro, no período entre 1997 e 2000. Apresenta a ANATEL e mostra que no período em estudo esta esteve mais voltada às questões relacionadas ao mercado e não deu a mesma atenção ao que se refere à universalização dos serviços. Mostra também que o mercado de telecomunicações ainda não apresenta no período em estudo os níveis de competição desejado.
Resumo:
O presente trabalho analisa diferentes modelos de representação temporal usados em arquiteturas conexionistas e propõe o uso de um novo modelo neural, chamado Neurônio Diferenciador-Integrador (NDI) para aplicação com processamento de sinais temporais. O NDI pode ser interpretado como filtro digital. Seu funcionamento exige poucos recursos computacionais e pode ser de grande valia em problemas onde a solução ideal depende de uma representação temporal instantânea, facilidade de implementação, modularidade e eliminação de ruído. Após a definição do modelo, o mesmo é sujeito a alguns experimentos teóricos utilizado em conjunto com arquiteturas conexionistas clássicas para resolver problemas que envolvem o tempo, como previsão de séries temporais, controle dinâmico e segmentação de seqüências espaço-temporais. Como conclusão, o modelo neural apresenta grande potencialidade principalmente na robótica, onde é necessário tratar os sinais sensoriais ruidosos do robô de forma rápida e econômica.
Resumo:
Este trabalho trata da avaliação de desempenho do ambiente construído de ambulatórios médicos voltados à Medicina do Trabalho, tendo como objetivo a busca de diretrizes ergonômicas de projeto que venham a contribuir para a reformulação dos ambulatórios estudados e/ou para o planejamento de ambulatórios semelhantes. Para isso, utilizou-se um método de análise e ação ergonômica, com abordagem participativa, ao qual foi inserida uma das etapas de uma técnica corrente de avaliação do ambiente construído - a APO (Avaliação Pós-Ocupação). Os estudos de caso foram desenvolvidos em ambulatórios do setor médico de duas empresas gaúchas. Verificou-se que, mesmo havendo diferenças significativas entre estas empresas (atividade econômica, porte e gradação de risco), existem problemas comuns relacionados aos seus ambulatórios. Os resultados demonstram ser as questões de planejamento a origem dos principais conflitos existentes entre os ambientes construídos e seus usuários - os ambulatórios não atendem à legislação vigente do Ministério da Saúde que regulamenta os estabelecimentos assistenciais de saúde e, além disso, foram identificadas problemas referentes ao leiaute, mobiliário, ruído e privacidade. Pôde-se concluir, também, que a integração dos usuários em todas as fases realizadas do método macroergonômico utilizado foi fundamental para o alcance do objetivo proposto. Por fim, recomenda-se a participação significativa dos trabalhadores das empresas em todas as fases referntes a futuros planejamentos dos ambulatórios estudados e que os resultados desta pesquisa sejam aplicados como diretrizes para esses projetos.
Resumo:
O objetivo deste trabalho é o desenvolvimento de uma ferramenta de regressão multivariável apropriada para abordar o problema da modelagem de propriedades relacionadas à qualidade final de produtos em processos industriais. No caso geral, dados provenientes de sistemas físicos e químicos típicos do meio industrial são caracterizados pela presença de relação não linear entre as variáveis, podendo, ainda, apresentar outros problemas que dificultam o processo de modelagem empírica, como baixa disponibilidade de observações experimentais, presença de ruído excessivo nas medidas e a presença de colinearidade entre os termos explicativos. Foi feita uma revisão de diferentes métodos de regressão multivariável tais como regressão linear múltipla (MLR), regressão não linear baseada em transformações das variáveis explicativas e métodos de redução de dimensionalidade (PCA, PLS, QPLS e BTPLS). Também foram propostas novas metodologias para a abordagem das questões da seleção de variáveis e estimação das incertezas dos modelos. Posteriormente, utilizando as metodologias revisadas e propostas, foi sugerida uma sistemática para o tratamento da questão da modelagem empírica de dados industriais, que constitui a base para a implementação da ferramenta desejada. A aplicabilidade da ferramenta desenvolvida foi ilustrada através de alguns estudos de caso retirados da literatura, onde modelos para a predição de propriedades relativas à qualidade de produtos produzidos em quatro tipos de processos industriais diferentes são obtidos.
Resumo:
A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.
Resumo:
In this paper we report the results of an experiment designed to examine the properties of a hybrid auction - a Dutch-Vickrey auction, that combines a sealed bid …rst-price auction with a sealed bid second-price auction. This auction mechanism shares some important features with that used in the sale of the companies constituted through the partial division of the Telebras System - the government-owned Telecom holding in Brazil. We designed an experiment where individuals participate in a sequence of independent …rst-price auctions followed by a sequence of hybrid auctions. Several conclusions emerged from this experimental study. First, ex-post e¢ciency was achieved overwhelmingly by the hybrid auctions. Secondly, although overbidding (with respect to the risk-neutral Bayesian Nash equilibrium) was a regular feature of participants’ bidding behavior in the …rst-price auctions — as it is commonly reported in most experimental studies of …rst-price auctions, it was less frequent in the hybrid auctions. By calibrating the results to allow for risk-averse behavior we were able to account for a signi…cant part of the overbidding. Finally, we compared the revenue generated by the hybrid auction with that generated by a standard …rst-price sealed bid auction and the results were ambiguous.
Resumo:
A identificação de modelos é determinante no sucesso das modernas técnicas de controle avançado de processos. Um modelo para o sistema pode ser obtido através de modelagem rigorosa, baseada em equações governantes do sistema ou através da modelagem empírica e estimação de parâmetros. Embora mais rápida e fácil, a modelagem empírica necessita de alguns testes de identificação nos quais as variáveis manipuladas são variadas de modo que resultem em variações nas variáveis controladas. Os testes de identificação podem apresentar custos muito elevados tendo em vista que o sistema pode sair de seu ponto normal de operação, gerando produtos com folga de especificação. Este fato ocorre porque usualmente as perturbações aplicadas nas variáveis manipuladas nas indústrias de processos são independentes umas das outras, aumentando a duração do teste de identificação. Desta forma, neste trabalho foi desenvolvida uma nova metodologia de projeto de perturbações simultâneas para a identificação de modelos dinâmicos baseada na direcionalidade do sistema, com o objetivo de fornecer dados mais ricos para se capturar corretamente o comportamento multivariável do sistema e manter o processo no ponto de operação normal. As perturbações são projetadas conforme as características de um modelo simplificado do processo, ou pré-modelo. Este modelo inicial é obtido essencialmente de dados históricos de planta, selecionados através de uma sistemática análise de correlação desenvolvida neste trabalho A metodologia proposta é composta de duas partes: a primeira parte diz respeito à análise dos dados históricos de planta para obtenção de informações prelimirares as quais são utilizadas no planejamento de perturbações, tais como amplitude do ruído de medida, correlação entre as variáveis de processo, constante de tempo do sistema e matriz de ganhos. E a segunda parte consiste no cálculo da amplitude das perturbações baseado nos resultados da primeira etapa do planejamento. Para sistemas mal-condicionados verificou-se que as perturbações planejadas pela metodologia removem menos a planta de seu ponto de operação gerando resultados mais consistentes em relação às perturbações tradicionais. Já para sistemas bem-condicionados, os resultados são semelhantes. A metodologia foi aplicada em uma unidade piloto experimental e numa unidade de destilação da PETROBRAS, cujos resultados apontam pouca remoção dos sistemas do ponto de operação e modelos consistentes. A validação dos modelos também foi contemplada na dissertação, uma vez que foi proposto um novo critério de validação que considera a derivada dos dados de planta e a do modelo e não apenas os dados de planta e os dados da simulação das saídas do modelo.
Resumo:
With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.
Resumo:
O presente estudo pretende avaliar o desempenho das Delegacias da Receita Federal através do estabelecimento de uma fronteira de eficiência paramétrica baseada nos custos, utilizando para tal um modelo estocástico que divide o ruído em dois componentes, sendo um aleatório e outro proveniente da ineficiência de cada unidade. O trabalho terá por base dados relativos aos anos de 2006 e 2008 em uma análise em corte transversal e visa avaliar a política pública de unificação dos órgãos estatais responsáveis pela arrecadação de tributos em nível Federal, a Secretaria da Receita Federal (SRF) com a Secretaria da Receita Previdenciária (SRP), ocorrida através da lei 11.457 de 16 de março de 2007. O objetivo principal da pesquisa é determinar se as unidades descentralizadas da Receita Federal, notadamente as Delegacias da Receita Federal estão operando com eficiência, na tarefa de arrecadar tributos, em função dos recursos colocados a disposição para execução de suas atividades. Na presente pesquisa o produto da unidade a ser avaliado é a arrecadação, dentre as inúmeras atividades realizadas pelo órgão, no sentido de proporcionar ao Estado recurso para implantação de Políticas Públicas. O resultado encontrado indica que as regiões onde existe um grande número de empresas optantes pelo regime de tributação do SIMPLES, bem como as que possuem em sua jurisdição empresas consideradas DIFERENCIADAS pelo seu porte, provocam um aumento nos custos das Delegacias. As unidades que se encontram nas capitais dos Estados melhoraram o seu desempenho após a unificação. Além disso, uma proporção maior de Auditores Fiscais dentro da Delegacia em relação ao total de servidores reduz a ineficiência. O trabalho espera contribuir na avaliação desse novo modelo de gestão implantado na administração tributária federal no país.
Resumo:
Este trabalho testa a existência de relações de codependência de ordem zero em spreads formados a partir da estrutura a termo da taxa de juros no Brasil. O objetivo é verificar se existem combinações lineares dos spreads que geram um processo ruído branco contemporâneo. Essas combinações lineares poderiam ser utilizadas para a previsão de taxas de juros futuras dado que desvios destas relações estáveis implicariam em um movimento futuro das taxas de juros no sentido de restabelecer o equilíbrio. O modelo de Nelson e Siegel (1987) serve de base teórica para os testes empíricos. Ao verificar a hipótese de codependência de ordem zero é possível também analisar premissas quanto aos parâmetros do modelo em relação à estrutura a termo da taxa de juros no Brasil. As evidências obtidas a partir dos resultados empíricos apontam na rejeição da hipótese de codependência de ordem zero e, consequentemente, na impossibilidade de definir as combinações lineares mencionadas. Esta constatação pode estar relacionada aos períodos de instabilidade presentes na amostra ou na existência de codependência de ordem superior a zero.