500 resultados para Interferencia métrica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo estudar um método para estimar a velocidade de veículos ferroviários usando processamento de vídeo. O sistema proposto consiste na utilização de câmeras ao longo das vias férreas que permitam não só o monitoramento do tráfego ferroviário, mas cujo vídeo captado possa ser utilizado para a obtenção de estimativas para a velocidade instantânea dos trens que por ela trafegam. Tal sistema seria utilizado independentemente dos sistemas de controle já utilizados pela operadora do sistema ferroviário, permitindo que os controladores possam ter uma segunda análise no caso de falha da primeira, assim como um modelo que permita avaliar a velocidade instantânea do veículo ferroviário ao longo do percurso. Os algoritmos de rastreamento empregados para esse fim abordaram diferentes métodos. Confrontaram-se os resultados obtidos com os algoritmos propostos com os dados empíricos de forma a determinar aquele com melhor resposta dada as características do sistema. O algoritmo que apresentou os melhores resultados emprega um único bloco de referência para todos os quadros comparados. A métrica de similaridade responsável por determinar quais blocos são mais ou menos similares dentro do universo de busca estipulado é a soma de diferenças absolutas (SAD, Sum of Absolute Differences). O tempo de processamento requerido por cada um dos métodos de rastreamento estudados também foi considerado nas avaliações de resultados apresentadas. Uma comparação realizada entre as velocidades coletadas e aquelas informadas pelo sistema de controle mostraram que os resultados obtidos com o sistema atual, utilizando a sinalização apenas por circuito de via apresenta resultados pouco confiáveis com erros bastante significativos. Os resultados obtidos com o sistema proposto apresentaram erros menores quando comparados àqueles obtidos pelo sistema vigente, apresentando-se assim como uma solução viável e de baixo custo quando comparada às técnicas atualmente empregadas para a medida de velocidade de trens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo de eventos amparado em métricas contábeis pode ser considerado como aquele que investiga se os retornos anormais no mercado acionário possuem uma contrapartida no lado real, ou seja, se a performance operacional da firma sofreu modificação decorrente de um determinado evento econômico. O presente estudo tem como foco as escolhas que um pesquisador deve fazer na hora da modelagem de um estudo de evento amparado em métricas contábeis, tais como: que medida de performance utilizar, que modelo de expectativa de performance operacional servirá como benchmark, e que teste estatístico poderia detectar com mais eficiência as anormalidades. Um exemplo de estudo que testa empiricamente, nos EUA, o efeito das escolhas acima nas especificações e poder dos testes estatísticos é o de Barber e Lyon (1996). O presente trabalho pretende testar empiricamente os modelos, analisados por esses autores, nas empresas brasileiras. Para tal, foram extraídas da base de dados da Economática todas as empresas listadas na Bolsa de Valores de São Paulo BOVESPA, com dados contábeis disponíveis para os anos de 2004 a 2010, sendo que foram objeto de análise os anos de 2005 a 2010. Obtiveram-se dados para 605 empresas, e uma média de 1606 observações por métrica contábil. Foram testadas 6 medidas contábeis de performance operacional e 13 modelos de expectativa de desempenho. Para atingir o objetivo, a pesquisa foi dividida em três fases. Fase I Elaboração dos Modelos de Expectativa e formação dos Grupos de Controle; Fase II Teste do Poder explicativo dos Modelos de Expectativa; Fase III Testes para Detectar Performance Operacional Anormal. Para o caso brasileiro, pode-se dizer que a melhor medida para detectar performances operacionais anormais é o ROA2 (Ebitda/Ativo Total), já que foi a que apresentou mais modelos que atenderam a todos os testes estabelecidos, em todas as fases da pesquisa. Quanto ao benchmark, o melhor apontado pelos resultados foi o filtro indústria, classificação Economática. O modelo de desempenho defasado da firma, também apresentou resultados satisfatórios. Por fim, o teste estatístico mais apropriado para detectar performances operacionais anormais é o de Wilcoxon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Es]En este proyecto se analizan el diseño y la evaluación de dos métodos para la supresión de la interferencia generada por las compresiones torácicas proporcionadas por el dispositivo mecánico LUCAS, en el electrocardiograma (ECG) durante el masaje de resucitación cardiopulmonar. El objetivo es encontrar un método que elimine el artefacto generado en el ECG de una manera efectiva, que permita el diagnóstico fiable del ritmo cardiaco. Encontrar un método eficaz sería de gran ayuda para no tener que interrumpir el masaje de resucitación para el análisis correcto del ritmo cardiaco, lo que supondría un aumento en las probabilidades de resucitación. Para llevar a cabo el proyecto se ha generado una base de datos propia partiendo de registros de paradas cardiorrespiratorias extra-hospitalarias. Esta nueva base de datos contiene 410 cortes correspondientes a 86 pacientes, siendo todos los episodios de 30 segundos de duración y durante los cuales el paciente, recibe masaje cardiaco. Por otro lado, se ha desarrollado una interfaz gráfica para caracterizar los métodos de supresión del artefacto. Esta, muestra las señales del ECG, de impedancia torácica y del ECG tras eliminar el artefacto en tiempo. Mediante esta herramienta se han procesado los registros aplicando un filtro adaptativo y un filtro de coeficientes constantes. La evaluación de los métodos se ha realizado en base a la sensibilidad y especificidad del algoritmo de clasificación de ritmos con las señales ECG filtradas. La mayor aportación del proyecto, por tanto, es el desarrollo de una potente herramienta eficaz para evaluar métodos de supresión del artefacto causado en el ECG por las compresiones torácicas al realizar el masaje de resucitación cardiopulmonar, y su posterior diagnóstico. Un instrumento que puede ser implementado para analizar episodios de resucitación de cualquier tipo de procedencia y capaz de integrar nuevos métodos de supresión del artefacto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

170 p.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES] La posibilidad de contar como larga una sílaba breve acabada en consonante y ante cesura es una licencia que, aunque utilizada parcamente por los poetas latinos de la Antigüedad, era y es reconocida por todos los filólogos como tal licencia. No ocurre lo mismo con los casos de alargamiento en sílaba abierta: rodeados de problemas de diverso tipo, han sido vistos con frecuencia como un fenómeno distinto del anterior. El autor de este artículo propone una lectura de algunos testimonios de los gramáticos latinos antiguos que permite postular la existencia de una estricta prohibición de estos alargamientos de sílabas abiertas a partir de mediados del siglo I d. C.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os estudos de relação entre a paisagem e a água doce vêm sendo aprofundados pela comunidade científica e pelos propositores de políticas públicas, principalmente, para atender às demandas sobre as maneiras que este sistema ambiental pode ser alterado e na identificação das implicações políticas e ecológicas destas mudanças. Quanto mais se torna intenso e diversificado o uso dos corpos hídricos e da paisagem em bacias hidrográficas maior é a necessidade de se definir formas de planejamento, gerenciamento e gestão ecológica desses ecossistemas. O completo entendimento do funcionamento e dos processos ecológicos que ocorrem em uma bacia hidrográfica exige conhecimento simultâneo de seus sistemas aquáticos e terrestres, da biodiversidade, da fisiografia, da geologia e de sua conservação, temporal e espacial. Este entendimento e conhecimento da área de interesse são vitais para proposições de instrumentos ambientais legais, como Unidades de Conservação (UCs). É muito importante que a fundamentação destas propostas tenha como eixo principal o funcionamento dos ecossistemas e das paisagens, de forma a garantir uma maior conectividade e integração entre água (doce, salobra e salgada) e terra, e seus múltiplos usos. A presente tese foi desenvolvida com base neste contexto, apresentando e aplicando metodologias integradoras, seja na ecologia de paisagem (EP), seja na relação entre os ambientes dulcícola e terrestre. O objetivo principal deste trabalho foi o desenvolvimento de processos para planejamento ambiental em BHs, através do diagnóstico, compreensão e análise do funcionamento e dinâmica da paisagem e de ecossistemas de rios e córregos, apoiados no uso de geotecnologias. De acordo com os resultados obtidos, a BHGM ocupa uma área de 1260,36 km e 204,69 km de perímetro. É uma bacia com forma mais alongada que circular (KC = 1,6144e IC =0,4747 km/km) que indica uma menor susceptibilidade a enchentes em condições normais de precipitação exceto em eventos de intensidades anômalas. O mapeamento base (2007) realizado indicou que a bacia possuía 34,86% de uso antrópico e 64,04 % de remanescente florestal. Os dados de fitofisionomia potencial indicaram predominância da classe Florestas Ombrófila Densa Submontana (40%) e de Terras Baixas (39%). Foram estabelecidas para bacia 269 unidades de paisagem (integração da geomorfologia, geologia, fitofisionomia e uso da terra e cobertura vegetal (2007)) que junto com os dados de métrica de paisagem constituíram a proposta integrativa da tese para ecologia de paisagem. Em relação à qualidade ambiental foram adotados o índice de avaliação visual (IAV), o índice multimétrico físico-químico bacteriológico e o índice biótico estendido (IBE). A comparação entre estes índices demonstrou a confirmação entre os seus resultados para a maioria dos pontos amostrados nas áreas de referência e de pelo menos dois índices para os pontos intermediários e impactados. Foram propostos também dois cenários para a bacia: um considerando as condicionantes e medidas compensatórias vinculadas à licença prévia do complexo petroquímico do Estado do Rio de Janeiro (COMPERJ); e outro, sem considerar estas condições. O primeiro indicou a realização da restauração ecológica, seguindo as diretrizes do mapa síntese, integrada para restauração da paisagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A discriminação de fases que são praticamente indistinguíveis ao microscópio ótico de luz refletida ou ao microscópio eletrônico de varredura (MEV) é um dos problemas clássicos da microscopia de minérios. Com o objetivo de resolver este problema vem sendo recentemente empregada a técnica de microscopia colocalizada, que consiste na junção de duas modalidades de microscopia, microscopia ótica e microscopia eletrônica de varredura. O objetivo da técnica é fornecer uma imagem de microscopia multimodal, tornando possível a identificação, em amostras de minerais, de fases que não seriam distinguíveis com o uso de uma única modalidade, superando assim as limitações individuais dos dois sistemas. O método de registro até então disponível na literatura para a fusão das imagens de microscopia ótica e de microscopia eletrônica de varredura é um procedimento trabalhoso e extremamente dependente da interação do operador, uma vez que envolve a calibração do sistema com uma malha padrão a cada rotina de aquisição de imagens. Por esse motivo a técnica existente não é prática. Este trabalho propõe uma metodologia para automatizar o processo de registro de imagens de microscopia ótica e de microscopia eletrônica de varredura de maneira a aperfeiçoar e simplificar o uso da técnica de microscopia colocalizada. O método proposto pode ser subdividido em dois procedimentos: obtenção da transformação e registro das imagens com uso desta transformação. A obtenção da transformação envolve, primeiramente, o pré-processamento dos pares de forma a executar um registro grosseiro entre as imagens de cada par. Em seguida, são obtidos pontos homólogos, nas imagens óticas e de MEV. Para tal, foram utilizados dois métodos, o primeiro desenvolvido com base no algoritmo SIFT e o segundo definido a partir da varredura pelo máximo valor do coeficiente de correlação. Na etapa seguinte é calculada a transformação. Foram empregadas duas abordagens distintas: a média ponderada local (LWM) e os mínimos quadrados ponderados com polinômios ortogonais (MQPPO). O LWM recebe como entradas os chamados pseudo-homólogos, pontos que são forçadamente distribuídos de forma regular na imagem de referência, e que revelam, na imagem a ser registrada, os deslocamentos locais relativos entre as imagens. Tais pseudo-homólogos podem ser obtidos tanto pelo SIFT como pelo método do coeficiente de correlação. Por outro lado, o MQPPO recebe um conjunto de pontos com a distribuição natural. A análise dos registro de imagens obtidos empregou como métrica o valor da correlação entre as imagens obtidas. Observou-se que com o uso das variantes propostas SIFT-LWM e SIFT-Correlação foram obtidos resultados ligeiramente superiores aos do método com a malha padrão e LWM. Assim, a proposta, além de reduzir drasticamente a intervenção do operador, ainda possibilitou resultados mais precisos. Por outro lado, o método baseado na transformação fornecida pelos mínimos quadrados ponderados com polinômios ortogonais mostrou resultados inferiores aos produzidos pelo método que faz uso da malha padrão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A avaliação objetiva da qualidade de imagens é de especial importância em diversas aplicações, por exemplo na compressão de imagens, onde pode ser utilizada para regular a taxa que deve ser empregada para que haja a máxima compressão (permitindo perda de dados) sem comprometer a qualidade final; outro exemplo é na inserção de marcas dágua, isto é, introdução de informações descritivas utilizadas para atestar a autenticidade de uma imagem, que devem ser invisíveis para o observador. O SSIM (Structural SIMilarity) é uma métrica de avaliação objetiva da qualidade de imagens de referência completa projetada para imagens em tons de cinza. Esta dissertação investiga sua aplicação na avaliação de imagens coloridas. Para tanto, inicialmente é feito um estudo do SSIM utilizando quatro diferentes espaços de cores RGB, YCbCr, Lαβ e CIELAB. O SSIM é primeiramente calculado nos canais individuais desses espaços de cores. Em seguida, com inspiração no trabalho desenvolvido em (1) são testadas formas de se combinar os valores SSIM obtidos para cada canal em um valor único os chamados SSIM Compostos. Finalmente, a fim de buscar melhores correlações entre SSIM e avaliação subjetiva, propomos a utilização da mínima diferença de cor perceptível, calculada utilizando o espaço de cores CIELAB, conjuntamente com o SSIM. Para os testes são utilizados três bancos de dados de imagens coloridas, LIVE, IVC e TID, a fim de se conferir consistência aos resultados. A avaliação dos resultados é feita utilizando as métricas empregadas pelo VQEG (Video Quality Experts Group) para a avaliação da qualidade de vídeos, com uma adaptação. As conclusões do trabalho sugerem que os melhores resultados para avaliação da qualidade de imagens coloridas usando o SSIM são obtidas usando os canais de luminância dos espaços de cores YCbCr, Lαβ e especialmente o CIELAB. Também se concluiu que a utilização da mínima diferença de cor perceptível contribui para o melhoramento dos resultados da avaliação objetiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se reporta aquí un minicurso en el que participaron profesores de matemática de Enseñanza Media. Trabajando en un ambiente de Geometría Dinámica se aborda la resolución de problemas que involucran distintas áreas de la matemática: geometría métrica, cálculo diferencial, geometría analítica, álgebra, y que permiten poner de manifiesto la pertinencia y relevancia –así como señalar sus peculiaridades- del ambiente dinámico en la construcción del conocimiento matemático por parte de los participantes y a su vez discutir su papel en el trabajo con estudiantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el siguiente informe,presentamos el trabajo que desarrollamos como estudiantes del programa de Maestría en Educación Matemática de la Universidad de los Andes en el periodo 2012-2014. Presentamos la plani cación e implementación de una unidad didáctica en cuatro fases: el diseño previo, la implementación, la evaluación y la propuesta nal. El tema matemático que abordamos en la unidad didáctica es el de áreas de regiones sombreadas entre polígonos y porciones circulares. Este tema está ubicado dentro de la geometría métrica plana. Con la elaboración de la unidad didáctica,pretendemos contribuir a mitigar los inconvenientes que los estudiantes pueden presentar en el aprendizaje del tema y que los docentes pueden tener al orientarlo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Presentamos seis demostraciones del teorema de Napoleón y de varias propiedades que se derivan de la misma configuración. En las demostraciones recurrimos a la geometría métrica, la geometría analítica, los números complejos, la trigonometría y las isometrías, alternativamente. Algunas de dichas demostraciones –no las propiedades– son originales, otras son el desarrollo de sugerencias esbozadas en distintos textos y otras son adaptaciones de las halladas en los textos.