951 resultados para Erros de calibração


Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO: Esta Intervenção - acção, pretende mostrar como se pode trabalhar com um aluno com dificuldades de aprendizagens especificas, nomeadamente e segundo relatórios psicológicos, “uma suposta dislexia”, usado um método de reeducação não muito utilizado em contexto escolar. Esse método é normalmente usado em contexto de consulta psicológica. O Método Fonomimico é um método com vários materiais que podem ser usados com qualquer criança ou jovens com dificuldades de aprendizagem. Numa primeira face da intervenção, foi feita uma pesquisa sobre educação inclusiva e a educação especial, nomeadamente em Portugal Na face seguinte, tentou-se mostrar o que é a dislexia, características e como se deve trabalhar com alunos que apresentem estas características. Em seguida foi apresentada a escola, o meio, a turma e a aluna-alvo. Foi realizada uma entrevista à professora da turma, com o objectivo de saber as suas expectativas em relação à aluna, expectativas essas que foram muito baixas. A sociometria mostrou que a aluna - alvo é bem aceite na turma, tendo em conta as suas dificuldades. Foram apresentadas também as planificações, quais os objectivos específicos para que a aluna pudesse apresentar evoluções ao nível da leitura, escrita e também na área espácio-temporal porque estas são as áreas onde a aluna apresenta maiores dificuldades. E por último foram apresentados os resultados desta intervenção, e concluiu-se que o método teve sucesso nesta aluna, a sua evolução na leitura e na escrita foi significativa e assim o Método Fonomimico, pode e deve ser usado em contexto escolar. ABSTRACT: This Intrevenção-action, to show how it can work with a student with specific learning difficulties, including psychological reports and the second, "an alleged dyslexia", used a method of rehabilitation not widely used in schools. This method is commonly used in the context of psychological consultation. Fonomimico the Method is a method with several materials that can be used with any child or youth with learning difficulties. A first side of the intervention was made a research on inclusive education and special education, particularly in Portugal in the next face, tried to show what is dyslexia, features and how to work with students who display these characteristics. Then was presented the school, the middle class and the target student. Interviews were held with the class teacher in order to know their expectations for student, expectations that were too low. Sociometry showed that the target student is well accepted in the class, taking into account their difficulties. We also presented the schedules, the specific objectives for which the student could produce changes in the reading, writing and also in the area espaçiotemporal because these are the areas where the student presents greater difficulties. Finally we presented the results of this intervention, and it was concluded that this method was successful student, their progress in reading and writing was so significant and the method Fonomimico can and should be used in schools.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo preliminar descreve uma proposta de correção de erros nas produções escritas de doze (12) alunos de nível básico de língua inglesa da Universidade de Caxias do Sul (UCS). O objetivo é investigar a relevância da reescrita como estratégia de conscientização, de acordo com a Hipótese do Noticing de Schmidt (1990), buscando promover a correção gramatical e o aprimoramento da produção textual. Nesse contexto, a correção passa a ser uma aliada e não inimiga do aprendiz. O feedback corretivo fornecido através do uso de uma Tabela de Marcação, a conscientização dos erros através da reescrita e o envolvimento dos aprendizes no processo de auto-análise de seus textos revelaram-se condições facilitadoras na busca das formas corretas e na prevenção do erro. A análise dos dados demonstrou uma possível ruptura com a previsibilidade implícita na Hipótese do Noticing, que propõe que prestar atenção a determinados aspectos lingüísticos possibilita sua melhor assimilação e a não recorrência de erros. Os trabalhos evidenciaram uma melhoria progressiva na qualidade da produção escrita apesar do aumento do número de erros, possivelmente devido a uma desinibição por parte dos aprendizes em escrever e a sua opção em assumir riscos na produção de estruturas lingüísticas mais complexas, o que não inviabiliza a proposta da reescrita como estratégia de conscientização.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho destina-se a apresentar a experiência de montagem e de validação de uma Bancada de Calibração de sensores para determinação da umidade relativa do ar com base nas teorias e normas existentes de psicrometria. A Bancada foi construída com base em normas internacionais, onde salienta-se a ASHRAE 41.1-1974, sendo uma evolução de trabalhos anteriormente desenvolvidos. A validação da bancada passa por uma verificação do funcionamento do sistema montado, buscando garantir que o mesmo é eficaz no que se propõe. Para isso, curvas de estabilidade em temperatura e umidade relativa do ar em função do tempo foram levantadas e analisadas dentro de uma certa faixa de operação, entre 30,50 e 44,50 ºC e para temperatura de bulbo úmido, entre 25,00 e 31,10 ºC. Para a estabilidade em umidade relativa do ar testada, a faixa varia de 57,20 a 74,46 %. Também foi verificado experimentalmente o comportamento da temperatura de bulbo úmido em função da velocidade do ar no escoamento, entre 1,25 e 5,00m/s. Para a comprovação desta verificação experimental, os dados coletados nos sensores e termômetros foram corrigidos através das equações de calibração e depois os mesmos foram comparados e estudados mediante uma análise de variância (ANOVA). Os resultados dos testes revelaram que a velocidade na faixa experimentada (1,25 a 5,00) m/s não gera uma diferença significativa na leitura dos sensores Um outro teste experimental foi elaborado para verificar o comportamento da temperatura de bulbo úmido em função da umidade relativa do ar para diversos elementos sensores de temperatura. (termômetros de Hg, sensores PT100, AD592 e termopar tipo K). Para esta verificação, os elementos sensores foram submetidos a uma velocidade de 5,00 m/s. Para cada nível de temperatura, três níveis de umidade relativa do ar foram analisadas. Os resultados mostram que a Bancada de calibração é um ambiente controlado dentro de uma faixa de temperatura e umidade relativa do ar, sendo um recurso a mais que pode ser usado no vasto campo da psicrometria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O modelo numérico GENESIS (Generalized Model for Simulating Shoreline Change) é parte de um sistema de modelagem de linha de praia, o SMS (Shoreline Modeling System), desenvolvido pelo CERC (Coastal Engineering Research Center), U.S.A. É um modelo genérico, determinístico e bidimensional, com grande flexibilidade para ser adaptado a costas abertas, arenosas e sujeitas a intervenção humana. Utilizado na previsão da resposta da linha praia as diversas obras costeiras que podem ser implantadas na mesma. Características estas, que fazem dele uma ferramenta indicada para a o estudo costa do Rio Grande do Sul e para o objetivo deste estudo. A aplicação do modelo de evolução de linha praia – GENESIS neste trabalho, tem como objetivos: calibrar o modelo numérico GENESIS para a costa centro norte do Rio Grande do Sul e avaliar seu uso como ferramenta na previsão de impactos ambientais gerados por obras costeiras, Alem de reproduzir as condições do modelo físico reduzido de 1965 e comparar os resultados entre as simulações matemática e física. O modelo foi aplicado num trecho de linha de praia da região centro norte do Rio Grande do Sul, nas praias de Tramandaí e Imbé. As quais já foram alvo de estudos anteriores através de modelo físico reduzido, em função do desejo deste município em construir molhes na desembocadura do canal da Laguna de Tramandaí. Para implementação do modelo numérico GENESIS foram utilizados dados das posições da linha de praia em três diferentes anos, coletados pelo CECO/UFRGS, dados de onda coletados pelo ondógrafo do IPH/UFRGS, e diversos dados sobre as praias e sua história, retirados da extensa bibliografia publicada sobre a região de estudo. A calibração do modelo foi realizada através das linhas de praia medidas em 1997 e em 2000. O modelo foi considerado calibrado quando o mesmo consegui reproduzir a linha de praia do ano 2000 a partir da linha de 1997, obtendo um erro máximo de 15 m. Foram realizadas simulações que reproduziam as simulações feitas em modelo físico reduzido do IPH em 1965. Através da comparação dos dados de onda utilizados no modelo físico reduzido de 1965 e dos dados de onda coletados pelo ondógrafo em 1996, pudemos observar a importância do uso de um série de dados de onda neste tipo de estudo, bem como, a desenvoltura e limitações do modelo numérico GENESIS na situações geradas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O método de análise de solo Mehlich-1 em uso no RS e SC não é adequado para a avaliação da disponibilidade de fósforo em solos adubados recentemente com fosfatos naturais, além de, na comparação com o método da resina de troca iônica, freqüentemente apresentar coeficientes de determinação entre fósforo extraído do solo e parâmetros de plantas menores. Questiona-se também a adequaçãodos teores críticos de fósforo e potássio do solo e as doses de fertilizantes recomendadas atualmente, com base em calibrações feitas entre as décadas de 1960 a 1980, sob sistema convencional e amostragem da camada 0-20 cm de profundidade, para o sistema de plantio direto, com amostragem na camada 0-10 cm.Para equacionar alguns dos aspectos mencionados foram feitos três estudos. No primeiro, correlacionou-se o fósforo extraído, pelos métodos Mehlich-1 e resina de troca iônica, de 100 amostras de solos com diferentes classes de textura e teores de fósforo, com o objetivo de obter um índice de equivalência entre o fósforo determinado por ambos os métodos. No segundo estudo, foram enterradas lâminas de resina para avaliar a capacidade da resina em estimar a disponibilidade de fósforo para as plantas de milho e arroz em diferentes estádios de desenvolvimento. No terceiro estudo, utilizaram-se resultados de experimentos com doses de fósforo e potássio, cultivados com soja, trigo e milho, para re-calibrar os teores críticos de fósforo e potássio do solo pelo método Mehlich-1, e calibrar os resultados obtidos com o método Mehlich-3 e resina Os resultados obtidos no estudo 1 não permitiram estabelecer um índice de equivalência analítico entre os métodos Mehlich-1 e resina, pois a extração depende também da interação entre teores de fósforo e argila do solo. O método da resina enterrada foi eficiente para determinar a disponibilidade de fósforo para o arroz em solos inundados, mas pode não ser adequado para a cultura do milho. Os teores críticos de fósforo e potássio utilizados atualmente para recomendação de adubação estão subestimados, tanto para as amostras na camada 0-20, como na 0-10 cm de profundidade. As doses de fósforo e potássio, recomendadas para as culturas soja e milho, também estão subestimadas. Os coeficientes de determinação, obtidos entre o fósforo e o potássio determinados pelos métodos Mehlich-1 e resina e o rendimento das culturas soja, milho e trigo, foram maiores do que os obtidos com o Mehlich-3 para mesma relação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta um método para calibração automática de um par de câmeras que realiza um movimento desconhecido. O processo de calibração aqui descrito é baseado inteiramente na rigidez da cena observada e na invariabilidade dos parâmetros intrínsecos das câmeras durante o movimento. Não há a necessidade de nenhum artefato de calibração especial. Este trabalho mostra uma abordagem completa, desde o processo de casamento de pontos até a estimação dos parâmetros da câmera. Não é feita nenhuma suposição sobre o movimento das câmeras, tampouco sobre a disposição da cena 3D. Exemplos de aplicações deste método estão nos experimentos onde a calibração das câmeras precisa ser realizada remotamente, dificultando o posicionamento de artefatos de calibração na cena alvo, como é o caso para robôs de exploração interplanetária.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Brasil é um país grande, com poucos laboratórios dedicados ao diagnóstico de Erros Inatos do Metabolismo (EIM), e com escassos centros que se dedicam ao manejo dessas doenças. A área de doenças genético-metabólicas é ainda nova no país, e poucos profissionais da área médica estão familiarizados com essas doenças. Os EIM incluem cerca de 500 doenças causadas por distúrbios que envolvem o acúmulo de substratos tóxicos ou a falta de produtos vitais para o funcionamento adequado do organismo. Por serem patologias raras e pouco conhecidas em nosso meio, o diagnóstico correto é tardio e, na maioria das vezes, compromet a eficácia das medidas de manejo dos afetados. Para tentar melhorar essa situação, foi criado o Serviço de Informações sobre Erros Inatos do Metabolismo (SIEM) um serviço com acesso gratuito, pioneiro no Brasil e na América Latina. Implantado em outubro de 2001, em Porto Alegre, no sul do Brasil, o serviço tem o objetivo de fornecer suporte aos profissionais da área da saúde envolvidos com o diagnóstico e manejo de pacientes com suspeita de uma doença metabólica. O SIEM é dirigido por uma equipe especializada, constituída por geneticistas, nutricionistas e biólogos treinados para prestar o serviço proposto. O objetivo principal do presente estudo foi analisar as características demográficas e clínicas das consultas dirigidas a este serviço em seus primeiros dois anos e meio de funcionamento, para identificar o perfil dos profissionais que buscam esse tipo de serviço e dos casos que são objeto de consulta. Foram analisadas 376 consultas feitas nesse período. Verificamos que, na maior parte das vezes, a suspeita de uma doença metabólica esteve associada à presença da sintomatologia neurológica, a um início precoce dos sintomas e a uma tendência à presença de consangüinidade entre os pais. Nessa amostra tivemos 47 (24,4%) casos com diagnóstico de EIM, com predomínio de acidúrias orgânicas e aminoacidopatias. Acreditamos que serviços como este podem prestar apoio a profissionais da área da saúde, incluindo aqueles que estão distantes de centros de referência, podendo contribuir para o melhor diagnóstico e manejo de EIM, mudando para melhor o desfecho clínico dos pacientes em muitas situações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho avalia o potencial de simuladores de tráfego na estimativa das emissões veiculares. Os simuladores de tráfego em conjunto com modelos de emissões são utilizados para execução de inventários de emissões. Os inventários de emissões são importantes para a avaliação da eficácia das políticas de transporte que visem redução das emissões veiculares. Erros nesta avaliação podem levar à adoção de políticas ineficientes. Por esta razão, é fundamental a compreensão da lógica destes modelos para a correta análise dos resultados gerados. Através de testes de sensibilidade avaliou-se o impacto da variação de três aspectos intrínsecos aos modelos de simulação na quantificação das emissões veiculares: (i) os parâmetros de entrada utilizados para calibração; (ii) a lógica dos modelos de progressão longitudinal; e (iii) o modelo de emissões incorporado ao simulador. Em um estudo de caso, avaliou-se o impacto de uma melhoria de fluxo de tráfego na geração das emissões com o uso de simuladores de tráfego frente às abordagens tradicionais. O trabalho demonstra que a definição dos parâmetros relativos à aceleração, bem como a modelagem adequada da progressão longitudinal dos veículos, possuem papel preponderante na correta quantificação das emissões. Em segundo plano, o grau de sofisticação do modelo de emissões incorporado também exerce influência na magnitude dos resultados. Por fim, o estudo de caso demonstrou a vantagem do uso de micro-simuladores na quantificação das emissões de projetos de melhorias de fluxo de tráfego frente aos métodos tradicionais, ainda que pese a maior dificuldade na calibração de modelos microscópicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os equipamentos fotográficos digitais têm inovado a aerofotogrametria no que diz respeito à rapidez na coleta de informações geográficas referenciadas bem como o baixo custo da operação em comparação com os sistemas aerofotogramétricos convencionais. Na geração de produtos cartográficos, utilizando sistemas fotográficos digitais ou convencionais, o conhecimento dos parâmetros que definem a geometria interna da câmara é de fundamental importância. Este trabalho descreve uma das principais metodologias utilizadas atualmente para calibração analítica de câmaras. A câmara utilizada nesse trabalho é uma Kodak DCS460, e pertence à Fundação Universidade Federal do Rio Grande. O processo de calibração foi realizado na Universidade Federal do Paraná, com apoio do Programa de Pós-Graduação em Ciências Geodésicas, e o método utilizado foi o Método das Câmaras Convergentes Através do método paramétrico com injunções, o modelo final utilizado computacionalmente recupera os parâmetros intrínsecos como distância focal calibrada, posição do ponto principal, constantes da distorção radial simétrica e descentrada, bem como a matriz variância-covariância dos resultados obtidos no ajustamento. Os resultados da calibração foram analisados na matriz variância-covariância e foram satisfatórios. Para aplicação dos parâmetros em dados reais, uma imagem da região de Porto Alegre foi utilizada como objeto de estudo para geração de uma ortofoto, que é uma imagem corrigida geometricamente das distorções causadas pela variação de posição e altitude da plataforma. O Modelo Digital do Terreno é uma peça fundamental na geração de uma ortofoto e foi gerado a partir das curvas de nível fornecidas pela Prefeitura Municipal de Porto Alegre. Duas ortofotos foram geradas, a primeira levando em conta apenas o valor nominal da distância focal, e a segunda os parâmetros gerados no processo de calibração. Os resultados obtidos para a focal nominal apresentam resíduos maiores que os determinados com a distância focal calibrada, mostrando a necessidade de aplicação do método de calibração, como queria demonstrar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é avaliar a eficiência da precificação e os erros de aderência dos Exchange Traded Funds (ETFs), conhecidos no mercado de capitais como fundos de investimentos abertos listados e comercializados em bolsas de valores. Para esta avaliação, são realizados testes sobre hipóteses acerca da significância estatística dos mispricings entre (1) os valores das cotas patrimoniais e os preços de fechamentos destes ETFs e (2) sobre a diferença entre os preços de fechamento dos ETFs e dos seus índices de referência. A amostra utilizada é dos oito ETFs comercializados no mercado brasileiro de capitais durante o período de realização do trabalho. Como resultado do esforço de pesquisa realizado, o último capítulo mostra uma tendência a distintos níveis de eficiência da precificação e erros de aderência nos ETFs brasileiros. Enquanto alguns ETFs mais líquidos apresentam prêmios/descontos insignificantes estatisticamente, os prêmios/descontos de outros ETFs se mostraram razoavelmente consideráveis. No que tange aos erros de aderência, a média dos erros do ETFs listados localmente mostrou-se em um patamar intermediário entre aqueles ETFs listados no mercado americano e os de uma seleção de ETFs listados em mercados emergentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho estima a transmissão da variação cambial aos índices de preços brasileiros, utilizando a metodologia de vetores autorregressivos estruturais (SVAR) com vetores de correção de erros (VEC). O período estudado tem início na introdução do regime de metas para a inflação (junho de 1999) e se encerra em setembro de 2011. Os resultados reforçam a avaliação de que houve amadurecimento da política monetária nos últimos anos, concomitantemente a uma melhora do ambiente macroeconômico. Na comparação dos nossos resultados com estudos anteriores, encontramos significativa redução do pass-through da taxa de câmbio para os índices de inflação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo do presente trabalho é verificar se o modelo que combina correção de erros e fatores extraídos de grandes conjuntos de dados macroeconômicos produz previsões mais precisas das taxas de juros do Brasil em relação aos modelos VAR, VECM e FAVAR. Para realizar esta análise, foi utilizado o modelo sugerido por Banerjee e Marcellino (2009), o FAVECM, que consiste em agregar o mecanismo de correção de erros ao modelo proposto por Bernanke, Boivin e Eliasz (2005), o FAVAR. A hipótese é que o FAVECM possuiu uma formulação teórica mais geral. Os resultados mostram que para o mercado brasileiro o FAVECM apresentou ganhos significativos de previsão para as taxas mais longas e horizontes de previsão maiores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artigo estima a transmissão da variação cambial aos índices de preços brasileiros, utilizando a metodologia de vetores autorregressivos estruturais (SVAR) com vetores de correção de erros (VEC). O período estudado tem início na introdução do regime de metas para a inflação (junho de 1999) e se encerra em setembro de 2011. Os resultados reforçam a avaliação de que houve amadurecimento da política monetária nos últimos anos, concomitantemente a uma melhora do ambiente macroeconômico. Na comparação dos nossos resultados com estudos anteriores, encontramos significativa redução do pass-through da taxa de câmbio para os índices de inflação.