1000 resultados para Erro refrativo


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Lei 11.284/2006 é um importante marco legal da atividade de gestão florestal do Brasil. O manejo florestal sustentável de florestas públicas, até então exercido exclusivamente pelo Estado, passou a ser passível de concessão com o advento dessa Lei. A chamada “concessão florestal” se insere, portanto, na nova orientação político-econômica brasileira de “desestatização”, privilegiando o princípio da eficiência. Como resultado, a atividade de exploração sustentável de produtos florestais passa a ser transferida pelo Estado, por intermédio do Serviço Florestal Brasileiro, à iniciativa privada. Para o sucesso de uma concessão florestal, os licitantes interessados precisam de uma estimativa da capacidade produtiva da “Unidade de Manejo Florestal”. O estudo disponibilizado pelo Serviço Florestal Brasileiro para fazer essa estimativa é o inventário florestal que, resumidamente, tem a importante missão de antecipar às características vegetais de área que será objeto da concessão. E os resultados desse estudo são a principal fonte de informação para que o licitante calcule o valor que irá ofertar ao Poder Concedente. Ocorre que, por questões técnico-metodológicas que fogem ao conhecimento jurídico, os estudos de inventário florestal estão sujeitos a erros de grande escala, retratando, de maneira ilusória, a realidade da vegetação que compõe área que será concedida. Isto é um risco intrínseco à atividade de exploração sustentável de produtos florestais. Diante desse contexto, caberia ao Serviço Florestal Brasileiro administrar o risco do inventário florestal da maneira mais eficiente possível. Entretanto, não é isso que vem ocorrendo nos contratos de concessão florestal. Sobre a distribuição de riscos em contratos de concessão, a doutrina especializada no tema oferece critérios que, quando seguidos, possibilitam uma alocação dos riscos peculiares a cada atividade à parte que melhor tem condições de geri-los. Esses critérios aumentam a eficiência da concessão. Contudo, os contratos de concessão florestal até hoje celebrados não vêm considerando esses importantes critérios para uma eficiente distribuição de riscos. Como consequência, o risco do inventário florestal é, igualmente a outros inúmeros riscos, negligenciado por esses contratos, aumentando-se a ineficiência dos contratos de concessão. Diante desse panorama, os licitantes interessados na concessão adotam duas posturas distintas, ambas igualmente rejeitáveis: a postura do Licitante Conservador e a postura do Licitante Irresponsável. Esses perfis de licitantes geram, respectivamente, ineficiência à concessão e, caso o erro do inventário florestal efetivamente ocorra, a possibilidade de inviabilidade da concessão. Como resposta a isso – que é exatamente o “problema” que pretendo resolver –, proponho uma solução para melhor administrar o risco do inventário florestal. Essa solução, inspirada em uma ideia utilizada na minuta do contrato de concessão da Linha 4 do Metrô de São Paulo, e baseando-se nos critérios oferecidos pela doutrina para uma distribuição eficiente dos riscos, propõe algo novo: a fim de tornar a os contratos de concessão florestal mais eficientes, sugere-se que o risco do inventário florestal deve ser alocado na Administração Pública, e, caso o evento indesejável efetivamente ocorra (erro do inventário florestal), deve-se, por meio do reequilíbrio econômico-financeiro do contrato, ajustar o valor a ser pago pelo concessionário ao Poder Concedente. Como consequência dessa previsão contratual, as propostas dos licitantes serão mais eficientes, permitindo-se alcançar o objetivo primordial da Lei 11.284/2006: aumento da eficiência da exploração florestal sustentável e preservação do meio ambiente e dos recursos florestais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O título deste post me veio à mente depois que li, recentemente, o resultado de uma pesquisa feita pela FGV-DAPP que mostrou, por parte da população, uma avaliação extremamente negativa dos principais serviços públicos do país. Por conta disso, não espanta que, segundo o levantamento, três em cada cinco brasileiros estejam insatisfeitos com o funcionamento da democracia. Banalizar esta situação será um erro. O que refletir sobre ela?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desse trabalho é encontrar uma medida dinâmica de liquidez de ações brasileiras, chamada VNET. Foram utilizados dados de alta frequência para criar um modelo capaz de medir o excesso de compras e vendas associadas a um movimento de preços. Ao variar no tempo, o VNET pode ser entendido como a variação da proporção de agentes informados em um modelo de informação assimétrica. Uma vez estimado, ele pode ser utilizado para prever mudanças na liquidez de uma ação. O VNET tem implicações práticas importantes, podendo ser utilizado por operadores como uma medida estocástica para identificar quais seriam os melhores momentos para operar. Gerentes de risco também podem estimar a deterioração de preço esperada ao se liquidar uma posição, sendo possível analisar suas diversas opções, servindo de base para otimização da execução. Na construção do trabalho encontramos as durações de preço de cada ação e as diversas medidas associadas a elas. Com base nos dados observa-se que a profundidade varia com ágio de compra e venda, com o volume negociado, com o numero de negócios, com a duração de preços condicional e com o seu erro de previsão. Os resíduos da regressão de VNET se mostraram bem comportados o que corrobora a hipótese de que o modelo foi bem especificado. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, propomos uma especificação de modelo econométrico na forma reduzida, estimado por mínimos quadrados ordinários (MQO) e baseado em variáveis macroeconômicas, com o objetivo de explicar os retornos trimestrais do índice de ações IBRX-100, entre 2001 e 2015. Testamos ainda a eficiência preditiva do modelo e concluímos que o erro de previsão estimado em janela móvel, com re-estimação de MQO a cada rodada, e utilização de VAR auxiliar para projeção dos regressores, é significativamente inferior ao erro de previsão associado à hipótese de Random Walk para o horizonte de previsão de um trimestre a frente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo busca identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real efetiva e analisar a robustez dessas previsões. Foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Utilizando esse método, encontramos modelos que cointegravam entre si, para os países analisados. A partir desses modelos, foram feitas previsões fora da amostra a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio (EQM) e Modelo do Conjunto de Confiança de Hansen (MCS) utilizando um modelo de passeio aleatório do câmbio real como benchmark. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da taxa de câmbio real efetivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partes da aula: Parte 1 - Amostragem Parte 2 - Amostra e matriz Parte 3 - Analíto Parte 4 - Processo contínuo e descontínuo Parte 5 - Erro de amostragem Parte 6 - Representatividade das amostras Parte 7 - Amostras de interesse da Engenharia Ambiental

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectivo: Proceder à validação da equação de Slaugther e col., (1988), na estimação da percentagem de massa gorda (%MG), em crianças com 9 anos de idade, tendo a DXA como método de referência. Metodologia: A avaliação da composição corporal foi realizada em 450 crianças, das quais 219 eram raparigas (idade: 9.74 ± 0.33 anos; altura: 136.88 ± 6.8 cm; peso: 33.77 ± 8.16 kg; índice de massa corporal (IMC): 17.85 ± 3.16 kg/m2) e 231 eram rapazes (idade: 9.75 ± 0.33 anos; altura: 137.17 ± 6.97cm; peso: 34.3 ± 8.09 kg; IMC: 18.09 ± 3.17 kg/m2), pela DXA (QDR – 1500: Hologic, Waltham, MA, pencil beam mode, software version 5.67 anhanced whole body analisis) e pelas pregas adiposas subcutâneas, cujo os valores das pregas adiposas tricipital e geminal foram utilizados na equação desenvolvida por Slaugther e col., (1988). Na análise estatística, foram utilizadas a comparação de médias, a regressão linear e a concordância entre os métodos. Resultados: A %MG obtida por ambos os métodos apresentou diferenças significativas (p<0.05) entre os géneros, sendo as raparigas as que apresentam, em média, maiores valores de gordura corporal. Tanto para os rapazes como para as raparigas a %MGDXA é superior à %MGSKF. Na predição dos valores de %MG, a equação de Slaugther e col., (1988) tem para ambos os sexos (raparigas: r=0.94; EPE=3.2 e rapazes: r=0.96; EPE=2.7) uma correlação elevada com reduzido erro padrão de estimação com a DXA. Na análise de concordância entre os métodos, os rapazes parecem apresentar uma maior concordância entre o método alternativo e o método de referência, com os limites de concordância a variarem entre -9.26 e 1.57, enquanto nas raparigas variam entre -11.19 e 3.16. Em ambos os sexos é visível a subestimação, em valor médio, do método de referência, com uma média da diferença a situar-se nos -3.8% e -4.0%, respectivamente para rapazes e raparigas. Discussão: A equação de Slaugther e col., (1988) explica, para as raparigas, 87.5% da variância do método de referência, enquanto nos rapazes, 91.3% da variância é explicada.A diferença entre os métodos alternativo e de referência está dependente do nível de adiposidade, sendo que o método alternativo tende a sobrestimar a %MG nas crianças mais magras e a subestimar nas mais gordas. A equação de Slaugther e col., (1988) apresentou uma validade aceitável na avaliação da composição corporal num grupo de crianças, constituindo uma alternativa rápida na estimação da composição corporal numa avaliação inicial em escolas, clubes e estudos de larga escala. Contudo a sua utilidade, para uma correcta intervenção na saúde da criança, pode apresentar uma validade limitada, pelo que pode ser justificada a utilização de um método mais válido em termos clínicos, como a DXA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos Jogos Desportivos Colectivos o estudo do jogo, a partir da observação das condutas dos jogadores e das equipas, vem permitindo um aumento do conhecimento sobre os mesmos, sendo um contributo importante tanto para a aprendizagem como para o aumento da eficácia das acções desportivas. O presente trabalho utilizou a Metodologia Observacional e análise sequencial para a caracterização do nível de eficácia no Mini-Voleibol, entendido como o resultado que se obtém através do desempenho. Pretendeu-se, efectuando uma análise centrada no jogo: (1) detectar relações de associação e dependência sequenciais entre unidades de conduta; (2) tipificar as acções que se associam a um desempenho eficaz, ao nível da formação inicial no Voleibol; (3) pesquisar indicadores, para determinar o objectivo dos exercícios a desenvolver no treino, dando maior ênfase, aos procedimentos táctico-técnicos que a análise demonstre mais débeis no jogo. A amostra do estudo foi constituída pela totalidade dos rallies observados em oito jogos das equipas femininas participantes no Encontro Nacional de Mini-Voleibol referente à época 2005-2006. Efectuou-se a análise descritiva e sequencial dos dados, utilizando a técnica das transições ou retardos de uma forma prospectiva e retrospectiva. Os resultados do presente estudo permitiram concluir: (1) a organização colectiva das acções no jogo (4x4) revela fraca eficácia ofensiva, havendo pouca progressão da bola para a rede. Em 35.7% dos comportamentos a bola é reenviada ao 2º toque para o campo adversário. Em 64.3% dos desempenhos, a construção do ataque é organizada, utilizando os três toques; (2) no serviço efectuado por cima é significativa a probabilidade de ocorrer erro na recepção efectuada em manchete, enquanto o serviço efectuado por baixo inibe a ocorrência de erro na recepção em manchete; (3) o passe em suspensão é o mais utilizado, com 47.2 % no total dos recursos de ataque observados ao 3º toque, nos rallies registados; (4) é significativa a probabilidade da conduta ataque com êxito ser antecedida pela distribuição em passe continuado e precedida pela defesa em manchete com erro; (5) o erro na defesa tem uma probabilidade significativa de ser precedida de distribuição em passe e ataque com êxito. (6) As acções de jogo no Mini-Voleibol feminino (4x4), nos rallies observados, concentram-se maioritariamente nos ⅔ do campo, mais próximos da rede (85 %).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a evolução constante da tecnologia, também a ciência da medição, ou Metrologia, necessita de processos de medição mais exatos e fiáveis, por vezes automatizados, de modo a ser possível fornecer informações mais corretas sobre uma determinada grandeza física. Entre estas informações destaca-se a incerteza de medição, que permite ao utilizador ter uma estimativa sobre qual o valor final da grandeza física medida, que com processos de medição mais complexos, tornam a sua obtenção mais difícil, sendo necessário, por vezes, a utilização de métodos computacionais. Tendo isto em conta, com esta dissertação pretende-se abordar o problema da automatização de processos de medição, bem como da obtenção de incertezas de medição que reflitam a natureza da grandeza física medida através de métodos computacionais. De modo a automatizar um processo de medição, mais concretamente da calibração de manómetros, utilizou-se o LabView para criar um instrumento virtual que permitisse ao utilizador, de forma simples e intuitiva, realizar o procedimento de calibração. Também se realizou outro instrumento virtual, de modo a permitir a obtenção simultânea de dados provenientes de dois equipamentos diferentes. Relativamente às incertezas de medição, utilizou-se o Método de Monte Carlo, implementado em MATLAB e Excel, de modo a obter o valor destas para a calibração de manómetros, de uma câmara geradora de humidade relativa e de um higrómetro de ponto de orvalho, sendo que os dois últimos possuem um modelo matemático complexo, sendo a análise analítica mais complexa e morosa. Tendo em conta os resultados obtidos, é possível afirmar que a criação de instrumentação virtual permite a adaptação, de uma forma simples, de vários processos de medição, tornando-os mais eficientes para além de reduzirem o erro do operador. Por outro lado, também é possível observar que a utilização de métodos computacionais, neste caso o Método de Monte Carlo, para estudo de incertezas de medição é uma mais valia, comparativamente ao GUM, permitindo umaa análise rápida e fiável de modelos matemáticos complexos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O relatório refere-se ao estágio efectuado no Club Sport Marítimo, secção de Natação onde se realizou um trabalho dedicado à detecção de erros técnicos em nadadores, para proceder posteriormente à sua correcção. Partiu-se da observação e posterior registo (check list) para a elaboração de um plano de acção através de “drills” adequados para cada situação, de modo a corrigir os erros detectados. Para este efeito, utilizando a metodologia observacional, observaram-se os 18 nadadores que constituem a amostra, recorrendo a um instrumento adaptado e validado de acordo com os objectivos a alcançar. Estes nadadores foram observados ao longo da época desportiva 2010/2011, em três provas do Calendário Regional de Natação Pura Desportiva (NPD) da Associação de Natação da Madeira (ANM). Os resultados atingidos parecem-nos claramente positivos, já que foram corrigidos 84% e 86,9% dos erros inicialmente detectados, respectivamente, na técnica de Costas e de Crol. Podemos afirmar também que, a maior parte dos erros, foram colmatados num período de tempo relativamente curto. Outros, contudo, levarão mais tempo a serem ultrapassados, o que dependerá do grau de complexidade do erro e da maior ou menor capacidade no que toca à aprendizagem motora do nadador em questão. Esperamos com este pequeno estudo poder contribuir para que os treinadores dêem a devida atenção à vertente técnica durante a planificação das épocas desportivas, o que se traduz na construção das sessões de treino com drills, visando uma melhor preparação dos atletas para a competição, promovendo, desta forma o sucesso. Pensamos que vale a pena “perder tempo” com a aplicação de drills em situação de treino, o que na realidade faz consumir muito tempo de treino (é um trabalho minucioso e de qualidade) para ganhar tempo e nível técnico em situação de competição – objectivo premente para o nadador e o treinador envolvidos num contexto desta natureza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A durabilidade das estruturas de betão armado é atualmente encarada como uma grande preocupação,é uma das principais incertezas e com graves consequências económicas, ambientais e sociais. Com a crescente falta de durabilidade e com a necessidade de construir estruturas sustentáveis, surge a preocupação do desenvolvimento do betão autocompactável (BAC). Este betão surge no final dos anos 80 no Japão e insere-se nos betões especiais, com capacidade de garantir à construção grandes benefícios tecnológicos, económicos e ambientais. Trata-se de uma tecnologia sustentável cuja principal vantagem é a qualidade dos trabalhos de compactação em obra, pois este surge para colocar inteiramente de parte o processo de compactação, obtendo-se assim um material homogéneo e consequentemente mais durável. Apesar do BAC possuir excelentes propriedades, a sua implementação na indústria da construção na RAM encontra-se ainda numa fase embrionária. O presente trabalho consiste no estudo e desenvolvimento experimental deste novo material, utilizando os materiais correntemente utilizados na Região Autónoma da Madeira (RAM). Esta dissertação pretende, em parte, ser um contributo para o estabelecimento de uma metodologia que conduza a composições otimizadas, baseando-se num procedimento de tentativa-erro, de forma a satisfazer todos os requisitos de desempenho. Verificou-se ao longo do desenvolvimento deste trabalho, aplicabilidade do BAC na RAM. Foram realizados alguns dimensionamentos de composições autocompactáveis, para isso, inicialmente realizaram-se vários estudos em pastas, argamassas e consequentemente em betões. De forma, avaliar a autocompactabilidade e caracterizar este tipo de betão no estado fresco, foram realizados um conjunto de ensaios em laboratório e ensaios de caracterização mecânica no betão endurecido. Com o objetivo de validar o estudo das composições analisadas em laboratório, foram realizadas algumas aplicações em condições reais, isto é, em produção industrial. Conseguiram-se alcançar as propriedades adequadas de um BAC, sem alterar significativamente os procedimentos de amassadura, transporte e colocação estabelecidos para o betão convencional. Os resultados obtidos foram satisfatórios e culminaram com a apresentação de uma proposta de betão autocompactável otimizada para o lançamento do produto no mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo insere-se na tentativa de revelação de um episódio casual na história das relações diplomáticas entre Portugal e Marrocos nos finais do século XVIII. Ocorrido entre abril e agosto de 1793, os portugueses veem-se, repentinamente, a braços com uma situação diplomática sensível e que urge a tomada de decisões clara e sem margem de erro. O objectivo primordial é o de conhecer todos os factos e as suas consequências, tentando demonstrar como também os incidentes podem gerar benefícios. O contacto entre as culturas, efetuado através da comunicação oral e escrita, permite-nos verificar o esforço de cada uma das partes na preservação e manutenção da própria identidade numa inócua tentativa de impedimento ao contágio cultural. É essa identidade que pretendemos evidenciar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Precipitação é toda a forma de deposição de água que cai na superfície terrestre, excluindo aquela que se deposita por nevoeiros, condensação do vapor de água e geada. A medição pontual de precipitação usando udógrafos, durante um determinado período de tempo, tem por objetivo obter uma amostra significativa da queda de precipitação numa determinada área limitada, para poder ser usada em estudos hidrológicos necessários ao planeamento dos recursos hídricos e conceção de todo o tipo de projetos de Engenharia. Estudos efetuados por todo o mundo afirmam que o efeito do vento é o erro tem maior influência na medição de precipitação de um determinado local. Neste estudo será realizado a análise do efeito do vento na medição da quantidade da precipitação, em dois locais da ilha da Madeira (Pico do Areeiro e Funchal), com o objetivo de encontrar uma equação do fator corretivo de precipitação, recorrendo a análise estatística ANOVA do SPSS. A recolha dos dados para a elaboração deste estudo processou-se de Outubro de 2011 até Abril de 2013. Os resultados demonstraram que o udógrafo ao nível do solo regista um maior número de eventos de superior registo de precipitação do que udógrafo do IPMA, situado a 1,5 m de altura acima do solo. No entanto, existe maior registo quantitativo de precipitação no udógrafo do IPMA, comparativamente com o udógrafo do solo. A ocorrência deste último facto poderá dever-se a possíveis erros no registo/medição de precipitação. Na estimativa das equações do fator corretivo de precipitação (k) do Pico do Areeiro e do Funchal, através da análise ANOVA do SPSS, chegou-se à conclusão que, o fator corretivo de precipitação do Pico do Areeiro depende da intensidade de precipitação e da velocidade do vento contudo, o fator corretivo de precipitação do Funchal depende, exclusivamente da intensidade de precipitação.