931 resultados para Erros de estimativa
Resumo:
As preocupações com o uso da terra têm permeado inúmeros estudos científicos, no âmbito nacional e internacional, voltados para a avaliação dos impactos ambientais causados pelas atividades agropecuárias. Alguns processos do ciclo hidrológico, a exemplo da evapotranspiração apresentam modificações consideráveis, devido às constantes mudanças nos usos dos solos. Desta forma, o presente trabalho busca destacar o problema das rápidas e intensas mudanças no uso do solo oriundas da expansão da atividade agropecuária e seus impactos ao meio ambiente, especialmente sobre o processo da evapotranspiração regional, na mesorregião do Sul Goiano, região típica de cerrado, localizada no centro-oeste brasileiro. A aplicação do algoritmo Surface Energy Balance Algorithm for Land - SEBAL consistiu o cerne da metodologia utilizada, com vista à estimativa dos fluxos de energia e da evapotranspiração em escala regional, obtidos com base no equacionamento do balanço de energia à superfície, complementado por dados de temperatura do ar e velocidade do vento adquiridos em estações meteorológicas (PCDs) instaladas na área de estudo. Foram utilizados dados do sensor MODIS/TERRA dos anos 2006, 2007, 2008, 2009 e 2010. O algoritmo foi testado em sua forma clássica e modificado por alterações nos critérios de seleção dos pixels âncoras, utilizados no procedimento da estimativa do fluxo de calor sensível. Pode-se concluir que a alteração dos critérios influenciou positivamente os resultados obtidos e que os valores da evapotranspiração, na região estudada, indicaram a potencialidade da metodologia empregada para o monitoramento sistemático dos componentes do balanço de energia em escala regional.
Resumo:
The most important fisheries of Maputo Bay (Mozambique) are the gill netting of the Hilsa kelee and the trawling of the shrimps Penaeus indicus and Metapenaeus monoceros . Data of capture and yields are presented and the number of artisanal fishing boats and semi-industrial fishing vessels is given.
Resumo:
Nos diversos segmentos da Geotecnia e em especial na área de fundações, o engenheiro se depara com uma série de incertezas. Algumas destas incertezas são inerentes à variabilidade local do solo, às condições de carregamento, aos efeitos do tempo, às diferenças nos processos executivos, erros de sondagens, que influenciam diretamente a estimativa da capacidade de carga da fundação, seja por ocasião de seu carregamento estático, seja durante ou logo após a cravação. O objetivo desta dissertação é a adaptação, a estacas em terra (onshore), de um procedimento concebido originalmente para emprego em estacas offshore, que trata da atualização da estimativa da resistência durante a cravação, com base em registros documentados durante a execução. Neste procedimento a atualização é feita através da aplicação dos conceitos da análise Bayesiana, assumindo que os parâmetros da distribuição probabilística utilizada sejam variáveis randômicas. A incerteza dos parâmetros é modelada por distribuições a priori e a posteriori. A distribuição a posteriori é calculada pela atualização da distribuição a priori, utilizando uma função de máxima verossimilhança, que contém a observação obtida dos registros de cravação. O procedimento é aplicado a um conjunto de estacas de um extenso estaqueamento executado na Zona Oeste do Rio de Janeiro. As estimativas atualizadas são posteriormente comparadas aos resultados dos ensaios de carregamento dinâmico. Várias aplicações podem surgir com o emprego deste procedimento, como a seleção das estacas que, por apresentarem reduzido valor de estimativa atualizada de resistência, ou uma maior incerteza desta estimativa, devam ser submetidas a provas de carga. A extensão deste estudo a diferentes tipos de estacas em perfis de solo de natureza distintos poderá levar ao desenvolvimento de sistemas mais adequados de controle de execução, capazes de identificar as principais incertezas presentes nos diferentes tipos de execução de estacas, contribuindo assim para a otimização de futuros projetos de fundações.
Resumo:
Estudos envolvendo estimativas de parâmetros populacionais de cetáceos baseados em dados de foto-identificação têm crescido ao longo dos anos, possibilitando estimar parâmetros como abundância, sobrevivência, probabilidade de captura e padrões de emigração. No Brasil, ainda são poucos os estudos com cetáceos que utilizam essa abordagem, contudo, eles estão aumentando, principalmente com a espécie Sotalia guianensis (van Bénéden, 1864), conhecida como boto-cinza. O objetivo desse trabalho foi estimar a sobrevivência, a probabilidade de captura, a emigração e a abundância da população de botos-cinza na Baía de Paraty (RJ; 2307S 4433W), utilizando modelos de marcação-recaptura baseados em dados de foto-identificação, entre os anos de 2005 e 2009. Os cruzeiros foram realizados entre agosto de 2005 e julho de 2009 com uma embarcação de 26 pés e motor de 200hp. As fotografias das nadadeiras dorsais foram tomadas com a utilização de uma câmera digital Canon 20D equipada com lente de zoom 100-400mm. Foram realizadas 60 saídas de campo na Baía de Paraty totalizando 172 horas de esforço no campo, sendo 72 horas de esforço fotográfico. Nas 42 saídas com observação de botos-cinza foram efetuadas 27.892 fotografias e, destas, 6.612 (23,7%) foram consideradas adequadas e utilizadas na identificação dos indivíduos de boto-cinza. Um total de 621 indivíduos foi catalogado com base em marcas permanentes na nadadeira dorsal. Os históricos individuais de captura foram analisados no programa MARK. A estimativa de sobrevivência variou de 0,82 ( 0,05) a 0,85 ( 0,05) e a probabilidade de captura variou de 0,16 ( 0,04) a 0,40 ( 0,06). O número de indivíduos marcados na população estimado pelo modelo de Jolly-Seber foi de N = 586 ( 114,66) (IC: 361-811). A proporção de animais marcados na população para o modelo de JS foi de 0,66 ( 0,03). A partir desse valor, foi possível obter uma abundância total de 884 indivíduos ( 176,8) (IC: 602-1296). A probabilidade de emigração temporária (γ``) e de permanecer fora da área (γ`) foi de 0,43 ( 0,07) e a probabilidade de captura/recaptura variou de 0,01 ( 0,01) a 0,42 ( 0,05). A probabilidade de permanência na área (1 - γ``), assim como a probabilidade de retorno da emigração temporária (1 - γ`) foi 0,57. Apesar dos movimentos significativos de indivíduos transientes, uma vez que a área amostrada é menor do que as áreas de vida que se tem estimadas para o boto-cinza, os dados indicam uma residência moderada dos botos-cinza. A abundância anual total variou de 325 para o ano de 2005 a 448 para o ano de 2009. A análise de poder determinou que seriam necessários nove anos de estudo para observar uma tendência de queda de 5% no tamanho da população. Os resultados reforçam que a Baía de Paraty abriga uma das maiores populações já estimadas para Sotalia guianensis.
Resumo:
Áreas alagadas são importantes devido à grande biodiversidade que sustentam e aos serviços ambientais gerados pela sua conservação. Essas áreas, quando dominadas por macrófitas, tendem a suportar grande biodiversidade e assumir grande valor de conservação. Assim, o monitoramento do estabelecimento deste importante componente do ecossistema durante um projeto de recuperação de ecossistemas é importante para avaliar o sucesso da sua recuperação. Este trabalho teve como objetivo estimar aquantidade de biomassa por área acumulada em um ecossistema ao longo de um gradiente de recuperação. Através da classificação não supervisionada gerada a partir de de imagens de satélite de alta resolução (GeoEye-1) e amostragem destrutiva foram estimadas quantidades de biomassa por área em três alagados em recuperação na Reserva Ecológica Guapiaçú. A classificação não supervisionada se mostrou uma ferramenta acurada e eficiente no mapeamento de classes de vegetação. Os alagados estudados apresentam uma taxa de acúmulo de carbono anual estimada em 1,12 MgC.hec-1 atingindo um máximo de 5.55 MgC.hec-1 no terceiro ano. Adicionalmente, foi observada uma correlação negativa entre biomassa e profundidade.
Resumo:
Este trabalho estima, utilizando dados trimestrais de 1999 a 2011, o impacto dinâmico de um estímulo fiscal no Brasil sobre as principais variáveis macroeconômicas Brasileiras. Na estimativa dos impactos permitiu-se que as expectativas dos agentes econômicas fossem afetadas pela existência e probabilidade de alternância de regimes (foram detectados dois regimes) na política monetária do país. Os parâmetros da regra da política monetária, nos dois regimes detectados, foram estimados através de um modelo - composto apenas pela equação da regra da política monetária - que permite uma mudança de regime Markoviana. Os parâmetros do único regime encontrado para a política fiscal foram estimados por um modelo Vetorial de Correção de Erros (Vector Error Correction Model - VEC), composto apenas pelas variáveis pertencentes à regra da política fiscal. Os parâmetros estimados, para os diversos regimes das políticas monetária e fiscal, foram utilizados como auxiliares na calibragem de um modelo de equilíbrio geral estocástico dinâmico (MEGED), com mudanças de regime, com rigidez nominal de preços e concorrência monopolística (como em Davig e Leeper (2011)). Após a calibragem do MEGED os impactos dinâmicos de um estímulo fiscal foram obtidos através de uma rotina numérica (desenvolvida por Davig e Leeper (2006)) que permite obter o equilíbrio dinâmico do modelo resolvendo um sistema de equações de diferenças de primeira ordem expectacionais dinâmicas não lineares. Obtivemos que a política fiscal foi passiva durante todo o período analisado e que a política monetária foi sempre ativa, porém sendo em determinados momentos menos ativa. Em geral, em ambas as combinações de regimes, um choque não antecipado dos gastos do governo leva ao aumento do hiato do produto, aumento dos juros reais, redução do consumo privado e (em contradição com o resultado convencional) redução da taxa de inflação.
Resumo:
Esta dissertação tem como objetivo apresentar uma estimativa preliminar do volume de recurso contingente não-convencionais de folhelhos oleígenos (oil shale) na Formação Tremembé através de métodos probabilísticos aplicados à informações compiladas de bibliografias existentes sobre a bacia. Como base para esta estimativa utilizou-se informações obtidas através de sísmica 2D, poços existentes na área e perfis geoquímicos. Através da interpretação dos mesmos foram gerados os valores de inputs para os parâmetros utilizados no cálculo, como: espessura econômica, densidade do minério e valor de Ensaio Fisher (Litros de óleo por tonelada de rocha). Para a análise foi construída uma planilha Excel no qual já descrito cada parâmetro do cálculo. Foi utilizado o software @Risk, da Palisade Inc., que é capaz de atribuir distribuições estatísticas a parâmetros utilizados no cálculo obtendo, a partir do método Monte Carlo, distribuições dos possíveis resultados. A metodologia apresentada se demonstra mais adequada ao caso em estudo que o método determinístico, devido a restrição e ausência da precisão dos dados o que aumentaria as incertezas e as chances de erro no cálculo do volume, podendo impossibilitar uma avaliação, no caso do segundo. A metodologia probabilística ao mesmo tempo em que permite uma avaliação preliminar na ausência de dados precisos, ela gera cenários probabilísticos de resultados, possibilitando a antecipação da tomada de decisões em um projeto, permitindo sua continuação ou abandono.
Resumo:
Foi examinado o efeito dos surfactantes polisorbato 60 (Tween 60), polisorbato 80 (Tween 80), brometo de cetil trimetil amônio (CTAB) e lauril sulfato de sódio (SDS) na estimativa da densidade de Bactérias Redutoras de Sulfato (BRS) e Bactérias Anaeróbias Heterotróficas Totais (BANHT) em amostras de petróleo. Para a realização dos experimentos, foram selecionadas três amostras com diferentes proporções de óleo e água de forma a representar amostras reais. A primeira amostra contém uma alta proporção de óleo, a segunda uma proporção média e a última amostra uma baixa proporção de óleo. A densidade bacteriana foi estimada através do método do Número Mais Provável (NMP). As concentrações dos surfactantes empregadas neste estudo foram estabelecidas através de estudo anterior. Os resultados demonstram que nas amostras com alta e média proporção de óleo, a adição dos surfactantes não foi favorável a um aumento na quantificação de BRS. Por outro lado, o Tween 60 e o Tween 80 mostraram um aumento significativo na quantificação de BANHT quando aplicados na concentração de 0,01% e 0,03% m/v, respectivamente. O CTAB favoreceu o crescimento de BRS e BANHT na amostra com baixa proporção de óleo quando sua concentração foi de 0,001% m/v e 0,0001% m/v, respectivamente
Resumo:
Nesta pesquisa utilizou-se um equipamento experimental que utiliza o método do eco-impacto produzido no Laboratório de Ensaios Físicos do Instituto Politécnico do Rio de Janeiro (UERJ/IPRJ), para estimar a espessuras de placas de concreto através da propagação de ondas de tensão geradas por um impacto. Para determinação dessa espessura, foram investigados vários mecanismos de estruturação do protótipo do equipamento com objetivo de se obter a melhor leitura possível, por meio das literaturas existentes. Entre parâmetros avaliados no estudo, estava o modelo de sensor a ser utilizado, o tipo de impactor, a precisão relacionada à aquisição de dados e o tratamento do mesmo, a distância entre o ponto de impacto e o transdutor (sensor), e o local de teste. Os resultados experimentais concordam com as previsões teóricas e revelam que este método é eficiente para análise de estrutura de concreto. A análise da espessura e resposta em frequência de um novo protótipo desenvolvido e os testes realizados possibilitou um erro médio de espessura real para amostras sem agregados de 0,39% e para as amostras com agregados com de 0,64%. Esses resultados apontam que o equipamento produzido tem potencial e que o mesmo pode ser utilizado para avaliação de estrutura de concreto.
Resumo:
Nesta tese é realizada a modelagem do comportamento hidráulico dos principais rios que compõem a bacia hidrográfica do Rio Bengalas, localizada no município de Nova Friburgo-RJ, a qual abrange a área mais urbanizada da referida cidade. Para a realização das simulações foi utilizado o Sistema de Modelagem de Águas MOHID, ferramenta MOHID Land. Já para a calibração do modelo foram adotados alguns métodos de otimização, mais precisamente, os algoritmos de Luus- Jaakola (LJ) e Colisão de Partículas (PCA), acoplados ao referido sistema, com o intuito de determinar os principais parâmetros necessários à modelagem de corpos hídricos, bem como suas bacias hidrográficas. Foram utilizados dados topográficos do IBGE disponibilizados pela prefeitura após a elaboração do Plano de Águas Pluviais da região de interesse. Com o modelo devidamente calibrado por meio de dados experimentais, foi realizada a validação do mesmo através da simulação de inundações nesta região. Apesar de técnicas de otimização acopladas à plataforma MOHID terem sido utilizadas pela primeira vez em um rio de montanha, os resultados apresentaram-se importantes e qualitativamente satisfatórios do ponto de vista de auxílio à tomada de decisões, tendo como base a prevenção de danos causados pelas elevações da lâmina dágua que ocorrem frequentemente em Nova Friburgo, como por exemplo, a recente tragédia de janeiro de 2011 ocorrida na Região Serrana do Estado do Rio de Janeiro.
Resumo:
Neste trabalho é apresentado a aplicação de um método de otimização a fim de estimar parâmetros que normalmente estão presentes na modelagem matemática da dinâmica de espécies químicas na interface água-sedimento. O Problema Direto aqui consistiu na simulação das concentrações das espécies orgânicas e inorgânicas (amônia e nitrato) de nitrogênio, num ambiente idealizado, o qual foi fracionado em quatro camadas: uma camada de água (1 metro) e três camadas de sedimento (0-1 cm, 1-2 cm e 2-10 cm). O Problema Direto foi resolvido pelo Método de Runge Kutta, tendo sido gerada uma simulação de 50 dias. Na estimativa dos coeficientes de difusão e porosidade foi aplicado o Método Simulated Annealing (SA). A eficiência da estratégia aqui adotada foi avaliada através do confronto entre dados experimentais sintéticos e as concentrações calçadas pela solução do Problema Direto, adotando-se os parâmetros estimados pela SA. O melhor ajuste entre dados experimentais e valores calculados se deu quando o parâmetro estimado foi a porosidade. Com relação à minimização da função objetivo, a estimativa desse parâmetro também foi a que exigiu menor esforço computacional. Após a introdução de um ruído randômico às concentrações das espécies nitrogenadas, a técnica SA não foi capaz de obter uma estimativa satisfatória para o coeficiente de difusão, com exceção da camada 0-1 cm sedimentar. Para outras camadas, erros da ordem de 10 % foram encontrados (para amônia na coluna dágua, pro exemplo). Os resultados mostraram que a metodologia aqui adotada pode ser bastante promissora enquanto ferramenta de gestão de corpos dágua, especialmente daqueles submetidos a um regime de baixa energia, como lagos e lagoas costeiras.
Resumo:
MENEZES, Patrick Lourenço. Erros pré-analíticos em medicina laboratorial: uma revisão sistemática. 2013. 98 f. Dissertação (Mestrado em Saúde, Medicina Laboratorial e Tecnologia Forense) - Instituto de Biologia Roberto Alcântara Gomes, Universidade do Estado do Rio de Janeiro, Rio de Janeiro, 2013. A relevância evidente dos erros pré-analíticos como problema de saúde pública fica patente tanto no dano potencial aos pacientes quanto nos custos ao sistema de saúde, ambos desnecessários e evitáveis. Alguns estudos apontam que a fase pré-analítica é a mais vulnerável a erros, sendo responsável por, aproximadamente, 60 a 90% dos erros laboratoriais em consequência da falta orientação aos pacientes sobre os procedimentos que serão realizados no laboratório clínico. Objetivos: Sistematizar as evidências científicas relacionadas aos erros pré-analíticos dos exames laboratoriais de análises clínicas. Método: Uma revisão sistemática foi realizada, buscando as bases de dados do Medical Literature Analysis and Retrieval System Online (MEDLINE), Scopus(que inclui MEDLINE e Embase), ISI Web of Knowledge, SciFinder, Literatura Latino-Americana e do Caribe em Ciências da Saúde (Lilacs) (que inclui a Scientific Electronic Library Online SciELO) e o Índice Bibliográfico Espanhol de Ciências de Saúde (IBECS), para artigos publicados entre janeiro de 1990 e junho de 2012 sobre erros de exames laboratoriais que possam ocorrer na fase pré-analítica. Os estudos foram incluídos de acordo com os seguintes exames laboratoriais: hemograma, análise bioquímica do sangue total ou do soro, exames de coagulação sanguínea,uroanálise e exames hematológicos ou bioquímicos em outros materiais e categorizados pelo tipo de erro pré-analítico e pela frequência dos incidentes. Resultados: A busca nas bases de dados bibliográficas resultou no seguinte número de artigos recuperados: 547 na MEDLINE, 229 na Scopus, 110 na ISI, 163 na SciFinder, 228 na Lilacs e 64 na IBECS, perfazendo um total de 1.341 títulos. Ao fim da revisão sistemática, obteve-se um conjunto de 83 artigos para leitura de texto completo, dos quais 14 foram incluídos na revisão. Os estudos abrangeram diferentes tipos de laboratórios, setores técnicos e origem de erros, segundo a fase do processo laboratorial. Discussão: Sete artigos demonstraram erros de pedidos médicos, com uma alta variabilidade nos valores de incidência. Os seis artigos que estudaram erros de coleta de amostra observaram redução deste desfecho. As proporções de eventos adversos relatados e os impactos clínicos variaram, levando a consequências descritas como: erros decorrentes da flebotomia, recoleta de amostras, repetições de exames, atrasos na liberação de resultados de exames e possíveis danos ao paciente. Conclusões: O laboratório deve ter instruções por escrito para cada teste, que descreva o tipo de amostra e procedimento de coleta de amostra. Meios de identificação por código de barras, sistemas robóticos e analíticos reduzem os erros pré-analíticos. A melhoria da fase pré-analítica de testes laboratoriais permanece um desafio para muitos laboratórios clínicos.
Resumo:
Projetos de construção são caracterizados pela escala, complexidade e seus riscos. Não é incomum encontrar planejamento e definição de escopo incompletos o que leva a aumento de custos e prazos. O objetivo desse trabalho é descrever um método de avaliação de riscos de forma a aumentar a previsibilidade da estimativa de custos do empreendimento. Para isso foram utilizados conceitos de gerenciamento de projetos, de simulação e de analise de riscos descritos na literatura para a constituição de um método de análise de riscos em estimativa de custos. A aplicação do método proposto em comparação com o método tradicional traz vantagens no que diz respeito à abrangência da análise. Enquanto pelo método tradicional a análise do empreendimento se faz por meio de suas tarefas, o método proposto analisa de forma distinta o planejamento do empreendimento nas suas três dimensões fundamentais: escopo, prazo e custo.
Resumo:
Projetos de construção são caracterizados pela escala, complexidade e seus riscos. Não é incomum encontrar planejamento e definição de escopo incompletos o que leva a aumento de custos e prazos. O objetivo desse trabalho é descrever um método de avaliação de riscos de forma a aumentar a previsibilidade da estimativa de custos do empreendimento. Para isso foram utilizados conceitos de gerenciamento de projetos, de simulação e de analise de riscos descritos na literatura para a constituição de um método de análise de riscos em estimativa de custos. A aplicação do método proposto em comparação com o método tradicional traz vantagens no que diz respeito à abrangência da análise. Enquanto pelo método tradicional a análise do empreendimento se faz por meio de suas tarefas, o método proposto analisa de forma distinta o planejamento do empreendimento nas suas três dimensões fundamentais: escopo, prazo e custo.
Resumo:
Esta dissertação apresenta o desenvolvimento de um sistema de tomada de decisão que propõe uma metodologia inteligente, de tal maneira a efetuar a melhor alocação possível de um grupo de usuários a um grupo de recursos em um espaço geográfico. Tal metodologia se baseou na lógica fuzzy e ao longo da dissertação foram feitas comparações com outras técnicas, como o Algoritmo Ingênuo e a Busca Exaustiva. O conjunto de dados que foi adotado como o escopo desse trabalho foi a matrícula de alunos do município de Nova Iguaçu.