983 resultados para CODIGOS CORRETORES DE ERROS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A produção de H2S (sulfeto de hidrogênio) é um dos principais problemas na indústria do petróleo, sendo esta uma das causas da corrosão de tanques de estocagem e tubulações. Essa produção é possibilitada devido à injeção de água do mar durante o processo de recuperação secundária do petróleo, onde alguns micro-organismos presentes nessa água, tais como as bactérias anaeróbias heterotróficas totais (BANHT) e as bactérias redutoras de sulfato (BRS), que promovem a redução do sulfato a sulfeto. Atualmente, o método de quantificação destes micro-organismos é a técnica do Número Mais Provável (NMP) que estima o resultado em aproximadamente 28 dias. No presente trabalho foi utilizada a metodologia da produção semi-contínua de sulfeto biogênico pelo período de 15 dias, com o intuito de correlacionar com os resultados das quantificações de BANHT e BRS através da técnica convencional do NMP. Foram analisadas amostras de diferentes procedências da indústria do petróleo, apresentando variação na salinidade de 0 a 16 g.L-1. O objetivo deste procedimento foi avaliar as velocidades específicas e instantâneas de produção de H2S, sugerindo, desta forma, quais amostras apresentam maior potencial para a produção biogênica de sulfeto e em quais condições essa produção se dá. Observou-se que em todas as amostras a geração do H2S se dá de forma crescente até a estabilização desta produção, sendo esta obtida quase sempre em seis dias (144h) do crescimento microbiano. A produção do sulfeto biogênico se deu de forma mais intensa nas amostras do fundo de tanque de estocagem de óleo e da água de formação. A quantificação das BANHT e das BRS foram avaliadas pelo método do NMP de acordo com a tabela de Harrigan, a qual subestima a população microbiana, desconsiderando erros provenientes da técnica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos temas mais estudados na área de finanças, em especial na análise de créditos, são os modelos que buscam prever a capacidade das empresas em se manterem solventes. Via de regra, tais estudos buscam, dentre vários indicadores, aqueles que se mostram mais apropriados para realizar tal predição. Nesse trabalho propõe-se um outro olhar sobre os modelos de previsão. Partindo de modelos já consagrados na literatura, escolheram-se os indicadores contábeis mais utilizados, que foram comparados, através da Análise Discriminante e da Regressão Logística, com os indicadores oriundos do Modelo Dinâmico. O objetivo do estudo foi verificar se os indicadores do Modelo Dinâmico oferecem melhores resultados que os indicadores tradicionais. O trabalho se baseia numa amostra com 48 empresas, composta de 24 insolventes e as outras 24 ditas como saudáveis, tratadas como pares das insolventes, escolhidas dentro do mesmo setor econômico de cada uma das insolventes. Além disso, foi incluída no estudo a classificação de empresas de Fleuriet como variável qualitativa. Os resultados obtidos não apresentam evidências sobre a superioridade de um ou outro conjunto de indicadores, mas, os melhores resultados alcançados derivam da inclusão da classificação de empresas de Fleuriet, seja através da Análise Discriminante, seja através da Regressão Logística, conseguindo no melhor dos resultados, um percentual de acerto total de 83,3%. A análise minuciosa dos erros de classificação ensejou uma proposta de reordenação dos tipos de situação de liquidez originalmente propostos por Fleuriet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudo de comparação entre dois métodos de coleta de dados, através da aplicação de um software, para avaliação dos fatores de risco e danos no trabalho de enfermagem em hospital. Objetiva analisar o uso do software (eletrônico) em comparação com o uso do instrumento impresso. Trata-se de um estudo estatístico, descritivo com abordagem quantitativa, desenvolvido nas enfermarias dos Serviços de Internações Clínicas e Serviços de Internações Cirúrgicas de um Hospital Universitário, no estado do Rio de Janeiro. A população do estudo foram os trabalhadores de enfermagem das unidades. A amostra foi definida por meio de amostragem não-probabilística e alocação da amostra ocorreu de forma aleatória em dois grupos, denominados grupo impresso e grupo eletrônico, com 52 participantes cada. Previamente a coleta de dados foram implementadas estratégias de pesquisa denominada teaser, através da comunicação digital aos trabalhadores. Posteriormente, foi ofertado aos participantes do formato impresso o questionário impresso, e os participantes do formato eletrônico receberam um link de acesso a home page. Os dados foram analisados através da estatística descritiva simples. Após a aplicação do questionário nos dois formatos, obteve-se resposta de 47 trabalhadores do grupo impresso (90,3%), e 17 trabalhadores do grupo eletrônico (32,7%). A aplicação do questionário impresso revelou algumas vantagens como o número de pessoas atingidas pela pesquisa, maior interação pesquisador e participante, taxa de retorno mais alta, e quanto às desvantagens a demanda maior de tempo, erros de transcrição, formulação de banco de dados, possibilidades de resposta em branco e erros de preenchimento. No formato eletrônico as vantagens incluem a facilidade de tabulação e análise dos dados, impossibilidade de não resposta, metodologia limpa e rápida, e como desvantagens, o acesso à internet no período de coleta de dados, saber usar o computador e menor taxa de resposta. Ambos os grupos observaram que o questionário possui boas instruções e fácil compreensão, além de curto tempo para resposta. Os trabalhadores perceberam a existência dos riscos ocupacionais, principalmente os ergonômicos, biológicos e de acidentes. Os principais danos à saúde provocados ou agravos pelo trabalho percebidos pelos trabalhadores foram os problemas osteomusculares, estresse, transtornos do sono, mudanças de humor e alterações de comportamento e varizes. Pode-se afirmar que não ocorreram diferenças acentuadas de percentual ao comparar a percepção dos trabalhadores do grupo impresso e do grupo eletrônico frente aos riscos e danos à saúde. Conclui-se que os dois processos de coleta de dados tiveram boa aceitação, no entanto, deve ser indicada a aplicação do questionário eletrônico junto com a ferramenta de acesso, no caso o computador, tablet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa tem como objeto os fatores que influenciam a mensuração glicêmica realizada pela enfermagem em pacientes que recebem insulina contínua intravenosa utilizando glicosímetros portáteis à beira leito. Vários fatores podem influenciar a mensuração glicêmica, tais como a amostra sanguínea, a calibração do aparelho, a estocagem das fitas-teste, o hematócrito dos pacientes, o uso de vasoaminas e falhas do operador. A partir da Tese de que: A identificação dos fatores que influenciam a mensuração glicêmica realizada pela enfermagem através de glicosímetros é determinante para a eficiência das barreiras de salvaguarda voltadas para a minimização de falhas na sua execução, a fim de garantir resultados glicêmicos confiáveis e, consequentemente, realizar a titulação da insulina com segurança, teve-se como objetivo geral propor ações de enfermagem que funcionem como barreiras para diminuir as falhas nas mensurações glicêmicas realizadas pela enfermagem em pacientes que recebem infusão contínua de insulina. Espera-se contribuir com ações para garantir a adequação e o controle rigoroso da insulina administrada. Estudo observacional, transversal, prospectivo com abordagem quantitativa na análise dos dados, em uma unidade intensiva cirúrgica cardiológica de um hospital público do Rio de Janeiro. As variáveis do estudo foram submetidas a tratamentos estatísticos não paramétricos e às medidas de associação. Foram investigados 42 pacientes com observação de 417 glicemias. Predominaram pacientes do sexo feminino (57,14%), média de idade de 48 (15,85) anos, sem insuficiência renal e sem tratamento dialítico (90,48%). Observou-se PAM com média de 77(10,29) mmHg, uso de vasoaminas (80,95%), PaO2 ≥ 90mmHg em 85,71% e hematócrito <35% em 71,42%. Encontrou-se uma incidência de hipoglicemia de 35,7%, sendo a população dividida em dois grupos, o primeiro (G1) com pacientes que apresentaram hipoglicemia ≤ 60mg/dl (n=15), e o segundo (G2), com pacientes sem hipoglicemia (n=27). O hematócrito baixo foi a característica clínica que apresentou maior associação com a hipoglicemia. Pacientes com esta condição apresentaram 5,60 vezes mais risco de apresentarem hipoglicemia. O uso de vasoaminas elevou 3,3 vezes o risco de hipoglicemia em pacientes com estas medicações. A realização de cirurgias de emergência, a presença de insuficiência renal com tratamento dialítico, e a elevação da PaO2 acima de 90mmHg também apresentaram associação positiva com a hipoglicemia. Das 417 mensurações observadas, predominou o uso de amostra sanguínea de origem arterial. Observou-se que em todas as etapas da técnica de mensuração houve desvio de execução, com exceção de compressão da polpa digital. Os desvios observados que mostraram associação positiva (RR>1) para pacientes com hipoglicemia foram: a falta de calibração do glicosímetro, a falta de verificação da validade/integridade da fita teste, a falta da higienização das mãos e a falta da coleta de até 1 ml de sangue. Construiu-se uma revisão da técnica de mensuração glicêmica com enfoque nos fatores que podem comprometer o resultado glicêmico levando em conta o risco de hipoglicemia. Tornou-se evidente que a compreensão apropriada dos fatores que influenciam a glicemia e a mensuração glicêmica é indispensável para o enfermeiro na obtenção de resultados glicêmicos confiáveis, e assim, evitar erros na titulação das doses de insulina administrada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vários trabalhos têm demonstrado uma relação entre sono e memória. Desta forma, tem sido descrito um papel importante do sono na consolidação da memória e um efeito negativo pela privação do mesmo. O hipocampo é uma região importante para a formação e consolidação da memória espacial, e contém uma alta expressão de receptores para corticosteróides. As ações dos corticosteróides no hipocampo são fundamentais para a aquisição de memória e dependem de um balanço adequado entre receptores de Glicocorticóides (RGc) e Mineralocorticóides (RMn). Assim é descrito na literatura que um aumento na expressão de RMn é promotor de aquisição de memória, enquanto que um aumento na expressão de RGc produz um efeito negativo. Apesar dos níveis circulantes de glicocorticóides na privação de sono paradoxal (PSP), não serem responsáveis pelo enfraquecimento de memória, não existem dados sobre a expressão dos receptores para corticosteróides no hipocampo, após PSP. Neste trabalho tivemos como objetivo investigar a expressão de receptores de Glicocorticóides no hipocampo, bem como avaliar aprendizado e memória em ratos privados de sono paradoxal. Ratos Wistar machos (250- 350g) foram submetidos à PSP, utilizando-se o método de múltiplas plataformas por um período de 96 horas. Após 96h de privação os animais foram anestesiados e perfundidos. Secções de 25 μm na área do hipocampo foram obtidas e reagidas com anticorpos para receptores de Glicocortidóides. Avaliamos as áreas CA1, CA3 e Giro Denteado. O aprendizado e memória espacial foram avaliados através do teste do labirinto aquático de oito braços, antes e após o período de privação de sono. Avaliou-se a latência de escape e o número de erros obtidos. O grupo PSP apresentou um aumento na expressão de RGc nas regiões: CA1 e Giro Denteado, não se observando diferença significativa na região CA3. A PSP prévia aos testes de aprendizado e memória não provocou alterações significativas. A privação de sono pós-aprendizado também não produziu diferenças estatisticamente significativas, mas um aumento no tempo de latência de escape e número de erros sugere um enfraquecimento na consolidação da memória. O aumento na expressão de RGc nas áreas estudadas, pode ser consequente a uma alteração no balanço entre os receptores para corticosteróides no hipocampo e ser responsável por alterações no aprendizado e memória em ratos PSP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A alteração no sistema de controles internos da empresa estudada teve como marco principal a mudança do foco no trabalho da auditoria interna, que começou a desempenhar suas atividades de forma estruturada e seguindo uma metodologia específica; além, de perseguir um objetivo estratégico da organização. A auditoria interna, antes do processo de certificação do sistema de controles internos exigido pela seção 404 da SOX, era apenas um instrumento de detecção de erros e compliance fiscal, que baseava seus trabalhos somente em fatos passados, com a constatação de deficiências de controles. Todavia, sem assessorar a alta a administração da empresa na resolução das deficiências, objetivando a implementação das melhorias dos controles internos. Com a necessidade de certificação da eficácia dos controles internos, a partir do ano de 2005, o foco dos trabalhos de auditoria interna foi direcionado para lograr melhorias nos métodos de controle, gestão de riscos, prevenção de fraudes e erros, nos processos operacionais, contábeis e financeiros da organização. O objetivo dessa pesquisa foi, por meio de estudo de caso único, mensurar os principais procedimentos realizados para a implantação do sistema de controles internos da empresa estudada, incluindo a metodologia adotada, o modelo escolhido, o processo de controle estabelecido, a identificação e avaliação dos principais riscos e controles, bem como a forma de seleção, avaliação e teste dos controles internos existentes. Buscou-se coletar dados preconizados pela literatura de autores renomados e analisar as diversas bibliografias, com o objetivo de comparar com a pesquisa que foi realizada nos documentos fornecidos pela empresa analisada. Este estudo levantou pontos importantes sobre o processo de gestão da empresa e da forma como se utilizou da auditoria interna como ferramenta para a melhoria de seus controles internos. Destacam-se a geração de valor empresarial que um bom ambiente de controle interno traz e os motivos que levam uma organização a implementar uma área de auditoria interna, com especial atenção ao foco de assessoramento e consultoria, alinhado as práticas internacionais de auditoria interna. Entretanto, apesar de observar melhorias na atuação da auditoria interna da organização, constata-se a necessidade de alinhamento de algumas práticas internacionais, ainda não implementadas. Descobriu-se, também, que a auditoria interna, com o devido emporwerment da alta administração, e utilizando-se das técnicas atuais e internacionais, aumentam a confiabilidade do sistema de controles internos e com isso geram valor às suas organizações. Nesta pesquisa pôde-se constatar a utilização da auditoria interna como ferramenta de gestão de recursos organizacionais, ocasionando melhorias no sistema de controles internos da empresa, e ficando constatada, por meio de auditoria executada por firma independente, a irrefutável melhoria dos controles internos da organização estudada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho consiste na análise crítica de normatizações e legislações referentes a sujeitos transexuais e travestis, no território brasileiro, contabilizando sessenta e um documentos, compreendidos entre 1997 e março de 2014. Ademais de podermos pensar o dispositivo da transexualidade que aparece como uma tentativa de docilizar corpos não-binários, domesticar sexualidades através da sua nomeação e reconhecimento social, reconhecimento este construído por um diagnóstico de transtorno de identidade de gênero. Que além de patologizar e psiquiatrizar vivências não normativas, destitui o sujeito trans* da autonomia sobre seu corpo, deslegitima sua identidade e o violenta de várias formas, até fixá-lo em padrões merecedores de políticas e direitos. A análise dos documentos apontou como conteúdo dois elementos centrais: uso do nome social e normas técnicas de patologização. Os discursos variam e ao mesmo tempo se assemelham, mostrando incongruências internas e reproduções errôneas (mas podemos falar em originalidade? E serão erros mesmo?). Dessa forma, criam-se alguns Frankensteins que podem ser potências, podem produzir anulações ou zonas de monstruosidade. Seja como abjeto, monstros ou ciborgues, as identidades trans* tencionam constantemente fronteiras e dialogam com o anômalo e as subjetividades nômades ao mesmo tempo em que oscilam entre discursos e figurações normatizadoras

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta resultados da aplicação de filtros adaptativos, utilizando os algoritmos NLMS (Normalized Least Mean Square) e RLS (Recursive Least Square), para a redução de desvios em previsões climáticas. As discrepâncias existentes entre o estado real da atmosfera e o previsto por um modelo numérico tendem a aumentar ao longo do período de integração. O modelo atmosférico Eta é utilizado operacionalmente para previsão numérica no CPTEC/INPE e como outros modelos atmosféricos, apresenta imprecisão nas previsões climáticas. Existem pesquisas que visam introduzir melhorias no modelo atmosférico Eta e outras que avaliam as previsões e identificam os erros do modelo para que seus produtos sejam utilizados de forma adequada. Dessa forma, neste trabalho pretende-se filtrar os dados provenientes do modelo Eta e ajustá-los, de modo a minimizar os erros entre os resultados fornecidos pelo modelo Eta e as reanálises do NCEP. Assim, empregamos técnicas de processamento digital de sinais e imagens com o intuito de reduzir os erros das previsões climáticas do modelo Eta. Os filtros adaptativos nesta dissertação ajustarão as séries ao longo do tempo de previsão. Para treinar os filtros foram utilizadas técnicas de agrupamento de regiões, como por exemplo o algoritmo de clusterização k-means, de modo a selecionar séries climáticas que apresentem comportamentos semelhantes entre si. As variáveis climáticas estudadas são o vento meridional e a altura geopotencial na região coberta pelo modelo de previsão atmosférica Eta com resolução de 40 km, a um nível de pressão de 250 hPa. Por fim, os resultados obtidos mostram que o filtro com 4 coeficientes, adaptado pelo algoritmo RLS em conjunto com o critério de seleção de regiões por meio do algoritmo k-means apresenta o melhor desempenho ao reduzir o erro médio e a dispersão do erro, tanto para a variável vento meridional quanto para a variável altura geopotencial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Espectrometria de Massa em Tandem (MS/MS) é mundialmente considerada padrão ouro para a Triagem Neonatal (TN) de Erros Inatos do Metabolismo (IEM). Além de apresentar melhor sensibilidade e especificidade possibilita rastrear uma vasta gama de IEM usando um único teste. Atualmente o Programa Nacional de Triagem Neonatal (PNTN) rastreia cinco doenças (Fenilcetonúria, Hipotiroidismo Congênito, Fibrose Cística, Hemoglobinopatias e Deficiência da Biotinidase). Uma das metas do PNTN é o aprimoramento e a incorporação de novas doenças e/ou tecnologias. Com a recente recomendação da CONITEC (Comissão Nacional de Incorporação de Tecnologias) para aquisição do MS/MS para diagnóstico de doenças raras, vislumbra-se o incremento desta tecnologia para ampliação de doenças triadas, melhora da qualidade do teste diagnóstico, corroborando para melhorar qualidade de vida das crianças acometidas pelos EIM. Este trabalho teve como objetivo realizar uma análise de custo efetividade, para incorporação da tecnologia de tandem MS/MS na triagem neonatal, sob a perspectiva do SUS. Desta maneira buscou-se comparar diferentes cenários da TN com a tecnologia atualmente utilizada (Fluorimetria) somente para Fenilcetonúria (PKU), e com MS/MS para rastreio da PKU e da Deficiência de Cadeia Média Acyl-Coenzima Desidrogenase (MCAD). Para tanto construiu-se um modelo matemático de decisão baseados em cadeias de Markov que simulou a TN da PKU e da MCAD, bem como a história natural da MCAD. Foi acompanhada uma coorte hipotética de cem mil recém-nascidos. O horizonte temporal adotado foi a expectativa de vida da população brasileira de 78 anos de acordo com IBGE. Utilizou-se uma taxa de desconto de 5% para os custos e consequências clínicas para ambos os cenários propostos. Quando incorporado o MS/MS para triagem da PKU os ganhos em saúde continuaram os mesmos, pois o desempenho do MS/MS e da Fluorimetria foram praticamente iguais (efetividade), porém o custo incremental foi quatro vezes maior para a mesma efetividade, o que torna o MS/MS somente para PKU não custo efetiva (dominada). No entanto, quando analisado o cenário do MS/MS para triagem da PKU e da MCAD o custo incremental do MS/MS no PNTN foi menor por causa da economia feita uma vez que é possível realizar ambos os testes no mesmo o teste do pezinho atual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

为了提高传感器的测量精度,研究了六维力传感器标定矩阵的构造方法。首先,指出了传统标定矩阵的物理意义。然后,在传统标定矩阵中引入坐标平移变换算式,提出了一种综合考虑位置、姿态、坐标轴刻度比例缩放变换关系的六维力传感器静态标定方法。在标定试验的基础上,构造了标定矩阵,并对实测数据进行了补偿计算。误差分析表明:在传感测量系统无平移系统误差时,与传统标定方法相比,该方法的补偿精度略有下降。当在传感测量中加入平移系统误差时,该方法的补偿精度不变,而传统标定方法的测量精度明显下降。该方法起到了消除平移系统误差作用。

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Arquiteturas do Siger. Procedimentos de instalação. Instalação cliente/sevidor. Diretórios requeridos durante a instalação. Migração de Arquiteturas. Configuração do Siger para trabalhar com várias bases/arquiteturas. Procedimento para atualização do Siger. Erros mais comuns na instalação e soluções recomendadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Arquitetura do Siger. Procedimentos de instalação. Alteração das configurações para acesso à base de dados. Migração de arquiterturas. Configuração do Siger para trabalhar com várias bases/arquiteturas. procedimento de atualização do Siger. Procedimento de desinstalação do Siger. Erros mais comuns na instalação e soluções recomendadas. Suporte técnico/informações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O periodo de centrifugacao, necessario ao equilibrio da agua no solo, e fator preponderante da precisao da curva de retencao de agua. O estudo foi desenvovido com o objetivo de avaliar o periodo de centrifugacao na curva de retencao de agua, em cinco tipos de solo, representativos do Bioma Cerrado. as curvas de rtencao foram modeladas, por regressao não-linear, e a soma dos erros residuais do ajuste resultante foi utilizada para avaliação das diferencas estatisticas entre elas, pelo teste da razao de verossimilhanca. As curvas de retencao ajustadas para cada tipo de solo foram agrupadas em familias de curvas para facilitar a visualizacao das diferencas observadas. Os resultados mostraram claramente, que o periodo de centrifugacao afetou mais a umidade residual, promovendo uma nitida rotacao nas curvas, em torno do ponto de saturacao. Esse efeito estabeleceu um padrao de erro na agua disponivel, sistematicamente decrescente, com o aumento do periodo de centrifugacao. Utilizando-se da tecnica da regressao inversa foi possível estabelcer o periodo de centrifugacao necessario para cada tipo de solo correspondente ao nível de significancia de 5% e no intervalo de confianca de 90%. Com estudo, conclui-se que o periodo de centrifugacao inferior ao equilibrio altera a curva de retencao determinada por esse procedimento, afetando, principalmente, os valores de umidade nas tensoes mais elevadas. Para os solos estudados, o periodo de centrifugacao necessario a extracao de agua, em cada rotacao aplicada, pelo metodo tradicional da centrifuga, deve ser superior a 80 minutos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta metodologias para estimativa de perda de solos na Bacia Hidrográfica do Rio Guapi-Macacu - RJ. Para a estimativa anual de perdas de solo foi utilizada a ferramenta InVest (Integrated Valuation of Environmental Services and Tradeoffs) através do módulo que desenvolve retenção de sedimentos. Esse módulo permite calcular a perda de solo média anual de cada parcela de terra, além de determinar o quanto de solo pode chegar a um determinado ponto de interesse. Para identificar a perda potencial de solo, o modelo emprega a Equação Universal de Perda de Solo (USLE) na escala do pixel, integrando informações sobre relevo, precipitação, padrões de uso da terra e propriedades do solo. Seus resultados são dados em toneladas por sub-bacias. Os resultados obtidos neste trabalho permitiram concluir que embora haja limitações no uso da Equação Universal de Perda de Solo, o modelo possibilitou a espacialização de classes de perdas de solos com indicações de áreas consideradas mais ou menos vulneráveis aos processos erosivos, considerando os dados disponíveis e suas escalas. O uso do InVest para calcular a USLE apresentou como principal vantagem a possibilidade de integração dos dados necessários em um único ambiente, reduzindo a possibilidade de erros na conversão de dados. Contudo, a maior limitação encontrada a sua aplicação está na dificuldade de obtenção de dados de entrada necessários ao modelo.