59 resultados para Aplicação
Resumo:
Dados faltantes são um problema comum em estudos epidemiológicos e, dependendo da forma como ocorrem, as estimativas dos parâmetros de interesse podem estar enviesadas. A literatura aponta algumas técnicas para se lidar com a questão, e, a imputação múltipla vem recebendo destaque nos últimos anos. Esta dissertação apresenta os resultados da utilização da imputação múltipla de dados no contexto do Estudo Pró-Saúde, um estudo longitudinal entre funcionários técnico-administrativos de uma universidade no Rio de Janeiro. No primeiro estudo, após simulação da ocorrência de dados faltantes, imputou-se a variável cor/raça das participantes, e aplicou-se um modelo de análise de sobrevivência previamente estabelecido, tendo como desfecho a história auto-relatada de miomas uterinos. Houve replicação do procedimento (100 vezes) para se determinar a distribuição dos coeficientes e erros-padrão das estimativas da variável de interesse. Apesar da natureza transversal dos dados aqui utilizados (informações da linha de base do Estudo Pró-Saúde, coletadas em 1999 e 2001), buscou-se resgatar a história do seguimento das participantes por meio de seus relatos, criando uma situação na qual a utilização do modelo de riscos proporcionais de Cox era possível. Nos cenários avaliados, a imputação demonstrou resultados satisfatórios, inclusive quando da avaliação de performance realizada. A técnica demonstrou um bom desempenho quando o mecanismo de ocorrência dos dados faltantes era do tipo MAR (Missing At Random) e o percentual de não-resposta era de 10%. Ao se imputar os dados e combinar as estimativas obtidas nos 10 bancos (m=10) gerados, o viés das estimativas era de 0,0011 para a categoria preta e 0,0015 para pardas, corroborando a eficiência da imputação neste cenário. Demais configurações também apresentaram resultados semelhantes. No segundo artigo, desenvolve-se um tutorial para aplicação da imputação múltipla em estudos epidemiológicos, que deverá facilitar a utilização da técnica por pesquisadores brasileiros ainda não familiarizados com o procedimento. São apresentados os passos básicos e decisões necessárias para se imputar um banco de dados, e um dos cenários utilizados no primeiro estudo é apresentado como exemplo de aplicação da técnica. Todas as análises foram conduzidas no programa estatístico R, versão 2.15 e os scripts utilizados são apresentados ao final do texto.
Resumo:
Nas Américas, a leishmaniose visceral (LV) experimenta um processo de urbanização e o cão doméstico é considerado o principal reservatório da doença neste cenário, embora seu papel no ciclo de transmissão não esteja totalmente explicado. Este estudo teve como objetivo investigar, por meio da análise de dados espaciais e imagens de sensoriamento remoto, a relação de fatores ambientais com a ocorrência de infecção canina por Leishmania chagasi e sua correlação espacial com a doença humana na cidade de Teresina (Piauí - Brasil), onde foi relatada a primeira epidemia urbana de LV no Brasil. Os resultados são apresentados na forma de dois manuscritos, nos quais são utilizados dados georreferenciados obtidos por meio de um inquérito sorológico canino realizado durante o ano de 2011, em diferentes bairros com transmissão moderada ou intensa. No primeiro, a regressão logística multinível foi utilizada para correlacionar a prevalência da infecção canina com variáveis ambientais de quadrículas de 900m2 (30mx30m) onde os domicílios estavam localizados, ajustando para as características individuais dos cães (sexo, idade e raça) e da residência. Participaram desta análise 717 cães distribuídos em 494 domicílios e 396 quadrículas. Um percentual >16,5% da área da quadrícula coberta por pavimentação clara (ruas de terra ou asfalto antigo) foi a única variável ambiental associada com a infecção canina por L. chagasi (Odds ratio [OR] = 2,00, intervalo de 95% de confiança [IC95%]: 1,22 - 3,26). Estas áreas provavelmente correspondem àquelas mais pobres e com pior infraestrutura urbana, sugerindo a ocorrência de um padrão de transmissão intra-urbano similar aos padrões rurais e peri-urbanos da LV. No segundo manuscrito, a partir da análise hierárquica do vizinho mais próximo foi verificada a presença de sete clusters de maior concentração de cães soropositivos em relação aos soro negativos em áreas menos urbanizadas e com vegetação pouco densa. Participaram desta análise 322 cães distribuídos em cinco bairros. A relação espacial entre os caninos soropositivos e os casos humanos foi investigada através do método da distância média entre os pontos e analisada por meio do teste t. Foi encontrada uma maior proximidade de casos humanos em relação a cães soropositivos quando comparada à distância em relação aos soro negativos, sugerindo a existência de uma relação espacial entre a LV humana e a soropositividade canina. Os resultados contribuem para uma maior compreensão sobre a dinâmica da doença em meio urbano além de fornecer informações úteis para a prevenção e controle da LV em seres humanos.
Resumo:
Esta pesquisa investigou a formação de depósitos arenosos localizados na planície costeira da Baixada de Sepetiba, em Itaguaí, estado do Rio de Janeiro. A deposição sedimentar e a evolução desta área, na Baixada de Sepetiba tem sido estudada nas três últimas décadas, principalmente, porque é um ambiente de depósitos arenosos antigo de idade Holocênica a Pleistocênica que corresponde a uma linha de praia, originada com eventos transgressivos e/ou regressivos que tiveram seu ápice durante o Quaternário. A metodologia de Radar de Penetração no Solo (GPR) é usada, principalmente nos casos de trabalho em que se estuda um ambiente costeiro arenoso. Este campo da Geofísica tem sido usado para examinar características, tais como: a espessura de depósitos arenosos, a profundidade de um aqüífero, a detecção de uma rocha ou um aqüífero, e determina a direção de progradação. Esta pesquisa usa técnicas de radar de penetração no solo (GPR) para analisar as estruturas, em subsuperfície desde que o ambiente estudado seja definido como linha de costa, as margens de uma lagoa mixohalina, chamada Baía de Sepetiba. Neste trabalho realizamos um total de 11 perfis, que foram processados pelo software ReflexWin. Durante o processamento do dado aplicamos alguns filtros, tais como: subtract-mean (dewow), bandpassfrequency e ganhos. E as melhores imagens dos perfis foram realizadas usando-se uma antena de 200 MHz (canal 1) e outra antena de 80 MHz. Neste caso, obtivemos imagens de alta resolução a uma profundidade de até 25 metros.
Resumo:
O zoneamento agroecológico (ZAE) pode ser um instrumento efetivo de ordenamento territorial setorial rural. Suas diretrizes e suas orientações técnicas podem compor os fatores exploratórios de modelos de mudança de uso e cobertura da terra. No Brasil, via de regra, utiliza-se o zoneamento econômico-ecológico (ZEE) como um instrumento de ordenamento territorial e o ZAE é aplicado com o objetivo de fornecer subsídios para o planejamento do uso agrícola das terras, limitando-se, grosso modo, à indicação de sistemas agrícolas e agropecuários potenciais e sustentáveis adaptados ao clima e ao solo. Um ZAE que fomentou políticas de ordenamento territorial setorial rural foi o Zoneamento Agroecológico da Cana-de-açúcar (ZAE-Cana), de 2009, ordenando a expansão da área plantada com cana-de-açúcar para a indústria sucroalcooleira no território brasileiro. Esta tese discute as diferenças de método na elaboração de suas diretrizes e de suas orientações técnicas que permitiram considerar as dimensões social e política e verifica se esse ZAE extrapolou a aplicação de indicativo de áreas potenciais e passou a fomentar políticas públicas de ordenamento da expansão da área plantada com cana-de-açúcar para a indústria sucroalcooleira no território brasileiro. O estudo permitiu concluir que o ZAE-Cana é utilizado como um instrumento efetivo de ordenamento territorial para setor rural por ter incluído as dimensões social e política nas etapas de definição das diretrizes, na validação das análises e na elaboração das orientações técnicas, ou seja, em todas as fases do zoneamento. Em um segundo momento elaborou-se um estudo da aplicação das diretrizes e das orientações técnicas do ZAE como parâmetros para a modelagem de uso e cobertura da terra. Observou-se a correlação das variáveis advindas do ZAE-Cana com os usos e coberturas da terra de 2003 e de 2009 para os estados de Goiás e de São Paulo e aplicou-se o modelo Conversion of Land Use and its Effects at Small regional extent (CLUE-S) no estado de Goiás de 2003 a 2009 (validação) e de 2009 a 2025 (simulação) para verificar o uso dessas variáveis no processo de modelagem, o que permitiu concluir que é viável a aplicação das diretrizes, das orientações técnicas e de outras informações conseguidas durante a elaboração dos zoneamentos agroecológicos em modelos de mudança de uso e cobertura da terra.
Resumo:
No Brasil, a aplicação dos royalties do petróleo não é feita necessariamente de forma a gerar benfeitorias para a população da localidade que recebe o recurso. Estudos têm mostrado que as populações residentes em localidades beneficiadas pelos royalties não estão usufruindo deste recurso, sendo notórias as desigualdades sociais e os impactos no meio ambiente. O objetivo desta tese foi o de verificar se as Leis que regulam o setor do petróleo no Brasil visam a destinação dos recursos com o intuito de satisfazer as necessidades básicas das pessoas, melhorar a qualidade de vida, preservar o meio ambiente e resguardar os recursos para as gerações futuras. Para isso, foi feita uma verificação detalhada da legislação do petróleo e da aplicação de royalties no Brasil e nos cinco países grandes produtores de petróleo considerados desenvolvidos pelo IDH. Pretendeu-se investigar se as Leis que regulam o setor de petróleo nos países grandes produtores considerados desenvolvidos são voltadas para a satisfação das necessidades básicas das pessoas, preservação ambiental, gerações futuras e qualidade de vida. Foi feito um comparativo entre o conteúdo das Leis brasileiras que regulam o setor atualmente e o das Leis dos países grandes produtores para entender se existem, no modelo brasileiro, lacunas em relação aos conceitos definidos. Os resultados mostraram que conceitos como gerações futuras e qualidade de vida são pouco abordados, tanto na legislação brasileira quanto nas Leis internacionais. Foi possível observar também diferenças significativas entre os requisitos de aplicação dos royalties de algumas Leis internacionais e os das Leis brasileiras. São sugeridas modificações no modelo brasileiro. Entre elas, requerer monitoramento dos investimentos, através de um comitê com participação popular, responsabilizar as empresas pelo financiamento das pesquisas referentes a danos ambientais cometidos e a criação de um fundo para emergências ambientais.
Resumo:
Esta tese propôs uma metodologia para detecção de áreas susceptíveis a deslizamentos de terra a partir de imagens aéreas, culminando no desenvolvimento de uma ferramenta computacional, denominada SASD/T, para testar a metodologia. Para justificar esta pesquisa, um levantamento sobre os desastres naturais da história brasileira relacionada a deslizamentos de terra e as metodologias utilizadas para a detecção e análise de áreas susceptíveis a deslizamentos de terra foi realizado. Estudos preliminares de visualização 3D e conceitos relacionados ao mapeamento 3D foram realizados. Estereoscopia foi implementada para visualizar tridimensionalmente a região selecionada. As altitudes foram encontradas através de paralaxe, a partir dos pontos homólogos encontrados pelo algoritmo SIFT. Os experimentos foram realizados com imagens da cidade de Nova Friburgo. O experimento inicial mostrou que o resultado obtido utilizando SIFT em conjunto com o filtro proposto, foi bastante significativo ao ser comparado com os resultados de Fernandes (2008) e Carmo (2010), devido ao número de pontos homólogos encontrados e da superfície gerada. Para detectar os locais susceptíveis a deslizamentos, informações como altitude, declividade, orientação e curvatura foram extraídas dos pares estéreos e, em conjunto com as variáveis inseridas pelo usuário, forneceram uma análise de quão uma determinada área é susceptível a deslizamentos. A metodologia proposta pode ser estendida para a avaliação e previsão de riscos de deslizamento de terra de qualquer outra região, uma vez que permite a interação com o usuário, de modo que este especifique as características, os itens e as ponderações necessárias à análise em questão.
Resumo:
É conhecido que derivações microscópicas obtidas através de métodos de teoria quântica de campos (TQC) podem conduzir a complicadas equações de movimento (EdM) que possuem um termo dissipativo com memória e um termo de ruído colorido. Um caso particularmente interessante é o modelo que escreve a interação entre um sistema e um banho térmico a temperatura T. Motivado por isso, usamos uma prescrição que nos permite reescrever EdMs não-markovianas semelhantes as obtidas em TQC em termos de um sistema de equações locais, para então confrontarmos a solução desse sistema com a solução aproximada usada correntemente na literatura, a chamada aproximação markoviana. A pergunta chave a qual se pretende responder aqui é: dado um conjunto de parâmetros que descrevem o modelo, a aproximação markoviana é suficientemente boa para descrever a dinâmica do sistema se comparada a dinâmica obtida atravéS da EdM não-markoviana? Além disso, consideramos uma versão linear da ELG de forma que pudéssemos determinar o nível de confiança da nossa metodologia numérica, procedimento este realizado comparando-se a solução analítica com a solução numérica. Como exemplo de aplicação prática do tema discutido aqui, comparamos a evolução não-markoviana do inflaton com a evolução markoviana do mesmo num modelo de universo primordial denominado inflação não-isentrópica (warm inflation).
Resumo:
A doença de Chagas é uma zoonose causada pelo protozoário flagelado Trypanosoma cruzi. Estima-se que 8 milhões de pessoas estão infectadas com o T. cruzi em todo o mundo, principalmente na América Latina. Testes tradicionais de diagnóstico estão sendo gradualmente substituídos por métodos inovadores. A utilização de antígenos recombinantes foi proposta nos anos 90, e várias combinações foram testadas com soros de pacientes com diferentes formas clínicas de diferentes regiões da América Latina. Apesar do ganho em especificidade, estes testes apresentaram menor sensibilidade, frustrando expectativas. Este estudo objetivou analisar a variabilidade genética dos genes KMP11 e 1F8 que codificam antígenos comumente utilizados em diagnóstico experimental. Cepas de T. cruzi pertencentes a diferentes sub-grupos taxonômicos e de diferentes regiões foram analisadas para avaliar o impacto da variação antigênica em testes de diagnóstico. Maximizando a sensibilidade, evitar reatividade cruzada com epítopos de outros agentes patogênicos deve permitir a concepção de melhores testes rápidos. Num primeiro passo, DNA genômico foi extraído das seguintes cepas: Dm28c, Colombiana, Y, 3663, 4167, LL014 e CL Brener e foi realizada a amplificação dos genes 1F8 e KMP11 que codificam antígenos a partir destas cepas. Em seguida foram realizadas a clonagem, sequenciamento, expressão e detecção dos antígenos recombinantes. Na etapa final, análises de estruturas secundárias e terciárias, a última apenas para o antígeno 1F8, visualizaram as diferenças nas sequências de aminoácidos obtidas a partir de sequenciamento de DNA. Os resultados apresentados neste estudo mostram que o antígeno KMP11 de T. cruzi possui uma similaridade na sequência de aminoácidos muito elevada com o T. rangeli, mostrando a necessidade de um mapeamento antigênico desta proteína em todos os tripanosomatídeos que apresentaram alta similaridade com o antígeno de T. cruzi, como o T. rangeli, para verificar a presença de epítopos específicos de T. cruzi. O antígeno 1F8 pode ser uma ferramenta útil no diagnóstico da doença de Chagas e que será necessário aprofundar os conhecimentos sobre os determinantes antigênicos para futuramente elaborar poli-epítopos sintéticos adaptados de um maior número possível de antígenos, obtendo a maior especificidade e sensibilidade nos testes de diagnóstico sorológico e de teste rápido da doença de Chagas. Este estudo representa um passo crucial para a otimização de antígenos recombinantes para o diagnóstico da doença de Chagas.
Resumo:
A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.
Resumo:
Técnicas de limpeza química ou mecânica são comumente empregadas para evitar a formação de biofilmes e problemas associados com a colonização de superfícies por micro-organismos. Neste trabalho, amostras de aço inox 304L foram submetidas a ensaios acelerados de crescimento de biofilme, o qual foi posteriormente removido por tratamentos de limpeza e desinfecção (choque térmico com água a 70C por 1h, limpeza com ácido fosfórico 20 % v/v por 30min e desinfecção com peróxido de hidrogênio 0,17 % v/v por 1h). Com o objetivo de verificar a influência destes tratamentos na remoção do biofilme, este foi caracterizado (por quantificação microbiana e análises de espectroscopia de impedância eletroquímica - EIE), antes e após a aplicação dos tratamentos. Dois casos foram estudados. No primeiro caso, simularam-se condições presentes em tubulações de ambientes hospitalares e sistemas de distribuição de água quente. O micro-organismo utilizado foi a bactéria Serratia marcences. O processo de formação de biofilme e posterior limpeza e desinfecção foi realizado de modo contínuo durante 15 semanas. Os resultados de quantificação microbiana e de EIE mostraram que desde a primeira semana de exposição e ao longo dos ensaios, formou-se um biofilme aderente à superfície do aço e que o emprego dos tratamentos de limpeza e desinfecção não foi eficaz na remoção do biofilme. Em um segundo caso, simularam-se condições presentes em tubulações da indústria de água mineral, empregando-se a bactéria Pseudomonas aeruginosa. Neste caso, as técnicas de limpeza e desinfecção foram aplicadas individualmente e em conjunto. A aplicação de choque térmico, assim como da limpeza ácida, sobre um biofilme com 72 h de formação foi capaz de eliminar as bactérias viáveis, presentes na superfície do aço. Entretanto, a desinfecção com peróxido de hidrogênio não foi capaz de eliminá-las. Nas duas condições, porém, as análises de EIE do sistema aço/biofilme mostraram que o mesmo não foi completamente removido da superfície do metal. Correlacionando os dois casos, pode-se inferir que a superfície do aço inox 304L é rapidamente colonizada pelas duas espécies microbianas e que as técnicas de limpeza e desinfecção são capazes de reduzir e até eliminar as células viáveis, embora não removam completamente o biofilme da superfície. Por outro lado, é importante ressaltar que fatores como a arquitetura, espessura e porosidade do biofilme, e propriedades intrínsecas da superfície, são fatores que afetam os valores de impedância medidos, sendo necessário considerá-los na análise, tanto da formação do biofilme, quanto dos efeitos dos procedimentos de limpeza e desinfecção
Resumo:
O Brasil é produtor de argilas e conta com grandes reservas deste recurso natural. Porém, grande parte da sua produção é comercializada seca e moída. O desenvolvimento de argilas para seu uso como reforço em nanocompósitos poliméricos constitui uma opção para os produtores desta matéria prima que teriam assim um produto com maior valor agregado. Este trabalho visa avaliar o potencial uso como nanocarga de duas argilas nacionais provenientes da Bacia de Taubaté, São Paulo, denominadas ALIGRA e SANTA FÉ. As frações de tamanho de partícula médio menor de 0,02 mm, obtidas por peneiramento á úmido da argila homogeneizada e seca, foram utilizadas no desenvolvimento do trabalho experimental. Os estudos de caracterização, envolvendo análise granulométrica, química, mineralógica, morfológica, térmica e textural, revelaram características muito semelhantes em ambas às argilas. Fração argila, maior de 70% em massa. Composição química conforme a definição química de uma argila e os teores de seus componentes mostram valores intermédios entre as apresentadas pelas bentonitas e argila caulinítica usadas com fins de comparação. Ressaltamse boas propriedades adsorventes. Área superficial específica BET ao redor de 120 m2/g, valor maior do que o apresentado por muitas bentonitas naturais (74,5 m2/g). Predominantemente mesoporosas, com poros, maiormente em forma de fenda, característicos da estrutura em camadas das argilas. Baixa capacidade de troca catiônica, 12 meq/100g. Difratogramas de raios-X revelaram a predominância do estratificado ilita/esmectita, caulinita e quartzo na argila ALIGRA, e de ilita, caulinita e quartzo na argila SANTA FÉ. Prosseguiu-se com a argila ALIGRA a preparação da argila organofílica. A argila organofílica foi obtida por troca catiônica com o sal quaternário de amônio: cloro cetril trimetil amônio, depois de homogeneizada em sódio com cloreto de sódio. Análises FTIR e TGA indicaram que houve inserção dos cátions orgânicos. Testes preliminares foram feitas, preparando misturas das argilas com matriz de polipropileno e usando como agente compatibilizante polipropileno enxertado com anidrido maleico. Resultados de ensaios de tração reportam algumas melhoras nas propriedades testadas com as composições preparadas com as argilas purificadas. Com as composições com argilas organofílicas somente foi melhorado o alongamento na rotura. Estudos ais aprofundados são recomendados.
Resumo:
Esta pesquisa consiste na solução do problema inverso de transferência radiativa para um meio participante (emissor, absorvedor e/ou espalhador) homogêneo unidimensional em uma camada, usando-se a combinação de rede neural artificial (RNA) com técnicas de otimização. A saída da RNA, devidamente treinada, apresenta os valores das propriedades radiativas [ω, τ0, ρ1 e ρ2] que são otimizadas através das seguintes técnicas: Particle Collision Algorithm (PCA), Algoritmos Genéticos (AG), Greedy Randomized Adaptive Search Procedure (GRASP) e Busca Tabu (BT). Os dados usados no treinamento da RNA são sintéticos, gerados através do problema direto sem a introdução de ruído. Os resultados obtidos unicamente pela RNA, apresentam um erro médio percentual menor que 1,64%, seria satisfatório, todavia para o tratamento usando-se as quatro técnicas de otimização citadas anteriormente, os resultados tornaram-se ainda melhores com erros percentuais menores que 0,04%, especialmente quando a otimização é feita por AG.
Resumo:
A estabilidade de taludes naturais é um tema de grande interesse ao engenheiro geotécnico, face às significativas perdas econômicas, e até mesmo humanas, resultantes da ruptura de taludes. Estima-se que a deflagração de escorregamentos já provocou milhares de mortes, e dezenas de bilhões de dólares em prejuízos anuais em todo o mundo. Os fenômenos de instabilização de encostas são condicionados por muitos fatores, como o clima, a litologia e as estruturas das rochas, a morfologia, a ação antrópica e outros. A análise dos condicionantes geológicos e geotécnicos de escorregamentos proporciona a apreciação de cada um dos fatores envolvidos nos processos de instabilização de encostas, permitindo a obtenção de resultados de interesse, no que diz respeito ao modo de atuação destes fatores. O presente trabalho tem como objetivo a utilização da Lógica Nebulosa (Fuzzy) para criação de um Modelo que, de forma qualitativa, forneça uma previsão do risco de escorregamento de taludes em solos residuais. Para o cumprimento deste objetivo, foram estudados os fatores envolvidos nos processos de instabilização de encostas, e a forma como estes fatores se interrelacionam. Como experiência do especialista para a elaboração do modelo, foi analisado um extenso banco de dados de escorregamentos na cidade do Rio de Janeiro, disponibilizado pela Fundação Geo-Rio. Apresenta-se, neste trabalho, um caso histórico bem documentado para a validação do Modelo Fuzzy e análises paramétricas, realizadas com o objetivo verificar a coerência do modelo e a influência de cada um dos fatores adotados na previsão do risco de escorregamento. Dentre as principais conclusões, destaca-se a potencialidade da lógica nebulosa na previsão de risco de escorregamentos de taludes em solo residual, aparecendo como uma ferramenta capaz de auxiliar na detecção de áreas de risco.
Resumo:
Com o desenvolvimento da espécie humana, a sociedade humana passou demandar quantidades cada vez maiores de diversos elementos naturais, principalmente a água. Por estar presente em uma pequena quantidade no planeta (3%), com relação a toda hidrosfera, as águas disponíveis para consumo humano (Ex: Mananciais) são as que mais sofrem com a ação antrópica. A degradação destes recursos se dá por fatores como: poluição, desperdício e falta de políticas públicas sobre conservação dos recursos hídricos. Buscando a implementação de estratégias para a melhor gestão dos recursos hídricos, a utilização de águas pluviais como fonte hídrica alternativa, ganha importância diante desse cenário. Além de uma fonte hídrica de fácil acesso em muitas regiões (com média anual de precipitação em 1589 mm na região da Tijuca Alerta Rio, 2013), estudos demonstram que sua qualidade permite sua utilização em atividades não potáveis, resultando na economia de águas que são tratadas e destinadas para consumo humano. Visando colaborar com as questões expostas anteriormente, a presente dissertação de mestrado buscou avaliar a qualidade das águas de chuva em uma determinada região e os fatores que possam interferir na qualidade das águas pluviais, como: tipo de material da superfície de captação, proximidade a focos de poluição atmosférica e período de estiagem antecedente ao evento pluviométrico. Para tal tarefa, foi instalado um sistema de captação de águas pluviais no Instituto de Aplicação Fernando Rodrigues da Silveira, localizado no bairro do Rio Comprido, região norte da cidade do Rio de Janeiro. Os parâmetros físico-químicos para qualidade da água pH, turbidez, temperatura, oxigênio dissolvido, sólidos totais dissolvidos, potencial de oxi-redução e condutividade foram analisados com o auxílio da sonda multiparâmetro. Ao correlacionar a presença de sólidos na água de chuva com os períodos de estiagem, verificou-se que quanto maior o período de seca, maior a quantidade de sólidos nas amostras. Com relação aos marcos regulatórios (Portaria 2914/2011, MS; Padrões de potabilidade, OMS; CONAMA 357 e NBR 15.527) , os resultados para estes parâmetros ficaram de acordo com os limites exigidos pelas mesmas, exceto o pH. Com a análise dos resultados, recomenda-se estudos para determinar quais fatores podem estar interferindo na acidificação das águas coletadas no estudo.
Resumo:
A degradação ambiental do Noroeste do Estado do Rio de Janeiro tem se intensificado nas últimas décadas devido às práticas agrícolas não preservacionistas. Esta situação, que decorre do uso inadequado do solo, tem implicado em mudanças na oferta hídrica em grau variável nos municípios da região com prejuízos econômicos nas atividades dos pequenos e médios proprietários rurais e na qualidade de vida. A abordagem para enfrentar problemas deste tipo depende da participação efetiva das instâncias de governo e dos órgãos responsáveis pela gestão dos recursos hídricos. No âmbito da hidrologia os modelos hidrológicos com base no uso e ocupação do solo são ferramentas que podem auxiliar com ótimo custo e benefício a geração de informações em bacias hidrográficas, instrumentadas ou não. Os modelos são úteis ao planejamento e à tomada de decisão por possibilitarem a previsão de vazões e simulação de cenários sobre o uso do solo e qualidade da água. Neste sentido, o presente estudo pretende dar sua contribuição ao avaliar a adequabilidade do modelo SWAT simular o processo chuva-vazão na microbacia experimental de Santa Maria e Cambiocó, com 13,5 km2, localizada na região hidrográfica do rio Muriaé, afluente do rio Paraíba do Sul. O SWAT tem sido empregado em bacias agrícolas nos EUA, na Europa e, atualmente, na China, sudeste asiático e Irã, entre outros países, e na última década maior inserção no meio acadêmico brasileiro. A versão 2005 do modelo foi utilizada por meio da sua interface SIG para simular as vazões médias diárias com base na precipitação medida no intervalo de 15 minutos no período de 2005/2006. As vazões simuladas foram comparadas com as vazões observadas no exutório da microbacia. Foram testadas as ferramentas de análise de sensibilidade e autocalibração. O método de calibração manual foi usado para o ajuste por tentativa e erro. Os parâmetros ajustados corresponderam ao CN2 e ESCO. Os valores obtidos na calibração para os coeficientes estatísticos R2, NSE, PBIAS e RSR foram 0,80, 0,80, 7,02 e 0,45, respectivamente, indicando escore muito bom, o que foi confirmado pela inspeção dos hidrogramas. As saídas validadas para período diferente da calibração forneceram para os mesmos coeficientes os valores 0,84, 0,80, 25,92 e 0,44. Os dois primeiros, com escore muito bom. O valor de PBIAS, no limite do satisfatório, e RSR, muito bom. O desempenho permitiu concluir que a simulação com o SWAT foi adequada. Em relação às pesquisas que têm sido realizadas no Brasil os valores obtidos para os indicadores foram semelhantes, indicando a capacidade do modelo para novos estudos nesta microbacia que considerem os usos consuntivos e cenários de uso do solo.