917 resultados para estimativa e predição de desempenhos
Resumo:
A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.
Resumo:
O contexto do estudo é a predição da anemia fetal em gestantes portadoras da doença hemolítica perinatal e tem como objetivo avaliar a acurácia da medida doppler velocimétrica da velocidade máxima do pico sistólico da artéria cerebral média na detecção da anemia fetal na doença hemolítica perinatal. A identificação dos estudos foi realizada com a adoção de bancos de dados gerais (MEDLINE e LILACS) e a partir de referências bibliográficas de outros autores. Os estudos selecionados tinham como critérios serem do tipo observacionais, com gestantes apresentando coombs indireto maior do que 1:8, técnica de insonação do vaso adequada, Vmax-ACM ≥ 1,5MOM, presença obrigatória de comparação com o padrão-ouro (hemoglobina fetal e/ou neonatal), e nível de evidência diagnóstica acima ou igual a 4. Os dados dos estudos selecionados foram alocados em tabelas 2x2 comparando o resultado do teste com o padrão-ouro. A acurácia diagnóstica foi expressa principalmente através da razão de verossimilhança. A revisão incluiu onze estudos, com uma amostra total de 688. Três estudos apresentaram delineamento do tipo prospectivo e nível de evidência diagnóstica categoria 1. A performance do teste em questão apresentou variação razoável. O estudo de Mari et al (2000) foi considerado o de melhor qualidade metodológica, apresentando uma RV(+) de 8,45 e uma RV(-) de 0,02. A medida do doppler da Vmax da ACM como preditor da anemia fetal na doença hemolítica perinatal está consolidada. Porém, alguns pontos precisam ser melhor esclarecidos, como o intervalo ideal dos exames em casos graves e a validade do método em fetos que já foram submetidos a transfusões intra-uterinas.
Resumo:
A Organização Mundial de Saúde (OMS) estima para 2030, 27 milhões de casos incidentes de câncer. No Brasil, segundo o Instituto Nacional do Câncer, foram estimados 518.510 casos novos de câncer para os anos de 2012 e 2013. Dessa estimativa, 52.680 correspondem ao câncer de mama (CM), com um risco estimado de 52 novos casos a cada 100.000 mulheres. O câncer de mama é um dos tipos de câncer mais comuns no mundo todo. Hoje se sabe que o tratamento para o CM pode levar ao surgimento de diferentes efeitos adversos tardios, entre eles a osteoporose. Uma das principais causas de surgimento da osteoporose é a menopausa precoce, que ocorre através da diminuição da concentração de estrogênio sérico. Este trabalho teve como objetivo avaliar os efeitos na matriz óssea induzidos pela quimioterapia, simulando um tratamento para o CM, em ratas Wistar.Ratas Wistar, com aproximadamente 3 meses de idade, foram divididas em: grupo controle e grupo que recebeu quimioterapia com poliquimioterápico docetaxel + ciclofosfamida (TC). A quimioterapia foi administrada em 4 ciclos, com intervalo de 1 semana entre eles. Os ratos foram submetidos à eutanásia 5 meses após o término do tratamento, para que os efeitos tardios pudessem ser avaliados. Vários estudos foram conduzidos: dosagem sorológica de estradiol, ensaios histológicos através de imunohistoquímica, micro-fluorescência de Raios-X, micro-tomografia computadorizada. Além de microscopia eletrônica de transmissão e varredura.Analisando os resultados obtidos em conjunto, sugere-se que a etapa inicial para o desenvolvimento da osteoporose, causada pelo poliquimioterápico TC, seja a diminuição da função ovariana. Este evento leva à diminuição da concentração de estrogênio sérico, o que causa a atrofia uterina. Concomitante a estes fatos, o TC causa redução na concentração de zinco no tecido ósseo. Estes resultados associados causam um desequilíbrio na relação osteoblastos/osteoclastos no osso. A redução do estrogênio leva à diminuição da apoptose de osteoclastos, enquanto que a redução do zinco inibe a função dos osteoblastos. Este desequilíbrio interfere no turnover do osso, de forma a aumentar a reabsorção óssea. Deste modo, o percentual de osso fica reduzido, as trabéculas tornam-se mais finas e espaçadas. O endpoint deste processo é a osteoporose.A administração dos poliquimioterápicos docetaxel e ciclofosfamida em conjunto leva a diminuição da massa óssea, a adelgaçamento das trabéculas e o aumento do espaço entre elas. Estas observações sugerem que realmente as ratas tratadas com TC apresentam osteoporose. Concluímos que tanto o estrogênio quanto o zinco têm papel fundamental no desenvolvimento desta patologia após quimioterapia com TC.
Resumo:
Esta dissertação apresenta um novo modelo criado para a previsão do valor da tensão superficial de misturas de hidrocarbonetos. Pode ser utilizado na forma preditiva ou correlativa. Este modelo foi baseado no modelo preditivo para soluções ideais de HildebrandScott (1950) e no modelo correlativo de JouybanAcree (2004). Outras regras de mistura foram avaliadas e comparadas com o modelo proposto, incluindo abordagens clássicas como de Sprow e Prausnitz, parácoro e estados correspondentes. Foram avaliados os desempenhos dos modelos escolhidos na previsão e na correlação da tensão superficial de misturas de hidrocarbonetos em diferentes temperaturas que continham diferentes assimetrias na mistura, tanto em natureza química (e.g., parafínicos, naftênicos e aromáticos) quanto em tamanho de cadeia. No total foram empregados 773 dados experimentais. Dentre os modelos preditivos, o modelo proposto foi o de melhor desempenho. Para sistemas com comportamento próximo da idealidade, esse modelo apresentou desvios em relação aos dados experimentais compatíveis com o erro experimental. Todos os modelos correlativos estudados apresentaram desvios essencialmente da ordem do erro experimental. O modelo proposto é importante, pois é capaz de prever a tensão superficial de misturas binárias aproximadamente ideais de hidrocarbonetos com elevada acurácia, além de permitir a correlação eficiente dos dados de todas as misturas estudadas
Resumo:
O câncer de próstata é a neoplasia mais incidente entre os homens brasileiros. Atualmente, grande parte destes tumores é confinada à próstata no momento do diagnóstico. No entanto, muitos tumores clinicamente classificados como localizados não o são de fato, levando a indicações terapêuticas curativas não efetivas. Por outro lado, muitos pacientes com câncer sem significância clínica são tratados desnecessariamente em função da limitação prognóstica do estadiamento clínicos (pré-tratamento) de pacientes com diagnóstico histológico de adenocarcinoma de próstata localizado (estágios I e II), em coorte hospitalar composta por pacientes tratados no Instituto Nacional de Câncer, Rio de Janeiro, matriculados entre 1990 a 1999. As funções de sobrevida foram calculadas empregando-se o estimados de Kaplan-Meier tomando-se como início a data do diagnóstico histológico e como eventos os óbitos cuja causa básica foi o câncer de próstata. Para avaliação dos fatores prognósticos clínicos foram calculadas as hazard ratios (HR), com intervalos de confiança de 95%, seguindo-se o modelo de riscos proporcionais de Cox. Foram analisadas como fatores prognósticos independentes as variáveis: idade, cor, grau de instrução, data do primeiro tratamento, grau de diferenciação celular d o tumor primário biopsiado (Gleason), estadiamento clínico e PSA total pré-tratamento. O pressuposto dos riscos proporcionais foi avaliado pela análise dos resíduos de Schoenfeld e a influência de valores aberrantes pelos resíduos martingale e escore. Foram selecionados 258 pacientes pelos critérios de elegibilidade do estudo, dos quais 46 foram a óbito durante o período de seguimento. A sobrevida global foi de 88% em 5 anos e de 71% em 10 anos. Idade maior que 80 anos, classificação de Gleason maior que 6, PSA maior que 40ng/ml, estádio B2 e cor branca foram marcadores independentes de pior prognóstico. Fatores prognósticos clássicos na literatura foram úteis na estimativa do prognóstico nesta coorte hospitalar. Os resultados mostram que para pacientes diagnosticados em fases iniciais, os fatores sócio-econômico analisados, não influenciaram o prognóstico. Outros estudos devem ser conduzidos no país para investigar as diferenças no prognóstico em relação à etnia.
Resumo:
O consumo materno de dieta hiperlipídica saturada durante a gestação e lactação favorece o desenvolvimento obesidade e anormalidades metabólicas na prole. Este trabalho teve como objetivo testar a hipótese de que a prole proveniente de mães alimentadas com dieta hiperlipídica durante a gestação e lactação desenvolve obesidade e anormalidades metabólicas e de que essas alterações estão associadas a resistência central a leptina. As ratas grávidas da linhagem C57BL/6 (n=20) foram alimentadas com dieta standard chow (SC; 19% de lipídeos) ou dieta hiperlipídica (HF; 49% de lipídeos) durante todo período de gestação e lactação. Após o desmame, a prole de machos foi dividida em quatro grupos experimentais, de acordo com a dieta das mães e da prole: SC(mães)/SC(prole), SC/HF, HF/SC e HF/HF (n=12/gp). As características metabólicas foram avaliadas pela curva de ganho de peso; medida da pressão arterial; glicose de jejum, área sob a curva no teste oral de tolerância a glicose; concentrações de triglicerídeos hepáticos e estimativa da esteatose hepática; análise plasmática de insulina e leptina e; distribuição e análise morfológica do tecido adiposo. Para analisar a sensibilidade a leptina, os quatro grupos originais foram subdivididos em dois grupos cada (veículo ou leptina-5g) para verificar a resposta alimentar (g) após o tratamento agudo intracerebroventricular (ICV) e a sinalização hipotalâmica de leptina. A dieta HF durante o período pós-desmame (grupo SC/HF), durante gestação e lactação (grupo HF/SC), ou ambos os períodos (grupo HF/HF), promoveu aumento da massa corporal. No que concerne as alterações hepáticas e a ação da insulina, a dieta HF durante o período perinatal favoreceu 25% de esteatose hepática, hiperinsulinemia e hiperleptinemia, enquanto os demais grupos experimentais SC/HF e HF/HF, demonstraram um padrão mais exacerbado. A avaliação da distribuição e morfometria do tecido adiposo demonstra o importante papel da dieta HF perinatal em amplificar a habilidade de estocar gordura visceral na prole. Considerando a ação central da leptina nos grupos tratados, a resposta alimentar mostrou-se atenuada em SC/HF, indicando o efeito determinante da dieta pós-desmame sobre a ação da leptina nesse modelo. Os resultados indicam fortemente que a dieta HF materna afeta a saúde da prole adulta. Especificamente, a prole programada apresenta esteatose hepática, hipertrofia de adipócitos, aumento de gordura visceral, hiperleptinemia e resistência a insulina. Esse fenótipo não está associado a resistência central a leptina na prole aos três meses de idade.
Resumo:
Os RCC são originados dos diversos processos da construção civil, com características bastante particulares pela variedade dos métodos construtivos empregados. Suas deposições em locais inadequados causam vários impactos com diferentes tempos de reação e de degradação do meio ambiente. Para impedi-los foi aprovada a Resolução 307 do CONAMA, que estabelece critérios e normas de caráter protetor ao meio ambiente, porém as administrações públicas possuem inúmeras dificuldades técnicas e financeiras para sua implementação. Para auxiliar os municípios, a CEF elaborou dois manuais de orientações para o manejo e gestão dos RCC, direcionando o sistema gestor. Uma opção para a gestão de RCC é a reciclagem. O Município do Rio de Janeiro com seu relevo original formado por mangues e morros, sofreu grandes aterros e sofre até os dias atuais, utilizando para isso os RCC e o desmonte de antigos morros. Os RCC, após coletados, são destinados a uma única Área de Transbordo e Triagem, com capacidade insuficiente para recebê-los. A ausência de controle do órgão gestor sobre os RCC, seus dados de produção e de destinação, exige uma estimativa dos RCC gerados no Município e uma observação global sobre seus destinos, considerando os aterros autorizados pela SMAC. Foi realizada uma análise crítica da gestão corretiva adotada pelo sistema gestor, suas particularidades e dificuldades, e o perfil atual sobre a reciclagem de RCC no Rio de Janeiro. Algumas propostas para a melhoria do sistema gestor foram apresentadas e sugerida a necessidade de um estudo mais aprofundado e de um levantamento mais completo da realidade dos RCC no Município do Rio de Janeiro.
Resumo:
O presente trabalho investiga um método de detecção de anomalias baseado em sistemas imunológicos artificiais, especificamente em uma técnica de reconhecimento próprio/não-próprio chamada algoritmo de seleção negativa (NSA). Foi utilizado um esquema de representação baseado em hiperesferas com centros e raios variáveis e um modelo capaz de gerar detectores, com esta representação, de forma eficiente. Tal modelo utiliza algoritmos genéticos onde cada gene do cromossomo contém um índice para um ponto de uma distribuição quasi-aleatória que servirá como centro do detector e uma função decodificadora responsável por determinar os raios apropriados. A aptidão do cromossomo é dada por uma estimativa do volume coberto através uma integral de Monte Carlo. Este algoritmo teve seu desempenho verificado em diferentes dimensões e suas limitações levantadas. Com isso, pode-se focar as melhorias no algoritmo, feitas através da implementação de operadores genéticos mais adequados para a representação utilizada, de técnicas de redução do número de pontos do conjunto próprio e de um método de pré-processamento baseado em bitmaps de séries temporais. Avaliações com dados sintéticos e experimentos com dados reais demonstram o bom desempenho do algoritmo proposto e a diminuição do tempo de execução.
Resumo:
Nesta dissertação são analisados métodos de localização baseados na rede, com destaque para os métodos de correlação de assinaturas de rádio-frequência (DCM - Database Correlation Methods). Métodos baseados na rede não requerem modificações nos terminais móveis (MS - Mobile Stations), sendo portanto capazes de estimar a localização de MS legados, i.e., sem suporte específico a posicionamento. Esta característica, associada a alta disponibilidade e precisão dos métodos DCM, torna-os candidatos viáveis para diversas aplicações baseadas em posição, e em particular para a localização de chamadas para números de emergência - polícia, defesa civil, corpo de bombeiros, etc. - originadas de telefones móveis celulares. Duas técnicas para diminuição do tempo médio para produção de uma estimativa de posição são formuladas: a filtragem determinística e a busca otimizada utilizando algoritmos genéticos. Uma modificação é realizada nas funções de avaliação utilizadas em métodos DCM, inserindo um fator representando a inacurácia intrínseca às medidas de nível de sinal realizadas pelos MS. As modificações propostas são avaliadas experimentalmente em redes de telefonia móvel celular de segunda e terceira gerações em ambientes urbanos e suburbanos, assim como em redes locais sem fio em ambiente indoor. A viabilidade da utilização de bancos de dados de correlação (CDB - Correlation Database) construídos a partir de modelagem de propagação é analisada, bem como o efeito da calibração de modelos de propagação empíricos na precisão de métodos DCM. Um dos métodos DCM propostos, utilizando um CDB calibrado, teve um desempenho superior ao de vários outros métodos DCM publicados na literatura, atingindo em área urbana a precisão exigida dos métodos baseados na rede pela regulamentação FCC (Federal Communications Commission) para o serviço E911 (Enhanced 911 ).
Resumo:
Este trabalho apresenta uma estimativa a priori para o limite superior da distribuição de temperatura considerando um problema em regime permanente em um corpo com uma condutividade térmica dependente da temperatura. A discussão é realizada supondo que as condições de contorno são lineares (lei de Newton do resfriamento) e que a condutividade térmica é constante por partes (quando considerada como uma função da temperatura). Estas estimativas consistem em uma ferramenta poderosa que pode prescindir da necessidade de uma simulação numérica cara de um problema de transferência de calor não linear, sempre que for suficiente conhecer o valor mais alto de temperatura. Nestes casos, a metodologia proposta neste trabalho é mais eficaz do que as aproximações usuais que assumem tanto a condutividade térmica quanto as fontes de calor como constantes.
Resumo:
Neste trabalho é apresentado a aplicação de um método de otimização a fim de estimar parâmetros que normalmente estão presentes na modelagem matemática da dinâmica de espécies químicas na interface água-sedimento. O Problema Direto aqui consistiu na simulação das concentrações das espécies orgânicas e inorgânicas (amônia e nitrato) de nitrogênio, num ambiente idealizado, o qual foi fracionado em quatro camadas: uma camada de água (1 metro) e três camadas de sedimento (0-1 cm, 1-2 cm e 2-10 cm). O Problema Direto foi resolvido pelo Método de Runge Kutta, tendo sido gerada uma simulação de 50 dias. Na estimativa dos coeficientes de difusão e porosidade foi aplicado o Método Simulated Annealing (SA). A eficiência da estratégia aqui adotada foi avaliada através do confronto entre dados experimentais sintéticos e as concentrações calçadas pela solução do Problema Direto, adotando-se os parâmetros estimados pela SA. O melhor ajuste entre dados experimentais e valores calculados se deu quando o parâmetro estimado foi a porosidade. Com relação à minimização da função objetivo, a estimativa desse parâmetro também foi a que exigiu menor esforço computacional. Após a introdução de um ruído randômico às concentrações das espécies nitrogenadas, a técnica SA não foi capaz de obter uma estimativa satisfatória para o coeficiente de difusão, com exceção da camada 0-1 cm sedimentar. Para outras camadas, erros da ordem de 10 % foram encontrados (para amônia na coluna dágua, pro exemplo). Os resultados mostraram que a metodologia aqui adotada pode ser bastante promissora enquanto ferramenta de gestão de corpos dágua, especialmente daqueles submetidos a um regime de baixa energia, como lagos e lagoas costeiras.
Resumo:
Este trabalho teve como objetivo verificar se a técnica de impedância bioelétrica (IB) identifica as modificações da composição corporal em mulheres no período pós-parto. Participaram do estudo 47 mulheres (≥ 18 anos), nas quais foram avaliadas massa livre de gordura (MLG), massa gorda (MG) e percentual de gordura corporal (%GC) pelos equipamentos IB_Tanita BC 533; IB_RJL 101 e por absorciometria de raio X de dupla energia (DXA). Todas as avaliações foram feitas no mesmo dia. Posteriormente, as mulheres foram categorizadas em dois grupos: com perda ponderal (n= 24) e com ganho ponderal (n= 22). Os valores médios das alterações da composição corporal (CC), foram comparados intra-métodos e em relação ao método padrão-ouro (DXA) através de teste T-pareado. A concordância entre as diferenças das alterações da CC obtidas pelas IB e DXA foi avaliada pelo método de Bland & Altman e pelo coeficiente de correlação intraclasse (CCI). A média desvio padrão de idade foi de 26,7 5,2 anos e o tempo médio da captação no pós-parto para a primeira avaliação foi de 2,6 2,0 meses e 8,0 2,7 meses para a segunda avaliação. A média de massa corporal (MC) foi de 74,6 11,4 kg na primeira avaliação e 75,1 12,6 kg na segunda avaliação, correspondendo a um valor de índice de massa corporal (IMC) de 28,8 4,0 kg/m2 e 29,0 4,6 kg/m2, respectivamente. O %GC medido pela DXA foi de 40,1 4,9 % para a primeira avaliação e de 41,0 5,2 %, para a segunda avaliação, representando uma MG de 30,2 6,6 kg e de 30,9 8,0 kg, respectivamente. Ambas as IB subestimaram a alteração do % GC (-0,7 % para IB_Tanita e -1,1% para IB_RJL) e MG (-0,6 kg para IB_Tanita e -1,0 kg IB_RJL) em relação ao DXA. Por sua vez, as alterações de MLG foram superestimadas 0,8 kg pela IB_Tanita e 1,0 kg IB_RJL. Houve boa concordância (CCI ≥ 0,75) entre as alterações identificadas para MG pela IB_Tanita e por DXA e satisfatória pela IB_RJL. Dessa forma o presente estudo verificou um desempenho satisfatório da técnica de IB em identificar as alterações da MG gorda e que a IB_Tanita mostrou-se melhor que a IB_RJL na estimativa da alteração desse componente corporal nesse grupo de mulheres pós-parto.
Resumo:
Este trabalho teve como objetivo avaliar o impacto radiológico atmosférico da Unidade de Concentrado de Urânio URA, Caetité, BA, através da modelagem da dispersão de radionuclídeos e a estimativa da dose efetiva anual (em mSv.ano-1). Para tal, utilizou-se o programa MILDOS-AREA que foi desenvolvido pelo Argonne National Laboratory (ANL) em conjunto com a U.S. Nuclear Regulatory Commission (USNRC), para avaliar impacto radiológico ambiental atmosférico nas instalações de mineração e beneficiamento de urânio. O incremento de dose efetiva anual para três grupos críticos hipotéticos e oito grupos populacionais reais foi estimado com base na medida de fluxos de radônio e na estimativa das concentrações de radionuclídeos em particulados no ar dos principais termos fontes da URA (cava da mina, depósito de estéril e britador). Paralelamente, as medidas de concentração de radônio e taxa de kerma no ar, reportadas nos relatórios dos programas de monitoração ambiental pré-operacional (PMAPO) e operacional (PMAO) da URA, foram avaliadas. Os valores de dose efetiva anual estimados para os grupos críticos hipotéticos variaram de 1,78E-02 a 2,10E-02 mSv.ano-1, enquanto que para os grupos populacionais, variaram de 7,49E-05 a 1,56E-02 mSv.ano-1. A maior contribuição para o incremento da dose foi devida a inalação do radônio, sendo responsável por quase a totalidade da dose efetiva anual estimada. A média da concentração de atividade de radônio no entorno da URA foi 137,21 Bq m-3 e não sendo observada diferenças significativas entre as concentrações de radônio reportadas nos programas de monitoramento ambiental pré-operacional (valores de background) e operacional. Os valores médios de taxa de kerma no ar no entorno da URA foram de 0,136 μGy h-1. No entanto, em todos os pontos de monitoramento, os valores reportados no programa operacional foram inferiores aos valores reportados no programa pré-operacional (background), o que sugere problemas de medidas ou de coleta de dados durante a realização deste programa. O operador da URA utilizou para avaliação de impacto radiológico atmosférico, resultados apresentados em seus relatórios finais de análise de segurança (RFAS), um modelo próprio de simulação de dispersão, denominado Impacto Ambiental Radiológico (IAR7). Uma comparação entre o MILDOS-AREA e o IAR7, utilizando os mesmos parâmetros de entrada reportados no RFAS sugere que o IAR7 subestimou as concentrações de radônio no ar para os grupos críticos hipotéticos. Os resultados de simulação com o MILDOS-AREA mostram que as doses efetivas estimadas para os grupos críticos hipotéticos são inferiores a 0,3 mSv.ano-1 que é a restrição de dose estabelecida pela Comissão Nacional de Energia Nuclear. Recomenda-se que o código MILDOS-AREA seja utilizado no Brasil, para fins de licenciamento e controle, tendo em vista que o mesmo é um código validado e já utilizado em outros países para avaliar impacto radiológico ambiental atmosférico em instalações de mineração e beneficiamento de urânio
Resumo:
O objetivo deste trabalho é contribuir com o desenvolvimento de uma técnica baseada em sistemas inteligentes que possibilite a localização exata ou aproximada do ponto de origem de uma Variação de Tensão de Curta Duração (VTCD) (gerada por uma falta) em um sistema de distribuição de energia elétrica. Este trabalho utiliza um Phase-Locked Loop (PLL) com o intuito de detectar as faltas. Uma vez que a falta é detectada, os sinais de tensão obtidos durante a falta são decompostos em componentes simétricas instantâneas por meio do método proposto. Em seguida, as energias das componentes simétricas são calculadas e utilizadas para estimar a localização da falta. Nesta pesquisa, são avaliadas duas estruturas baseadas em Redes Neurais Artificiais (RNAs). A primeira é projetada para classificar a localização da falta em um dos pontos possíveis e a segunda é projetada para estimar a distância da falta ao alimentador. A técnica aqui proposta aplica-se a alimentadores trifásicos com cargas equilibradas. No desenvolvimento da mesma, considera-se que há disponibilidade de medições de tensões no nó inicial do alimentador e também em pontos esparsos ao longo da rede de distribuição. O banco de dados empregado foi obtido através de simulações de um modelo de alimentador radial usando o programa PSCAD/EMTDC. Testes de sensibilidade empregando validação-cruzada são realizados em ambas as arquiteturas de redes neurais com o intuito de verificar a confiabilidade dos resultados obtidos. Adicionalmente foram realizados testes com faltas não inicialmente contidas no banco de dados a fim de se verificar a capacidade de generalização das redes. Os desempenhos de ambas as arquiteturas de redes neurais foram satisfatórios e demonstram a viabilidade das técnicas propostas para realizar a localização de faltas em redes de distribuição.
Resumo:
A utilização do metano (CH4) presente no biogás gerado através da degradação anaeróbica de resíduos orgânicos depositados em aterros sanitários como fonte de energia é uma tecnologia em expansão, principalmente nos países em desenvolvimento. Para assegurar um melhor aproveitamento do CH4 e a viabilidade econômica do projeto de exploração energética é necessário que estes empreendimentos avaliem sua capacidade de produzir este gás com o passar dos anos, mesmo após o encerramento da deposição de resíduos. O potencial de geração é comumente estimado a partir de modelos cinéticos de primeira ordem propostos por conceituadas instituições, entretanto, estudos recentes apontam alto grau de incerteza e diferenças relevantes entre os resultados obtidos com cada metodologia. Este trabalho tem por objetivo analisar a variação dos resultados das estimativas de emissão de metano dos modelos recomendados pela USEPA, Banco Mundial (Scholl Canyon) e IPCC utilizando tanto dados e informações disponibilizadas do aterro sanitário Moskogen, localizado em Kalmar, Suécia, que foi operado entre 1977 e 2008. Além de estimar a capacidade de geração de CH4, objetiva-se identificar qual o modelo cujas estimativas mais se aproximam dos dados de biogás efetivamente medidos e quanto gás ainda pode ser extraído do aterro. O estudo ainda avaliou como valores diferentes para os parâmetros principais dos modelos afetam a estimativa de geração final. O modelo IPCC mostrou-se o mais confiável dentre os analisados, estimando que o aterro Moskogen produza mais de 102 milhões de m de CH4 entre 1977 e 2100, sendo 39,384 milhões passíveis de extração de 2012 a 2100. Os demais modelos apresentaram premissas inadequadas com a realidade do aterro sanitário estudado. Contudo, mesmo com a superioridade do modelo proposto pelo IPCC, maiores estudos são necessários no local, que levantem outras informações de campo como a vazão passiva de gás pela camada de cobertura do aterro e uma melhor estimativa do percentual de material orgânico biodegradável presente em cada fração de resíduos depositada em Moskogen.