260 resultados para Testes Substantivos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta um estudo sobre modelagem computacional onde são aplicadas meta-heurísticas de otimização na solução de problemas inversos de transferência radiativa em meios unidimensionais com albedo dependente da variável óptica, e meios unidimensionais de duas camadas onde o problema inverso é tratado como um problema de otimização. O trabalho aplica uma meta-heurística baseada em comportamentos da natureza conhecida como algoritmo dos vagalumes. Inicialmente, foram feitos estudos comparativos de desempenho com dois outros algoritmos estocásticos clássicos. Os resultados encontrados indicaram que a escolha do algoritmo dos vagalumes era apropriada. Em seguida, foram propostas outras estratégias que foram inseridas no algoritmo dos vagalumes canônico. Foi proposto um caso onde se testou e investigou todas as potenciais estratégias. As que apresentaram os melhores resultados foram, então, testadas em mais dois casos distintos. Todos os três casos testados foram em um ambiente de uma camada, com albedo de espalhamento dependente da posição espacial. As estratégias que apresentaram os resultados mais competitivos foram testadas em um meio de duas camadas. Para este novo cenário foram propostos cinco novos casos de testes. Os resultados obtidos, pelas novas variantes do algoritmo dos vagalumes, foram criticamente analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho foi desenvolvido com o intuito de estudar a utilização do método de ensaio não destrutivo de ultrassom para inspecionar e caracterizar materiais compósitos. Os objetivos principais da pesquisa foram medir a espessura, encontrar e dimensionar delaminações em reparo de material compósito laminado para tubulações e medir a velocidade do som no concreto para o cálculo do módulo de elasticidade. Inicialmente foram estudados os parâmetros físicos relevantes inerentes a cada material para o método de ultrassom, para então estabelecer uma metodologia de inspeção. A técnica de pulso-eco foi capaz de encontrar as descontinuidades no compósito laminado. Para a determinação do módulo de elasticidade do concreto, a técnica de transmissão foi utilizada obtendo-se resultados satisfatórios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A fibrose hepática é o aspecto mais relevante e o mais importante determinante de morbimortalidade na hepatite C crônica (HCC). Historicamente, a biópsia hepática é o método de referência para avaliação da fibrose causada pela HCC, apesar de apresentar limitações. O estudo de marcadores não invasivos, que possam obviar a necessidade da biópsia, é uma área de constante interesse na hepatologia. Idealmente, a avaliação da fibrose hepática deveria ser acurada, simples, prontamente disponível, de baixo custo e informar sobre o prognóstico da patologia. Os marcadores não invasivos mais estudados são a elastografia hepática transitória (EHT) e os laboratoriais. A EHT já foi extensamente validada na HCC e está inserida na rotina de avaliação destes pacientes. Dentre os laboratoriais, existem diversos testes em continua experimentação e, até o momento, nenhum foi integrado à prática clínica no Brasil, embora já aplicados rotineiramente em outros países. O Enhanced Liver Fibrosis (ELF), um teste que dosa no soro ácido hialurônico, pró-peptídeo amino-terminal do colágeno tipo III e inibidor tissular da metaloproteinase 1, tem se mostrado bastante eficaz na detecção de fibrose hepática significativa e de cirrose na HCC. Neste estudo o ELF teve o seu desempenho avaliado em relação a biópsia hepática e demonstrou apresentar boa acurácia na detecção tanto de fibrose significativa quanto de cirrose. Na comparação com a EHT apresentou acurácia semelhante para estes mesmos desfechos, com significância estatística. No entanto, foi observada uma superestimação da fibrose com a utilização dos pontos de corte propostos pelo fabricante. Este achado está em acordo com a literatura, onde não há consenso sobre o melhor ponto de corte a ser empregado na prática clínica. Com a ampliação da casuística foi possível propor novos pontos de corte, através da análise clássica, com a biópsia hepática como padrão ouro. O resultado obtido vai ao encontro do observado por outros autores. Em seguida, os novos pontos de corte do ELF foram reavaliados sem que a biópsia hepática fosse a referência, através da análise de classes latentes. Mais uma vez o ELF apresentou bom desempenho, inclusive com melhora de suas sensibilidade e especificidade em comparação com a análise clássica, onde a biópsia hepática é a referência. Assim sendo, é possível concluir que o ELF é um bom marcador não invasivo de fibrose hepática. No entanto, para detecção de fibrose significativa e cirrose, deve ser considerada a aplicação na prática clínica dos novos pontos de corte aqui propostos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Brasil é produtor de argilas e conta com grandes reservas deste recurso natural. Porém, grande parte da sua produção é comercializada seca e moída. O desenvolvimento de argilas para seu uso como reforço em nanocompósitos poliméricos constitui uma opção para os produtores desta matéria prima que teriam assim um produto com maior valor agregado. Este trabalho visa avaliar o potencial uso como nanocarga de duas argilas nacionais provenientes da Bacia de Taubaté, São Paulo, denominadas ALIGRA e SANTA FÉ. As frações de tamanho de partícula médio menor de 0,02 mm, obtidas por peneiramento á úmido da argila homogeneizada e seca, foram utilizadas no desenvolvimento do trabalho experimental. Os estudos de caracterização, envolvendo análise granulométrica, química, mineralógica, morfológica, térmica e textural, revelaram características muito semelhantes em ambas às argilas. Fração argila, maior de 70% em massa. Composição química conforme a definição química de uma argila e os teores de seus componentes mostram valores intermédios entre as apresentadas pelas bentonitas e argila caulinítica usadas com fins de comparação. Ressaltamse boas propriedades adsorventes. Área superficial específica BET ao redor de 120 m2/g, valor maior do que o apresentado por muitas bentonitas naturais (74,5 m2/g). Predominantemente mesoporosas, com poros, maiormente em forma de fenda, característicos da estrutura em camadas das argilas. Baixa capacidade de troca catiônica, 12 meq/100g. Difratogramas de raios-X revelaram a predominância do estratificado ilita/esmectita, caulinita e quartzo na argila ALIGRA, e de ilita, caulinita e quartzo na argila SANTA FÉ. Prosseguiu-se com a argila ALIGRA a preparação da argila organofílica. A argila organofílica foi obtida por troca catiônica com o sal quaternário de amônio: cloro cetril trimetil amônio, depois de homogeneizada em sódio com cloreto de sódio. Análises FTIR e TGA indicaram que houve inserção dos cátions orgânicos. Testes preliminares foram feitas, preparando misturas das argilas com matriz de polipropileno e usando como agente compatibilizante polipropileno enxertado com anidrido maleico. Resultados de ensaios de tração reportam algumas melhoras nas propriedades testadas com as composições preparadas com as argilas purificadas. Com as composições com argilas organofílicas somente foi melhorado o alongamento na rotura. Estudos ais aprofundados são recomendados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quando as wetlands alcançam a máxima capacidade de tratamento para remover metais pesados, a remoção ainda pode ocorrer por precipitação na forma de sulfetos devido a redução biológica de sulfato. Para alcançar este objetivo, devem ser promovidas condições anaeróbias, uma fonte de sulfato deve existir e uma fonte adequada de carbono/energia deve estar presente. No presente trabalho, a macroalga Sargassum filipendula e bagaço de cana-de-açúcar (materiais lígneo-celulósicos) foram selecionados como fontes de carbono, devido ao seu acentuado conteúdo de compostos orgânicos de degradação lenta e serem resíduos de alta disponibilidade. Experimentos foram simultaneamente conduzidos em operação contínua em duas colunas (0,5 L cada), uma contendo a macroalga e/ou bagaço de cana-de-açúcar e a outra contendo os materiais inoculados com um lodo anaeróbio. Neste trabalho, foi estudada a remoção de cádmio e zinco, devido à presença deles em efluentes de operações de mineração/metalurgia. Os ensaios foram realizados sob três diferentes condições experimentais no que se refere à quantidade de lodo anaeróbio inoculado no reator e o material empregado como fonte de carbono/energia. Os resultados indicaram que o reator inoculado foi capaz de tratar o efluente mais eficientemente que o reator não inoculado, considerando o período dos testes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso de Internet para a distribuição de fluxos de vídeo tem se mostrado uma tendência atual e traz consigo grandes desafios. O alicerce sobre qual a Internet está fundamentada, comutação por pacotes e arquitetura cliente-servidor, não proporciona as melhores condições para este tipo de serviço. A arquitetura P2P (peer-to-peer) vem sendo considerada como infraestrutura para a distribuição de fluxos de vídeo na Internet. A idéia básica da distribuição de vídeo com o suporte de P2P é a de que os vários nós integrantes da rede sobreposta distribuem e encaminham pedaços de vídeo de forma cooperativa, dividindo as tarefas, e colocando à disposição da rede seus recursos locais. Dentro deste contexto, é importante investigar o que ocorre com a qualidade do serviço de distribuição de vídeo quando a infraestrutura provida pelas redes P2P é contaminada por nós que não estejam dispostos a cooperar, já que a base desta arquitetura é a cooperação. Neste trabalho, inicialmente é feito um estudo para verificar o quanto a presença de nós não-cooperativos pode afetar a qualidade da aplicação de distribuição de fluxo de vídeo em uma rede P2P. Com base nos resultados obtidos, é proposto um mecanismo de incentivo à cooperação para que seja garantida uma boa qualidade de vídeo aos nós cooperativos e alguma punição aos nós não-cooperativos. Os testes e avaliações foram realizados utilizando-se o simulador PeerSim.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, o crescimento dos problemas de vibrações excessivas sobre pisos mistos (aço-concreto) tem conduzido à necessidade de desenvolvimento de critérios específicos para projetos estruturais submetidos à ação de atividades humanas rítmicas. Com base no desenvolvimento desta dissertação de mestrado, objetiva-se, principalmente, verificar a influência das ligações estruturais (ligações viga-viga), sobre a resposta dinâmica não-linear de pisos mistos (aço-concreto) de edificações, quando submetidos a cargas dinâmicas humanas rítmicas. Deste modo, o carregamento dinâmico empregado para a simulação das atividades humanas sobre o modelo estrutural investigado foi obtido através de testes experimentais com indivíduos praticando atividades rítmicas e não rítmicas. O modelo analisado nesta dissertação corresponde a um piso misto (aço-concreto) com uma área total de 1600m2 e consiste de um ambiente onde serão desenvolvidas atividades de ginástica aeróbica. O sistema estrutural é constituído por lajes de concreto armado apoiadas sobre vigas de aço, simulando o comportamento de um sistema estrutural misto (aço-concreto) com interação total. A metodologia de análise desenvolvida emprega técnicas usuais de discretização presentes no método dos elementos finitos, com base no emprego do programa ANSYS. A modelagem do sistema contempla ligações estruturais do tipo rígidas, semirrígidas e flexíveis. Os valores das acelerações de pico foram comparados com os limites recomendados por normas de projeto, baseando-se em critérios de conforto humano. As conclusões alcançadas ao longo deste trabalho de pesquisa revelam que as ligações estruturais do tipo viga-viga não apresentam influência significativa, no que diz respeito a resposta dinâmica não-linear da estrutura. Por outro lado, as acelerações de pico obtidas com base na análise dinâmica não-linear apresentam valores elevados indicando que o piso misto (aço-concreto) investigado apresenta problemas de vibração excessiva inerentes ao conforto humano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A hiperatividade locomotora e as alterações nos ritmos circadianos têm sido descritas em roedores e humanos expostos ao etanol durante o desenvolvimento. Considerando que a atividade locomotora em camundongos é conhecida por variar ao longo das fases do ciclo claro escuro, é possível que o fenótipo hiperativo resultante da exposição precoce ao etanol também varie em função da hora do dia. Além disso, é possível que a hiperatividade apresentada pelos indivíduos expostos ao etanol durante o desenvolvimento esteja associada com distúrbios no sistema de controle do ritmo circadiano. Neste estudo, avaliamos estas duas possibilidades realizando uma análise circadiana da atividade locomotora e da expressão dos genes de relógio de camundongos adolescentes expostos ao etanol durante o período de surto de crescimento cerebral. Para tanto, camundongos suíços criados e mantidos em um ciclo claro/escuro de 12h (luzes acesas às 2:00h, apagadas as 14:00h) foram injetados com etanol (5g/kg ip, grupo ETOH) ou um volume equivalente de solução salina (grupo SAL) em dias alternados do segundo ao oitavo dias pós-natais. No 30 dia pós-natal, os animais foram testados em campo aberto por 15 minutos em diferentes momentos do ciclo claro/escuro: durante a fase clara entre 6:00 e 7:30h e entre12:00 e 13:30h; durante a fase escura entre 18:00 e 19:30h e entre 0:00 e 01:30h. Durante a fase escura os testes foram realizados sob iluminação com luz vermelha. Após os testes comportamentais, alguns animais foram randomicamente selecionados para as análises de imunofluorescência da expressão dos genes PER 1, 2 e 3 no núcleo supraquiasmático. Ao longo dos seis primeiros minutos, a atividade locomotora dos animais testados durante o período claro não mudou significativamente ou apresentou um leve aumento e a dos animais testados no período escuro apresentou uma marcante redução. Além disso, o grupo de animais testados entre 00:00 e 1:30h apresentou a maior atividade locomotora e o grupo dos animais testados entre 12:00 e 13:30h apresentou a menor atividade locomotora. De modo importante, a exposição neonatal ao etanol promoveu hiperatividade locomotora apenas no grupo de animais testados entre 00:00 e 1:30h. Em relação aos genes de controle do ritmo circadiano, a exposição precoce ao etanol afetou apenas a expressão do gene Per1 que foi menor entre 18:00 e 19:30h. O fato de que a expressão dos genes de controle do ritmo circadiano foi alterada no meio da fase escura e que a hiperatividade locomotora foi observada apenas no final da fase escura é compatível com a hipótese de que a hiperatividade induzida pelo etanol pode estar associada com as perturbações de controle do ritmo circadiano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: A associação entre a presença de anticorpo anti-HLA doador específico (DSA), em pacientes com prova cruzada negativa por citotoxicidade dependente de complemento (CDC), e a ocorrência de episódios de rejeição mediada por anticorpos (RMA) e menor sobrevida do enxerto já foi demonstrada por diversos autores. Entretanto,estimar a relevância clínica da presença desses anticorpos, em um determinado receptor, é um grande desafio e portanto novas estratégias de monitorização imunológicas são necessárias. Objetivo: O objetivo desse estudo foi monitorar a presença de DSA, bem como a variação dos seus títulos durante o primeiro ano após o transplante renal e correlacionar com episódios de rejeição aguda e função do enxerto ao final desse período. Metodologia: Foram analisados 389 soros de 71 pacientes incluídos no estudo. A pesquisa de DSA foi realizada utilizando os testes LABScreen single antigenbeads nas amostras correspondentes aos tempos: pré-transplante, 14, 30, 90, 180 e 365 dias após o transplante. Episódios de rejeição aguda comprovados por biópsia foram analisados de acordo com a classificação de Banff 2007. A taxa de filtração glomerular (TFG) ao final do primeiro ano foi estimada utilizando a fórmula Modificationof Diet in Renal Disease (MDRD). Os pacientes foram inicialmente separados em 3 grupos de diferentes riscos imunológicos (pré-transplante): A) DSA-, B) DSA+ com MFI >1000 e < 5000 e C) DSA+ com MFI > 5000. Num segundo momento, foram novamente agrupados de acordo com o perfil de mudança nos valores de MFI (intensidade de fluorescência média) ao longo do primeiro ano. Resultados: DSA estavam presentes pré-transplante em 15 pacientes. RMA foi mais frequente no grupo C (p = 0,02). De acordo com a variação dos títulos de DSA pós-transplante os pacientes foram novamente agrupados: grupo I) permaneceu DSA- durante todo acompanhamento = 50 pacientes, II) diminuiu ou manteve títulos de DSA em relação ao tempo zero = 13 pacientes e III) aumentou títulos em relação ao tempo zero = 8 pacientes (6 foram DSA de novo). Três pacientes dos grupos I e um paciente do grupo II apresentaram episódios de rejeição aguda celular. Não foi observada oscilação significativa nos títulos de anticorpos durante esses eventos. Nenhum paciente desse grupo apresentou episódio de RMA. Episódio de RMA ocorreu em dois pacientes do grupo III. Em ambos os pacientes foi detectado aumento significativo nos valores de MFI dos DSA em relação ao tempo zero. Não foi observada diferença significativa na TFG entre os grupos analisados nesse estudo. Entretanto, observou-se uma diferença estatisticamente significativa na TFG entre os pacientes que apresentaram episódio de rejeição aguda em relação aos que não tiveram, sendo menor nos primeiros (p = 0,04). Conclusão: A monitorização prospectiva dos anticorpos pode ajudar a identificar pacientes em maior risco para ocorrência de RMA e o aumento nos valores de MFI DSA deve ser interpretado como um sinal de alerta, sobretudo em pacientes previamente sensibilizados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em engenharia, a modelagem computacional desempenha um papel importante na concepção de produtos e no desenvolvimento de técnicas de atenuação de ruído. Nesse contexto, esta tese investiga a intensidade acústica gerada pela radiação sonora de superfícies vibrantes. De modo específico, a pesquisa enfoca a identificação das regiões de uma fonte sonora que contribuem efetivamente para potência sonora radiada para o campo afastado, quando a frequência de excitação ocorre abaixo da frequência crítica de coincidência. São descritas as fundamentações teóricas de duas diferentes abordagens. A primeira delas, denominada intensidade supersônica (analítica) é calculada via transformadas de Fourier para fontes sonoras com geometrias separáveis. A segunda, denominada intensidade útil (numérica) é calculada através do método dos elementos de contorno clássico para fontes com geometrias arbitrárias. Em ambas, a identificação das regiões é feita pela filtragem das ondas não propagantes (evanescentes). O trabalho está centrado em duas propostas, a saber. A primeira delas, é a apresentação implementação e análise de uma nova técnica numérica para o cálculo da grandeza intensidade útil. Essa técnica constitui uma variante do método dos elementos de contorno (MEC), tendo como base o fato de as aproximações para as variáveis acústicas pressão e velocidade normal serem tomadas como constantes em cada elemento. E também no modo peculiar de obter a velocidade constante através da média de um certo número de velocidades interiores a cada elemento. Por esse motivo, a técnica recebe o nome de método de elemento de contorno com velocidade média (AVBEMAverage Velocity Boundary Element Method). A segunda, é a obtenção da solução forma fechada do campo de velocidade normal para placas retangulares com oito diferentes combinações de condições contorno clássicas. Então, a intensidade supersônica é estimada e comparada à intensidade acústica. Nos ensaios numéricos, a comparação da intensidade útil obtida via MEC clássico e via AVBEM é mostrada para ilustrar a eficiência computacional da técnica aqui proposta, que traz como benefício adicional o fato de poder ser utilizada uma malha menos refinada para as simulações e, consequentemente, economia significativa de recursos computacionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente deste trabalho foi avaliar a toxicidade aguda, crônica e a genotoxicidade sobre E. andrei causadas por solo recém-contaminado com óleo lubrificante usado e após biorremediação por diferentes estratégias, após 22 meses, e paralelamente ao estudo de ecotoxicidade, foi conduzida uma investigação comparativa de três métodos de extração de HTP e HPA de solos para análise cromatográfica. A comparação das técnicas de extração evidenciou que para HTP, a técnica de extração acelerada por solvente-ASE foi a que melhor recuperou n-alcanos; já para as frações HRP e MCNR as técnicas soxhlet e micro-ondas-MARS não apresentaram diferenças significativas e foram melhores que ASE. Para HPA, a técnica de extração por soxhlet foi a que apresentou melhor recuperação em todos os solos. O teste de mortalidade apresentou, aos 14 dias, taxas crescentes de mortalidade de 10 6%, 20 0%, 73 25%, 93 12% e 100 0% para amostras de CONT (solo controle, sem contaminação artificial), BIOS (solo contaminado com 5% de OLU e biorremediado por bioestimulo), BIOA1 (solo contaminado com 5% de OLU e biorremediado por bioestimulo + bioaumento com adição de 10% de RSU maturado), e BIOA2 (solo contaminado com 5% de OLU e biorremediado por bioestimulo + bioaumento com adição de 10% de RSU semi-maturado) e OLU (solo contaminado com 5% de OLU), respectivamente. Aos 28 dias, entretanto, BIOS e OLU apresentaram taxas de mortalidade de 97 % 6 % e de 100 % 0 % respectivamente, valores estes significativamente superiores ao CONT. Foram observadas deformações anatômicas nos indivíduos mantidos em BIOS e OLU, assim como diminuição da biomassa em todas as amostras, evidenciando efeitos crônicos. O teste de reprodução, aos 28 dias, foram observadas grandes quantidades de indivíduos jovens nos solos biorremediados e recém-contaminado. No entanto, aos 56 dias houve uma diminuição dessas formas e o controle (CONT) exibiu uma quantidade maior de formas juvenis. O teste de densidade e viabilidade celular mostrou ser indicador sensível para toxicidade crônica apresentando queda nos solos BIOS e OLU em relação ao CONT com diferenças significativas (p <0.05). Não foram observados micronúcleos nos solos em estudo. Tal observação reforça a necessidade de testes de ecotoxicidade para avaliar a real eficácia de tecnologias de tratamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente deste trabalho foi avaliar a toxicidade aguda, crônica e a genotoxicidade sobre E. andrei causadas por solo recém-contaminado com óleo lubrificante usado e após biorremediação por diferentes estratégias, após 22 meses, e paralelamente ao estudo de ecotoxicidade, foi conduzida uma investigação comparativa de três métodos de extração de HTP e HPA de solos para análise cromatográfica. A comparação das técnicas de extração evidenciou que para HTP, a técnica de extração acelerada por solvente-ASE foi a que melhor recuperou n-alcanos; já para as frações HRP e MCNR as técnicas soxhlet e micro-ondas-MARS não apresentaram diferenças significativas e foram melhores que ASE. Para HPA, a técnica de extração por soxhlet foi a que apresentou melhor recuperação em todos os solos. O teste de mortalidade apresentou, aos 14 dias, taxas crescentes de mortalidade de 10 6%, 20 0%, 73 25%, 93 12% e 100 0% para amostras de CONT (solo controle, sem contaminação artificial), BIOS (solo contaminado com 5% de OLU e biorremediado por bioestimulo), BIOA1 (solo contaminado com 5% de OLU e biorremediado por bioestimulo + bioaumento com adição de 10% de RSU maturado), e BIOA2 (solo contaminado com 5% de OLU e biorremediado por bioestimulo + bioaumento com adição de 10% de RSU semi-maturado) e OLU (solo contaminado com 5% de OLU), respectivamente. Aos 28 dias, entretanto, BIOS e OLU apresentaram taxas de mortalidade de 97 % 6 % e de 100 % 0 % respectivamente, valores estes significativamente superiores ao CONT. Foram observadas deformações anatômicas nos indivíduos mantidos em BIOS e OLU, assim como diminuição da biomassa em todas as amostras, evidenciando efeitos crônicos. O teste de reprodução, aos 28 dias, foram observadas grandes quantidades de indivíduos jovens nos solos biorremediados e recém-contaminado. No entanto, aos 56 dias houve uma diminuição dessas formas e o controle (CONT) exibiu uma quantidade maior de formas juvenis. O teste de densidade e viabilidade celular mostrou ser indicador sensível para toxicidade crônica apresentando queda nos solos BIOS e OLU em relação ao CONT com diferenças significativas (p <0.05). Não foram observados micronúcleos nos solos em estudo. Tal observação reforça a necessidade de testes de ecotoxicidade para avaliar a real eficácia de tecnologias de tratamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho investiga a implementação de sistemas fuzzy com circuitos eletrônicos. Tais sistemas têm demonstrado sua capacidade de resolver diversos tipos de problemas em várias aplicações de engenharia, em especial nas relacionadas com controle de processos. Para processos mais complexos, o raciocínio aproximado da lógica fuzzy fornece uma maneira de compreender o comportamento do sistema, permitindo a interpolação aproximada entre situações observadas de entrada e saída. A implementação de um sistema fuzzy pode ser baseada em hardware, em software ou em ambos. Tipicamente, as implementações em software utilizam ambientes de programação integrados com simulação, de modo a facilitar o trabalho do projetista. As implementações em hardware, tradicionais ou evolutivas, podem ser analógicas ou digitais e viabilizam sistemas de maior desempenho. Este trabalho tem por objetivo pesquisar a implementação eletrônica de sistemas fuzzy, a fim de viabilizar a criação de sistemas reais capazes de realizar o mapeamento de entrada e saída adequado. O foco é a utilização de uma plataforma com uma arquitetura analógico-digital baseada em uma tabela de mapeamento armazenada em uma memória de alta capacidade. Memórias do tipo SD (Secure Digital) foram estudadas e utilizadas na construção do protótipo eletrônico da plataforma. Também foram desenvolvidos estudos sobre a quantização, especificamente sobre a possibilidade de redução do número de bits. Com a implementação realizada é possível desenvolver um sistema fuzzy num ambiente simulado (Matlab), configurar a plataforma e executar o sistema fuzzy diretamente na plataforma eletrônica. Os testes com o protótipo construído comprovaram seu bom funcionamento.