264 resultados para Testes de Passeio Aleatório


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os Staphylococcus coagulase-negativos (SCN) são encontrados na pele e mucosas de seres humanos e outros animais, já que algumas espécies são parte constituinte da microbiota normal destes mesmos sítios, e podem constituir um reservatório para SCN. A espécie Staphylococcus epidermidis, é reconhecida como grande oportunista e agente de graves infecções nosocomiais e comunitárias, além de associado com infecções em pacientes submetidos a implantes com dispositivos médicos, e a espécie Staphyloccus haemolyticus é a segunda espécie mais isolada de hemoculturas humanas, sendo uma das espécies que apresenta elevada resistência aos antimicrobianos. O presente estudo teve como objetivo principal investigar a presença de SCN em fômites (estetoscópios, termômetros e esfigmomanômetros) no ambiente hospitalar, identificar as espécies S. haemolyticus e S. epidermidis e correlacionar seus perfis de resistência aos antimicrobianos com a capacidade de produção de biofilme. A técnica de multiplex-mPCR foi empregada na determinação das espécies e a fenotipagem foi realizada pelos testes fenotípicos convencionais. Os perfis de resistência aos antimicrobianos foram verificados através do teste de disco-difusão, determinação da CIM (oxacilina e vancomicina), determinação da CBM e presença do gene mecA. A capacidade de produção de biofilme foi investigada pelos testes do Ágar Vermelho do Congo e ensaios de aderência em superfícies abióticas (poliestireno e vidro) na presença e ausência de oxacilina e vancomicina, além da PCR para o gene icaAD. Os resultados demonstraram que pelos testes bioquímicos convencionais, a espécie mais encontrada foi S. epidermidis (43,5%). Após a confirmação pela técnica de PCR, 29 amostras (82%) foram identificadas como S. epidermidis, e 6 amostras (18%) foram identificadas como S. haemolyticus. Todas as amostras foram multirresistentes, oxacilina resistentes e vancomicina sensíveis, sendo que apenas 5 amostras S. epidermidis (17,2%) foram tolerantes a oxacilina. A presença do gene mecA foi detectada em 71,4% das amostras. Apesar da maioria das amostras ter apresentado capacidade de produzir slime e/ou biofilme não foi observada total correlação com a presença do gene icaAD enfatizando a natureza multifatorial da produção de biofilme. As amostras aderiram melhor ao esfigmomanômetro, e também, neste fômites, foi encontrado a maior porcentagem de amostras positivas para a produção de slime. Para aderência ao vidro e aderência ao poliestireno não foi encontrada correlação com os fômites. Foram isoladas amostras S. epidermidis de todos os sítios hospitalares estudados e S. haemolyticus só não foi encontrado em Enfermaria de Clínica Médica. Em relação aos fômites, S. epidermidis foi encontrado em todos os fômites estudados, e S. haemolyticus, apenas foi encontrado em esfigmomanômetro e em outros fômites. Os fômites estão servindo como fontes de transmissão e disseminação de micro-organismos, sendo necessário maiores estudos a respeito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As estatinas são fármacos inibidores competitivos da enzima hidroxi-3-metil-glutaril Coenzima A (HMGCoA) redutase, amplamente utilizados para o controle da hipercolesterolemia total e, em especial, para a redução dos níveis séricos de LDLc (Low Density Lipoprotein cholesterol). Além do efeito primário, esses fármacos apresentam vários efeitos secundários, chamados de efeitos pleiotrópicos, envolvendo atividade anti-inflamatória, antitumoral e antiparasitária. Para o desenvolvimento de inovações na área de química medicinal é imprescindível avaliar o risco de efeitos adversos para saúde ou, em outras palavras, a segurança terapêutica do novo produto nas condições propostas de uso. Nesse sentido, o objetivo desse trabalho foi investigar a genotoxicidade de quatro análogos inibidores da biossíntese de lipídios, da classe das estatinas, em modelos experimentais in vitro, testados previamente contra o clone W2 de Plasmodium falciparum a fim de se obter o IC50 dessas moléculas frente ao patógeno. Foram desenvolvidas quatro novas moléculas (PCSR02.001, PCSR09.001, PCSR08.002 e PCSR10.002). Para a avaliação da toxicidade, foram realizados o teste de mutagenicidade bacteriana (teste de Ames), o ensaio de viabilidade celular utilizando o reagente WST-1 e o ensaio de indução de micronúcleos, ambos utilizando uma linhagem ovariana (CHO-K1) e uma linhagem hepática (HepG2). Levando em conta o fato de nenhuma das amostras ter induzido efeitos mutagênicos nas linhagens de S. enterica sorovar Typhimurium, e PCSR10.002 ter apresentado citotoxicidade sugere-se então que este composto seja o mais tóxico. Comparativamente, PCSR10.002 foi mais genotóxico e citotóxico para a linhagem CHO-K1 do que para a linhagem HepG2. PCSR02.001 apresentou elevado potencial genotóxico para células ovarianas, mas não foi capaz de induzir a formação de micronúcleos em células hepáticas, apresentando, portanto um perfil similar ao observado em PCSR10.002. Assim como a atorvastatina, PCSR09.001 apresentou elevado potencial pró-apoptótico para a linhagem de hepatócitos. Já PCSR08.002, apresentou aumento na apoptose de CHO-K1. A indução de apoptose não é necessariamente um evento negativo, já que é pouco lesiva e responsável pela eliminação de células danificadas. Porém, as respostas de apoptose induzidas por esse composto foram muito inferiores àquelas induzidas pela atorvastatina (cerca de 4 vezes menor que a atorvastatina). PCSR08.002 foi aquele se mostrou menos tóxico e essa amostra foi a que teve menor risco relativo, em uma análise global das respostas de citotoxicidade e não demonstrou ter potencial genotóxico para as linhagens utilizadas nesse estudo. Conclui-se, portanto, que a análise da atividade toxicológica utilizando modelos experimentais in vitro dessas estatinas constitui um importante passo para o estabelecimento de novos candidatos à fármacos com maior segurança.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nanopartículas de dióxido de titânio vêm sendo extensamente empregadas como fotocatalisa-dores, já que são eficientes na degradação de diversos poluentes. Visando a obtenção de titâ-nias com diferentes propriedades, realizaram-se sínteses através do método sol-gel, a partir da hidrólise do tetraisopropóxido de titânio (IV) TIPP e seguindo-se os princípios da Química Verde, dispensando-se temperaturas e pressões elevadas. Foi estudada a influência de dife-rentes parâmetros, como: pH, solvente, razão molar álcool/TIPP e ordem de adição dos rea-gentes. Foram obtidas titânias na forma cristalina anatásio, nanométricas, com elevadas áreas superficiais específicas e predominantemente mesoporosas. Visando-se obter titânias com melhores propriedades óticas, isto é, capazes de sofrer a fotoativação pela luz visível, foram sintetizadas titânias dopadas e co-dopadas com os metais ferro e rutênio (Fe3+ e Ru3+) e o a-metal N (N3). A síntese desses materiais também foi realizada através do método sol-gel, sendo a dopagem realizada durante o processo de hidrólise. As amostras foram caracterizadas na forma de pó por difração de raios-X, adsorção-dessorção de nitrogênio, microscopia ele-trônica de varredura e espectroscopia de refletância difusa no UV-Visível. A titânia pura a-presentou como única fase cristalina o anatásio, quando calcinada até 400 C, com a presença de traços de brookita. A partir de 600 C, observou-se o aparecimento da fase rutilo, que em 900C foi a única fase encontrada na titânia. A dopagem com Ru3+dificultou a transformação de fase anatásio para rutilo, ao contrário da dopagem com Fe3+. O processo de co-dopagem acelerou a formação de rutilo, que se apresentou como única fase nas amostras calcinadas a 600 C. As titânias dopadas apresentaram uma leve diminuição na energia de bandgap, sendo os dopantes capazes de deslocar a absorção para o vermelho. Foram realizados testes fotoca-talíticos visando à degradação do azocorante Reactive Yellow 145 com lâmpada de vapor de mercúrio de 125 W a fim de se comparar as atividades fotocatalíticas das titânias puras, dopa-das e co-dopadas, calcinadas a 300C. De todas as titânias sintetizadas, a titânia pura foi a que melhor degradou o corante, tendo um desempenho semelhante ao do TiO2 P25, da Evo-nik

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta um estudo sobre modelagem computacional onde são aplicadas meta-heurísticas de otimização na solução de problemas inversos de transferência radiativa em meios unidimensionais com albedo dependente da variável óptica, e meios unidimensionais de duas camadas onde o problema inverso é tratado como um problema de otimização. O trabalho aplica uma meta-heurística baseada em comportamentos da natureza conhecida como algoritmo dos vagalumes. Inicialmente, foram feitos estudos comparativos de desempenho com dois outros algoritmos estocásticos clássicos. Os resultados encontrados indicaram que a escolha do algoritmo dos vagalumes era apropriada. Em seguida, foram propostas outras estratégias que foram inseridas no algoritmo dos vagalumes canônico. Foi proposto um caso onde se testou e investigou todas as potenciais estratégias. As que apresentaram os melhores resultados foram, então, testadas em mais dois casos distintos. Todos os três casos testados foram em um ambiente de uma camada, com albedo de espalhamento dependente da posição espacial. As estratégias que apresentaram os resultados mais competitivos foram testadas em um meio de duas camadas. Para este novo cenário foram propostos cinco novos casos de testes. Os resultados obtidos, pelas novas variantes do algoritmo dos vagalumes, foram criticamente analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho foi desenvolvido com o intuito de estudar a utilização do método de ensaio não destrutivo de ultrassom para inspecionar e caracterizar materiais compósitos. Os objetivos principais da pesquisa foram medir a espessura, encontrar e dimensionar delaminações em reparo de material compósito laminado para tubulações e medir a velocidade do som no concreto para o cálculo do módulo de elasticidade. Inicialmente foram estudados os parâmetros físicos relevantes inerentes a cada material para o método de ultrassom, para então estabelecer uma metodologia de inspeção. A técnica de pulso-eco foi capaz de encontrar as descontinuidades no compósito laminado. Para a determinação do módulo de elasticidade do concreto, a técnica de transmissão foi utilizada obtendo-se resultados satisfatórios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A fibrose hepática é o aspecto mais relevante e o mais importante determinante de morbimortalidade na hepatite C crônica (HCC). Historicamente, a biópsia hepática é o método de referência para avaliação da fibrose causada pela HCC, apesar de apresentar limitações. O estudo de marcadores não invasivos, que possam obviar a necessidade da biópsia, é uma área de constante interesse na hepatologia. Idealmente, a avaliação da fibrose hepática deveria ser acurada, simples, prontamente disponível, de baixo custo e informar sobre o prognóstico da patologia. Os marcadores não invasivos mais estudados são a elastografia hepática transitória (EHT) e os laboratoriais. A EHT já foi extensamente validada na HCC e está inserida na rotina de avaliação destes pacientes. Dentre os laboratoriais, existem diversos testes em continua experimentação e, até o momento, nenhum foi integrado à prática clínica no Brasil, embora já aplicados rotineiramente em outros países. O Enhanced Liver Fibrosis (ELF), um teste que dosa no soro ácido hialurônico, pró-peptídeo amino-terminal do colágeno tipo III e inibidor tissular da metaloproteinase 1, tem se mostrado bastante eficaz na detecção de fibrose hepática significativa e de cirrose na HCC. Neste estudo o ELF teve o seu desempenho avaliado em relação a biópsia hepática e demonstrou apresentar boa acurácia na detecção tanto de fibrose significativa quanto de cirrose. Na comparação com a EHT apresentou acurácia semelhante para estes mesmos desfechos, com significância estatística. No entanto, foi observada uma superestimação da fibrose com a utilização dos pontos de corte propostos pelo fabricante. Este achado está em acordo com a literatura, onde não há consenso sobre o melhor ponto de corte a ser empregado na prática clínica. Com a ampliação da casuística foi possível propor novos pontos de corte, através da análise clássica, com a biópsia hepática como padrão ouro. O resultado obtido vai ao encontro do observado por outros autores. Em seguida, os novos pontos de corte do ELF foram reavaliados sem que a biópsia hepática fosse a referência, através da análise de classes latentes. Mais uma vez o ELF apresentou bom desempenho, inclusive com melhora de suas sensibilidade e especificidade em comparação com a análise clássica, onde a biópsia hepática é a referência. Assim sendo, é possível concluir que o ELF é um bom marcador não invasivo de fibrose hepática. No entanto, para detecção de fibrose significativa e cirrose, deve ser considerada a aplicação na prática clínica dos novos pontos de corte aqui propostos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Brasil é produtor de argilas e conta com grandes reservas deste recurso natural. Porém, grande parte da sua produção é comercializada seca e moída. O desenvolvimento de argilas para seu uso como reforço em nanocompósitos poliméricos constitui uma opção para os produtores desta matéria prima que teriam assim um produto com maior valor agregado. Este trabalho visa avaliar o potencial uso como nanocarga de duas argilas nacionais provenientes da Bacia de Taubaté, São Paulo, denominadas ALIGRA e SANTA FÉ. As frações de tamanho de partícula médio menor de 0,02 mm, obtidas por peneiramento á úmido da argila homogeneizada e seca, foram utilizadas no desenvolvimento do trabalho experimental. Os estudos de caracterização, envolvendo análise granulométrica, química, mineralógica, morfológica, térmica e textural, revelaram características muito semelhantes em ambas às argilas. Fração argila, maior de 70% em massa. Composição química conforme a definição química de uma argila e os teores de seus componentes mostram valores intermédios entre as apresentadas pelas bentonitas e argila caulinítica usadas com fins de comparação. Ressaltamse boas propriedades adsorventes. Área superficial específica BET ao redor de 120 m2/g, valor maior do que o apresentado por muitas bentonitas naturais (74,5 m2/g). Predominantemente mesoporosas, com poros, maiormente em forma de fenda, característicos da estrutura em camadas das argilas. Baixa capacidade de troca catiônica, 12 meq/100g. Difratogramas de raios-X revelaram a predominância do estratificado ilita/esmectita, caulinita e quartzo na argila ALIGRA, e de ilita, caulinita e quartzo na argila SANTA FÉ. Prosseguiu-se com a argila ALIGRA a preparação da argila organofílica. A argila organofílica foi obtida por troca catiônica com o sal quaternário de amônio: cloro cetril trimetil amônio, depois de homogeneizada em sódio com cloreto de sódio. Análises FTIR e TGA indicaram que houve inserção dos cátions orgânicos. Testes preliminares foram feitas, preparando misturas das argilas com matriz de polipropileno e usando como agente compatibilizante polipropileno enxertado com anidrido maleico. Resultados de ensaios de tração reportam algumas melhoras nas propriedades testadas com as composições preparadas com as argilas purificadas. Com as composições com argilas organofílicas somente foi melhorado o alongamento na rotura. Estudos ais aprofundados são recomendados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quando as wetlands alcançam a máxima capacidade de tratamento para remover metais pesados, a remoção ainda pode ocorrer por precipitação na forma de sulfetos devido a redução biológica de sulfato. Para alcançar este objetivo, devem ser promovidas condições anaeróbias, uma fonte de sulfato deve existir e uma fonte adequada de carbono/energia deve estar presente. No presente trabalho, a macroalga Sargassum filipendula e bagaço de cana-de-açúcar (materiais lígneo-celulósicos) foram selecionados como fontes de carbono, devido ao seu acentuado conteúdo de compostos orgânicos de degradação lenta e serem resíduos de alta disponibilidade. Experimentos foram simultaneamente conduzidos em operação contínua em duas colunas (0,5 L cada), uma contendo a macroalga e/ou bagaço de cana-de-açúcar e a outra contendo os materiais inoculados com um lodo anaeróbio. Neste trabalho, foi estudada a remoção de cádmio e zinco, devido à presença deles em efluentes de operações de mineração/metalurgia. Os ensaios foram realizados sob três diferentes condições experimentais no que se refere à quantidade de lodo anaeróbio inoculado no reator e o material empregado como fonte de carbono/energia. Os resultados indicaram que o reator inoculado foi capaz de tratar o efluente mais eficientemente que o reator não inoculado, considerando o período dos testes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso de Internet para a distribuição de fluxos dedeo tem se mostrado uma tendência atual e traz consigo grandes desafios. O alicerce sobre qual a Internet está fundamentada, comutação por pacotes e arquitetura cliente-servidor, não proporciona as melhores condições para este tipo de serviço. A arquitetura P2P (peer-to-peer) vem sendo considerada como infraestrutura para a distribuição de fluxos dedeo na Internet. A idéia básica da distribuição dedeo com o suporte de P2P é a de que os vários nós integrantes da rede sobreposta distribuem e encaminham pedaços dedeo de forma cooperativa, dividindo as tarefas, e colocando à disposição da rede seus recursos locais. Dentro deste contexto, é importante investigar o que ocorre com a qualidade do serviço de distribuição dedeo quando a infraestrutura provida pelas redes P2P é contaminada por nós que não estejam dispostos a cooperar, já que a base desta arquitetura é a cooperação. Neste trabalho, inicialmente é feito um estudo para verificar o quanto a presença de nós não-cooperativos pode afetar a qualidade da aplicação de distribuição de fluxo dedeo em uma rede P2P. Com base nos resultados obtidos, é proposto um mecanismo de incentivo à cooperação para que seja garantida uma boa qualidade dedeo aos nós cooperativos e alguma punição aos nós não-cooperativos. Os testes e avaliações foram realizados utilizando-se o simulador PeerSim.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, o crescimento dos problemas de vibrações excessivas sobre pisos mistos (aço-concreto) tem conduzido à necessidade de desenvolvimento de critérios específicos para projetos estruturais submetidos à ação de atividades humanas rítmicas. Com base no desenvolvimento desta dissertação de mestrado, objetiva-se, principalmente, verificar a influência das ligações estruturais (ligações viga-viga), sobre a resposta dinâmica não-linear de pisos mistos (aço-concreto) de edificações, quando submetidos a cargas dinâmicas humanas rítmicas. Deste modo, o carregamento dinâmico empregado para a simulação das atividades humanas sobre o modelo estrutural investigado foi obtido através de testes experimentais com indivíduos praticando atividades rítmicas e não rítmicas. O modelo analisado nesta dissertação corresponde a um piso misto (aço-concreto) com uma área total de 1600m2 e consiste de um ambiente onde serão desenvolvidas atividades de ginástica aeróbica. O sistema estrutural é constituído por lajes de concreto armado apoiadas sobre vigas de aço, simulando o comportamento de um sistema estrutural misto (aço-concreto) com interação total. A metodologia de análise desenvolvida emprega técnicas usuais de discretização presentes no método dos elementos finitos, com base no emprego do programa ANSYS. A modelagem do sistema contempla ligações estruturais do tipo rígidas, semirrígidas e flexíveis. Os valores das acelerações de pico foram comparados com os limites recomendados por normas de projeto, baseando-se em critérios de conforto humano. As conclusões alcançadas ao longo deste trabalho de pesquisa revelam que as ligações estruturais do tipo viga-viga não apresentam influência significativa, no que diz respeito a resposta dinâmica não-linear da estrutura. Por outro lado, as acelerações de pico obtidas com base na análise dinâmica não-linear apresentam valores elevados indicando que o piso misto (aço-concreto) investigado apresenta problemas de vibração excessiva inerentes ao conforto humano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A hiperatividade locomotora e as alterações nos ritmos circadianos têm sido descritas em roedores e humanos expostos ao etanol durante o desenvolvimento. Considerando que a atividade locomotora em camundongos é conhecida por variar ao longo das fases do ciclo claro escuro, é possível que o fenótipo hiperativo resultante da exposição precoce ao etanol também varie em função da hora do dia. Além disso, é possível que a hiperatividade apresentada pelos indivíduos expostos ao etanol durante o desenvolvimento esteja associada com distúrbios no sistema de controle do ritmo circadiano. Neste estudo, avaliamos estas duas possibilidades realizando uma análise circadiana da atividade locomotora e da expressão dos genes de relógio de camundongos adolescentes expostos ao etanol durante o período de surto de crescimento cerebral. Para tanto, camundongos suíços criados e mantidos em um ciclo claro/escuro de 12h (luzes acesas às 2:00h, apagadas as 14:00h) foram injetados com etanol (5g/kg ip, grupo ETOH) ou um volume equivalente de solução salina (grupo SAL) em dias alternados do segundo ao oitavo dias pós-natais. No 30 dia pós-natal, os animais foram testados em campo aberto por 15 minutos em diferentes momentos do ciclo claro/escuro: durante a fase clara entre 6:00 e 7:30h e entre12:00 e 13:30h; durante a fase escura entre 18:00 e 19:30h e entre 0:00 e 01:30h. Durante a fase escura os testes foram realizados sob iluminação com luz vermelha. Após os testes comportamentais, alguns animais foram randomicamente selecionados para as análises de imunofluorescência da expressão dos genes PER 1, 2 e 3 no núcleo supraquiasmático. Ao longo dos seis primeiros minutos, a atividade locomotora dos animais testados durante o período claro não mudou significativamente ou apresentou um leve aumento e a dos animais testados no período escuro apresentou uma marcante redução. Além disso, o grupo de animais testados entre 00:00 e 1:30h apresentou a maior atividade locomotora e o grupo dos animais testados entre 12:00 e 13:30h apresentou a menor atividade locomotora. De modo importante, a exposição neonatal ao etanol promoveu hiperatividade locomotora apenas no grupo de animais testados entre 00:00 e 1:30h. Em relação aos genes de controle do ritmo circadiano, a exposição precoce ao etanol afetou apenas a expressão do gene Per1 que foi menor entre 18:00 e 19:30h. O fato de que a expressão dos genes de controle do ritmo circadiano foi alterada no meio da fase escura e que a hiperatividade locomotora foi observada apenas no final da fase escura é compatível com a hipótese de que a hiperatividade induzida pelo etanol pode estar associada com as perturbações de controle do ritmo circadiano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: A associação entre a presença de anticorpo anti-HLA doador específico (DSA), em pacientes com prova cruzada negativa por citotoxicidade dependente de complemento (CDC), e a ocorrência de episódios de rejeição mediada por anticorpos (RMA) e menor sobrevida do enxerto já foi demonstrada por diversos autores. Entretanto,estimar a relevância clínica da presença desses anticorpos, em um determinado receptor, é um grande desafio e portanto novas estratégias de monitorização imunológicas são necessárias. Objetivo: O objetivo desse estudo foi monitorar a presença de DSA, bem como a variação dos seus títulos durante o primeiro ano após o transplante renal e correlacionar com episódios de rejeição aguda e função do enxerto ao final desse período. Metodologia: Foram analisados 389 soros de 71 pacientes incluídos no estudo. A pesquisa de DSA foi realizada utilizando os testes LABScreen single antigenbeads nas amostras correspondentes aos tempos: pré-transplante, 14, 30, 90, 180 e 365 dias após o transplante. Episódios de rejeição aguda comprovados por biópsia foram analisados de acordo com a classificação de Banff 2007. A taxa de filtração glomerular (TFG) ao final do primeiro ano foi estimada utilizando a fórmula Modificationof Diet in Renal Disease (MDRD). Os pacientes foram inicialmente separados em 3 grupos de diferentes riscos imunológicos (pré-transplante): A) DSA-, B) DSA+ com MFI >1000 e < 5000 e C) DSA+ com MFI > 5000. Num segundo momento, foram novamente agrupados de acordo com o perfil de mudança nos valores de MFI (intensidade de fluorescência média) ao longo do primeiro ano. Resultados: DSA estavam presentes pré-transplante em 15 pacientes. RMA foi mais frequente no grupo C (p = 0,02). De acordo com a variação dos títulos de DSA pós-transplante os pacientes foram novamente agrupados: grupo I) permaneceu DSA- durante todo acompanhamento = 50 pacientes, II) diminuiu ou manteve títulos de DSA em relação ao tempo zero = 13 pacientes e III) aumentou títulos em relação ao tempo zero = 8 pacientes (6 foram DSA de novo). Três pacientes dos grupos I e um paciente do grupo II apresentaram episódios de rejeição aguda celular. Não foi observada oscilação significativa nos títulos de anticorpos durante esses eventos. Nenhum paciente desse grupo apresentou episódio de RMA. Episódio de RMA ocorreu em dois pacientes do grupo III. Em ambos os pacientes foi detectado aumento significativo nos valores de MFI dos DSA em relação ao tempo zero. Não foi observada diferença significativa na TFG entre os grupos analisados nesse estudo. Entretanto, observou-se uma diferença estatisticamente significativa na TFG entre os pacientes que apresentaram episódio de rejeição aguda em relação aos que não tiveram, sendo menor nos primeiros (p = 0,04). Conclusão: A monitorização prospectiva dos anticorpos pode ajudar a identificar pacientes em maior risco para ocorrência de RMA e o aumento nos valores de MFI DSA deve ser interpretado como um sinal de alerta, sobretudo em pacientes previamente sensibilizados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em engenharia, a modelagem computacional desempenha um papel importante na concepção de produtos e no desenvolvimento de técnicas de atenuação de ruído. Nesse contexto, esta tese investiga a intensidade acústica gerada pela radiação sonora de superfícies vibrantes. De modo específico, a pesquisa enfoca a identificação das regiões de uma fonte sonora que contribuem efetivamente para potência sonora radiada para o campo afastado, quando a frequência de excitação ocorre abaixo da frequência crítica de coincidência. São descritas as fundamentações teóricas de duas diferentes abordagens. A primeira delas, denominada intensidade supersônica (analítica) é calculada via transformadas de Fourier para fontes sonoras com geometrias separáveis. A segunda, denominada intensidade útil (numérica) é calculada através do método dos elementos de contorno clássico para fontes com geometrias arbitrárias. Em ambas, a identificação das regiões é feita pela filtragem das ondas não propagantes (evanescentes). O trabalho está centrado em duas propostas, a saber. A primeira delas, é a apresentação implementação e análise de uma nova técnica numérica para o cálculo da grandeza intensidade útil. Essa técnica constitui uma variante do método dos elementos de contorno (MEC), tendo como base o fato de as aproximações para as variáveis acústicas pressão e velocidade normal serem tomadas como constantes em cada elemento. E também no modo peculiar de obter a velocidade constante através da média de um certo número de velocidades interiores a cada elemento. Por esse motivo, a técnica recebe o nome de método de elemento de contorno com velocidade média (AVBEMAverage Velocity Boundary Element Method). A segunda, é a obtenção da solução forma fechada do campo de velocidade normal para placas retangulares com oito diferentes combinações de condições contorno clássicas. Então, a intensidade supersônica é estimada e comparada à intensidade acústica. Nos ensaios numéricos, a comparação da intensidade útil obtida via MEC clássico e via AVBEM é mostrada para ilustrar a eficiência computacional da técnica aqui proposta, que traz como benefício adicional o fato de poder ser utilizada uma malha menos refinada para as simulações e, consequentemente, economia significativa de recursos computacionais.