50 resultados para bidimensional electrophoresis
Resumo:
Aspergillus fumigatus é o principal agente etiológico da aspergilose invasiva, infecção fúngica oportunista com altas taxas de mortalidade afetando, principalmente, pacientes com neutropenia profunda e prolongada. Durante o processo de invasão e disseminação características desta infecção sistêmica, os conídios do fungo inalados e não eliminados pelas células do sistema imune inato diferenciam-se em hifas que, por sua vez, são angioinvasivas. Pouco se conhece sobre as moléculas da parede celular envolvidas na patogênese do A. fumigatus e/ou secretadas por este patógeno. Neste contexto, este trabalho procura ampliar o entendimento desta doença através do estudo de proteínas diferencialmente expressas na superfície de A. fumigatus durante a morfogênese. Foi utilizada uma abordagem proteômica e foram estudados extratos de superfície de células de A. fumigatus em diferentes estágios durante o processo de filamentação. Estas células foram denominadas, de acordo com o tempo de cultivo e a morfologia, como: TG6h (tubo germinativo), H12h ou H72h (hifas). As proteínas de superfície celular foram extraídas, a partir de células intactas, por tratamento brando com o agente redutor DTT (ditiotreitol). Observou-se que o perfil funcional das proteínas expressas por H12h e H72h foi similar, com exceção de proteínas relacionadas à resposta ao estresse, enquanto o perfil para TG6h apresentou diferenças significativas para vários grupos funcionais de proteínas quando comparado às hifas. Desta forma, foram realizados experimentos de proteômica diferencial entre tubo germinativo (TG6h) e a hifa madura (H72h), pela técnica de DIGE (differential gel electrophoresis). Os resultados revelaram que entre as proteínas diferencialmente expressas, aquelas relacionadas às vias de biossíntese e outras denominadas multifuncionais encontraram-se superexpressas em TG6h. Em relação às proteínas de resposta a estresse, observou-se que algumas HSPs eram mais expressas neste morfotipo, enquanto a MnSOD, relativa à resposta ao estresse oxidativo, era mais abundante na hifa. Com exceção da PhiA, integrante da parede celular, as proteínas identificadas como diferencialmente expressas na superfície do A. fumigatus não possuem sinal para secreção identificável, enquadrando-se nas proteínas atípicas de superfície. Foi verificada a integridade da membrana celular após tratamento com DTT, bem como a marcação por biotina das proteínas extraídas, o que comprovou sua localização superficial na célula fúngica. Hipóteses de que estas proteínas sejam endereçadas à parede celular por via secretória alternativa sustentam estes dados. Estas evidências foram confirmadas pelo fato de não terem sido encontradas as mesmas proteínas da superfície na análise do secretoma do A. fumigatus. Além disso, todas as proteínas caracterizadas no secretoma apresentavam sinal de secreção determinado pelo FunSecKB (www.proteomics.ysu.edu/secretomes/fungi.php). A análise do secretoma foi realizada utilizando-se a cepa selvagem AF293 e a mutante ∆prtT, mutante para um fator de transcrição que atua na regulação da secreção de proteases. Os resultados revelam a ALP1 como expressa na cepa selvagem, assim como outras proteases importantes para virulência e desenvolvimento da célula fúngica, estando suprimidas quando o gene prtT foi deletado.
Resumo:
Nesse trabalho, foi desenvolvido um simulador numérico (C/C++) para a resolução de escoamentos de fluidos newtonianos incompressíveis, baseado no método de partículas Lagrangiano, livre de malhas, Smoothed Particle Hydrodynamics (SPH). Tradicionalmente, duas estratégias são utilizadas na determinação do campo de pressões de forma a garantir-se a condição de incompressibilidade do fluido. A primeira delas é a formulação chamada Weak Compressible Smoothed Particle Hydrodynamics (WCSPH), onde uma equação de estado para um fluido quase-incompressível é utilizada na determinação do campo de pressões. A segunda, emprega o Método da Projeção e o campo de pressões é obtido mediante a resolução de uma equação de Poisson. No estudo aqui desenvolvido, propõe-se três métodos iterativos, baseados noMétodo da Projeção, para o cálculo do campo de pressões, Incompressible Smoothed Particle Hydrodynamics (ISPH). A fim de validar os métodos iterativos e o código computacional, foram simulados dois problemas unidimensionais: os escoamentos de Couette entre duas placas planas paralelas infinitas e de Poiseuille em um duto infinito e foram usadas condições de contorno do tipo periódicas e partículas fantasmas. Um problema bidimensional, o escoamento no interior de uma cavidade com a parede superior posta em movimento, também foi considerado. Na resolução deste problema foi utilizado o reposicionamento periódico de partículas e partículas fantasmas.
Resumo:
FOTO-ASSEMBLAGE consiste em nomenclatura sugestionada para definir os trabalhos que tenho produzido a partir da junção de fotografias digitais. As elaborações e fundamentações desses trabalhos representam também o cerne das pesquisas que resultaram na presente dissertação. Em princípio, o termo foto-assemblage haveria de referir-se a questões técnicas ou formais dessa prática. Contudo, ao desenvolver as pesquisas alguns procedimentos acabaram por determinar certas nuances que revelaram aspectos comuns também em seus e conteúdos. Como resultado de construções artísticas juntando fotografias desde 2009, cheguei às composições sintéticas aqui apresentadas, construídas a partir de duas fotografias. Aventei o nome foto-assemblage por observar nas imagens resultantes ressalvas que as distinguiriam de certas convenções atribuídas à ideia de fotografia. Ao mesmo tempo, as referidas imagens proporiam um possível desdobramento ao entendimento de assemblage enquanto técnica artística. Ainda que não seja uma regra, fotografias revelam imagens de momentos. Em sua relação com a compreensão humana de tempo ou espaço, fotografias quase sempre contêm instâncias mínimas. Fotografias, contudo, podem ser também compreendidas como uma contração de um percurso de tempo. Toda imagem fotográfica pode ser assimilada como resultante de determinados acontecimentos anteriores e mesmo tida como elemento gerador de conseqüências futuras. Seguindo esse entendimento, o que proponho com a foto-assemblage é que essa lide com segmentos de tempo ou de espaço contidos numa mesma imagem. Essas fotografias originárias ganhariam uma nova atribuição, sendo retiradas de seu contexto original, serviriam de balizas do percurso de tempo ou espaço suprimido e subjetivado entre elas. Poeticamente, eventos ocorridos entre as fotografias originárias estariam contidos nas imagens produzidas. O termo assemblage foi incorporado às artes a partir de 1953, por Jean Dubuffet, para descrever trabalhos que seriam algo mais do que simples colagem. A ideia de assemblage se baseia no princípio de que todo e qualquer material ou objeto colhido de nosso mundo cotidiano pode ser incorporado a uma obra de arte, criando um novo conjunto, sem que perca seu sentido original. Esse objeto é arrancado de seu uso habitual e inserido num novo contexto, tecendo laços de relação com os demais elementos, construindo narrativas num novo ambiente, o da obra. Na ideia da foto-assemblage, entretanto, é sugerido uso das imagens fotográficas originárias não como objetos que estariam em um mundo cotidiano, mas sim como imagem na concepção do que seria uma entidade mental. Adoto como que uma visão mágica onde as imagens originárias e básicas estariam numa outra dimensão, num plano bidimensional, não manipulável por nós habitantes da tridimensionalidade. Nesse ambiente imaginário ou não, as fotografias são assentadas consolidando a foto-assemblage. Quando a foto-assemblage se concretiza, se corporifica numa mídia, sendo impressa para uma contemplação, ai então, passaria a integrar nosso mundo tridimensional. O resultado poderia ser admitido como um híbrido, uma terceira coisa, a partir de duas que já não se dissociam mais no ensejo de uma compreensão estética. Ao final da dissertação, apresento experiências práticas que resultaram em quatro séries de imagens em foto-assemblage. Cada série enfatiza aspectos peculiares do que denomino paisagem expandida, representando percursos de tempo, espaço ou trajetos entre o mundo concreto e mundos do inconsciente.
Resumo:
Imagens de tomografia computadorizada (TC) permitem a visualização, sem distorções ou sobreposições, do complexo maxilo-facial, principalmente do osso alveolar. Estudos demonstraram boa reprodutibilidade e precisão da mensuração da altura da borda alveolar, todavia a influência da espessura óssea ainda é pouco descrita. Através da comparação com a mensuração direta, o objetivo deste estudo foi avaliar a precisão, reprodutibilidade e a influência da espessura óssea, na mensuração da altura da borda alveolar em imagens volumétricas e imagens bidimensionais multiplanares em TC de feixe cônico (TCFC) e em TC espiral (TCE). Utilizando 10 mandíbulas secas de humanos, 57 dentes anteriores foram tomografados em equipamentos iCAT (Imaging Science International, Hatfield, PA, EUA) e Brilliance 64 canais (Philips Eletronics, Eindhoven, Holanda), ambos utilizando voxels de 0,25 mm. Através de imagens volumétricas (3D) e imagens bidimensionais (2D) de cortes multiplanares, foi comparada a mensuração da altura da borda alveolar dessas imagens com a mensuração direta nas mandíbulas, feita por vestibular e lingual, por três avaliadores, com o auxílio de um paquímetro, totalizando 114 bordas alveolares medidas. Alta reprodutibilidade intra-avaliador (0,999 a 0,902) e interavaliador (0,998 e 0,868) foi observada através do índice de correlação intraclasse (ICC). Observou-se alta correlação entre a mensuração direta e indireta da altura da borda alveolar em imagens 2D, sendo r=0,923** e 0,916**, e em imagens 3D, com r=0,929** e 0,954*, em TCFC e TCE, respectivamente. Imagens 2D superestimam a altura da borda alveolar em 0,32 e 0,49 mm e imagens 3D em 0,34 e 0,30 mm, em TCFC e TCE respectivamente. Quando o osso alveolar apresenta espessura de no mínimo 0,6 mm a média da diferença entre medidas diretas e indiretas é de 0,16 e 0,28 mm em imagens 2D e de 0,12 e 0,03 mm em imagens 3D para TCFC e TCE respectivamente, sendo que 95% do limite de concordância varia de -0,46 a 0,79 mm e -0,32 a 0,88 mm em imagens 2D, e de -0,64 a 0,67 mm e -0,57 a 0,62 mm em imagens 3D, para TCFC e TCE respectivamente. Quando o osso alveolar é mais fino do que 0,6 mm a TC é imprecisa, pois 95% do limite de concordância variou de -1,74 a 5,42 mm e -1,64 a 5,42 mm em imagens 2D, e de -3,70 a 4,28 mm e -3,49 a 4,25 mm em imagens 3D, para TCFC e TCE respectivamente. Conclui-se que a mensuração da altura da borda alveolar através de imagens tomográficas apresenta alta reprodutibilidade, sendo que quando a borda alveolar apresenta pelo menos 0,6 mm, a precisão da mensuração é alta, todavia quando esta espessura é menor do que 0,6 mm a técnica é imprecisa.
Resumo:
O objetivo geral deste projeto é propor um modelo bidimensional que descreva o novo estado supercondutor, que apresenta simetria de cristal líquido, chamado de supercondutor nemático. O estudo começa com uma introdução sobre a teoria de Landau-Ginzburg das transições de fase, onde são discutidos conceitos como parâmetro de ordem e as ordens das transições de fase, que são essenciais para o desenvolvimento deste projeto. Em seguida, é feita uma discussão sobre as principais características dos supercondutores como a resistência zero, o efeito Meissner-Ochsenfeld, os tipos de supercondutores, o surgimento de vórtices e uma análise sobre a teoria de Landau-Ginzburg para transição de fase metal-supercondutor. Após isto, é feita uma abordagem sobre os principais tipos de cristais líquidos, com destaque ao cristal líquido nemático, onde é desenvolvida a teoria de Landau-Ginzburg para transição de fase isotrópica-nemática e um estudo sobre o surgimento de disclinações no cristal líquido nemático em duas dimensões. Por fim, é apresentado o modelo proposto para descrever o estado supercondutor nemático, com a construção da teoria de Landau-Ginzburg, o estudo do acoplamento entre as fases e os defeitos topológicos presentes nesse estado.
Resumo:
O presente trabalho trata do escoamento bifásico em meios porosos heterogêneos de natureza fractal, onde os fluidos são considerados imiscíveis. Os meios porosos são modelados pela equação de Kozeny-Carman Generalizada (KCG), a qual relaciona a porosidade com a permeabilidade do meio através de uma nova lei de potência. Esta equação proposta por nós é capaz de generalizar diferentes modelos existentes na literatura e, portanto, é de uso mais geral. O simulador numérico desenvolvido aqui emprega métodos de diferenças finitas. A evolução temporal é baseada em um esquema de separação de operadores que segue a estratégia clássica chamada de IMPES. Assim, o campo de pressão é calculado implicitamente, enquanto que a equação da saturação da fase molhante é resolvida explicitamente em cada nível de tempo. O método de otimização denominado de DFSANE é utilizado para resolver a equação da pressão. Enfatizamos que o DFSANE nunca foi usado antes no contexto de simulação de reservatórios. Portanto, o seu uso aqui é sem precedentes. Para minimizar difusões numéricas, a equação da saturação é discretizada por um esquema do tipo "upwind", comumente empregado em simuladores numéricos para a recuperação de petróleo, o qual é resolvido explicitamente pelo método Runge-Kutta de quarta ordem. Os resultados das simulações são bastante satisfatórios. De fato, tais resultados mostram que o modelo KCG é capaz de gerar meios porosos heterogêneos, cujas características permitem a captura de fenômenos físicos que, geralmente, são de difícil acesso para muitos simuladores em diferenças finitas clássicas, como o chamado fenômeno de dedilhamento, que ocorre quando a razão de mobilidade (entre as fases fluidas) assume valores adversos. Em todas as simulações apresentadas aqui, consideramos que o problema imiscível é bidimensional, sendo, portanto, o meio poroso caracterizado por campos de permeabilidade e de porosidade definidos em regiões Euclideanas. No entanto, a teoria abordada neste trabalho não impõe restrições para sua aplicação aos problemas tridimensionais.
Resumo:
Diversos pesquisadores têm estudado o comportamento e o emprego de aduelas de concreto, que constituem as vigas segmentadas em sistemas estruturais, de maneira especial pontes e viadutos. Por esta razão, inúmeros trabalhos têm sido publicados nos últimos anos respaldados por testes experimentais e análises numéricas. O comportamento destas vigas contrasta com as clássicas vigas monolíticas em diversos aspectos, pois, a estrutura é composta de partes de elementos de concreto pré-moldado que, após serem posicionados no local definitivo, são protendidos. A protensão pode ser aderente ou não aderente. A principal vantagem deste sistema de construção é a rapidez e o alto controle de qualidade, por isso é largamente utilizado, havendo uma demanda de estudo de previsão do seu real comportamento No presente trabalho apresenta-se uma modelagem numérica via elementos finitos, para simular o comportamento de vigas compostas por aduelas justapostas sem material ligante entre as juntas. A protensão aplicada é aderente e a análise considera a não linearidade da região da junta. Assim sendo, o objetivo desta investigação é dar uma contribuição ao estudo do comportamento estrutural estático de vigas segmentadas, atentando para o comportamento das juntas, utilizando um programa comercial. Para o modelo são empregadas técnicas usuais de discretização, via método dos elementos finitos (MEF), por meio do programa de elementos finitos SAP2000[93]. O modelo proposto é constituído de elementos de placa próprios para concreto para representar a viga, a protensão é introduzida por meio de barras bidimensionais que transferem as tensões ao longo de seu comprimento e as juntas são implementadas utilizando elementos de contato. A analise é bidimensional e considera os efeitos das perdas de protensão. Este trabalho de pesquisa objetiva também o estudo de elementos de contato especialmente as características de deformação para esta ferramenta computacional. A definição dos parâmetros para o modelo foi feita com base em dados experimentais disponíveis na literatura. O modelo numérico foi calibrado e confrontado com resultados experimentais obtidos em ensaios de laboratório.
Resumo:
A emodina é uma antraquinona estruturalmente semelhante à aloe-emodina e ambas tem sido apontadas como capazes de causar lesões oxidativas pela produção de ERO. Sua presença em produtos dermocosméticos e de higiene pessoal, associada às informações de que a fotoativação de antraquinonas levaria ao aumento de lesões oxidativas causadas por ERO, torna relevante o estudo da associação da emodina com a radiação UVA. O objetivo desse trabalho foi avaliar a citotoxicidade induzida pela associação da emodina com doses subletais de radiação UVA, em células de Escherichia coli (selvagem e cepas deficientes em enzimas do BER), através de ensaios de sobrevivência bacteriana (taxa de dose de UVA igual a 20J/m/s, totalizando 108kJ/m ao final de 90min de experimento), e em células da linhagem A549 pela exclusão do corante azul de tripan e sobrevivência clonogênica(taxa de dose de UVA igual a 20J/m/s, totalizando 36kJ/m ao final de 30min de experimento). Além disso, a genotoxicidade desses agentes foi estudada por eletroforese em gel de agarose de DNA plasmidial (taxa de dose de UVA igual a 16J/m/s, totalizando 57,6kJ/m ao final de 60min de experimento). De acordo com os resultados: i) Concentrações iguais ou abaixo de 5,55mM de emodina não alteraram a sobrevivência em nenhuma das cepas estudas; ii) As proteínas Xth e Fpg parecem ter um papel importante no reparo das lesões causadas pela emodina, em altas concentrações, sugerindo a participação do reparo por excisão de bases (BER) nesse processo; iii) A associação da emodina com a radiação UVA se mostrou citotóxica em todas as cepas de E. coli; iv) O gene nfo foi o mais importante na resistência bacteriana às lesões induzidas pela associação dos dois agentes, reforçando o envolvimento do BER e indicando uma possível participação do reparo por incisão de nucleotídeos (NIR); v) A emodina parece ter interagido com o DNA plasmidial, alterando seu padrão de migração no gel de agarose; vi) Em células da linhagem A549, a emodina causa efeitos tóxicos imediatos que parecem ser reparados ao longo do tempo. Porém, quando a droga permaneceu por 24 horas em contato com as células, houve uma diminuição na sobrevivência celular que parece ser dosedependente; vii) As concentrações de 10μM e 25μM de emodina, quando associadas ao UVA, se mostraram responsáveis pela redução de mais de 50% na sobrevivência nas células A549, chegando a 100% de morte quando a concentração de emodina foi de 50μM; viii) A radiação UVA potencializou os efeitos citotóxicos da emodina, nos 2 modelos experimentais do presente estudo, indicando que a interação da emodina com a radiação UVA seja genotóxica e portanto prejudicial à saúde.
Resumo:
Didaticamente, podemos dividir o espectro da radiação ultravioleta (UV) em três faixas: UVA (400 a 320 nm), UVB (320 a 290 nm) e UVC (290 a 100 nm). Apesar do UVC ou UV-curto ser eficientemente filtrado pela camada de ozônio da Terra e sua atmosfera, este é uma das faixas do espectro de UV mais usadas para explorar as consequências de danos causados ao DNA, já que a letalidade induzida por este agente está relacionada aos danos diretos no genoma celular, como as lesões dímero de pirimidina, que são letais se não reparadas. Contudo, demonstrou-se que a radiação UVC pode gerar espécies reativas de oxigênio (ERO), como o oxigênio singleto (1O2). Embora, o radical hidroxil (OH) cause modificações oxidativas nas bases de DNA, alguns trabalhos indicam que o 1O2 também está envolvido nos danos oxidativos no DNA. Esta ERO é produzida por vários sistemas biológicos e reações fotossensibilização, quando cromóforos são expostos à luz visível ou são excitados pela luz UV, permitindo que essa energia possa ser transferida para o oxigênio sendo convertido em 1O2, que é conhecido por modificar resíduos de guanina, gerando 8-oxoG, que caso não seja reparada pode gerar uma transversão GC-TA. O objetivo deste trabalho foi o de elucidar a participação de ERO nos efeitos genotóxicos e mutagênicos gerados pela radiação UVC, assim como as enzimas envolvidas no processo de reparação destas lesões em células de Escherichia coli. Nos ensaios as culturas foram irradiadas com o UVC (254 nm; 15W General Electric G15T8 germicidal lamp, USA). Nossos resultados mostram que o uso de quelantes de ferro não alterou a letalidade induzida pelo UVC. A azida sódica, um captador de 1O2, protegeu as cepas contra os danos genotóxicos gerados pelo UVC e também diminuiu a frequência de mutações induzidas no teste com rifampicina. A reversão específica GC-TA foi induzida mais de 2,5 vezes no ensaio de mutagênese. A cepa deficiente na proteína de reparo Fpg, enzima que corrige a lesão 8-oxoG, apresentou menos quebras no DNA do que a cepa selvagem no ensaio de eletroforese alcalina. A letalidade induzida pelo UVC foi aumentada nos mutantes transformados com o plasmídeo pFPG, ao mesmo tempo que representou uma redução na indução mutagênica. Houve dimuição na eficiência de transformação com plasmídeo pUC 9.1 na cepa fpg quando comparado a cepa selvagem. Assim como, um aumento da sensibilidade ao UVC na associação entre mutantes fpg e uvrA. Estes resultados mostram que o 1O2 participa dos danos induzidos pelo UVC, através da geração da lesão 8-oxoG, uma lesão mutagênica, que é reparada pela proteína Fpg
Resumo:
A incidência de infecções fúngicas invasivas vem aumentando nos últimos anos. Estas infecções, em geral, apresentam altas taxas de mortalidade. A profilaxia com antifúngicos ainda é a estratégia mais comum na contenção da mortalidade e prevenção contra infecções fúngicas invasivas, porém, apresenta baixa eficiência, e relatos de resistência às drogas. Além disso, a terapia antifúngica é limitada a um pequeno grupo de drogas, como os polienos, azóis e equinocandinas. Desta forma, a busca de novos alvos de drogas é fundamental para o desenvolvimento de novos antifúngicos. Estudos in silico indicaram quatro genes como potenciais alvo de drogas em fungos patogênicos. Neste contexto, o objetivo deste trabalho foi verificar a expressão das proteínas codificadas por dois destes possíveis genes alvo, a proteína erg6, na fração microssomal, e trr1, na fração citosólica, em hifas de A. fumigatus. Visando alcançar este objetivo, foram primeiramente padronizadas todas as etapas de fracionamento celular visando isolar estas duas subfrações celulares de A. fumigatus. Posteriormente, foi otimizado o protocolo de extração e reidratação de proteínas microssomais bem como reidratação de proteínas citosólicas. Estes extratos foram submetidos a diferentes protocolos de fracionamento proteico em um sistema de eletroforese OFFGEL (OGE). Os resultados de Western immunoblot mostraram que estas duas proteínas, erg6 e trr1, são de fato expressas na fase filamentosa de A. fumigatus. O extrato proteico da fração microssomal submetido ao OGE em doze subfrações apresentou três subunidades da proteína erg6, reconhecidas pelo anticorpo monoclonal, com massas moleculares e pI distintos: uma subunidade de aproximadamente 79 kDa com pI entre 5,91 e 6,49, e outras duas subunidades de aproximadamente 35 kDa e 32 kDa, ambas com pI entre 6,49 e 7,08. A enzima erg6 foi descrita como um homotetrâmero em outros fungos. Porém, nossos resultados sugerem que, em A. fumigatus, a erg6 possui uma estrutura heterotetramérica. Quanto à proteína trr1, tanto no extrato total quanto nas frações resultantes do fracionamento em OGE, uma banda única de aproximadamente 40 kDa, com pI na faixa de 4,79 e 5,33, foi reconhecida pelo anticorpo policlonal. Desta forma, esta proteína parece ter uma estrutura homodimérica, assim como descrito em outros micro-organismos.
Resumo:
O gênero Enterococcus tem emergindo como um dos mais importantes patógenos em infecções relacionadas à assistência à saúde no mundo. Estes microrganismos apresentam habilidade de adquirir genes de resistência a vários antimicrobianos, incluíndo à vancomicina, além de possuir diversos fatores associados à virulência, que contribuem sobremaneira para a sua permanência no hospedeiro, facilitando sua disseminação, particularmente, no ambiente hospitalar. Os objetivos deste estudo foram caracterizar, por testes fenotípicos e genotípicos, amostras de Enterococcus isoladas de quadros infecciosos em pacientes atendidos em quatro instituições de saúde localizadas na cidade do Natal, RN, no período de setembro de 2010 a junho de 2011. As espécies de Enterococcus foram caracterizadas por testes fisiológicos convencionais e por reação em cadeia da polimerase (PCR) multiplex, utilizando oligonucleotídeos específicos para caracterização do gênero e espécies. O perfil de susceptibilidade aos antimicrobianos foi avaliado por testes de difusão em ágar. Os valores de concentração inibitória mínima (CIM) para vancomicina, teicoplanina e linezolida foram determinados pelo emprego do teste E; e o genótipo de resistência à vancomicina foi analisado por PCR. Genes associados à virulência (asa1, cylA, esp, gelE e hyl) foram detectados por ensaios de PCR multiplex. O polimorfismo genético das amostras bacterianas foi avaliado por metodologia de eletroforese em campo pulsado (PFGE), com a utilização da enzima SmaI. Foram obtidas 117 amostras, a partir de quadros infecciosos em 116 pacientes. Os resultados revelaram que a espécie E. faecalis foi a prevalente (91,4%). Os testes de susceptibilidade revelaram que as taxas de resistência mais elevadas estiveram associadas à tetraciclina (58,2%) e a níveis elevados de estreptomicina (36,7%). A resistência à vancomicina foi detectada em uma amostra de E. faecium, portadora do genótipo vanA, correspondendo ao primeiro isolamento de amostra com essa característica de resistência no RN. Esta amostra foi isolada em um caso de co-infecção com E. faecalis sensível à vancomicina. Adicionalmente, susceptibilidade intermediária a linezolida foi identificada em três amostras de E. faecalis. Dentre os determinantes de virulência identificados, gelE foi o prevalente (83,8%). De acordo com as espécies E. faecalis o perfil mais detectado foi gelE + esp (31,6%), na espécie E. faecium foi o perfil esp (28,6%) e a única amostra de E. gallinarum apresentou dois determinantes de virulência (asa1 + cylA). O gene hyl não foi identificado em nenhuma das amostras. A análise do polimorfismo genético das amostras por PFGE evidenciou uma elevada policlonalidade. Diante das características de resistência e de virulência observadas e da sinalização da emergência de mecanismos de resistência importantes no Estado do RN, este estudo chama atenção para a necessidade de rastreamento, particularmente entre portadores sadios, e estabelecimento de políticas de controle da disseminação dessas amostras nas instituições de saúde, mesmo em regiões onde tais características ainda sejam pouco frequentes.
Resumo:
Um grande desafio da atualidade é a preservação dos recursos hídricos, bem como o correto manejo dos mesmos, frente à expansão das cidades e às atividades humanas. A qualidade de um corpo hídrico é usualmente avaliada através da análise de parâmetros biológicos, físicos e químicos. O comportamento de tais parâmetros pode convenientemente ser simulado através de modelos matemáticos e computacionais, que surgem assim como uma ferramenta bastante útil, por sua capacidade de geração de cenários que possam embasar, por exemplo, tomadas de decisão. Nesta tese são discutidas técnicas de estimação da localização e intensidade de uma fonte de contaminante conservativo, hipoteticamente lançado na região predominantemente fluvial de um estuário. O lançamento aqui considerado se dá de forma pontual e contínua e a região enfocada compreendeu o estuário do Rio Macaé, localizado na costa norte do Rio de Janeiro. O trabalho compreende a solução de um problema direto, que consiste no transporte bidimensional (integrado na vertical) desse contaminante hipotético, bem como a aplicação de técnicas de problemas inversos. Para a solução do transporte do contaminante, aqui modelada pela versão 2D horizontal da equação de advecção-difusão, foram utilizados como métodos de discretização o Método de Elementos Finitos e o Método de Diferenças Finitas. Para o problema hidrodinâmico foram utilizados dados de uma solução já desenvolvida para estuário do Rio Macaé. Analisada a malha de acordo com o método de discretização, foram definidas a geometria do estuário e os parâmetros hidrodinâmicos e de transporte. Para a estimação dos parâmetros propostos foi utilizada a técnica de problemas inversos, com o uso dos métodos Luus-Jaakola, Algoritmo de Colisão de Partículas e Otimização por Colônia de Formigas para a estimação da localização e do método Seção Áurea para a estimação do parâmetro de intensidade da fonte. Para a definição de uma fonte, com o objetivo de propor um cenário experimental idealizado e de coleta de dados de amostragem, foi realizada a análise de sensibilidade quanto aos parâmetros a serem estimados. Como os dados de amostragem de concentração foram sintéticos, o problema inverso foi resolvido utilizando-os com e sem ruído, esse introduzido de forma artificial e aleatória. Sem o uso de ruído, os três métodos mostraram-se igualmente eficientes, com uma estimação precisa em 95% das execuções. Já com o uso de dados de amostragem com ruídos de 5%, o método Luus-Jaakola mostrou-se mais eficiente em esforço e custo computacional, embora todos tenham estimado precisamente a fonte em 80% das execuções. Considerando os resultados alcançados neste trabalho tem-se que é possível estimar uma fonte de constituintes, quanto à sua localização e intensidade, através da técnica de problemas inversos. Além disso, os métodos aplicados mostraram-se eficientes na estimação de tais parâmetros, com estimações precisas para a maioria de suas execuções. Sendo assim, o estudo do comportamento de contaminantes, e principalmente da identificação de fontes externas, torna-se uma importante ferramenta para a gestão dos recursos hídricos, possibilitando, inclusive, a identificação de possíveis responsáveis por passivos ambientais.
Resumo:
Durante o tratamento radioterápico para tumores localizados na região torácica, parte do coração frequentemente é incluída no campo de tratamento e pode receber doses de radiação ionizante, significativas em relação à terapêutica. A irradiação do coração é capaz de causar importantes complicações cardíacas ao paciente, caracterizadas por alterações funcionais progressivas cerca de 10 a 20 anos após a exposição do órgão. Devido ao seu alto grau de contração e grande consumo energético, o tecido cardíaco é altamente dependente do metabolismo oxidativo que ocorre nas mitocôndrias. Danos as estas organelas podem levar ao decréscimo da produção de energia, tendo um impacto direto sobre a performance cardíaca. Ainda, ao interagir com as células, a radiação ionizante pode gerar uma série de eventos bioquímicos que conduzem a uma resposta celular complexa, em que muitas proteínas parecem estar envolvidas. Tendo em vista tais conhecimentos, o objetivo do estudo foi avaliar o aspecto ultraestrutural do tecido cardíaco, a bioenergética mitocondrial e a expressão diferencial de proteínas após irradiação. Os ensaios foram realizados em amostras de tecido cardíaco de ratos Wistar irradiados com dose única de 20 Gy direcionada ao coração. As análise tiveram início 4 e 32 semanas após irradiação. A análise ultraestrutural foi realizada através de microscopia eletrônica de transmissão. A respiração mitocondrial foi mensurada em oxígrafo, a partir das taxas de consumo de oxigênio pelas fibras cardíacas. A identificação de proteínas diferencialmente expressas foi investigada através de duas técnicas proteômicas: 2D-DIGE (2-D Fluorescence Difference Gel Electrophoresis) e uma abordagem label-free seguida de espectrometria de massas. Os resultados mostraram que os efeitos tardios da radiação incluem a degeneração das mitocôndrias e das unidades contráteis do tecido cardíaco, disfunções na cadeia respiratória mitocondrial e expressão diferencial de proteínas envolvidas no metabolismo energético de carboidratos, lipídeos e da fosfocreatina. De forma geral, o estudo mostrou que a irradiação cardíaca prejudica o processo de síntese energética, conduzindo a um déficit da taxa respiratória mitocondrial como efeito tardio. Tal evento pode culminar em disfunções mecânicas no coração, caracterizando o desenvolvimento de doenças cardíacas radioinduzidas.
Resumo:
O processo de recuperação secundária de petróleo é comumente realizado com a injeção de água ou gás no reservatório a fim de manter a pressão necessária para sua extração. Para que o investimento seja viável, os gastos com a extração precisam ser menores do que o retorno financeiro obtido com a produção de petróleo. Objetivando-se estudar possíveis cenários para o processo de exploração, costuma-se utilizar simulações dos processos de extração. As equações que modelam esse processo de recuperação são de caráter hiperbólico e não lineares, as quais podem ser interpretadas como Leis de Conservação, cujas soluções são complexas por suas naturezas descontínuas. Essas descontinuidades ou saltos são conhecidas como ondas de choque. Neste trabalho foi abordada uma análise matemática para os fenômenos oriundos de leis de conservação, para em seguida utilizá-la no entendimento do referido problema. Foram estudadas soluções fracas que, fisicamente, podem ser interpretadas como ondas de choque ou rarefação, então, para que fossem distinguidas as fisicamente admissíveis, foi considerado o princípio de entropia, nas suas diversas formas. As simulações foram realizadas nos âmbitos dos escoamentos bifásicos e trifásicos, em que os fluidos são imiscíveis e os efeitos gravitacionais e difusivos, devido à pressão capilar, foram desprezados. Inicialmente, foi feito um estudo comparativo de resoluções numéricas na captura de ondas de choque em escoamento bifásico água-óleo. Neste estudo destacam-se o método Composto LWLF-k, o esquema NonStandard e a introdução da nova função de renormalização para o esquema NonStandard, onde obteve resultados satisfatórios, principalmente em regiões onde a viscosidade do óleo é muito maior do que a viscosidade da água. No escoamento bidimensional, um novo método é proposto, partindo de uma generalização do esquema NonStandard unidimensional. Por fim, é feita uma adaptação dos métodos LWLF-4 e NonStandard para a simulação em escoamentos trifásicos em domínios unidimensional. O esquema NonStandard foi considerado mais eficiente nos problemas abordados, uma vez que sua versão bidimensional mostrou-se satisfatória na captura de ondas de choque em escoamentos bifásicos em meios porosos.
Resumo:
Os polimorfismos denominados Indels são variações de comprimento geradas por inserção ou deleção de um ou mais nucleotídeos em uma sequência de DNA. Estes marcadores genéticos vêm apresentando um grande potencial para fins forenses e populacionais por combinar características dos marcadores SNPs, tais como a capacidade de analisar fragmentos curtos (menores que 250pb) e baixas taxas de mutação, com a facilidade da genotipagem dos STR em uma única PCR, seguida de detecção dos fragmentos amplificados por eletroforese. Com o objetivo de avaliar a eficiência dos Indels em aplicações forenses e esclarecer os detalhes da formação de diferentes populações brasileiras através de dados genéticos, amostras populacionais de diferentes estados brasileiros foram genotipadas através de dois sistemas multiplex. O primeiro (indelplex-HID) foi otimizado para fins de Identificação Humana (HID) e inclui um grupo de 38 marcadores Indels selecionados por apresentarem altos valores de diversidade genética dentro das principais populações continentais. Já o segundo (46-AI-indels), foi selecionado para estudos de ancestralidade e é composto por um conjunto de 46 marcadores informativos de ancestralidade (AIMs). Nesse último caso, ao contrário do anterior, o sistema multiplex inclui marcadores com alta divergência nas frequências alélicas entre populações continentais. Na primeira etapa, o multiplex HID foi aplicado em uma amostra populacional do Rio de Janeiro e em uma amostra populacional dos índios Terena. Um banco de dados de frequências alélicas foi construído para essas duas amostras populacionais. Os valores das frequências alélicas foram utilizados nas comparações estatísticas e parâmetros de vínculos genéticos e forenses foram calculados. O Poder de Discriminação acumulado na população do Rio de Janeiro para os 38 loci testados foi de 0,9999999999999990 e na população dos índios Terena de 0,9999999999997, validando o uso desse sistema numa população heterogênea como a brasileira. A eficiência do indelplex-HID também mostrou-se elevada nas amostras de casos forenses comprometidas, apresentando melhor resultados que marcadores STR em termos de número de loci genotipados e de qualidade de amplificação. Na segunda etapa, o multiplex 46-AI-indels foi aplicado com objetivo de avaliar a ancestralidade em amostras de diferentes estados do Brasil por permitir a identificação de diferenças entre frequências alélicas de grupos populacionais separados geograficamente. A maioria das populações analisadas apresentou elevada herança européia. As populações do Rio de Janeiro, Pernambuco, Mato Grosso do Sul, Amazonas, Alagoas, Minas Gerais e São Paulo apresentaram cerca de 50% de ancestralidade européia, enquanto que nas populações que formam o sul do país e o Espírito Santo este percentual girou em torno de 70%. De uma maneira geral, as contribuições ameríndias e africanas variaram um pouco de acordo com a região. As amostras de Santa Isabel do Rio Negro e dos índios Terena (amostras indicadas como ameríndio-descendentes) de fato mostraram majoritariamente ancestralidade ameríndia (>70%). Os resultados obtidos indicaram que os dados gerados a partir da tipagem dos AIMs estão em estreita concordância com os registros históricos e com outros estudos genéticos acerca da formação da população brasileira e os loci do sistema HID evidenciaram que os são altamente informativos, constituindo uma ferramenta importante em estudos de identificação humana e de relações de parentesco.