901 resultados para Programação bacteriana


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Por que não aprendem certas crianças? Este é um estudo exploratório, no qual buscam-se respostas a esta interrogação. O problema de aprendizagem é baseado no domínio da Psicologia do Desenvolvimento. Para abordá-lo, demonstra-se o interesse na utilização do referencial piagetiano, o ambiente informático e a linguagem LOGO de programação. Desse referencial "cognitivo", surge outra dimensão, a da "afetividade". Do histórico da interrelação entre ambos na teoria piagetiana, surge a psicanálise como disciplina que poderia contribuir. Fundamenta-se a utilização desta útlima em pesquisa, relacionando, ainda, hipóteses que a psicanálise possui sobre o desenvolvimento e seus distúrbios. Escolhemos o estudo de caso como delineamento metodológico desta investigação. Nos resultados, destacam-se situações em que interfiriam elementos "afetivos" a ele vinculados. Verificou-se que o computador oferece possibilidades e recursos específicos para essa expressão, que, combinados com a necessidade do raciocínio para sua utilização, permitiram aos sujeitos a superação das situações que intreferiam no seu desenvolvimento. Conclui-se pelo interesse no prosseguimento da investigação, no ambiente informatizado, desta zona de fronteira entre a "cognição" e o "afeto".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente pesquisa tem por objetivo propor e estruturar uma ferramenta de apoio gerencial que efetive a Gerência do processo Construção Civil ao nível da Obra. Para tanto, analisou-se como se desenvolve a Gerência: Planejamento, Programação e Controle. A partir daí modelou-se o processo Construção Civil como processo produtivo. A consideração, no contexto da Construção civil, das citadas três etapas da Gerência, juntamente com a consideração de conceitos atualizados sobre Sistemas de Informações Gerenciais nortearam a proposição, o projeto e a implementação de um Sistema de Informações para o Gerenciamento de Obras - SIGOB. O sistema proposto é apresentado em detalhes neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esse trabalho teve como objetivo principal salientar o potencial da drenagem nasobiliar (DNB) como uma forma não cirúrgica de acesso à bile, utilizando como modelo uma téc- nica de DNB no estudo bacteriológico da bile em pesquisa. Para tal, foram estudados 17 pacientes portadores de coledo- colitíase submetidos eletivamente à colangiopancreatografia endoscópica retrógrada na Unidade de Endoscopia do Hospital de Clínicas de Porto Alegre. Foram realizadas DNB por até três dias com coletas seriadas de bile no momento do exame e a cada 24 horas, visando analisar os germes mais prevalentes e o perfil evolutivo da microbiota bacteriana. Correlacionou- se infecção biliar(IB), definida como 105 unidades formadoras de colônias (UFC)/ml de bile, com dados clínico-laboratori- ais obtidos dos prontuários (idade, sexo, presença ou não de febre, icterícia, leucocitose, elevação de fosfatase alca- lina, divertículos justapapilares, uso de antibióticos e co- lecistectomia prévia). A única intercorrência foi desconfor- to na retrofaringe em 28% dos casos. Foram tomadas medidas preventivas visando reduzir a contaminação do sistema. As enterobacteriácias (Klebsiella e E. coli) foram os germes mais encontrados. Ocorreu crescimento bacteriano em 71% dos casos na primeira coleta, embora 30% tivessem IB. Houve al- teração da microbiota biliar em 58% dos casos da primeira para a segunda coleta e em 81% dos casos desta para a terceira. Enquanto IB foi identificada em 30% dos casos na primeira coleta, esta atingiu 50% na segunda, 90% na terceira e 100% na última coleta, embora todos os pacientes tivessem evoluído satisfatóriamente. O perfil bacteriano qualitativo também se alterou, havendo predominância de Klebsiella e E. coli na primeira coleta, acréscimo de Streptococcus faecalis na segunda e apenas Pseudomonas na última. A associação entre IB e os dados clínico-laboratoriais não foi estatisticamente significativa. Concluiu-se que as enterobacteriácias Gram - foram os germes mais prevalentes nos pacientes com coledocolitíase, sendo que o perfil bacteriológico foi significativamente alterado com a DNB, embora sem implicação no quadro clínico. Além disto, não houve associação entre os dados clínico-laboratoriais estudados e a presença de IB.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O modelo de objetos apresenta-se como um modelo promissor para o desenvolvimento de software tolerante a falhas em virtude de características inerentes ao próprio modelo de objetos, tais como abstração de dados, encapsulamento, herança e reutilização de objetos (componentes). O uso de técnicas orientadas a objetos facilita o controle da complexidade do sistema porque promove uma melhor estruturação de seus componentes e também permite que componentes já validados sejam reutilizados [LIS96]. Técnicas básicas para tolerância a falhas em software baseiam-se na diversidade de projeto e de implementação de componentes considerados críticos. Os componentes diversitários são gerenciados através de alguma técnica que tenha por objetivo assegurar o fornecimento do serviço solicitado, como, por exemplo, a conhecida técnica de blocos de recuperação. Reflexão Computacional é a capacidade que um sistema tem de fazer computações para se auto analisar. Ela é obtida quando o programa pára sua execução por um período de tempo para fazer computações sobre si próprio; analisa seu estado, se o processamento está correto, se pode prosseguir com a execução e atingir o objetivo satisfatoriamente; se não precisa mudar de estratégia ou algoritmo de execução, fazendo, ainda, processamentos necessários para o sucesso da execução. Um sistema de programação distribuída consiste basicamente em vários aplicativos executados em diferentes computadores, os quais realizam troca de mensagens para solucionar um problema comum. A comunicação entre os computadores é realizada através da rede que os interliga. As Redes que controlam sistemas críticos são normalmente de pequena escala pois redes de grandes dimensões podem apresentar atrasos e baixa confiabilidade. Portanto, a abordagem aqui proposta consiste em utilizar, em um ambiente distribuído, uma arquitetura reflexiva aliada a técnicas do domínio da tolerância a falhas para promover a separação entre as atividades de controle, salvamento, recuperação, distribuição e validação de componentes e as funcionalidades executadas pelo próprio componente, a fim de que falhas não venham a prejudicar a disponibilidade, confiabilidade e clareza de determinadas computações. A proposta apóia-se num estudo de caso, implementado na linguagem de programação Java, com seus protocolos de reflexão computacional e de comunicação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As técnicas que formam o campo da Descoberta de Conhecimento em Bases de Dados (DCBD) surgiram devido à necessidade de se tratar grandes volumes de dados. O processo completo de DCBD envolve um elevado grau de subjetividade e de trabalho não totalmente automatizado. Podemos dizer que a fase mais automatizada é a de Mineração de Dados (MD). Uma importante técnica para extração de conhecimentosa partir de dados é a Programação Lógica Indutiva (PLI), que se aplica a tarefas de classificação, induzindo conhecimento na forma da lógica de primeira ordem. A PLI tem demonstrado as vantagens de seu aparato de aprendizado em relação a outras abordagens, como por exemplo, aquelas baseadas em aprendizado proposicional Os seus algorítmos de aprendizado apresentam alta expressividade, porém sofrem com a grande complexidade de seus processos, principalmente o teste de corbertura das variáveis. Por outro lado, as Redes Neurais Artificiais (RNs) introduzem um ótimo desempenho devido à sua natureza paralela. às RNs é que geralmente são "caixas pretas", o que torna difícil a obtenção de um interpretação razoável da estrutura geral da rede na forma de construções lógicas de fácil compreensão Várias abordagens híbridas simbólico-conexionistas (por exemplo, o MNC MAC 890 , KBANN SHA 94 , TOW 94 e o sistema INSS OSO 98 têm sido apresentadas para lidar com este problema, permitindo o aprendizado de conhecimento simbólico através d euma RN. Entretanto, estas abordagens ainda lidam com representações atributo-valor. Neste trabalho é apresentado um modelo que combina a expressividade obtida pela PLI com o desempenho de uma rede neural: A FOLONET (First Order Neural Network).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A complexidade das ações no plano decisório da Gestão das Águas e a necessidade do atendimento simultâneo das exigências que visam à obtenção do desenvolvimento sustentável, impõem uma abordagem multiobjetivo. O uso múltiplo das águas, o caráter multidisciplinar e subjetivo dos agentes envolvidos no processo, a aleatoriedade dos eventos hidrológicos, a incerteza dos processos econômicos, sociais e ambientais, a necessária consideração de aspectos de difícil mensuração, como o bem estar social, a preservação do ambiente e as questões culturais e estéticas, além da tradicional eficiência econômica, caracterizam o contexto presente. Este trabalho apresenta, descreve e compara algumas técnicas de análise multiobjetivo como importante meio de apoio à tomada de decisões diante dos problemas de Gestão das Águas. Três métodos são aplicados e comparados em um estudo de caso, para suporte à decisão em um Comitê de Gerenciamento, tendo como objetivo estratégico o desenvolvimento sustentável em uma Bacia Hidrográfica, com um cenário configurado a partir da experiência acumulada na última década no Rio Grande do Sul e à luz da legislação vigente para a Política de Recursos Hídricos. Na análise desenvolvida através dos métodos ELECTRE I e II, Programação de Compromisso e Analítico Hierárquico, consideram-se a participação de múltiplos decisores, a questão da subjetividade e o reconhecimento da incerteza como inerente ao processo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente demanda por produtos de melhor qualidade, diferenciados e com custos competitivos tem forçado as manufaturas a se tornarem flexíveis, capacitando-as a responder às mudanças impostas pelo mercado. A flexibilidade permite que as empresas alcancem a customização desejada através da capacitação do sistema de responder e atuar em tempo real, mesmo em um ambiente de incertezas. Para atuar em tempo real, os sistemas de manufatura precisam de representações eficientes dos planos de produção. Muitas vezes, a atuação em tempo real torna-se inviável devido ao crescimento exponencial no número de planos de produção para cada máquina ou operação adicionada ao sistema. Uma possível solução para este problema é uso de representações adequadas para o espaço de estados. A escolha de uma representação adequada para o espaço de estados influencia na capacidade de reposta em tempo real, pois determina o desempenho computacional do sistema através da utilidade e eficiência dos algoritmos desenvolvidos, tornando possível explorar problemas clássicos de flexibilidade, tais como, seqüenciamento, otimização, etc. Entretanto, a geração de uma representação que trabalhe com o espaço de estados completo de uma manufatura é considerada um problema não polinomial (NP). Esta particularidade dificulta o desenvolvimento de algoritmos que trabalhem com uma manufatura flexível. Assim, a geração de uma representação, que trabalhe com pouca memória computacional e permita o desenvolvimento de heurísticas eficientes, é um importante desafio para uma avaliação efetiva da flexibilidade. Este trabalho objetiva o desenvolvimento de uma representação para o espaço de estados de uma manufatura com flexibilidade de seqüência. Na construção desta representação são aplicadas técnicas de modelagem baseadas na teoria dos grafos e nos princípios de álgebra booleana. Inicialmente, os grafos são utilizados para representar todas as seqüências de operações de uma manufatura, posteriormente estas seqüências são convertidas em formas normais disjuntivas (FND). Por fim, é apresentada uma possível aplicação da representação na FND em modelos de programação linear.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No próximo ano, completam-se 40 anos desde a primeira tentativa de transplante hepático (TxH) em seres humanos. Há quase 20 anos, o transplante (Tx) tornou-se uma opção terapêutica real para os pacientes portadores de doença hepática terminal. Atualmente, o TxH é o tratamento de escolha para diversas enfermidades hepáticas, agudas ou crônicas. Dos transplantes realizados na Europa ou nos EUA, em torno de 12% dos pacientes são crianças e adolescentes. No Brasil, 20,9% dos pacientes transplantados de fígado em 2001 tinham até 18 anos de idade e, destes, 60,7% tinham 5 anos ou menos. O objetivo do TxH é a manutenção da vida dos pacientes com doença hepática irreversível, e a principal forma de avaliação de sucesso é a sobrevida após o Tx. A primeira semana que se segue ao TxH, apesar dos excelentes progressos dos últimos anos, continua sendo o período mais crítico. A maioria dos óbitos ou das perdas do enxerto ocorrem nas primeiras semanas, em particular, nos primeiros 7 dias de TxH. Diversos fatores de risco para o resultado do TxH podem ser identificados na literatura, porém há poucos estudos específicos do Tx pediátrico. As crianças pequenas apresentam características particulares que os diferenciam do Tx nos adultos e nas crianças maiores. Com o objetivo de identificar fatores de risco para o óbito nos 7 primeiros dias após os transplantes hepáticos eletivos realizados em 45 crianças e adolescentes no Hospital de Clínicas de Porto Alegre entre março de 1995 e agosto de 2001, foi realizado um estudo de caso-controle. Entre os 6 casos (13,3%) e os 39 controles foram comparadas características relacionadas ao receptor, ao doador e ao procedimento cirúrgico e modelos prognósticos. Das variáveis relacionadas ao receptor, o gênero, o escore Z do peso e da estatura para a idade, a atresia de vias biliares, a cirurgia abdominal prévia, a cirurgia de Kasai, a história de ascite, de peritonite bacteriana espontânea, de hemorragia digestiva e de síndrome hepatopulmonar, a albuminemia, o INR, o tempo de tromboplastina parcial ativada e o fator V não foram associados com o óbito na primeira semana. A mortalidade inicial foi maior nas crianças com menor idade (p=0,0035), peso (p=0,0062) e estatura (p<0,0001), bilirrubinemia total (BT) (p=0,0083) e bilirrubinemia não conjugada (BNC) (p=0,0024) elevadas, e colesterolemia reduzida (p=0,0385). Os receptores menores de 3 anos tiveram um risco 25,5 vezes maior de óbito que as crianças maiores (IC 95%: 1,3–487,7). A chance de óbito após o Tx dos pacientes com BT superior a 20 mg/dL e BNC maior que 6 mg/dL foi 7,8 (IC95%: 1,2–50,1) e 12,7 (IC95%: 1,3–121,7) vezes maior que daqueles com níveis inferiores, respectivamente. Das características relacionadas ao doador e ao Tx, as variáveis gênero, doador de gênero e grupo sangüíneo ABO não idênticos ao do receptor, razão peso do doador/receptor, causa do óbito do doador, enxerto reduzido, tempo em lista de espera e experiência do Programa não foram associados com o óbito nos primeiros 7 dias. Transplantes com enxertos de doadores de idade até 3 anos, ou de peso até 12 Kg representaram risco para o óbito dos receptores 6,8 (IC95%: 1,1–43,5) e 19,3 (IC95%: 1,3–281,6) vezes maior, respectivamente. O tempo de isquemia total foi em média de 2 horas maior nos transplantes dos receptores não sobreviventes (p=0,0316). Os modelos prognósticos Child-Pugh, Rodeck e UNOS não foram preditivos do óbito. Os pacientes classificados como alto risco no modelo de Malatack apresentaram razão de chances para o óbito 18,0 (IC95%: 1,2–262,7) vezes maior que aqueles com baixo risco. A mortalidade na primeira semana foi associada a valores elevados do escore PELD. O risco de óbito foi de 11,3 (IC95%: 1,2–107,0) nas crianças com valor do PELD maior que 10. As crianças pequenas e com maior disfunção hepática apresentaram maior risco de óbito precoce. Doador de pequeno porte e prolongamento do tempo de isquemia também foram associados à mortalidade. Somente os modelos de Malatack e PELD foram preditivos da sobrevida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem o objetivo de criar cenários com propostas tecnológicas para Região Noroeste do Rio Grande do Sul, sub-região Celeiro. Avaliar o impacto das tecnologias sobre a renda regional e sobre a ocupação da mão-de-obra rural, testando as orientações técnicas quanto ao direcionamento dos beneficiários, visto que a proposta de melhorar o nível sócio-econômico dos pequenos estabelecimentos rurais é preconizada pela Extensão Rural e Assistência Técnica regional. Para tal, a metodologia adotada foi a montagem de um modelo de programação linear, estratificando os estabelecimentos rurais por área e submetendo-os às técnicas propostas e comparando-as com a realidade regional. Ao final do trabalho, verificou-se que as técnicas propostas elevam a renda regional e reduzem o nível de ocupação da mão-de-obra rural. As grandes propriedades são favorecidas com a implementação das tecnologias em detrimento das pequenas, que passam a ter uma participação menor na formação da Renda Regional. O nível de ocupação da mão-de-obra nos estratos menores diminui, o que contrapõe as políticas regionais e nacionais quanto à redução do êxodo rural.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta o método dos elementos finitos em conjunto com métodos numéricos especificos para a solução de problemas de fratura. Esta é uma poderosa ferramenta para a análise de fraturas e soluções confiáveis são obtidas para problemas complexos de Engenharia tanto no campo linear como no não-linear. O elemento finito. implementado é do tipo isoparamétrico quadrâtico da família Serendipity. Com dois graus de liberdade por nó, permite discretizar em estado plano de tensão ou deformação estruturas com geometrias bastante variadas. Para a análise linear são implementadas quatro técnicas consagradas para a avaliação do fator de intensidade de tensão no modo I de fratura: extrapolação de doslocamentos (usando malha somente com elementos convencionais e malha mesclada com elementos especiais), taxa de liberação de energia de defermação, extensão virtual da trinca e o método da integral J, descartando-se neste caso a hipótese de descarregamento. A linguagem de programação adotada é o FORTRAN 77. A entrada de dados é feita por intermédio de arquivos previamente preparados. Os resultados obtidos são confrontados com resultados experimentais e computacionais fornecidos por outros programas. Analisam-se placas, estruturas de uso na indústria e simulam-se ensaios como o corpo de prova de flexão em três pontos e o corpo de prova de tensão. compacto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pneumonia nosocomial é a principal causa de infecção nosocomial em unidades de tratamento intensivo e possui alta morbi/mortalidade. A incidência cumulativa varia, conforme os autores, entre limites amplos desde 8% até 51%, dependendo do tipo de paciente e do uso de instrumentação das vias respiratórias. Nos casos específicos das pneumonias de má resolução e da pneumonia associada à ventilação mecânica, o diagnóstico é problemático devido à ausência de uma padronização definitiva, decorrente não só da grande variabilidade fisiopatológica como também da pouca acurácia dos critérios clínicos, microbiológicos e radiológicos. Estes fatos ensejaram a utilização progressiva de técnicas invasivas sofisticadas para coleta de amostras respiratórias endobrônquicas. Entretanto, a validação dessas técnicas para uso sistemático depende ainda de estudos que avaliem não só o seu custo/benefício em cenários clínicos diversos como também a comparação de seu desempenho para o diagnóstico com um padrão-ouro histopatológico. Além disso, o rendimento das técnicas invasivas é freqüentemente limitado quando são aplicadas em pacientes sob antibioticoterapia, que constituem a maioria dos casos em unidades de cuidados intensivos. A otimização desses testes, discutindo suas indicações e avaliando sua capacidade técnica para a confirmação ou exclusão de pneumonia, é justificada pela necessidade da instituição precoce e correta do tratamento, pois disto resulta menor mortalidade, redução de custos e permanência no hospital. Entre os testes que podem auxiliar no diagnóstico encontra-se o exame direto do lavado broncoalveolar, que proporciona resultados precoces e úteis para a tomada de decisão, mas não suficientemente testados em diferentes situações clínicas ou experimentais. Com o objetivo de avaliar o rendimento diagnóstico do exame direto precoce e das culturas quantitativas obtido por lavado broncoalveolar, estudou-se sua utilização em um modelo experimental de pneumonia provocada através de inoculação bacteriana intrabrônquica em ratos. O estudo comparou a acurácia do exame direto e dos exames culturais em três grupos de animais: Grupo A com pneumonia pneumocócica (37 animais); Grupo P com pneumonia por P. aeruginosa (26 animais) e Grupo B controle (10 animais), utilizando a histopatologia dos pulmões como teste de referência para o diagnóstico. Os Grupos A e P foram ainda randomizados em dois subgrupos cada, para tratamento ou não com antibióticos, usando penicilina no grupo pneumococo e amicacina no grupo Pseudomonas. Como resultado, observou-se que nos animais com pneumonia e ausência de antibióticos a pesquisa de bactéria fagocitada (BIC) no exame direto mostrou um rendimento elevado para o diagnóstico, sendo superior ao das culturas quantitativas. No grupo com pneumonia pneumocócica a BIC mostrou: S:94,4% a 100%, E:100%, VPP:100% e VPN:100%; e as culturas quantitativas mostraram: S:77,8%, E:100%, VPP:100%, VPN:40%. Nos com pneumonia por Pseudomonas a BIC obteve: S: 69%, E:100%; VPP:100% e VPN:71,4%); e as culturas quantitativas mostraram valores muito baixos: S:28,6%, E:100%, VPP:100% e VPN:50%). Nos animais com pneumonia pneumocócica sob tratamento antibiótico havia uma queda acentuada de sensibilidade das culturas quantitativas (S:21%) e, em menor grau da BIC (S:57,9%), mas sem perda da especificidade de ambos os exames. Ao contrário, nos animais com pneumonias por Pseudomonas sob tratamento não havia alteração no rendimento dos dois exames, cujos resultados foram semelhantes aos dos animais sem tratamento. Não havia diferenças de leitura da BIC para o diagnóstico, contando a sua positividade em macrófagos ou em neutrófilos infectados. A avaliação global dos casos estudados, reunindo todos os grupos (tratados e não-tratados) em ambos os modelos de pneumonia, mostrou que a acurácia do exame direto, representado pela pesquisa da BIC, foi superior (66%) ao das culturas quantitativas (53%). As conclusões principais do estudo foram: 1) o exame direto do lavado broncoalveolar (LBA) mostrou-se um teste útil e de alto rendimento para o diagnóstico de pneumonia quando realizado na ausência de antibióticos; 2) o LBA feito na vigência de antibióticos efetivos para a pneumonia perde mais de 50% de sua acurácia, mas não é afetado quando o antibiótico for ineficaz ou houver resistência ao mesmo; 3) a pesquisa de BIC no LBA é um exame de resultado precoce, de alta especificidade e com melhor rendimento do que as culturas quantitativas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise da iteração solo-estrutura em fundações é um importante campo de pesquisa que ainda tem um grande progresso a ser feito. No presente trabalho foi desenvolvido um programa computacional para a análise da interação solo-estrutura de fundações de concreto armado. Este tema abrange duas áreas da engenharia civil: estruturas e geotecnia. O método dos elementos finitos foi usado no trabalho na seqüência para resolver o problema considerando estado plano de defonnação e comportamento elastoplásti.co dos materiais estudados (solo, concreto e aço). A linguagem de programação MATLAB foi usada em toda esta pesquisa como alternativa ao FORTRAN. O MATLAB foi escolhido uma vez que é uma linguagem de programação que permite facilmente construir uma interfàce de pré e pósprocessamento amigável. Os passos para a solução completa do problema foram os seguintes: Primeiramente um programa foi desenvolvido considerando o comportamento elastoplástico com critérios de plastificação e ruptura específicos para o concreto e solo. Soluções analíticas fechadas foram usadas para checar a precisão do programa. O segundo passo foi a introdução do reforço de aço no concreto por meio de um modelo para armaduras. Logo após, um modelo de fissuras para o concreto 1racionado foi in1roduzido no programa. Na seqüência o programa de pré e pós-processamento foi desenvolvido para gerar a malha de elementos finitos (pré-processamento), distribuição tensões e deformações, mapa de fissuras, etc (pósprocessamento). Finalmente, os parâme1ros constitutivos do solo, concreto e aço foram calibrados e várias situações reais de interação do solo-concreto de fundações de concreto armado foram simuladas. Nesta dissertação são encontrados resultados para as pressões de contato sapata-solo. Diferentes diagramas de tensões de interfàce foram obtidos em função rigidez relativa do elemento estrutural de concreto armado-solo. Na análise mnnérica, rigidez relativa desempenhou uma relevante função no comportamento mecânico do elemento estrutural de concreto armado (sapata) e da base de assentamento (solo), uma vez ruptura em ambos os casos esteve diretamente relacionada a esta grandeza. São encon1rados, em função da rigidez relativa, resultados indicativos dos modos de falha da fundação, excessiva plastificação do solo em fundações com rigidez relativa alta, e a plastificação armaduras, esmagamento do concreto, formação de fissuras, bielas e confinamento concreto para fundações de rigidez relativa baixa. Na análise numérica, obteve-se resultados importantes com relação ao projeto de fundações. Estes resultados foram cOnITontadoscom normas, destacando-se as discordâncias com relação às recomendações da nonna brasileira Projeto e Execução de Fundações" NBR-6122 (1996) para os diagramas de tensões interface sapata-solo usados no dimensionamento de fundações de concreto armado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho é dedicado à simulação numérica de sistemas térmicos de potência. O trabalho é iniciado com a modelagem de um ciclo Rankine, dedicado à produção de energia elétrica, para o qual foi elaborado um programa de simulação com a linguagem de programação MATLAB. A partir desse primeiro caso, são apresentados os modelos empregados para representar os diversos componentes que formam o circuito, como o gerador de vapor, a turbina, o condensador e a bomba. Além desses componentes, são introduzidas as equações que representam o escoamento do fluido de trabalho, no caso a água, permitindo assim o cálculo da perda de carga nas diferentes canalizações do circuito, sendo também acoplado o funcionamento da bomba. Essa alternativa pennite uma melhor avaliação do trabalho despendido para operar o sistema. A modelagem do ciclo deixa então de ser exclusivamente tennodinâmica, e passa a incluir aspectos de mecânica de fluidos. Outras variantes desse ciclo simples são também modelados e simulados, incluindo ciclos Rankine regenerativos e com irreversibilidades. As simulações são efetuadas admitindo-se parâmetros de operação, como, potência da turbina, temperatura do vapor d'água na entrada da turbina e pressão do vapor d'água na saída da turbina, com a variante de fixar-se o título do vapor d'água na saída da turbina.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Independentemente do modelo de programação adotado, no projeto e implementação de aplicações de alta disponibilidade, faz-se necessário usar procedimentos de tolerância a falhas. Dentre as atividades que trazem consigo interesse de pesquisa na área de Tolerância a Falhas, estão os mecanismos de recuperação em um sistema computacional. Do ponto de vista prático, estes mecanismos buscam manter próximo do mínimo o tempo total de execução de aplicações computacionais de longa duração, ao mesmo tempo em que as preparam para não sofrerem perdas significativas de desempenho, em caso de falhas. Paralelamente à evolução dos sistemas computacionais, foi possível observar também a evolução das linguagens de programação, principalmente as que utilizam o paradigma orientado a objetos. O advento da área de tolerância a falhas na orientação a objetos resultou em novos problemas na atividade de recuperação quanto aos mecanismos de salvamento de estados e retomada da execução, principalmente no que se refere às dificuldades de gerenciamento e controle sobre a alocação de objetos. Entretanto, observa-se que a complexidade de implementação dos mecanismos de recuperação, por parte dos programadores, exige deles conhecimentos mais especializados para o salvamento dos estados da aplicação e para a retomada da execução. Portanto, a simplificação do trabalho do programador, através do uso de uma biblioteca de checkpointing que implemente os mecanismos de salvamento de estados e recuperação é o ponto focal deste trabalho. Diante do contexto exposto, nesta dissertação, são definidas e implementadas as classes de uma biblioteca que provê mecanismos de checkpointing e recuperação. Esta biblioteca, denominada de Libcjp, visa aprimorar o processo de recuperação de aplicações orientadas a objetos escritas na linguagem de programação Java. Esta linguagem foi escolhida para implementação devido à presença dos recursos de persistência e serialização. Para a concepção do trabalho, são considerados ambos os cenários no paradigma orientado a objetos: objetos centralizados e distribuídos. São utilizados os recursos da API de serialização Java e a tecnologia Java RMI para objetos distribuídos. Conclui-se o trabalho com a ilustração de casos de uso através de diversos exemplos desenvolvidos a partir de seus algoritmos originais inicialmente, e incrementados posteriormente com os mecanismos de checkpointing e recuperação. Os componentes desenvolvidos foram testados quanto ao cumprimento dos seus requisitos funcionais. Adicionalmente, foi realizada uma análise preliminar sobre a influência das ações de checkpointing nas características de desempenho das aplicações.