35 resultados para grego clássico
Resumo:
Desde a antigüidade a medição do escoamento dos fluidos tem sido uma marca de nossa civilização, ajudando a predizer a fertilidade das terras e o consumo d’água em fontes e aquedutos. Nos nossos dias, a área de medição de fluxo está bem estabelecida e ainda desperta grande interesse nas linhas de pesquisa da mecânica dos fluidos experimental e computacional. Em particular, o estudo da medição de fluxo com elementos intrusivos, tais como placas de orifício, é de grande interesse dado o preço baixo do medidor, e sua boa precisão quando comparada à sua simplicidade de instalação e manutenção. Esta dissertação tem como objetivo o estudo da aplicação de elementos finitos aos escoamentos de fluidos viscosos - via aproximação clássica de Galerkin e Galerkin/mínimos-quadrados (GLS) – com particular ênfase na aproximação das equações de Navier-Stokes incompressível no escoamento newtoniano através de um canal obstruído por uma placa de orifício. Inicialmente, são apresentadas as dificuldades do método de Galerkin clássico na aproximação de escoamentos incompressíveis; ou seja, através da simulação de escoamentos viscosos bem conhecidos - como o escoamento no interior de uma cavidade e através de uma expansão súbita - fica evidenciada a restrição imposta pela condição de Babuška-Brezzi quando da escolha dos subespaços aproximantes do campo de velocidade e pressão Como alternativa às patologias do método de Galerkin clássico, esta dissertação emprega a metodologia de Galerkin/mínimos-quadrados na simulação acima mencionada da placa de orifício, a qual permite o uso de elementos de igual-ordem para aproximar velocidade e pressão e capturar de maneira estável escoamentos sujeitos a altos números de Reynolds. Os testes computacionais realizados se apresentaram fisicamente realistas quando comparados com a literatura e dados experimentais, sendo todos desenvolvidos no Laboratório de Mecânica dos Fluidos Aplicada e Computacional (LAMAC) do Departamento de Engenharia Mecânica da Universidade Federal do Rio Grande do Sul.
Resumo:
Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.
Resumo:
O trabalho se propõe a analisar a interação universidade-empresa em projetos de dois Centros de Biotecnologia localizados no Estado do Rio Grande do Sul, quais sejam: Centros de Biotecnologia do Estado do Rio Grande do Sul e Centro de Biotecnologia da Universidade Federal de Pelotas. Para esta análise, foram identificados modelos de interação universidadeempresa através do estudo de múltiplos casos. A partir da revisão de literatura, foi estabelecida uma tipologia de interação universidade-empresa, composta por 3 modelos: Modelo Clássico, Modelo de Mercado e Modelo de Parceria. Em seguida, foram classificados os projetos de interação universidade-empresa de cada centro. Os modelos utilizados nesta pesquisa serviram de instrumentos que definiram os critérios para análise do processo de interação. Nos projetos do Centro de Biotecnologia do Estado do Rio Grande do Sul houve a predominância do modelo de mercado, ou seja, buscam atender a uma necessidade do mercado. Nos projetos do Centro de Biotecnologia da Universidade Federal de Pelotas houve a predominância do modelo clássico, ou seja, o pesquisador desenvolve o conhecimento e o coloca à disposição das empresas. É fundamental que os pesquisadores se conscientizem do novo papel que os centros devem assumir perante a sociedade, de agente gerador de desenvolvimento. Para tanto, foram propostas ações para estimular e ampliar o processo de interação universidade-empresa em ambos os centros.
Resumo:
A Consultoria Interna tem sido a maneira encontrada pelas Organizações para buscar mais agilidade em seus processos a partir da quebra do paradigma clássico da visão fragmentada, típica da Era da Administração Científica. A partir de mudanças nas formas de organização do trabalho, embasadas numa concepção sistêmica, a Consultoria Interna tem assumido papel importante nas áreas meio, como atividade de cunho mais intelectual e de apoio à gestão. Esta análise, refere-se a um Estudo Exploratório sobre a forma com que as empresas gaúchas implantaram o Modelo de Consultoria Interna. O estudo abrangeu empresas do segmento metalúrgico, comunicação, celulose e saúde . Numa primeira etapa foram entrevistados gestores de Recursos Humanos responsáveis pela implantação do Modelo de Consultoria Interna e numa segunda etapa , foram entrevistados grupos de profissionais que atuam como consultores internos. A intenção foi de identificar os objetivos para com a adoção de tal prática, as estratégias de implementação e os resultados obtidos. Para analisar esta experiência, foram considerados os seguintes aspectos: o contexto das empresas, fatores desencadeadores, objetivos com a implantação, características da atividade, papel, envolvimento, competência, desempenho, relacionamento com clientes, estratégias de implementação e resultados obtidos. O estudo mostrou, por um lado, que as estratégias utilizadas pelas empresas não foram suficientes para implantar e desenvolver o Modelo de Consultoria Interna e que o nível de conhecimento sobre o tema ainda é muito superficial. Por outro lado, o Modelo trouxe resultados positivos em Organizações que se preocuparam em planejar estratégia de implantação. Do ponto de vista dos próprios consultores internos o Modelo favoreceu a um crescimento profissional considerável, apesar das dificuldades de ordem subjetivas e emocionais encontradas ao longo do processo e que nem sempre foram suportadas pelas Organizações.
Resumo:
Este estudo foi motivado pela possibilidade de se empregar os conhecimentos da engenharia mecânica na solução de problemas de engenharia de alimentos por métodos numéricos, assim como pela utilização da dinâmica dos fluidos computacional (CFD) em mais um campo de pesquisa. A idéia básica foi a aplicação do método de elementos finitos na solução de problemas de escoamentos envolvendo mistura de diferentes componentes. Muitos alimentos apresentam-se como fluidos, e seu comportamento material pode ser newtoniano ou não newtoniano, às vezes descrito por relações constitutivas bastante complexas. Utilizou-se uma teoria de misturas apoiada nos conceitos de mecânica do contínuo para a modelagem mecânica do que se passou a considerar como um sistema multicomponente. Necessitou-se de uma detalhada revisão sobre os postulados clássicos da mecânica para que se pudesse recolocá-los, com alguma segurança e embasamento teórico, para sistemas multicomponentes. Tendo em mãos a modelagem do balanço de momentum e massa em sistemas multicomponentes, pôde-se aproximar estas equações através do método de elementos finitos. A literatura aponta que o método clássico de Galerkin não possui a eficiência necessária para a solução das equações de escoamento, que envolvem uma formulação mista onde se faz necessário tomar compatíveis os subespaços de velocidade e pressão, e também devido à natureza assimétrica da aceleração advectiva, o que também aparece como uma dificuldade na solução de problemas de advecçãodifusão, nos casos de advecção dominante. Assim, fez-se uso do método estabilizado tipo GLS, o qual supera as dificuldades enftentadas pelo método de Galerkin clássico em altos números de Reynolds, adicionando termos dependentes da malha, construídos de forma a aumentar a estabilidade da formulação de Galerkin original sem prejudicar sua consistência. Os resultados numéricos dividem-se em três categorias: problemas de transferência de quantidade de movimento para fluidos newtonianos, problemas de transferência de quantidade de movimento para fluidos com não linearidade material e problemas de advecção e difusão de massa em misturas. A comparação de algumas aproximações obtidas com as de outros autores se mostraram concordantes. A aproximação de problemas de fluidos segundo os modelos Carreau e Casson geraram os resultados esperados. A aproximação de um problema de injeção axial com mistura de dois fluidos produziu resultados coerentes, motivando a aplicação prática da aproximação por métodos estabilizados de problemas de misturas.
Resumo:
O objetivo deste trabalho foi avaliar a influência da desinfecção com ácido peracético a 0,2% (STERILIFE®, Lifemed Produtos Médicos Comércio Ltda, São Paulo,SP) sobre as propriedades de sorpção, solubilidade e microdureza Knoop das resinas acrílicas termopolimerizadas (RATA) e resinas acrílicas quimicamente ativadas (RAQA). Os ensaios de sorpção, solubilidade e microdureza Knoop foram realizados utilizando resina acrílica termopolimerizável e quimicamente ativada da marca CLÁSSICO (Art. Odontológicos Clássico Ltda, São Paulo, SP). A especificação nº 1567 da International Organization for Standardization (ISO) foi utilizada para a realização dos ensaios de sorpção e solubilidade. Foram confeccionados 20 corpos de prova de resina acrílica termopolimerizável e 20 corpos de prova de resina acrílica quimicamente ativada, divididos aleatoriamente em dois grupos de 10 corpos de prova para cada material. O primeiro grupo foi denominado grupo controle e o segundo foi submetido à desinfecção com ácido peracético por 10 minutos. Os corpos de prova cilíndricos com dimensões de 50mm de diâmetro e 0,5mm de espessura, foram mantidos em um dissecador com sílica gel, a 37°C, até a obtenção da massa constante (M1), obtida através de pesagens consecutivas em uma balança de precisão com resolução de 0,0001g. A seguir os corpos de prova foram imersos em água destilada a 37°C, durante 7 dias e posteriormente pesadas, para obtenção da massa M2. Após, os corpos de prova retornaram ao dissecador com sílica gel, a 37°C, até a obtenção da massa recondicionada (M3). A diferença entre M2 e M3 em relação ao volume do corpo de prova resultou na sorpção do mesmo e, a solubilidade foi calculada subtraindo M3 de M1 e dividindo pelo volume do corpo de prova. Para o ensaio de microdureza foram confeccionados 10 corpos de prova de cada resina. A mensuração da microdureza Knoop, utilizando o NU Research Microscope (VEB Carl Zeiss JENA- Germany), foi obtida antes e após a desinfecção de cada corpo de prova. Os resultados mostraram que a desinfecção com ácido peracético, tanto para as resinas acrílicas termopolimerizadas como para as quimicamente ativadas, não alterou significativamente as propriedades de sorpção e solubilidade, uma vez que continuaram atendendo às exigências da especificação nº 1567 da ISO, após o tratamento. Em relação a microdureza Knoop, os resultados mostraram que não houve diferença estatística significativa entre a microdureza anterior e posterior à desinfecção, tanto a resina de termopolimerização (p=0,992), como para a resina quimicamente ativada (p=0,999). Portanto, o processo de desinfecção de resinas acrílicas com ácido peracético, pode ser viável considerando as propriedades analisadas.
Resumo:
A Internet, apesar de sua grande popularização, é ainda uma incógnita sob o ponto de vista de seu alcance comercial e de suas implicações no estudo do Comportamento do Consumidor. Numerosos estudos estão sendo desenvolvidos, porém dentro de um contexto teórico clássico de Marketing, isto é, posicionando-a como um instrumento “midiático”. Diferentemente, este trabalho procura vê-la como um canal de marketing, analisando-a através da resposta de 726 usuários da Companhia de Processamento de Dados do Rio Grande do Sul – PROCERGS, provedor de acesso à Internet do Rio Grande do Sul. Foi possível identificar sete dimensões características do processo de compra na rede: 1) comodidade, 2) atendimento, 3) conteúdo informacional do site, 4) apresentação e interface da home page, 5) segurança, 6) taxa e tempo de entrega e 7) oferta de produtos. O estudo mostra que a oferta de produtos e a comodidade são os fatores que influenciam a decisão de compra, enquanto que a apresentação/interface da home page, a segurança e o atendimento são os fatores mais preponderantes na decisão de NÃO compra. Também são apresentadas as diferenças percebidas pelos usuários entre a compra realizada na Internet e a efetuada nos canais tradicionais. A avaliação da Internet como canal de compra é finalizada com a identificação dos atributos determinantes da compra pela rede.
Resumo:
Este estudo diz respeito ao acento do latim e do português arcaico. Interpretado o acento à luz da Fonologia Métrica, admitimos, seguindo Jacobs (1990, 1997), que o troqueu irregular caracteriza melhor o latim clássico do que o troqueu mórico. Depois de discutir o acento do latim clássico e dar especial atenção às enclíticas, que ampliam o domínio do acento e sobre as quais, com respeito a seu papel no acento, defendemos uma posição contrária à de análises mais recentes, citadas neste trabalho, passamos ao acento em latim vulgar e, após, ao acento em português arcaico. Nessa trajetória, observa-se a perda das proparoxítonas por síncope em latim vulgar e, subseqüentemente, a perda da vogal final por apócope em algumas palavras em português arcaico, resultando palavras terminadas em sílaba pesada. A simplicidade conduz a evolução do latim clássico ao vulgar, passando o sistema acentual do troqueu irregular ao troqueu silábico, mas, do latim vulgar ao português arcaico, há uma volta ao troqueu irregular, em virtude da ocorrência de palavras terminadas em sílaba pesada. Essas últimas linhas encerram a tese que esta análise sustenta.
Resumo:
O presente trabalho apresenta o estudo e implementação de um algoritmo numérico para análise de escoamentos turbulentos, tridimensionais, transientes, incompressíveis e isotérmicos, através da Simulação de Grande Escalas, empregando o Método de Elementos Finitos. A modelagem matemática do problema baseia-se nas equações de conservação de massa e quantidade de movimento de um fluido quase-incompressível. Adota-se um esquema de Taylor-Galerkin, com integração reduzida e fórmulas analíticas das funções de interpolação, para o elemento hexaédrico de oito nós, com funções lineares para as componentes de velocidade e constante no elemento para a pressão. Para abordar o problema da turbulência, emprega-se a Simulação de Grandes Escalas, com modelo para escalas inferiores à resolução da malha. Foram implementados o modelo clássico de Smagorinsky e o modelo dinâmico de viscosidade turbulenta, inicialmente proposto por Germano et al, 1991. Uma nova metodologia, denominada filtragem por elementos finitos independentes, é proposta e empregada, para o processo de segunda filtragem do modelo dinâmico. O esquema, que utiliza elementos finitos independentes envolvendo cada nó da malha original, apresentou bons resultados com um baixo custo computacional adicional. São apresentados resultados para problemas clássicos, que demonstram a validade do sistema desenvolvido. A aplicabilidade do esquema utilizado, para análise de escoamentos caracterizados por elevados números de Reynolds, é discutida no capítulo final. São apresentadas sugestões para aprimorar o esquema, visando superar as dificuldades encontradas com respeito ao tempo total de processamento, para análise de escoamentos tridimensionais, turbulentos e transientes .
Resumo:
A estimulação neonatal tem sido utilizada como modelo experimental para examinar os mecanismos pelos quais variações precoces do ambiente do animal afetam o desenvolvimento de sistemas neurais, dando origem a alterações comportamentais e neuroendócrinas duradouras. Buscou-se estudar os efeitos do estresse neonatal sobre duas abordagens: comportamental e imunoistoquímica. Na primeira, foram avaliados em ratos adultos (90-110 dias) dois paradigmas de medo: inato (campo aberto, N=48) e aprendido, (condicionamento clássico N=48); enquanto na segunda abordagem realizou-se a técnica imunoistoquímica (N=15) na substância nigra compacta (SNCo) e área tegmental ventral (VTA) para detecção da enzima precursora da dopamina, a tirosina hidroxilase (TH). Foram utilizados ratos da variedade Wistar, que do 1º ao 10º dia de vida foram submetidos a 3 tipos de intervenção: manipulação (retirados do ninho por 3min sendo tocados gentilmente por 1 min); separação (retirados do ninho por 3h, e mantidos a temperatura de 33ºC); e grupo controle (sem intervenções do experimentador ou do tratador). O condicionamento clássico (treino) foi constituído por 10 pareamentos de 1 estímulo incondicionado (EI, choque elétrico –0,8mA) com 2 estímulos condicionados ou neutros (EC, som e luz) em 2 sessões de 5 pareamentos cada. A duração de cada emissão do EC foi de 5s sendo no último segundo associada ao EI. O teste foi realizado 24h após o treino, e consistiu de emissões de EC com mesma duração e intervalo por um período total de 30 min. No experimento 2, foi utilizado um campo aberto de 1m2 no qual os ratos permaneceram por 5 min. Em ambos experimentos os comportamentos eram registrados em vídeo e analisados através do programa Noldus. Os resultados (X±EPM) foram analisados por uma ANOVA, post-hoc Newman Keuls ou Kruskal Wallis post-hoc Dunn (p<0,05). Nos experimentos comportamentais foram observados os seguintes resultados: no medo aprendido houve diminuição da duração (s) do comportamento de imobilização (491±54); da duração de rearing (58±13) e da latência para extinção do condicionamento do grupo manipulado (591±434) comparado ao controle (718±73; 22±6; 1020±843 respectivamente) e no campo aberto houve aumento da duração e freqüência da locomoção e rearing (97.6±8; 4.3±1 e 64.3±5; 31±2), diminuição da duração de autolimpeza (4.2±1) e aumento da freqüência de entradas no centro do campo aberto (4.3±0,8) no grupo manipulado comparado ao controle (69±7; 30±3 e 48±6; 21.5±2; 19±5; 2.2±0.6, respectivamente). Na análise Imunoistoquímica não foram detectadas diferenças significativas entre os grupos quanto imunomarcação de TH nas áreas estudadas. Foi confirmada a diminuição da inibição comportamental no campo aberto como conseqüência da manipulação. A manipulação neonatal também reduziu as respostas do medo condicionado, ratos manipulados no período neonatal expressam, quando adultos, menor expressão de medo aprendido e tem a extinção da aprendizagem aversiva mais acelerada. Curiosamente não foram observados efeitos da separação materna sobre as repostas de medo inato ou aprendido. Embora a dopamina do sistema mesocorticolímbico module as respostas comportamentais alteradas, nenhum dos modelos de intervenção estudados afetaram a intensidade de marcação deste neurotransmissor.
Resumo:
As aplicações da mecânica vibratória vêm crescendo significativamente na análise de sistemas de suspensões e estruturas de veículos, dentre outras. Desta forma, o presente trabalho desenvolve técnicas para a simulação e o controle de uma suspensão de automóvel utilizando modelos dinâmicos com um, dois e três graus de liberdade. Na obtenção das equações do movimento para o sistema massa-mola-amortecedor, o modelo matemático utilizado tem como base a equação de Lagrange e a segunda lei de Newton, com condições iniciais apropriadas. A solução numérica destas equações é obtida através do método de Runge-Kutta de 4ª ordem, utilizando o software MATLAB. Para controlar as vibrações do sistema utilizou-se três métodos diferentes de controle: clássico, LQR e alocação de pólos. O sistema assim obtido satisfaz as condições de estabilidade e de desempenho e é factível para aplicações práticas, pois os resultados obtidos comparam adequadamente com dados analíticos, numéricos ou experimentais encontrados na literatura, indicando que técnicas de controle como o clássico podem ser simples e eficientes.
Resumo:
Introdução: O diagnóstico microbiológico da infecção por Legionella é complexo, pois a bactéria não é visualizada à coloração de Gram no escarro, e sua cultura não é realizada na maioria dos laboratórios clínicos. A imunofluorescência direta nas secreções respiratórias tem baixa sensibilidade, em torno de 40% e a técnica da “PCR” não é ainda recomendada para o diagnóstico clínico (CDC, 1997). A detecção de anticorpos no soro é a técnica mais utilizada, e o critério definitivo é a soroconversão para no mínimo 1:128, cuja sensibilidade é de 70 a 80% (Edelstein, 1993). Como critérios diagnósticos de possível pneumonia por Legionella, eram utilizados: título único de anticorpos a L pneumophila positivo na diluição 1:256, em paciente com quadro clínico compatível (CDC, 1990) e o achado de antígeno a Legionella na urina (WHO, 1990). Nos últimos anos, porém, com o uso crescente do teste de antigenúria, foram detectados casos de pneumonia por Legionella, que não eram diagnosticados por cultura ou sorologia, tornando-o método diagnóstico de certeza para o diagnóstico de pneumonia por Legionella (CDC, 1997). Por sua fácil execução, resultado imediato, e alta sensibilidade - de 86% a 98% (Kashuba & Ballow, 1986; Harrison & Doshi, 2001), tem sido recomendado para o diagnóstico das PAC que necessitam internação hospitalar (Mulazimoglu & Yu, 2001; Gupta et al., 2001; Marrie, 2001), especialmente em UTI (ATS, 2001). Vários estudos documentaram baixo valor preditivo positivo do título único positivo de 1:256, tornando-o sem valor para o diagnóstico da pneumonia por Legionella, exceto, talvez, em surtos (Plouffe et al., 1995). Outros detectaram alta prevalência de anticorpos positivos na diluição 1:256 na população, em pessoas normais (Wilkinson et al., 1983; Nichol et al., 1991). A partir de 1996, o CDC de Atlanta recomendou que não seja mais utilizado o critério de caso provável de infecção por Legionella pneumophila por título único de fase convalescente ≥1:256, por falta de especificidade(CDC, 1997). A pneumonia por Legionella é raramente diagnosticada, e sua incidência é subestimada. Em estudos de PAC, a incidência da pneumonia por Legionella nos EUA, Europa, Israel e Austrália, foi estimada entre 1% a 16% (Muder & Yu, 2000). Nos EUA, foi estimado que cerca de 8 000 a 23 000 casos de PAC por Legionella ocorrem anualmente, em pacientes que requerem hospitalização (Marston et al., 1994 e 1977). No Brasil, a incidência de PAC causadas por Legionella em pacientes hospitalizados é tema de investigação pertinente, ainda não relatado na literatura. Objetivo: detectar a incidência de pneumonias causadas por Legionella pneumophila sorogrupos 1 a 6, em pacientes que internaram no Hospital de Clínicas de Porto Alegre por PAC, por um ano. Material e Métodos: o delineamento escolhido foi um estudo de coorte (de incidência), constituída por casos consecutivos de pneumonia adquirida na comunidade que internaram no HCPA de 19 de julho de 2000 a 18 de julho de 2001. Para a identificação dos casos, foram examinados diariamente o registro computadorizado das internações hospitalares, exceto as internações da pediatria e da obstetrícia, sendo selecionados todos os pacientes internados com o diagnóstico de pneumonia e de insuficiência respiratória aguda. Foram excluídos aqueles com menos de 18 anos ou mais de 80 anos; os procedentes de instituições, HIV-positivos, gestantes, pacientes restritos ao leito; e portadores de doença estrutural pulmonar ou traqueostomias. Foram excluídos os pacientes que tivessem tido alta hospitalar nos últimos 15 dias, e aqueles já incluídos no decorrer do estudo. Os pacientes selecionados foram examinados por um pesquisador, e incluídos para estudo se apresentassem infiltrado ao RX de tórax compatível com pneumonia, associado a pelo menos um dos sintomas respiratórios maiores (temperatura axilar > 37,8ºC, tosse ou escarro; ou dois sintomas menores (pleurisia, dispnéia, alteração do estado mental, sinais de consolidação à ausculta pulmonar, mais de 12 000 leucócitos/mm3). O estudo foi previamente aprovado pela Comissão de Ética em Pesquisa do HCPA. Os pacientes eram entrevistados por um pesquisador, dando seu consentimento por escrito, e então seus dados clínicos e laboratoriais eram registrados em protocolo individual. Não houve interferência do pesquisador, durante a internação, exceto pela coleta de urina e de sangue para exame laboratoriais específicos da pesquisa. Os pacientes eram agendados, no ambulatório de pesquisa, num prazo de 4 a 12 semanas após sua inclusão no estudo, quando realizavam nova coleta de sangue, RX de tórax de controle, e outros exames que se fizessem necessários para esclarecimento diagnóstico.Todos os pacientes foram acompanhados por 1 ano, após sua inclusão no estudo.Foram utilizadas a técnica de imunofluorescência indireta para detecção de anticorpos das classes IgG, IgM e IgA a Legionella pneumophila sorogrupos 1 a 6 no soro, em duas amostras, colhidas, respectivamente, na 1ª semana de internação e depois de 4 a 12 semanas; e a técnica imunológica por teste ELISA para a detecção do antígeno de Legionella pneumophila sorogrupo 1 na urina, colhida na primeira semana de internação. As urinas eram armazenadas, imediatamente após sua coleta, em freezer a –70ºC, e depois descongeladas e processadas em grupos de cerca de 20 amostras. A imunofluorescência foi feita no laboratório de doenças Infecciosas da Universidade de Louisville (KY, EUA), em amostras de soro da fase aguda e convalescente, a partir da diluição 1:8; e a detecção do antígeno de Legionella pneumophila sorogrupo 1, nas amostras de urina, foi realizada no laboratório de pesquisa do HCPA, pelos investigadores, utilizando um kit comercial de teste ELISA fabricado por Binax (Binax Legionella Urinary Enzyme Assay, Raritan, EUA). As urinas positivas eram recongeladas novamente, para serem enviadas para confirmação no mesmo laboratório americano, ao fim do estudo. Foram adotados como critérios definitivos de infecção por Legionella pneumophila sorogrupos 1 a 6, a soroconversão (elevação de 4 vezes no título de anticorpos séricos entre o soro da fase aguda e da fase convalescente para no mínimo 1:128); ou o achado de antígeno de L pneumophila sorogrupo 1 na urina não concentrada, numa razão superior a 3, conforme instruções do fabricante e da literatura.Os pacientes foram classificados, de acordo com suas características clínicas, em 1º) portadores de doenças crônicas (doenças pulmonares, cardíacas, diabete mellitus, hepatopatias e insuficiência renal); 2º) portadores de doenças subjacentes com imunossupressão; 3º) pacientes hígidos ou com outras doenças que não determinassem insuficiência orgânica. Imunossupressão foi definida como esplenectomia, ser portador de neoplasia hematológica, portador de doença auto-imune, ou de transplante; ou uso de medicação imunossupressora nas 4 semanas anteriores ao diagnóstico (Yu et al., 2002b); ou uso de prednisolona 10 mg/dia ou equivalente nos últimos 3 meses (Lim et al., 2001). As características clínicas e laboratoriais dos pacientes que evoluíram ao óbito por pneumonia foram comparados àquelas dos pacientes que obtiveram cura. Para a análise das variáveis categóricas, utilizou-se o teste qui-quadrado de Pearson ou teste exato de Fisher. Para as variáveis numéricas contínuas, utilizou-se o teste “t“ de Student. Um valor de p< 0,05 foi considerado como resultado estatisticamente significativo (programas SPSS, versão 10). Foi calculada a freqüência de mortes por pneumonia na população estudada, adotando-se a alta hospitalar como critério de cura. Foi calculada a incidência cumulativa para pneumonia por Legionella pneumophila sorogrupos 1 a 6, em um hospital geral, no período de 1 ano. Resultados: durante um ano de estudo foram examinados 645 registros de internação, nos quais constavam, como motivo de baixa hospitalar, o diagnóstico de pneumonia ou de insuficiência respiratória aguda; a maioria desses diagnósticos iniciais não foram confirmados. Desses 645 pacientes, foram incluídos no estudo 82 pacientes, nos quais os critérios clínicos ou radiológicos de pneumonia foram confirmados pelos pesquisadores. Durante o acompanhamento desses pacientes, porém, foram excluídos 23 pacientes por apresentarem outras patologias que mimetizavam pneumonia: DPOC agudizado (5), insuficiência cardíaca (3), tuberculose pulmonar (2), colagenose (1), fibrose pulmonar idiopática (1), edema pulmonar em paciente com cirrose (1), somente infecçâo respiratória em paciente com sequelas pulmonares (4); ou por apresentarem critérios de exclusão: bronquiectasias (4), HIV positivo (1), pneumatocele prévia (1). Ao final, foram estudados 59 pacientes com pneumonia adquirida na comunidade, sendo 20 do sexo feminino e 39 do sexo masculino, com idade entre 24 e 80 anos (média de 57,6 anos e desvio padrão de ±10,6). Tivemos 36 pacientes com doenças subjacentes classificadas como “doenças crônicas”, dos quais 18 pacientes apresentavam mais de uma co-morbidade, por ordem de prevalência: doenças pulmonares, cardíacas, diabete mellitus, hepatopatias e insuficiência renal; neoplasias ocorreram em 9 pacientes, sendo sólidas em 7 pacientes e hematológicas em 2. Dos 59 pacientes, 61% eram tabagistas e 16,9%, alcoolistas. Do total, 10 pacientes apresentavam imunossupressão. Dos demais 13 pacientes, somente um era previamente hígido, enquanto os outros apresentavam tabagismo, sinusite, anemia, HAS, gota, ou arterite de Takayasu. A apresentação radiológica inicial foi broncopneumonia em 59,3% dos casos; pneumonia alveolar ocorreu em 23,7% dos casos, enquanto ambos padrões ocorreram em 15,2% dos pacientes. Pneumonia intersticial ocorreu em somente um caso, enquanto broncopneumonia obstrutiva ocorreu em 5 pacientes (8,5%). Derrame pleural ocorreu em 22% dos casos, e em 21 pacientes (35%) houve comprometimento de mais de um lobo ao RX de tórax. Foram usados beta-lactâmicos para o tratamento da maioria dos pacientes (72,9%9). A segunda classe de antibióticos mais usados foi a das fluoroquinolonas respiratórias, que foram receitadas para 23 pacientes (39,0%), e em 3º lugar, os macrolídeos, usados por 11 pacientes (18,6%). Apenas 16 pacientes não usaram beta-lactâmicos, em sua maioria recebendo quinolonas ou macrolídeos. Dos 43 pacientes que usaram beta-lactâmicos, 25 não usaram nem macrolídeos, nem quinolonas. Em 13 pacientes as fluoroquinolonas respiratórias foram as únicas drogas usadas para o tratamento da pneumonia. Do total, 8 pacientes foram a óbito por pneumonia; em outros 3 pacientes, o óbito foi atribuído a neoplasia em estágio avançado. Dos 48 pacientes que obtiveram cura, 33 (68,7%) estavam vivos após 12 meses. Os resultados da comparação realizada evidenciaram tendência a maior mortalidade no sexo masculino e em pacientes com imunossupressão, porém essa associação não alcançou significância estatística. Os pacientes que usaram somente beta-lactâmicos não apresentaram maior mortalidade do que os pacientes que usaram beta-lactâmicos associados a outras classes de antibióticos ou somente outras classes de antibióticos. Examinando-se os pacientes que utiizaram macrolídeos ou quinolonas em seu regime de tratamento, isoladamente ou combinados a outros antibióticos, observou-se que também não houve diferença dos outros pacientes, quanto à mortalidade. Os pacientes com padrão radiológico de pneumonia alveolar tiveram maior mortalidade, e essa diferença apresentou uma significância limítrofe (p= 0,05). Nossa mortalidade (11,9%) foi similar à de Fang et al. (1990), em estudo clássico de 1991 (13,7%); foi também similar à média de mortalidade das PAC internadas não em UTI (12%), relatada pela ATS, no seu último consenso para o tratamento empírico das PAC (ATS, 2001). Foram detectados 3 pacientes com pneumonia por Legionella pneumophila sorogrupo 1 na população estudada: 2 foram diagnosticados por soroconversão e por antigenúria positiva, e o 3º foi diagnosticado somente pelo critério de antigenúria positiva, tendo sorologia negativa, como alguns autores (McWhinney et al., 2000). Dois pacientes com PAC por Legionella não responderam ao tratamento inicial com beta-lactâmicos, obtendo cura com levofloxacina; o 3º paciente foi tratado somente com betalactâmicos, obtendo cura. Conclusões: A incidência anual de PAC por Legionella pneumophila sorogrupos 1 a 6, no HCPA, foi de 5,1%, que representa a incidência anual de PAC por Legionella pneumophila sorogrupos 1 a 6 em um hospital geral universitário. Comentários e Perspectivas: Há necessidade de se empregar métodos diagnósticos específicos para o diagnóstico das pneumonias por Legionella em nosso meio, como a cultura, a sorologia com detecção de todas as classes de anticorpos, e a detecção do antígeno urinário, pois somente com o uso simultâneo de técnicas complementares pode-se detectar a incidência real de pneumonias causadas tanto por Legionella pneumophila, como por outras espécies. A detecção do antígeno de Legionella na urina é o teste diagnóstico de maior rendimento, sendo recomendado seu uso em todas as PAC que necessitarem internação hospitalar (Mulazimoglu & Yu, 2001; Gupta et al., 2001); em todos os pacientes com PAC que apresentarem fatores de risco potenciais para legionelose (Marrie, 2001); e para o diagnóstico etiológico das pneumonias graves (ATS, 2001). Seu uso é indicado, com unanimidade na literatura, para a pesquisa de legionelose nosocomial e de surtos de legionelose na comunidade.
Resumo:
A anastomose sistêmico-pulmonar é um excelente procedimento paliativo para crianças e recém-nascidos portadores de cardiopatias congênitas cianóticas com diminuição da circulação pulmonar. Neste artigo, as aproximações “Streamline Upwind/Petrov-Galerkin – SUPG” foram utilizadas na simulação de escoamento de sangue em uma anastomose sistêmico pulmonar. A Anastomose estudada neste artigo é conhecido como Blalock-Taussig modificada no qual um enxerto de tubo sintético (prótese) é interposto entre a artéria subclávia esquerda e a artéria pulmonar com o objetivo de desviar parte do fluxo sistêmico ao pulmonar. A metodologia de elementos finitos utilizada, conhecida como método SUPG, supera as dificuldades enfrentadas pelo método de Galerkin clássico em altos números de Reynolds, que são compatibilizar os subespaços de velocidade e pressão – satisfazendo deste modo a condição denominada de Babuška-Brezzi e evitar oscilações espúrias devido à natureza assimétrica da aceleração advectiva de equação de momentum – adicionando termos malha-dependentes para a formulação de Galerkin clássica. Estes termos adicionais são construídos para aumentar a estabilidade da formulação de Galerkin original sem prejudicar sua consistência. Um modelo tridimensional parametrizado, utilizando o elemento lagrangeano trilinear, foi criado a partir de medições obtidas durante procedimento cirúrgico para avaliar os efeitos dos parametros geométricos envolvidos na cirurgia (diâmetro e ângulo do enxerto e a pulsatilidade do escoamento) Os resultados apresentam que o ângulo da anastomose proximal tem sensível influência na quantidade de fluxo desviada pelo enxerto e enorme influência na porcentagem de fluxo direcionado para cada um dos pulmões. Quanto ao diâmetro do enxerto conclui-se que este é o regulador principal da porcentagem de fluxo desviada. A partir das simulações realizadas determinou-se correlações para o fator de atrito e porcentagem de fluxo sangüíneo desviado pelo enxerto.
Resumo:
O estresse é considerado ao mesmo tempo um mecanismo de defesa contra diferentes fatores agressores e a causa de importantes alterações orgânicas que podem levar ao estabelecimento de estados mórbidos. A definição de estresse em animais é tema de controvérsia, no entanto a ativação do eixo hipotalâmico-hipofisário-adrenal (HHA) é utilizado como parâmetro para avaliação do grau de alteração imposto. Em eqüinos, a anestesia isoladamente pode desencadear a cascata de eventos ligados ao estresse, não necessitando como em outras espécies a participação de intervenções cirúrgicas. No entanto, a anestesia geral intravenosa têm sido considerada como menos agressiva e conseqüentemente não desencadeadora de estresse. No presente estudo foi avaliado uma combinação para indução anestésica, a tiletamina-zolazepam (TZ=1,1 mg.kg-1), tendo como medicação pré-anestésica a romifidina (80 µg.kg-1), utilizada isolada ou associada a acepromazina (0,08 mg.kg-1) ou diazepam (0,1 mg. .kg-1). A romifidina é um agonista adrenérgico α-2, de marcada ação sedativa e miorrelaxante. A acepromazina é um derivado fenotiazínico cuja ação tranqüilizante tem sido aplicada na combinação com diversos outros fármacos para indução anestésica. O diazepam é considerado o benzodiazepínico clássico, com atividade ansiolítica e miorrelaxante. Os três fármacos são de uso corrente na medicina veterinária eqüina. A tiletamina é uma ciclohexamina de ação semelhante à cetamina e é disponível comercialmente associada ao zolazepam, na proporção de 1:1. Foram utilizados neste trabalho 24 eqüinos de ambos os sexos, diferentes idades e raças, todos enquadrados na categoria ASA I (American Society of Anesthesiologists). Os animais foram divididos aleatoriamente em três grupos. Os grupos, foram definidos pela combinação pré-anestésica como RTZ (romifidina), ARTZ (acepromazina + romifidina) e DRTZ (diazepam + romifidina). Os fármacos foram administrados por via intravenosa. Entre a romifidina e TZ foi estabelecido um intervalo de 10 minutos em todos os grupos, entre a acepromazina e a romifidina um período de 30 minutos e, a partir da administração de diazepam, houve uma pausa de 3 horas até a romifidina. As colheitas de sangue para as dosagens hormonais foram realizadas em três tempos nos grupos RTZ e ARTZ. Antes de qualquer fármaco (P), após a administração da MPA (M) e 15 minutos após a indução (I). No grupo DRTZ, como se desejava avaliar o efeito do benzodiazepínico isolado, foi realizada uma quarta colheita antes da administração de romifidina (B). Para os demais parâmetros os tempos considerados foram P e I. Foram avaliados a concentração plasmática de ACTH e cortisol, a concentração sérica de glicose e lactato, freqüências cardíaca e respiratória, parâmetros hematológicos (eritrócitos, leucócitos, hemograma e hemoglobina), gasometria arterial, traçado eletrocardiográfico e tempo de imobilidade. Os dados foram analisados estatisticamente por ANOVA para medidas repetidas e teste t de Student. O nível de significância foi de α=0,05. Os resultados revelaram que a anestesia geral intravenosa com os protocolos propostos, não desencadeou a ativação do eixo HHA, exceção feita ao Grupo ARTZ. Os valores de ACTH diferiram entre o grupo DRTZ e os demais, sendo que neste houve valores inferiores. Não houve diferença estatística nos valores dos demais parâmetros com exceção da freqüência cardíaca que no grupo RTZ não revelou variações entre as colheitas. O tempo de imobilidade observado no grupo ARTZ foi superior aos demais.
Resumo:
Na prática do Ballet Clássico, diversos autores, como Tomes (1995), Guillot e Prudhommeau (1974), Bertoni (1992), Kostrovitskaya (1995), Vaganova (1941) e Baryshnikov (1976) priorizam a postura corporal através do alinhamento vertical do corpo, pressuposto este que é defendido por Kendall et al (1995). Contudo, esses pressupostos teóricos nem sempre são aceitos por outros estudiosos, como Solomon, Minton e Solomon (1990), Mckenzie (1985), Chaitow (1982), Denys Struyf (1995) e Malanga (2002), os quais não se fixam na premissa de que uma postura alinhada pode produzir menor gasto energético, ser mais confortável e prevenir lesões. Diante dessa controvérsia não encontrou-se um referencial teórico consistente que justificasse a postura adotada pelas bailarinas clássicas, mas sim apenas uma proposta postural defendida por maitres e/ou professores de Ballet Clássico utilizada no sentido de proporcionar às bailarinas aprimoramento técnico, benefícios estéticos e controle do número de lesões. Diante disso, este trabalho tem como objetivos: (1) verificar a coerência entre a postura solicitada pela maitre e/ou professor de Ballet Clássico e a postura adotada pelas bailarinas avaliadas; (2) descrever e analisar as características posturais específicas do grupo de bailarinas clássicas avaliadas, caso estas existam; (3) verificar a existência e o tipo de algias nas bailarinas clássicas avaliadas; (4) relacionar as características posturais específicas encontradas com os sintomas álgicos apresentados pelas bailarinas clássicas avaliadas; (5) verificar se as características posturais, adotadas pelas bailarinas clássicas avaliadas, lhes satisfazem. Para tal, a amostra foi dividida em um grupo formado por bailarinas clássicas (n=30; idade média=13,06 anos +1,98), um grupo de referência formado por não bailarinas clássicas (n=30; idade média=13,86 anos +1,61) e um grupo de maitres e/ou professores de Ballet Clássico (n=22). Foram aplicados os seguintes instrumentos: (1) questionário de aspectos posturais específicos em 3 versões - (1a) para o grupo de maitres e/ou professores de Ballet Clássico (r=1, p=0,0001), (1b) para o grupo de bailarinas clássicas (r=0,99, p=0,0001), (1c) para o grupo de não bailarinas (r=1, p=0,0001); (2) questionário de informações gerais; (3) questionário de dor (testado e adaptado por Souza e Krieger, 2000), (4) avaliação postural a partir de fotografia digitalizada, com três tomadas de intervalos de 2 horas, a uma distância de 3 metros. Os resultados mostraram que existem características posturais específicas para as bailarinas clássicas avaliadas e estas são coerentes com aquelas solicitadas por maitres e professores de Ballet Clássico; existem sintomas álgicos nas bailarinas, contudo estes não se relacionam com as suas características posturais específicas; o tipo de algias assinalado pelas participantes corresponde a algias leves esperadas na prática do Ballet Clássico; as bailarinas clássicas avaliadas encontram-se plenamente satisfeitas com a postura que adotam.