78 resultados para Exames de alta complexidade
Resumo:
A extrusão reativa do polietileno de alta densidade (PEAD) em presença de peróxidos orgânicos pode promover sua reticulação, provocando mudanças em suas propriedades. Isto deve-se à capacidade do peróxido orgânico de abstrair hidrogênios secundários e terciários da cadeia, podendo assim formar os radicais livres necessários à ocorrência da reticulação. Neste trabalho, amostras de pó de PEAD produzido com catalisador Ziegler-Natta, para utilização em processamento por injeção, sopro ou extrusão de filmes, foram extrusadas com o peróxido de dicumila e o 2,5-dimetil-2,5-di(t-butilperoxi)-hexano em teores de 0,001 a 0,08 pcp. Os produtos obtidos foram caracterizados quanto a suas taxas de fluidez (MFR), densidades, propriedades reológicas, físicas e mecânicas. Para a avaliação reológica foram analisadas as curvas de viscosidade em função da taxa de cisalhamento e determinadas as taxas de cisalhamento críticas, ambas no reômetro capilar. O comportamento viscoelástico foi avaliado pelos módulos de armazenamento e de perda e pela viscosidade complexa. A massa molar e sua distribuição foram determinadas por cromatografia de exclusão por tamanho (SEC). O percentual de reticulação foi verificado pela determinação do teor de material de solúveis em xileno. As propriedades mecânicas analisadas foram resistência à tração, à flexão, ao tensofissuramento e módulo de elasticidade. As propriedades analisadas foram relacionadas às estruturas dos produtos resultantes da extrusão reativa. Verificou-se que a extrusão reativa do PEAD com peróxidos orgânicos originou resinas com distribuição de massas molares mais larga, caráter mais pseudoplástico e com comportamento do fundido mais elástico do que as resinas não modificadas por peróxido. A reologia, dentre as técnicas analíticas utilizadas, apresentou maior sensibilidade às mudanças estruturais decorrentes da extrusão reativa. A extrusão reativa com peróxidos originou resinas com propriedades mecânicas diferenciadas, havendo incremento na resistência ao impacto Charpy e ao tensofissuramento e diminuição no módulo de elasticidade comparativamente às resinas não modificadas. A resistência à tração não apresentou variações significativas entre as resinas modificadas e as não modificadas. O peróxido que se mostrou mais eficiente na extrusão reativa foi o 2,5-dimetil-2,5-di(t-butilperoxi)-hexano.
Resumo:
O processo produtivo das organizações hospitalares necessita acompanhar as exigências estabelecidas pelos novos paradigmas da sociedade. Frente a esse desafio e considerando a complexidade dessas organizações, torna-se fundamental o uso de sistemas de informações que consigam reduzir o nível de incerteza dos processos decisórios. Este trabalho tem como objetivo aperfeiçoar a função de controle da gestão hospitalar, através da aplicação do método de custeio baseado em atividades, ou ABC (Activity-Based Costing), que busca melhor compreender o processo produtivo, para avaliar e custear, dando subsídios para a melhoria da eficiência econômica. Foram acompanhados pacientes internados com câncer de esôfago da especialidade de Cirurgia Geral de um hospital universitário. O desenvolvimento contou com a análise dos processos, identificação dos recursos envolvidos, direcionadores primários e secundários, que permitiram a apuração do custo por paciente e a análise de valor agregado (AVA). Do processo de internação, o estudo identificou 9 subprocessos (Admissão, Anamnese e Exame Físico, Prescrição pré-cirúrgica, Prescrição pós-cirúrgica, Diagnóstico, Reavaliação médica, Operação Cirúrgica, Prescrição de alta e Suporte ao 18 leito). Para cada subprocesso, avaliaram-se quais recursos da estrutura do hospital foram empregados, de forma a quantificar a participação de cada um nos respectivos subprocessos, através dos direcionadores primários. Definidos os recursos e sua participação, a fase seguinte foi verificar em que medida os recursos foram empregados pelas atividades durante o atendimento ao paciente. A partir da análise de processos, as atividades foram identificadas, sendo estabelecido um indicador que mensurasse o uso da atividade pelo paciente, os direcionadores secundários. Os resultados indicam que o ABC oferece níveis de detalhamento do processo de prestação de serviço hospitalar mais elevados do que nos sistemas tradicionais de custos e consegue perceber melhor o uso dos recursos durante o atendimento, em conseqüência, auferindo o custo de cada paciente com maior precisão. Além disso, permite a análise de valor agregado de todo o processo produtivo, auxiliando a organização a atingir os objetivos e permitindo enfrentar em melhores condições as alterações no ambiente interno e externo. Na medicina é dito que cada paciente é um caso, porque, ainda que a ciência tenha avançado muito nos últimos anos, as características pessoais e as reações a cada ação médica encontram uma variabilidade muito grande. No ABC, cada paciente passa a ser um objeto de custo, que absorverá os recursos necessários à conduta a ser seguida, permitindo melhor avaliar e controlar o desempenho do processo produtivo e auxiliando no processo decisório.
Resumo:
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
Resumo:
pós-infarto agudo do miocárdio (IAM) têm mostrado baixo valor preditivo positivo quando estudados isoladamente. A possibilidade da Eletrocardiografia Dinâmica de 24 horas (ECGD) fornecer dados referentes a isquemia silenciosa (IS), arritmias ventriculares e modulação autonômica do coração pelo estudo da variabilidade da freqüência cardíaca (VFC), levou o autor a empregar este método em pacientes acometidos de IAM com o objetivo de avaliar se estas três variáveis estariam relacionadas a presença de eventos desfavoráveis em evolução a médio prazo. Material e Métodos – Foram selecionados 91 pacientes acometidos de um primeiro IAM não-complicado e realizados exames de ECGD de 24 h por dois dias consecutivos, antes da alta hospitalar. Os parâmetros pesquisados nos exames foram: isquemia silenciosa, identificação e quantificação de arritmias ventriculares e determinação dos índices de VFC pelos métodos do domínio do tempo e do mapa de retorno tridimensional. Foram considerados como desfechos: re-infarto, angina instável, taquicardia ventricular sustentada e morte. Resultados – No seguimento médio de 27,7 meses (DP=15,45), 23 (25%) dos pacientes apresentaram eventos, sendo nove fatais. Os eventos foram mais freqüentes entre os pacientes que apresentaram extra-sístoles ventriculares ≥10/hora (p=0,01) e também naqueles com IS (p=0,02). Em modelo de análise multifatorial, a presença de dislipidemia elevou o valor preditivo positivo dessas variáveis. Nenhum dos índices de VFC esteve significativamente relacionado ao surgimento de eventos. Conclusões – Em pacientes pós-IAM de baixo risco, a presença de arritmias ventriculares freqüentes ou de isquemia silenciosa está relacionada a um prognóstico desfavorável. O estudo da VFC não mostrou utilidade na estratificação de risco destes pacientes.
Resumo:
Foi realizado o estudo do efeito do tipo de nylon nas blendas PP/PP-MA/Ny. Estas blendas foram caracterizadas por calorimetria diferencial de varredura, microscopia eletrônica de varredura, propriedades mecânicas e reológicas. Na análise reológica foram realizados os testes para os nylons N6, N6,9 e N6,10. Para os nylons N6,6 e N6,12 não foi possível fazer as medidas de viscosidade. Os resultados demonstraram que para os teores de 0,34 e 0,46 g% de MA no PP, o nível de dispersão final segue o fator da reatividade dos grupos terminais amino do nylons. Assim, a ordem de aumento de dispersão para as blendas com os nylons foi de N6,9, N6 e N6,10. Este comportamento foi confirmado na análise morfológica. Para o teor de 0,81 g%, a dispersão foi afetada pelo quociente das viscosidades, obedecendo a ordem esperada para os nylons 6,10, 6,9 e 6 e suas blendas.
Resumo:
Um dos problemas teóricos mais importantes da Física de Partículas de Altas Energias é a investigação de efeitos de alta densidade na Cromodinâmica Quântica (QCD), que é a teoria que descreve as interações fortes. Tais efeitos são importantes pois determinam os observáveis em colisõesde altas energias. Em processos hadrônicos de energia suficientemente alta, espera-se a formação de sistemas densos o suficiente para que efeitos não lineares de QCD passem a ser significativos na descrição e na unitarização da seção de choque. Na descrição de processos de espalhamento de altas energias, evidências experimentais indicam que os hádrons são constituídos por partículas puntuais, as quais chamamos de pártons. Os pártons carregam uma fração x do momentum total do hádron, e são de dois tipos, quarks e glúons. Na interação entre as partículas ocorre a troca de momentum, definida como Q2. A descrição perturbativa padrão para a evolução dinâmica das distribuições de quarks q(x, Q2) e glúons g(x, Q2), pode ser dada pelas equações de evolução DGLAP, e tem obtido sucesso na descrição dos resultados experimentais para as presentes energias. Na evolução DGLAP, são considerados apenas processos de emissão, como a emissão de um glúon por um quark, o decaimento de um glúon em um par de quarks ou em um par de glúons Estes processos de emissão tendem a aumentar a densidade de pártons na região de pequeno momentum, levando a um crescimento ilimitado das distribuições partônicas para x -+ O. Assim, é esperado que o crescimento da densidade de pártons leve a interação e recombinação destas partículas, dando origem a termos não lineares nas equações de evolução. O resultado seria um processo de saturação das distribuições de pártons na região de alta energia e pequena fração de momentum. Os efeitos que dão origem à redução do crescimento das distribuições de quarks e glúons em relação a evolução linear são chamados genericamente de efeitos de sombreamento. Um dos aspectos fenomenológicosinteressantes a ser investigado no regime cinemático abordado acima é o processo Drell-Yan de alta energia, o qual consiste em processos de espalhamento pp, pA e AA com a produção de pares de léptons. Com o advento dos novos aceleradores, novos resultados experimentais estarão disponíveis na literatura relacionados com este processo. Em nosso trabalho investigamos os efeitos das correções de unitariedade em processos pp, bem como os efeitos devido a presença do meio nuclear em colisõespA e AA, nas distribuições de quarks e glúons, para a descrição da seção de choque diferencial para o processo Drell-Yan em colisõespp, pA e AA, para energias existentes nos novos aceleradores RHIC (Relativistic Heavy Ion Collider) e LHC (Large Ion Collider). Os efeitos de alta densidade são baseados no formalismo de Glauber-Mueller. Os resultados aqui apresentados mostram que os efeitos de alta densidade nas distribuições partônicas são importantes para altas energias, pois a descrição da seção de choque para o processo Drell-Yan, quando os efeitos de alta densidade são considerados, apresenta significativas diferenças da descrição onde não considera-se tais efeitos.
Resumo:
Este trabalho busca desenvolver um aço para cementação a alta temperatura através da adição de nióbio como microligante, a fim de que os compostos formados forneçam partículas de segunda fase que atuem como ancoradoras do grão austenítico, já que o processo de crescimento de grão, especialmente anormal, é conseqüência natural das temperaturas envolvidas. A elevação da temperatura tem como objetivo proporcionar um ganho em produtividade pela redução dos tempos de cementação. Procura-se também estabelecer uma comparação do aço proposto a aços de cementação convencionais (DIN 17Cr3 e SAE 5115). Utilizou-se um aço SAE 5115 com 0,034% de nióbio, que foi submetido a diferentes condições de ensaio em laboratório: deformação a frio por compressão livre em três graus de deformação (isento, 25 e 50%); com posterior aquecimento em patamares de temperatura que simulam diferentes níveis de cementação (930 , 950 , 1000 e 1050 C), bem como diferentes tempos de manutenção em temperatura, de tal forma a atingir camadas cementadas hipotéticas em torno de 1,0 mm de profundidade. Encerram-se os testes submetendo o aço estudado a um processo de produção industrial de pinos de pistão, que sofrem deformação a temperatura ambiente e cementação a 950 C por 2,5 h O aço SAE 5115 ao “Nb” mostrou um melhor desempenho no controle dos grãos austeníticos, tanto para os ensaios de simulação realizados em laboratório e comparados ao aço DIN 17Cr3, como frente ao processo de produção de pinos de pistão tendo como comparativo o aço SAE 5115. O modelo teórico de Hudd e outros (que trata os carbonitretos de nióbio como de extensiva solubilidade mútua) e o de Gladman (que define os nitretos de alumínio e de nióbio como mutuamente exclusivos), associados às equações de Wagner (para coalescimento das partículas de segunda fase), bem como à equação de Gladman e Pickering (que determina o raio crítico de partícula para uma distribuição aleatória de partículas), mostraram-se bastante adequados em prever a resposta das partículas precipitadas, partindo-se da composição química do aço, principalmente para as partículas de carbonitreto de nióbio em condições que não envolvessem níveis elevados de deformação.
Resumo:
O presente trabalho aborda a questão da criação do conhecimento em equipes virtuais, através de um estudo de caso de caráter descritivo-exploratório realizado em uma empresa do setor de alta tecnologia. Os dados foram coletados por meio de entrevistas presenciais e por e-mail, de mensagens trocadas por e-mail entre os participantes e de observação direta. A análise dos dados remete a duas etapas. A primeira compara a teoria acessada a respeito de equipes virtuais com a prática observada na empresa pesquisada. Além disso, analisa a percepção dos funcionários dessa equipe em relação ao compartilhamento de conhecimento entre eles. A segunda verifica as relações que se estabelecem entre o processo de criação de conhecimento na equipe virtual e o modelo teórico de Nonaka e Takeuchi (1997) adotado neste trabalho. Os resultados apontam para um processo de criação de conhecimento que se dá através de características semelhantes às verificadas em equipes tradicionais de trabalho, porém diversas das do modelo teórico de Nonaka e Takeuchi (1997). Orientam também para uma adequação entre a teoria e a prática quanto à questão de equipes virtuais e para o compartilhamento do conhecimento entre os participantes da equipe.
Resumo:
Estudos referentes à dinâmica espaço-temporal da interação hospedeiro-parasitóide são de fundamental importância para o desenvolvimento de técnicas de manejo de insetos em agroecossistemas. Uma recente abordagem têm sido o estudo de populações através da simulação computacional dos indivíduos que a compõem. Este método tem possibilitado a incorporação de importantes características como individualidade e estrutura espacial nos modelos teóricos. Neste sentido, o presente estudo visou a elaboração de um modelo baseado no comportamento individual para simular a dinâmica espaço-temporal da interação Spartocera dentiventris (Berg) (Hemiptera: Coreidae), inseto associado à cultura do fumo, e de seu inimigo natural, o parasitóide de ovos Gryon gallardoi (Brethes) (Hymenoptera: Scelionidae). Para a elaboração do modelo, estudos sobre a bioecologia de G. gallardoi foram desenvolvidos, de modo a investigar (i) o efeito da temperatura no seu desenvolvimento e viabilidade, (ii) a mortalidade de imaturos em campo, (iii) os parâmetros reprodutivos e a longevidade dos adultos, (iv) os padrões de dispersão em campo e (v) a resposta funcional e a interferência mútua dos parasitóides em diferentes densidades de ovos de S. dentiventris. No intuito de avaliar a capacidade de predição do modelo elaborado, a dinâmica espaço-temporal de ovos sadios e parasitados de S. dentiventris foi acompanhada em um cultivo de fumo, estabelecido em área experimental do Departamento de Fitossanidade da Faculdade de Agronomia da UFRGS, Porto Alegre (30o01’S e 51o13’O), RS, Brasil A viabilidade do desenvolvimento dos parasitóides na faixa de 20 a 30oC não diferiu significativamente, alcançando 98,8%. O tempo de desenvolvimento ovo-adulto de machos e fêmeas foi inversamente proporcional ao aumento da temperatura. Os valores estimados para o limite térmico inferior de desenvolvimento e para a constante térmica foram 15,5oC e 185,19GD para machos e 15,6oC e 192,31GD para fêmeas. Diversos fatores afetam o sucesso de imaturos de G. gallardoi em campo, sendo que o malogro e a predação por sugadores são os principais responsáveis pela emergência de apenas 37,87% dos adultos. Foi observado um período médio de oviposição de 10,1 ± 1,74 dias, com o pico de oviposição no segundo dia, sendo depositados ao longo dos mesmos uma média de 67,5 ± 11,29 ovos por fêmea. Fêmeas de G. gallardoi foram significativamente mais longevas que os machos, vivendo, respectivamente, 13,7 ± 1,94 e 10,6 ± 1,78 dias. A razão sexual total observada foi de 0,79. A dispersão de G. gallardoi em cultivo de fumo não foi sensivelmente influenciada pelo vento, sendo estimada uma capacidade de locomoção diária média para fêmeas de no mínimo 7,62 m. O padrão de parasitismo de G. gallardoi ajustou-se perfeitamente à resposta funcional do tipo II (pseudo-r2= 0,99), sendo obtidos os valores de 0,0557 e 0,9989 h para os componentes a’ e Tm , respectivamente O aumento da densidade de parasitóides acarretou, de maneira geral, uma diminuição no número de ovos parasitados por parasitóide. Foi obtido para o índice de interferência mútua “m” o valor 0,626. A dinâmica temporal de S. dentiventris – G. gallardoi simulada ajustou-se muito bem aos dados obtidos em campo (r2= 0,82 para ovos sadios e r2= 0,72 para ovos parasitados). Da mesma forma, os arranjos espaciais dos ovos e da taxa de parasitismo observados em campo foram satisfatoriamente reproduzidos através das simulações computacionais. Os resultados indicam que G. gallardoi apresenta um bom potencial para controlar populações de S. dentiventris, seja pela sua viabilidade de desenvolvimento em uma larga faixa de temperatura ou pela sua capacidade reprodutiva e padrões de dispersão similares àqueles observados para outras espécies já utilizadas no controle biológico de insetos. Por outro lado, a sensibilidade às baixas temperaturas, a alta mortalidade de imaturos observada em campo e uma resposta funcional do tipo II podem ser fatores que se contrapõe ao sucesso do parasitóide no controle de populações de S. dentiventris. Considerando a independência entre os dados observados e os dados obtidos através de simulações, o modelo elaborado obteve pleno sucesso em simular a dinâmica da interação S. dentiventris – G. gallardoi a partir do comportamento individual dos diferentes agentes Duas importantes características associadas à estabilidade de sistemas hospedeiro-parasitóide foram observadas no estudo de campo e reproduzidas no modelo – um padrão de parasitismo inversamente dependente da densidade dos hospedeiros e uma resposta agregativa dos parasitóides em algumas regiões do sistema. Desta forma, futuros estudos podem avaliar, a partir de um enfoque baseado no indivíduo, quais mecanismos são responsáveis por tais comportamentos e qual é o seu efeito na dinâmica do sistema. Conclui-se, através deste trabalho, que o estudo da dinâmica de populações através de uma abordagem baseada no indivíduo, com base em modelos computacionais, pode ser uma alternativa viável para superar as limitações e a complexidade inerente ao uso de modelos populacionais analíticos. Desta forma, o maior realismo implícito nestes modelos os torna ferramentas muito úteis para diversas áreas da ecologia aplicada, particularmente para a entomologia agrícola.
Resumo:
A divisão do processo de planejamento e controle da produção (PCP) em diferentes níveis hierárquicos é um dos mecanismos básicos para lidar com a incerteza. Por outro lado, a falta de integração entre estes níveis é apontada como uma dos obstáculos mais importantes à eficácia deste processo, uma vez que dificulta que as decisões tomadas nos diferentes níveis gerenciais sejam consistentes entre si. Este problema é particularmente importante em empreendimentos de construção, os quais, em função de sua complexidade e da incerteza envolvida, em geral requerem freqüentes modificações nos planos, podendo estas ser consideravelmente trabalhosas. O objetivo geral do presente trabalho consiste em propor diretrizes para a interligação do processo de planejamento e controle nos níveis de longo, médio e curto prazo, através da utilização de pacotes computacionais tradicionais, assim como contribuir para a consolidação e refinamento do modelo de PCP proposto por Formoso et al. (1999). O trabalho realizado foi dividido em três grandes etapas. A primeira delas compreendeu a realização de uma pesquisa bibliográfica. A segunda etapa consistiu no desenvolvimento de dois estudos de caso, realizados em empresas de construção do Estado da Bahia, uma delas atuante nos mercados de obras públicas e a outra em incorporações imobiliárias para a classe média-alta. Por fim, na terceira etapa foram analisados os resultados e propostas as diretrizes para a interligação dos diferentes níveis do PCP Entre as conclusões, pode-se destacar que a eficácia dos planos produzidos em pacotes computacionais depende fortemente da existência de um plano de ataque da obra, o qual deve ser discutido com a gerência da produção e explicitado graficamente, de forma a aumentar a transparência de processos. Quando o plano de longo prazo não é elaborado adequadamente, levando em conta as reais necessidades da gerência de produção, o esforço despendido na realização de alterações tende a ser muito grande, dificultando a utilização deste plano para controle em tempo real. O estudo também sugere um conjunto de indicadores que permitem avaliar o cumprimento de prazo e a aderência entre planos de diferentes níveis gerenciais. Estes indicadores são obtidos com relativa facilidade, a partir da utilização do pacote computacional MSProject. Finalmente, o estudo oferece algumas contribuições relativas a critérios para a definição de pacotes de trabalho, à medida que os planos necessitam serem detalhados nos níveis de médio e curto prazo.
Resumo:
Introdução: O diagnóstico microbiológico da infecção por Legionella é complexo, pois a bactéria não é visualizada à coloração de Gram no escarro, e sua cultura não é realizada na maioria dos laboratórios clínicos. A imunofluorescência direta nas secreções respiratórias tem baixa sensibilidade, em torno de 40% e a técnica da “PCR” não é ainda recomendada para o diagnóstico clínico (CDC, 1997). A detecção de anticorpos no soro é a técnica mais utilizada, e o critério definitivo é a soroconversão para no mínimo 1:128, cuja sensibilidade é de 70 a 80% (Edelstein, 1993). Como critérios diagnósticos de possível pneumonia por Legionella, eram utilizados: título único de anticorpos a L pneumophila positivo na diluição 1:256, em paciente com quadro clínico compatível (CDC, 1990) e o achado de antígeno a Legionella na urina (WHO, 1990). Nos últimos anos, porém, com o uso crescente do teste de antigenúria, foram detectados casos de pneumonia por Legionella, que não eram diagnosticados por cultura ou sorologia, tornando-o método diagnóstico de certeza para o diagnóstico de pneumonia por Legionella (CDC, 1997). Por sua fácil execução, resultado imediato, e alta sensibilidade - de 86% a 98% (Kashuba & Ballow, 1986; Harrison & Doshi, 2001), tem sido recomendado para o diagnóstico das PAC que necessitam internação hospitalar (Mulazimoglu & Yu, 2001; Gupta et al., 2001; Marrie, 2001), especialmente em UTI (ATS, 2001). Vários estudos documentaram baixo valor preditivo positivo do título único positivo de 1:256, tornando-o sem valor para o diagnóstico da pneumonia por Legionella, exceto, talvez, em surtos (Plouffe et al., 1995). Outros detectaram alta prevalência de anticorpos positivos na diluição 1:256 na população, em pessoas normais (Wilkinson et al., 1983; Nichol et al., 1991). A partir de 1996, o CDC de Atlanta recomendou que não seja mais utilizado o critério de caso provável de infecção por Legionella pneumophila por título único de fase convalescente ≥1:256, por falta de especificidade(CDC, 1997). A pneumonia por Legionella é raramente diagnosticada, e sua incidência é subestimada. Em estudos de PAC, a incidência da pneumonia por Legionella nos EUA, Europa, Israel e Austrália, foi estimada entre 1% a 16% (Muder & Yu, 2000). Nos EUA, foi estimado que cerca de 8 000 a 23 000 casos de PAC por Legionella ocorrem anualmente, em pacientes que requerem hospitalização (Marston et al., 1994 e 1977). No Brasil, a incidência de PAC causadas por Legionella em pacientes hospitalizados é tema de investigação pertinente, ainda não relatado na literatura. Objetivo: detectar a incidência de pneumonias causadas por Legionella pneumophila sorogrupos 1 a 6, em pacientes que internaram no Hospital de Clínicas de Porto Alegre por PAC, por um ano. Material e Métodos: o delineamento escolhido foi um estudo de coorte (de incidência), constituída por casos consecutivos de pneumonia adquirida na comunidade que internaram no HCPA de 19 de julho de 2000 a 18 de julho de 2001. Para a identificação dos casos, foram examinados diariamente o registro computadorizado das internações hospitalares, exceto as internações da pediatria e da obstetrícia, sendo selecionados todos os pacientes internados com o diagnóstico de pneumonia e de insuficiência respiratória aguda. Foram excluídos aqueles com menos de 18 anos ou mais de 80 anos; os procedentes de instituições, HIV-positivos, gestantes, pacientes restritos ao leito; e portadores de doença estrutural pulmonar ou traqueostomias. Foram excluídos os pacientes que tivessem tido alta hospitalar nos últimos 15 dias, e aqueles já incluídos no decorrer do estudo. Os pacientes selecionados foram examinados por um pesquisador, e incluídos para estudo se apresentassem infiltrado ao RX de tórax compatível com pneumonia, associado a pelo menos um dos sintomas respiratórios maiores (temperatura axilar > 37,8ºC, tosse ou escarro; ou dois sintomas menores (pleurisia, dispnéia, alteração do estado mental, sinais de consolidação à ausculta pulmonar, mais de 12 000 leucócitos/mm3). O estudo foi previamente aprovado pela Comissão de Ética em Pesquisa do HCPA. Os pacientes eram entrevistados por um pesquisador, dando seu consentimento por escrito, e então seus dados clínicos e laboratoriais eram registrados em protocolo individual. Não houve interferência do pesquisador, durante a internação, exceto pela coleta de urina e de sangue para exame laboratoriais específicos da pesquisa. Os pacientes eram agendados, no ambulatório de pesquisa, num prazo de 4 a 12 semanas após sua inclusão no estudo, quando realizavam nova coleta de sangue, RX de tórax de controle, e outros exames que se fizessem necessários para esclarecimento diagnóstico.Todos os pacientes foram acompanhados por 1 ano, após sua inclusão no estudo.Foram utilizadas a técnica de imunofluorescência indireta para detecção de anticorpos das classes IgG, IgM e IgA a Legionella pneumophila sorogrupos 1 a 6 no soro, em duas amostras, colhidas, respectivamente, na 1ª semana de internação e depois de 4 a 12 semanas; e a técnica imunológica por teste ELISA para a detecção do antígeno de Legionella pneumophila sorogrupo 1 na urina, colhida na primeira semana de internação. As urinas eram armazenadas, imediatamente após sua coleta, em freezer a –70ºC, e depois descongeladas e processadas em grupos de cerca de 20 amostras. A imunofluorescência foi feita no laboratório de doenças Infecciosas da Universidade de Louisville (KY, EUA), em amostras de soro da fase aguda e convalescente, a partir da diluição 1:8; e a detecção do antígeno de Legionella pneumophila sorogrupo 1, nas amostras de urina, foi realizada no laboratório de pesquisa do HCPA, pelos investigadores, utilizando um kit comercial de teste ELISA fabricado por Binax (Binax Legionella Urinary Enzyme Assay, Raritan, EUA). As urinas positivas eram recongeladas novamente, para serem enviadas para confirmação no mesmo laboratório americano, ao fim do estudo. Foram adotados como critérios definitivos de infecção por Legionella pneumophila sorogrupos 1 a 6, a soroconversão (elevação de 4 vezes no título de anticorpos séricos entre o soro da fase aguda e da fase convalescente para no mínimo 1:128); ou o achado de antígeno de L pneumophila sorogrupo 1 na urina não concentrada, numa razão superior a 3, conforme instruções do fabricante e da literatura.Os pacientes foram classificados, de acordo com suas características clínicas, em 1º) portadores de doenças crônicas (doenças pulmonares, cardíacas, diabete mellitus, hepatopatias e insuficiência renal); 2º) portadores de doenças subjacentes com imunossupressão; 3º) pacientes hígidos ou com outras doenças que não determinassem insuficiência orgânica. Imunossupressão foi definida como esplenectomia, ser portador de neoplasia hematológica, portador de doença auto-imune, ou de transplante; ou uso de medicação imunossupressora nas 4 semanas anteriores ao diagnóstico (Yu et al., 2002b); ou uso de prednisolona 10 mg/dia ou equivalente nos últimos 3 meses (Lim et al., 2001). As características clínicas e laboratoriais dos pacientes que evoluíram ao óbito por pneumonia foram comparados àquelas dos pacientes que obtiveram cura. Para a análise das variáveis categóricas, utilizou-se o teste qui-quadrado de Pearson ou teste exato de Fisher. Para as variáveis numéricas contínuas, utilizou-se o teste “t“ de Student. Um valor de p< 0,05 foi considerado como resultado estatisticamente significativo (programas SPSS, versão 10). Foi calculada a freqüência de mortes por pneumonia na população estudada, adotando-se a alta hospitalar como critério de cura. Foi calculada a incidência cumulativa para pneumonia por Legionella pneumophila sorogrupos 1 a 6, em um hospital geral, no período de 1 ano. Resultados: durante um ano de estudo foram examinados 645 registros de internação, nos quais constavam, como motivo de baixa hospitalar, o diagnóstico de pneumonia ou de insuficiência respiratória aguda; a maioria desses diagnósticos iniciais não foram confirmados. Desses 645 pacientes, foram incluídos no estudo 82 pacientes, nos quais os critérios clínicos ou radiológicos de pneumonia foram confirmados pelos pesquisadores. Durante o acompanhamento desses pacientes, porém, foram excluídos 23 pacientes por apresentarem outras patologias que mimetizavam pneumonia: DPOC agudizado (5), insuficiência cardíaca (3), tuberculose pulmonar (2), colagenose (1), fibrose pulmonar idiopática (1), edema pulmonar em paciente com cirrose (1), somente infecçâo respiratória em paciente com sequelas pulmonares (4); ou por apresentarem critérios de exclusão: bronquiectasias (4), HIV positivo (1), pneumatocele prévia (1). Ao final, foram estudados 59 pacientes com pneumonia adquirida na comunidade, sendo 20 do sexo feminino e 39 do sexo masculino, com idade entre 24 e 80 anos (média de 57,6 anos e desvio padrão de ±10,6). Tivemos 36 pacientes com doenças subjacentes classificadas como “doenças crônicas”, dos quais 18 pacientes apresentavam mais de uma co-morbidade, por ordem de prevalência: doenças pulmonares, cardíacas, diabete mellitus, hepatopatias e insuficiência renal; neoplasias ocorreram em 9 pacientes, sendo sólidas em 7 pacientes e hematológicas em 2. Dos 59 pacientes, 61% eram tabagistas e 16,9%, alcoolistas. Do total, 10 pacientes apresentavam imunossupressão. Dos demais 13 pacientes, somente um era previamente hígido, enquanto os outros apresentavam tabagismo, sinusite, anemia, HAS, gota, ou arterite de Takayasu. A apresentação radiológica inicial foi broncopneumonia em 59,3% dos casos; pneumonia alveolar ocorreu em 23,7% dos casos, enquanto ambos padrões ocorreram em 15,2% dos pacientes. Pneumonia intersticial ocorreu em somente um caso, enquanto broncopneumonia obstrutiva ocorreu em 5 pacientes (8,5%). Derrame pleural ocorreu em 22% dos casos, e em 21 pacientes (35%) houve comprometimento de mais de um lobo ao RX de tórax. Foram usados beta-lactâmicos para o tratamento da maioria dos pacientes (72,9%9). A segunda classe de antibióticos mais usados foi a das fluoroquinolonas respiratórias, que foram receitadas para 23 pacientes (39,0%), e em 3º lugar, os macrolídeos, usados por 11 pacientes (18,6%). Apenas 16 pacientes não usaram beta-lactâmicos, em sua maioria recebendo quinolonas ou macrolídeos. Dos 43 pacientes que usaram beta-lactâmicos, 25 não usaram nem macrolídeos, nem quinolonas. Em 13 pacientes as fluoroquinolonas respiratórias foram as únicas drogas usadas para o tratamento da pneumonia. Do total, 8 pacientes foram a óbito por pneumonia; em outros 3 pacientes, o óbito foi atribuído a neoplasia em estágio avançado. Dos 48 pacientes que obtiveram cura, 33 (68,7%) estavam vivos após 12 meses. Os resultados da comparação realizada evidenciaram tendência a maior mortalidade no sexo masculino e em pacientes com imunossupressão, porém essa associação não alcançou significância estatística. Os pacientes que usaram somente beta-lactâmicos não apresentaram maior mortalidade do que os pacientes que usaram beta-lactâmicos associados a outras classes de antibióticos ou somente outras classes de antibióticos. Examinando-se os pacientes que utiizaram macrolídeos ou quinolonas em seu regime de tratamento, isoladamente ou combinados a outros antibióticos, observou-se que também não houve diferença dos outros pacientes, quanto à mortalidade. Os pacientes com padrão radiológico de pneumonia alveolar tiveram maior mortalidade, e essa diferença apresentou uma significância limítrofe (p= 0,05). Nossa mortalidade (11,9%) foi similar à de Fang et al. (1990), em estudo clássico de 1991 (13,7%); foi também similar à média de mortalidade das PAC internadas não em UTI (12%), relatada pela ATS, no seu último consenso para o tratamento empírico das PAC (ATS, 2001). Foram detectados 3 pacientes com pneumonia por Legionella pneumophila sorogrupo 1 na população estudada: 2 foram diagnosticados por soroconversão e por antigenúria positiva, e o 3º foi diagnosticado somente pelo critério de antigenúria positiva, tendo sorologia negativa, como alguns autores (McWhinney et al., 2000). Dois pacientes com PAC por Legionella não responderam ao tratamento inicial com beta-lactâmicos, obtendo cura com levofloxacina; o 3º paciente foi tratado somente com betalactâmicos, obtendo cura. Conclusões: A incidência anual de PAC por Legionella pneumophila sorogrupos 1 a 6, no HCPA, foi de 5,1%, que representa a incidência anual de PAC por Legionella pneumophila sorogrupos 1 a 6 em um hospital geral universitário. Comentários e Perspectivas: Há necessidade de se empregar métodos diagnósticos específicos para o diagnóstico das pneumonias por Legionella em nosso meio, como a cultura, a sorologia com detecção de todas as classes de anticorpos, e a detecção do antígeno urinário, pois somente com o uso simultâneo de técnicas complementares pode-se detectar a incidência real de pneumonias causadas tanto por Legionella pneumophila, como por outras espécies. A detecção do antígeno de Legionella na urina é o teste diagnóstico de maior rendimento, sendo recomendado seu uso em todas as PAC que necessitarem internação hospitalar (Mulazimoglu & Yu, 2001; Gupta et al., 2001); em todos os pacientes com PAC que apresentarem fatores de risco potenciais para legionelose (Marrie, 2001); e para o diagnóstico etiológico das pneumonias graves (ATS, 2001). Seu uso é indicado, com unanimidade na literatura, para a pesquisa de legionelose nosocomial e de surtos de legionelose na comunidade.
Resumo:
Este estudo foi dirigido para identificar as causas que determinam a formação de concentrados de zircão de baixa qualidade, mineral extraído de dunas da jazida do Guaju, no Estado da Paraíba, e beneficiado em uma rota industrial desenvolvida pela empresa Millennium Inorganic Chemicals do Brasil S/A. A caracterização tecnológica indicou que a jazida do Guaju corresponde a sedimentos de origem eólica, inconsolidados, constituídos por quartzo (95%), argila (2%) e minerais pesados (3%) disseminados nas dunas. Ilmenita, zircão, rutilo e cianita são os minerais pesados de interesse econômico na jazida. Devido a características mineralógicas e texturais, o pacote foi dividido, neste estudo, em dois compartimentos: TOPO e BASE. O primeiro corresponde à parte superior do pacote sedimentar; o segundo, à parte inferior. No TOPO, 95% dos grãos têm brilho vítreo, 5% são opacos, e 20% dos grãos de ilmenita têm alteração parcial ou total para leucoxeno. Na BASE, 2% dos grãos têm brilho vítreo, 98% são opacos, e 90% da ilmenita tem alteração parcial ou total para leucoxeno. O TOPO possui concentração de minerais pesados quatro vezes maior que a BASE. A opacidade dos grãos decorre de uma película argilo-ferruginosa fortemente aderida e que os envolve. A empresa produz seis tipos de concentrados de zircão, cujas qualidades variam conforme o teor de ZrO2 e das substâncias contaminantes Fe2O3, TiO2, Al2O3 e P2O5. Quanto maior o teor de ZrO2 e menores os teores das substâncias contaminantes, melhor é a qualidade do concentrado. Pesquisas desenvolvidas em um concentrado de baixa qualidade, denominado Zirconita B, indicaram que a formação dessa matéria-prima é decorrente de três fatores principais: excesso de minerais contaminantes, que não são eliminados nos processos eletrostáticos e magnéticos devido à película argilo-ferruginosa; presença de inclusões minerais nos zircões; processo de metamitização nos zircões Identificadas as causas, o estudo progrediu para o estabelecimento de uma rota alternativa de beneficiamento, para a produção de concentrados de zircão mais puros. A remoção da película ocorreu com a implementação do processo de atrição (escrubagem), tendo sido definidos os parâmetros operacionais otimizados, tanto em escala de bancada de laboratório, como em equipamento semipiloto. Removida a película, a matéria-prima foi submetida a separadores eletrostático e magnético para a retirada dos minerais condutores e/ou magnéticos do concentrado. Posteriormente, para a remoção das inclusões minerais dos zircões, foi implementada uma rota que iniciou com o aquecimento prévio do concentrado em forno de microondas, para fraturar as zonas de contato entre as inclusões minerais e a massa zirconítica, considerando as diferenças entre os coeficientes de dilatação dos minerais; seguiuse com o processo de moagem, para provocar a quebra dos zircões portadores de inclusões e liberar ou expor as mesmas; posteriormente, o material foi peneirado e a fração retida na malha 0,063 mm foi repassada nos separadores eletrostático e magnético, para a remoção das inclusões liberadas, ou expostas nos zircões quebrados Tecnicamente, esta rota foi considerada parcialmente eficaz, devido, principalmente, à baixa granulometria dos grãos de zircão. Essa característica afetou as performances na moagem e na separação magnética, determinando uma baixa recuperação do produto final. Apesar disso, esse produto final teve teor de ZrO2 compatível com o do produto de melhor qualidade produzido na mina do Guaju; entretanto, os teores das substâncias contaminantes ficaram levemente superiores aos mínimos exigidos para um produto de alta qualidade. Devido à baixa produção anual da matéria-prima, acredita-se que a rota para a remoção das inclusões minerais não seja economicamente viável. A atrição, no entanto, é perfeitamente viável, devido aos baixos investimentos de implantação e custos operacionais. Deverá ser implementada no produto denominado Pré-Concentrado de Zircão (PCZ), gerado no beneficiamento da ilmenita. A atrição do PCZ vai condicionar a produção de massas maiores de concentrados de zircão de qualidade superior, diminuindo, conseqüentemente, a formação dos produtos de menor qualidade.
Resumo:
Com o objetivo de desenvolver uma fundamentação teórica para o estudo formal de problemas de otimização NP-difíceis, focalizando sobre as propriedades estruturais desses problemas relacionadas à questão da aproximabilidade, este trabalho apresenta uma abordagem semântica para tratar algumas questões originalmente estudadas dentro da Teoria da Complexidade Computacional, especificamente no contexto da Complexidade Estrutural. Procede-se a uma investigação de interesse essencialmente teórico, buscando obter uma formalização para a teoria dos algoritmos aproximativos em dois sentidos. Por um lado, considera-se um algoritmo aproximativo para um problema de otimização genérico como o principal objeto de estudo, estruturando-se matematicamente o conjunto de algoritmos aproximativos para tal problema como uma ordem parcial, no enfoque da Teoria dos Domínios de Scott. Por outro lado, focaliza-se sobre as reduções entre problemas de otimização, consideradas como morfismos numa abordagem dentro da Teoria das Categorias, onde problemas de otimização e problemas aproximáveis são os objetos das novas categorias introduzidas. Dentro de cada abordagem, procura-se identificar aqueles elementos universais, tais como elementos finitos, objetos totais, problemas completos para uma classe, apresentando ainda um sistema que modela a hierarquia de aproximação para um problema de otimização NP-difícil, com base na teoria categorial da forma. Cada uma destas estruturas matemáticas fornecem fundamentação teórica em aspectos que se complementam. A primeira providencia uma estruturação interna para os objetos, caracterizando as classes de problemas em relação às propriedades de aproximabilidade de seus membros, no sentido da Teoria dos Domínios, enquanto que a segunda caracteriza-se por relacionar os objetos entre si, em termos de reduções preservando aproximação entre problemas, num ponto de vista externo, essencialmente categorial.
Resumo:
Alta disponibilidade é uma das propriedades mais desejáveis em sistemas computacionais, principalmente em aplicações comerciais que, tipicamente, envolvem acesso a banco de dados e usam transações. Essas aplicações compreendem sistemas bancários e de comércio eletrônico, onde a indisponibilidade de um serviço pode representar substanciais perdas financeiras. Alta disponibilidade pode ser alcançada através de replicação. Se uma das réplicas não está operacional, outra possibilita que determinado serviço seja oferecido. No entanto, réplicas requerem protocolos que assegurem consistência de estado. Comunicação de grupo é uma abstração que tem sido aplicada com eficiência a sistemas distribuídos para implementar protocolos de replicação. Sua aplicação a sistemas práticos com transações e com banco de dados não é comum. Tipicamente, sistemas transacionais usam soluções ad hoc e sincronizam réplicas com protocolos centralizados, que são bloqueantes e, por isso, não asseguram alta disponibilidade. A tecnologia baseada em componentes Enterprise JavaBeans (EJB) é um exemplo de sistema prático que integra distribuição, transações e bancos de dados. Em uma aplicação EJB, o desenvolvedor codifica o serviço funcional que é dependente da aplicação, e os serviços não–funcionais são inseridos automaticamente. A especificação EJB descreve serviços não–funcionais de segurança, de transações e de persistência para bancos de dados, mas não descreve serviços que garantam alta disponibilidade. Neste trabalho, alta disponibilidade é oferecida como uma nova propriedade através da adição de serviços não–funcionais na tecnologia EJB usando abstrações de comunicação de grupo. Os serviços para alta disponibilidade são oferecidos através da arquitetura HA (highly-available architecture) que possui múltiplas camadas. Esses serviços incluem replicação, chaveamento de servidor, gerenciamento de membros do grupo e detecção de membros falhos do grupo. A arquitetura HA baseia-se nos serviços já descritos pela especificação EJB e preserva os serviços EJB existentes. O protocolo de replicação corresponde a uma subcamada, invisível para o usuário final. O serviço EJB é executado por membros em um grupo de réplicas, permitindo a existência de múltiplos bancos de dados idênticos. Conflitos de acesso aos múltiplos bancos de dados são tratados estabelecendo–se uma ordem total para aplicação das atualizações das transações. Esse grupo é modelado como um único componente e gerenciado por um sistema de comunicação de grupo. A combinação de conceitos de bancos de dados com comunicação de grupo demonstra uma interessante solução para aplicações com requisitos de alta disponibilidade, como as aplicações EJB. Os serviços adicionais da arquitetura HA foram implementados em protótipo. A validação através de um protótipo possibilita que experimentos sejam realizados dentro de um ambiente controlado, usando diferentes cargas de trabalho sintéticas. O protótipo combina dois sistemas de código aberto. Essa característica permitiu acesso à implementação e não somente à interface dos componentes dos sistemas em questão. Um dos sistemas implementa a especificação EJB e outro implementa o sistema de comunicação de grupos. Os resultados dos testes realizados com o protótipo mostraram a eficiência da solução proposta. A degradação de desempenho pelo uso de réplicas e da comunicação de grupo é mantida em valores adequados.