120 resultados para Erros de medicação
Resumo:
Trata-se de um estudo de caso (com um sujeito) sobre o processo de aquisição de inglês como língua estrangeira na fase pré-escolar. O objetivo é verificar como uma criança nessa faixa etária – ainda não alfabetizada – desenvolve sua produção oral nessa língua estrangeira, recebendo uma aula semanal de inglês em sua escola e treinando com os pais em casa. A produção oral do sujeito foi registrada em aula e em casa através de filmagens e gravações em áudio. Seus pais e professoras foram entrevistados. A maioria das informações – colhidas entre março de 1999 e dezembro de 2000 – foram analisadas qualitativamente. A pesquisa revela que, antes dos seis anos de idade, o ensino de língua estrangeira envolve riscos. Quando a professora é especialista na língua, mas não tem experiência com educação infantil, a criança pode desenvolver aversão à língua estrangeira por não gostar das aulas. Por outro lado, quando a professora proporciona aulas prazerosas e lúdicas, mas comete erros de pronúncia ou estrutura gramatical, a criança tende a valorizar o que é ensinado como verdade. Em ambos os casos, o futuro escolar da criança poderá ficar comprometido em relação à língua estrangeira. Portanto, é menos arriscado não ter aula de inglês na infância do que ter aula com um profissional que não seja qualificado em educação infantil e na língua estrangeira.
Resumo:
A capacidade de encontrar e aprender as melhores trajetórias que levam a um determinado objetivo proposto num ambiente e uma característica comum a maioria dos organismos que se movimentam. Dentre outras, essa e uma das capacidades que têm sido bastante estudadas nas ultimas décadas. Uma consequência direta deste estudo e a sua aplicação em sistemas artificiais capazes de se movimentar de maneira inteligente nos mais variados tipos de ambientes. Neste trabalho, realizamos uma abordagem múltipla do problema, onde procuramos estabelecer nexos entre modelos fisiológicos, baseados no conhecimento biológico disponível, e modelos de âmbito mais prático, como aqueles existentes na área da ciência da computação, mais especificamente da robótica. Os modelos estudados foram o aprendizado biológico baseado em células de posição e o método das funções potencias para planejamento de trajetórias. O objetivo nosso era unificar as duas idéias num formalismo de redes neurais. O processo de aprendizado de trajetórias pode ser simplificado e equacionado em um modelo matemático que pode ser utilizado no projeto de sistemas de navegação autônomos. Analisando o modelo de Blum e Abbott para navegação com células de posição, mostramos que o problema pode ser formulado como uma problema de aprendizado não-supervisionado onde a estatística de movimentação no meio passa ser o ingrediente principal. Demonstramos também que a probabilidade de ocupação de um determinado ponto no ambiente pode ser visto como um potencial que tem a propriedade de não apresentar mínimos locais, o que o torna equivalente ao potencial usado em técnicas de robótica como a das funções potencias. Formas de otimização do aprendizado no contexto deste modelo foram investigadas. No âmbito do armazenamento de múltiplos mapas de navegação, mostramos que e possível projetar uma rede neural capaz de armazenar e recuperar mapas navegacionais para diferentes ambientes usando o fato que um mapa de navegação pode ser descrito como o gradiente de uma função harmônica. A grande vantagem desta abordagem e que, apesar do baixo número de sinapses, o desempenho da rede e muito bom. Finalmente, estudamos a forma de um potencial que minimiza o tempo necessário para alcançar um objetivo proposto no ambiente. Para isso propomos o problema de navegação de um robô como sendo uma partícula difundindo em uma superfície potencial com um único ponto de mínimo. O nível de erro deste sistema pode ser modelado como uma temperatura. Os resultados mostram que superfície potencial tem uma estrutura ramificada.
Resumo:
A prática do jornalismo é afetada, desde o início, pelo aumento da velocidade de produção e veiculação das informações. O fenômeno se aprofunda com a introdução da Internet em escala comercial e a implantação dos webjornais no final do século XX. Esta pesquisa observa a relação entre velocidade e precisão no webjornalismo, tomando como objeto empírico o site UOL Eleições 2002. Fazemos o mapeamento dos erros cometidos entre 02 e 07 de outubro de 2002, período de grande relevância por ser o final do primeiro turno das eleições presidenciais no Brasil. Os erros, classificados como ruídos de linguagem e imprecisão jornalística, embora variáveis na escala de gravidade, comprometem a qualidade da informação e, conseqüentemente, o eixo de sustentação da credibilidade do jornalismo.
Resumo:
O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.
Resumo:
Um esquema de banco de dados certamente sofrerá alguma alteração com o passar do tempo. Algumas das causas destas modificações são ocorrência de um aumento no domínio do sistema, erros ocorridos na fase de projeto, mudanças na realidade representada pelo sistema, ou a necessidade de melhoria no seu desempenho. O uso de bancos de dados temporais é uma alternativa para o armazenamento das informações da evolução, pois permite sua recuperação por meio do histórico de suas mudanças. O presente trabalho propõe um ambiente para implementar evolução de esquemas sobre um BDOO, utilizando o Modelo Temporal de Versões (TVM). Deste modo, características de versões e de tempo são utilizadas tanto no nível dos esquemas como nos dados armazenados. Estados são associados às versões de esquema para representar seus estágios de desenvolvimento durante a evolução. O gerenciamento das versões de esquema é realizado por intermédio de uma camada denominada meta-esquema. Em um outro nível, o gerenciamento das instâncias é realizado por meio de uma camada denominada metadados, inserida para cada versão de esquema definida. Por intermédio destes controles é possível analisar a evolução dos esquemas como um todo e, para cada esquema, as correspondentes versões de seus dados e sua evolução temporal. Algumas alternativas de consulta para um ambiente com estas características são analisadas. O trabalho apresenta, ainda, as características básicas de um protótipo implementado para verificar a viabilidade da proposta apresentada.
Resumo:
Esta tese propõe o desenvolvimento de um método de estimativa de capacitâncias e de potência consumida nos circuitos combinacionais CMOS, no nível de portas lógicas. O objetivo do método é fazer uma previsão do consumo de potência do circuito na fase de projeto lógico, o que permitirá a aplicação de técnicas de redução de potência ou até alteração do projeto antes da geração do seu leiaute. A potência dinâmica consumida por circuitos CMOS depende dos seguintes parâmetros: tensão de alimentação, freqüência de operação, capacitâncias parasitas e atividades de comutação em cada nodo do circuito. A análise desenvolvida na Tese, propõe que a potência seja dividida em duas componentes. A primeira componente está relacionada ao consumo de potência devido às capacitâncias intrínsecas dos transistores, que por sua vez estão relacionadas às dimensões dos transistores. Estas capacitâncias intrínsecas são concentradas nos nodos externos das portas e manifestam-se em função das combinações dos vetores de entrada. A segunda componente está relacionada às interconexões entre as células do circuito. Para esta etapa utiliza-se a estimativa do comprimento médio das interconexões e as dimensões tecnológicas para estimar o consumo de potência. Este comprimento médio é estimado em função do número de transistores e fanout das várias redes do circuito. Na análise que trata das capacitâncias intrínsecas dos transistores os erros encontrados na estimativa da potência dissipada estão no máximo em torno de 11% quando comparados ao SPICE. Já na estimativa das interconexões a comparação feita entre capacitâncias de interconexões estimadas no nível lógico e capacitâncias de interconexões extraídas do leiaute apresentou erros menores que 10%.
Resumo:
Resumo não disponível.
Resumo:
O presente ensaio clínico randomizado, duplo-cego, em paralelo, controlado por placebo, teve como objetivo comparar, a curto prazo, raspagem e alisamento radiculares subgengivais (RASUB) com e sem o uso de azitromicina no tratamento da periodontite em indivíduos jovens. Foram convidados 20 indivíduos (13-26 anos de idade) com profundidade de sondagem (PS) ≥4 mm e perda de inserção clínica (PI) ≥4 mm, associados a sangramento à sondagem periodontal (SS), em pelo menos um primeiro molar e/ou incisivo permanente após o tratamento da gengivite. Os indivíduos foram aleatoriamente distribuídos, após estratificação para fumo e extensão de doença, em um grupo teste (azitromicina 500 mg, 24/24 horas por três dias) e um controle (placebo). O exame foi realizado após 14 dias de controle de placa supragengival. RASUB foi realizada por um único periodontista num período máximo de duas semanas. A medicação foi iniciada no primeiro dia de raspagem subgengival. Um examinador calibrado avaliou os Índices de Placa Visível (IPV) e de Sangramento Gengival (ISG), cálculo (C), PS, recessão gengival (RG) e SS, no início e após três meses do término da RASUB. O nível de inserção clínica (NIC) foi obtido com o somatório de PS e RG. A análise foi realizada apenas com os sítios com PS≥4 mm e PI≥4 mm. PS e NIC foram comparados entre os grupos através de teste t não-pareado e de análise de covariância, tendo placa como covariável IPV, ISG, C e SS foram comparados utilizando a Prova U de Mann-Whitney. A unidade analítica foi o indivíduo (alfa=5%). 16 indivíduos finalizaram o estudo (8 por grupo). Foram observadas reduções significativas no IPV, ISG e C nos dois grupos, não havendo diferenças significativas entre eles ao final do estudo. Ambos os grupos apresentaram reduções significativas na PS, porém o grupo teste apresentou redução significativamente maior do que o controle nas bolsas com PS≥7 mm, mesmo após ajuste para placa (3,33±0,30 mm e 2,14±0,35 mm, respectivamente). Considerando todas as bolsas e apenas bolsas de 4-6 mm, não houve diferenças significativas entre os grupos. Também não houve diferenças entre os grupos em relação ao ganho de inserção clínica, embora apenas o grupo teste tenha demonstrado ganho significativo de inserção de 2,09±0,15 mm em bolsas profundas. Pode-se concluir que, a curto prazo, o uso coadjuvante de azitromicina, comparado ao placebo, na terapia mecânica subgengival precedida de controle de placa supragengival em indivíduos jovens, resultou em maiores reduções de profundidade de sondagem em bolsas profundas.
Resumo:
O presente trabalho teve como objetivo avaliar se as variáveis biomassa (BM) e respiração (RM) microbianas e as atividades de β -glucosidase, urease, amidase, fosfatase ácida e aril-sulfatase podem servir como indicadores biológicos de qualidade do solo. Foram realizados três estudos, utilizando um experimento de longa duração que avalia diferentes sistemas de culturas na recuperação do solo. No primeiro, as variáveis acima foram avaliadas durante um ano, e os resultados foram correlacionados com indicadores físicos, químicos e de produtividade dos tratamentos solo descobertoc (SD), pousio/milho, aveia/milho, pousio/milho+lablab, aveia+vica/milho+caupi, guandu/milho+guandu e campo nativo (CN), buscando demonstrar a adequação de seu uso como indicadores biológicos de qualidade, além de observar seus comportamentos quanto a variações sazonais. No segundo, foi avaliada a influência da presença de raízes e da cobertura constante e integral do solo sobre a qualidade biológica, utilizando-se as variáveis acima para comparar o solo quando sob gramínea perene, sob dois sistemas de cultura de milho (com e sem leguminosa em consórcio) ou sob CN e SD. O terceiro estudo avaliou a qualidade do solo, segundo estas variáveis, em função da adição de N em cobertura no milho, em dois sistemas de cultura de milho (com e sem leguminosa em consórcio). Foram verificadas altas correlações entre as variáveis analisadas e teores de C orgânico e N total, além de outros indicadores de qualidade física e de produtividade do solo, confirmando a adequação de seu uso como indicadores biológicos de qualidade. Porém, como seu uso individual pode induzir a erros, foi proposta sua avaliação conjunta, em forma gráfica ou de índice, o que garante resultados mais abrangentes e integrados sobre a qualidade do solo. No segundo estudo, a elevada presença de raízes no tratamento com gramínea perene não garantiu a elevação dos valores das variáveis analisadas aos níveis do solo sob CN, indicando que estes possam estar relacionados à complexidade da comunidade vegetal presente sobre o mesmo e à diversidade microbiana dela resultante. No terceiro estudo, a adição de N em cobertura no milho, consorciado ou não com leguminosa, agiu seletivamente sobre a vida microbiana e sua atividade no solo, não alterando significativamente sua qualidade em termos biológicos. As variáveis avaliadas mostraram-se adequadas para a quantificação da qualidade biológica do solo, e seus resultados sugerem que a rotação e a consorciação de culturas são práticas recomendáveis para a recuperação e a manutenção da mesma em solos cultivados.
Resumo:
Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.
Resumo:
Resumo não disponível.
Resumo:
Introdução: O diagnóstico microbiológico da infecção por Legionella é complexo, pois a bactéria não é visualizada à coloração de Gram no escarro, e sua cultura não é realizada na maioria dos laboratórios clínicos. A imunofluorescência direta nas secreções respiratórias tem baixa sensibilidade, em torno de 40% e a técnica da “PCR” não é ainda recomendada para o diagnóstico clínico (CDC, 1997). A detecção de anticorpos no soro é a técnica mais utilizada, e o critério definitivo é a soroconversão para no mínimo 1:128, cuja sensibilidade é de 70 a 80% (Edelstein, 1993). Como critérios diagnósticos de possível pneumonia por Legionella, eram utilizados: título único de anticorpos a L pneumophila positivo na diluição 1:256, em paciente com quadro clínico compatível (CDC, 1990) e o achado de antígeno a Legionella na urina (WHO, 1990). Nos últimos anos, porém, com o uso crescente do teste de antigenúria, foram detectados casos de pneumonia por Legionella, que não eram diagnosticados por cultura ou sorologia, tornando-o método diagnóstico de certeza para o diagnóstico de pneumonia por Legionella (CDC, 1997). Por sua fácil execução, resultado imediato, e alta sensibilidade - de 86% a 98% (Kashuba & Ballow, 1986; Harrison & Doshi, 2001), tem sido recomendado para o diagnóstico das PAC que necessitam internação hospitalar (Mulazimoglu & Yu, 2001; Gupta et al., 2001; Marrie, 2001), especialmente em UTI (ATS, 2001). Vários estudos documentaram baixo valor preditivo positivo do título único positivo de 1:256, tornando-o sem valor para o diagnóstico da pneumonia por Legionella, exceto, talvez, em surtos (Plouffe et al., 1995). Outros detectaram alta prevalência de anticorpos positivos na diluição 1:256 na população, em pessoas normais (Wilkinson et al., 1983; Nichol et al., 1991). A partir de 1996, o CDC de Atlanta recomendou que não seja mais utilizado o critério de caso provável de infecção por Legionella pneumophila por título único de fase convalescente ≥1:256, por falta de especificidade(CDC, 1997). A pneumonia por Legionella é raramente diagnosticada, e sua incidência é subestimada. Em estudos de PAC, a incidência da pneumonia por Legionella nos EUA, Europa, Israel e Austrália, foi estimada entre 1% a 16% (Muder & Yu, 2000). Nos EUA, foi estimado que cerca de 8 000 a 23 000 casos de PAC por Legionella ocorrem anualmente, em pacientes que requerem hospitalização (Marston et al., 1994 e 1977). No Brasil, a incidência de PAC causadas por Legionella em pacientes hospitalizados é tema de investigação pertinente, ainda não relatado na literatura. Objetivo: detectar a incidência de pneumonias causadas por Legionella pneumophila sorogrupos 1 a 6, em pacientes que internaram no Hospital de Clínicas de Porto Alegre por PAC, por um ano. Material e Métodos: o delineamento escolhido foi um estudo de coorte (de incidência), constituída por casos consecutivos de pneumonia adquirida na comunidade que internaram no HCPA de 19 de julho de 2000 a 18 de julho de 2001. Para a identificação dos casos, foram examinados diariamente o registro computadorizado das internações hospitalares, exceto as internações da pediatria e da obstetrícia, sendo selecionados todos os pacientes internados com o diagnóstico de pneumonia e de insuficiência respiratória aguda. Foram excluídos aqueles com menos de 18 anos ou mais de 80 anos; os procedentes de instituições, HIV-positivos, gestantes, pacientes restritos ao leito; e portadores de doença estrutural pulmonar ou traqueostomias. Foram excluídos os pacientes que tivessem tido alta hospitalar nos últimos 15 dias, e aqueles já incluídos no decorrer do estudo. Os pacientes selecionados foram examinados por um pesquisador, e incluídos para estudo se apresentassem infiltrado ao RX de tórax compatível com pneumonia, associado a pelo menos um dos sintomas respiratórios maiores (temperatura axilar > 37,8ºC, tosse ou escarro; ou dois sintomas menores (pleurisia, dispnéia, alteração do estado mental, sinais de consolidação à ausculta pulmonar, mais de 12 000 leucócitos/mm3). O estudo foi previamente aprovado pela Comissão de Ética em Pesquisa do HCPA. Os pacientes eram entrevistados por um pesquisador, dando seu consentimento por escrito, e então seus dados clínicos e laboratoriais eram registrados em protocolo individual. Não houve interferência do pesquisador, durante a internação, exceto pela coleta de urina e de sangue para exame laboratoriais específicos da pesquisa. Os pacientes eram agendados, no ambulatório de pesquisa, num prazo de 4 a 12 semanas após sua inclusão no estudo, quando realizavam nova coleta de sangue, RX de tórax de controle, e outros exames que se fizessem necessários para esclarecimento diagnóstico.Todos os pacientes foram acompanhados por 1 ano, após sua inclusão no estudo.Foram utilizadas a técnica de imunofluorescência indireta para detecção de anticorpos das classes IgG, IgM e IgA a Legionella pneumophila sorogrupos 1 a 6 no soro, em duas amostras, colhidas, respectivamente, na 1ª semana de internação e depois de 4 a 12 semanas; e a técnica imunológica por teste ELISA para a detecção do antígeno de Legionella pneumophila sorogrupo 1 na urina, colhida na primeira semana de internação. As urinas eram armazenadas, imediatamente após sua coleta, em freezer a –70ºC, e depois descongeladas e processadas em grupos de cerca de 20 amostras. A imunofluorescência foi feita no laboratório de doenças Infecciosas da Universidade de Louisville (KY, EUA), em amostras de soro da fase aguda e convalescente, a partir da diluição 1:8; e a detecção do antígeno de Legionella pneumophila sorogrupo 1, nas amostras de urina, foi realizada no laboratório de pesquisa do HCPA, pelos investigadores, utilizando um kit comercial de teste ELISA fabricado por Binax (Binax Legionella Urinary Enzyme Assay, Raritan, EUA). As urinas positivas eram recongeladas novamente, para serem enviadas para confirmação no mesmo laboratório americano, ao fim do estudo. Foram adotados como critérios definitivos de infecção por Legionella pneumophila sorogrupos 1 a 6, a soroconversão (elevação de 4 vezes no título de anticorpos séricos entre o soro da fase aguda e da fase convalescente para no mínimo 1:128); ou o achado de antígeno de L pneumophila sorogrupo 1 na urina não concentrada, numa razão superior a 3, conforme instruções do fabricante e da literatura.Os pacientes foram classificados, de acordo com suas características clínicas, em 1º) portadores de doenças crônicas (doenças pulmonares, cardíacas, diabete mellitus, hepatopatias e insuficiência renal); 2º) portadores de doenças subjacentes com imunossupressão; 3º) pacientes hígidos ou com outras doenças que não determinassem insuficiência orgânica. Imunossupressão foi definida como esplenectomia, ser portador de neoplasia hematológica, portador de doença auto-imune, ou de transplante; ou uso de medicação imunossupressora nas 4 semanas anteriores ao diagnóstico (Yu et al., 2002b); ou uso de prednisolona 10 mg/dia ou equivalente nos últimos 3 meses (Lim et al., 2001). As características clínicas e laboratoriais dos pacientes que evoluíram ao óbito por pneumonia foram comparados àquelas dos pacientes que obtiveram cura. Para a análise das variáveis categóricas, utilizou-se o teste qui-quadrado de Pearson ou teste exato de Fisher. Para as variáveis numéricas contínuas, utilizou-se o teste “t“ de Student. Um valor de p< 0,05 foi considerado como resultado estatisticamente significativo (programas SPSS, versão 10). Foi calculada a freqüência de mortes por pneumonia na população estudada, adotando-se a alta hospitalar como critério de cura. Foi calculada a incidência cumulativa para pneumonia por Legionella pneumophila sorogrupos 1 a 6, em um hospital geral, no período de 1 ano. Resultados: durante um ano de estudo foram examinados 645 registros de internação, nos quais constavam, como motivo de baixa hospitalar, o diagnóstico de pneumonia ou de insuficiência respiratória aguda; a maioria desses diagnósticos iniciais não foram confirmados. Desses 645 pacientes, foram incluídos no estudo 82 pacientes, nos quais os critérios clínicos ou radiológicos de pneumonia foram confirmados pelos pesquisadores. Durante o acompanhamento desses pacientes, porém, foram excluídos 23 pacientes por apresentarem outras patologias que mimetizavam pneumonia: DPOC agudizado (5), insuficiência cardíaca (3), tuberculose pulmonar (2), colagenose (1), fibrose pulmonar idiopática (1), edema pulmonar em paciente com cirrose (1), somente infecçâo respiratória em paciente com sequelas pulmonares (4); ou por apresentarem critérios de exclusão: bronquiectasias (4), HIV positivo (1), pneumatocele prévia (1). Ao final, foram estudados 59 pacientes com pneumonia adquirida na comunidade, sendo 20 do sexo feminino e 39 do sexo masculino, com idade entre 24 e 80 anos (média de 57,6 anos e desvio padrão de ±10,6). Tivemos 36 pacientes com doenças subjacentes classificadas como “doenças crônicas”, dos quais 18 pacientes apresentavam mais de uma co-morbidade, por ordem de prevalência: doenças pulmonares, cardíacas, diabete mellitus, hepatopatias e insuficiência renal; neoplasias ocorreram em 9 pacientes, sendo sólidas em 7 pacientes e hematológicas em 2. Dos 59 pacientes, 61% eram tabagistas e 16,9%, alcoolistas. Do total, 10 pacientes apresentavam imunossupressão. Dos demais 13 pacientes, somente um era previamente hígido, enquanto os outros apresentavam tabagismo, sinusite, anemia, HAS, gota, ou arterite de Takayasu. A apresentação radiológica inicial foi broncopneumonia em 59,3% dos casos; pneumonia alveolar ocorreu em 23,7% dos casos, enquanto ambos padrões ocorreram em 15,2% dos pacientes. Pneumonia intersticial ocorreu em somente um caso, enquanto broncopneumonia obstrutiva ocorreu em 5 pacientes (8,5%). Derrame pleural ocorreu em 22% dos casos, e em 21 pacientes (35%) houve comprometimento de mais de um lobo ao RX de tórax. Foram usados beta-lactâmicos para o tratamento da maioria dos pacientes (72,9%9). A segunda classe de antibióticos mais usados foi a das fluoroquinolonas respiratórias, que foram receitadas para 23 pacientes (39,0%), e em 3º lugar, os macrolídeos, usados por 11 pacientes (18,6%). Apenas 16 pacientes não usaram beta-lactâmicos, em sua maioria recebendo quinolonas ou macrolídeos. Dos 43 pacientes que usaram beta-lactâmicos, 25 não usaram nem macrolídeos, nem quinolonas. Em 13 pacientes as fluoroquinolonas respiratórias foram as únicas drogas usadas para o tratamento da pneumonia. Do total, 8 pacientes foram a óbito por pneumonia; em outros 3 pacientes, o óbito foi atribuído a neoplasia em estágio avançado. Dos 48 pacientes que obtiveram cura, 33 (68,7%) estavam vivos após 12 meses. Os resultados da comparação realizada evidenciaram tendência a maior mortalidade no sexo masculino e em pacientes com imunossupressão, porém essa associação não alcançou significância estatística. Os pacientes que usaram somente beta-lactâmicos não apresentaram maior mortalidade do que os pacientes que usaram beta-lactâmicos associados a outras classes de antibióticos ou somente outras classes de antibióticos. Examinando-se os pacientes que utiizaram macrolídeos ou quinolonas em seu regime de tratamento, isoladamente ou combinados a outros antibióticos, observou-se que também não houve diferença dos outros pacientes, quanto à mortalidade. Os pacientes com padrão radiológico de pneumonia alveolar tiveram maior mortalidade, e essa diferença apresentou uma significância limítrofe (p= 0,05). Nossa mortalidade (11,9%) foi similar à de Fang et al. (1990), em estudo clássico de 1991 (13,7%); foi também similar à média de mortalidade das PAC internadas não em UTI (12%), relatada pela ATS, no seu último consenso para o tratamento empírico das PAC (ATS, 2001). Foram detectados 3 pacientes com pneumonia por Legionella pneumophila sorogrupo 1 na população estudada: 2 foram diagnosticados por soroconversão e por antigenúria positiva, e o 3º foi diagnosticado somente pelo critério de antigenúria positiva, tendo sorologia negativa, como alguns autores (McWhinney et al., 2000). Dois pacientes com PAC por Legionella não responderam ao tratamento inicial com beta-lactâmicos, obtendo cura com levofloxacina; o 3º paciente foi tratado somente com betalactâmicos, obtendo cura. Conclusões: A incidência anual de PAC por Legionella pneumophila sorogrupos 1 a 6, no HCPA, foi de 5,1%, que representa a incidência anual de PAC por Legionella pneumophila sorogrupos 1 a 6 em um hospital geral universitário. Comentários e Perspectivas: Há necessidade de se empregar métodos diagnósticos específicos para o diagnóstico das pneumonias por Legionella em nosso meio, como a cultura, a sorologia com detecção de todas as classes de anticorpos, e a detecção do antígeno urinário, pois somente com o uso simultâneo de técnicas complementares pode-se detectar a incidência real de pneumonias causadas tanto por Legionella pneumophila, como por outras espécies. A detecção do antígeno de Legionella na urina é o teste diagnóstico de maior rendimento, sendo recomendado seu uso em todas as PAC que necessitarem internação hospitalar (Mulazimoglu & Yu, 2001; Gupta et al., 2001); em todos os pacientes com PAC que apresentarem fatores de risco potenciais para legionelose (Marrie, 2001); e para o diagnóstico etiológico das pneumonias graves (ATS, 2001). Seu uso é indicado, com unanimidade na literatura, para a pesquisa de legionelose nosocomial e de surtos de legionelose na comunidade.
Resumo:
Os impactos sobre o meio ambiente, associados ao desenvolvimento de atividades pelo homem em uma bacia hidrográfica, estão fortemente inter-relacionados e têm, a cada dia, se tornado mais evidentes. Esta idéia motiva a concepção de uma gestão integrada dos recursos naturais em várias partes do mundo, inclusive em países em desenvolvimento como o Brasil. Modelos matemáticos de qualidade de água podem ser ferramentas úteis para a tomada de decisão no apoio à gestão de bacias hidrográficas. O planejamento e gestão dos recursos hídricos em um país de grande porte como o Brasil envolve, geralmente, bacias extensas, com um vasto conjunto de elementos naturais e antrópicos. Um modelo de qualidade de água deve permitir a representação da variabilidade espacial da região e, desta forma, a consideração de fontes difusas juntamente com fontes pontuais de poluição. O presente estudo analisou o impacto do desenvolvimento sobre a qualidade da água em uma bacia de grande extensão (bacia do rio Taquari-Antas, RS, com 26.500 km2), considerando a alternativa de aproveitamento hidrelétrico definida no inventário da bacia. Utilizou-se um modelo distribuído de simulação hidrológica e de qualidade de água aplicável principalmente a grandes bacias ( > 1.000 km2), o IPH-MGBq. Este modelo, desenvolvido no IPH, foi ajustado aos dados diários observados de vazão, no seu módulo de quantidade, e de concentração de OD, DBO, nitrogênio e fósforo totais e coliformes fecais, obtidos de coletas trimestrais, no módulo de qualidade. O modelo permite a análise temporal das condições hidrológicas e de qualidade da água de toda a bacia, discretizada por células, com trechos de rios e reservatórios. O modelo apresentou bom desempenho quanto à quantidade (vazões) e quanto aos perfis de concentração dos parâmetros de qualidade de água ao longo do Taquari- Antas, principalmente em termos de valores médios. Foi realizada uma análise de incertezas de alguns parâmetros e variáveis de entrada do modelo com relação à inerente incerteza existente na definição destes elementos. Esta metodologia demonstrou ser uma alternativa adequada à aplicação de modelos distribuídos de qualidade de água em bacias sem dados, sendo que os erros cometidos pelo modelo, em relação aos valores de concentração observados, foram aceitáveis para uma confiança de 95%. A simulação de alguns cenários de desenvolvimento na bacia do Taquari-Antas evidenciou a importância da avaliação conjunta de todos os elementos da bacia (fontes pontuais e difusas de poluição e da implantação de reservatórios) sobre a qualidade de suas águas. O IPH-MGBq mostrou ser uma ferramenta útil para a simulação de cenários de desenvolvimento em grandes bacias como base para a tomada de decisão na gestão dos recursos hídricos.
Resumo:
O projeto de edificações é um dos processos mais importantes em empreendimentos de construção pelo seu impacto em termos de custo e qualidade do produto final. Entretanto, observam-se muitos problemas relacionados ao gerenciamento inadequado do mesmo, tais como ineficiente comunicação entre os intervenientes, indefinição de responsabilidades e ocorrência de erros em projetos. Muitos destes problemas dizem respeito à sub utilização dos sistemas CAD e tecnologias da informação. O presente trabalho tem como objetivo propor diretrizes e padrões para gestão do fluxo de informações e para produção de desenhos no processo de projeto utilizando recursos computacionais. Busca-se, assim, o aumento da eficiência do uso dos sistemas CAD e tecnologias da informação e também uma maior eficiência nas trocas de informações entre os intervenientes. Para tal, foram realizados dois estudos de caso em empresas construtoras incorporadoras de pequeno porte situadas na Região Metropolitana de Porto Alegre - RS. A partir dos estudos de caso, foram desenvolvidos os seguintes padrões: estrutura de diretórios, back up de arquivos de desenho, nomenclatura de arquivos de desenho, protocolos de envio e recebimento de arquivos ou plantas, controle de versões de plantas ou memoriais descritivos enviados à obra, nomenclatura de layers, layers para integração, diretrizes para produção de desenhos no computador e diretrizes para apresentação de plantas. Além disso, foram identificadas e discutidas novas tendências em termos de aplicação das tecnologias da informação no processo de projeto. No entanto, salienta-se que este trabalho não tem a intenção de quebrar o paradigma atual do processo de projeto, mas sim, contribuir para preparar as empresas construtoras incorporadoras e escritórios de projeto para as tendências futuras de informatização.