969 resultados para Erros de medicação
Resumo:
O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.
Resumo:
Um esquema de banco de dados certamente sofrerá alguma alteração com o passar do tempo. Algumas das causas destas modificações são ocorrência de um aumento no domínio do sistema, erros ocorridos na fase de projeto, mudanças na realidade representada pelo sistema, ou a necessidade de melhoria no seu desempenho. O uso de bancos de dados temporais é uma alternativa para o armazenamento das informações da evolução, pois permite sua recuperação por meio do histórico de suas mudanças. O presente trabalho propõe um ambiente para implementar evolução de esquemas sobre um BDOO, utilizando o Modelo Temporal de Versões (TVM). Deste modo, características de versões e de tempo são utilizadas tanto no nível dos esquemas como nos dados armazenados. Estados são associados às versões de esquema para representar seus estágios de desenvolvimento durante a evolução. O gerenciamento das versões de esquema é realizado por intermédio de uma camada denominada meta-esquema. Em um outro nível, o gerenciamento das instâncias é realizado por meio de uma camada denominada metadados, inserida para cada versão de esquema definida. Por intermédio destes controles é possível analisar a evolução dos esquemas como um todo e, para cada esquema, as correspondentes versões de seus dados e sua evolução temporal. Algumas alternativas de consulta para um ambiente com estas características são analisadas. O trabalho apresenta, ainda, as características básicas de um protótipo implementado para verificar a viabilidade da proposta apresentada.
Resumo:
Esta tese propõe o desenvolvimento de um método de estimativa de capacitâncias e de potência consumida nos circuitos combinacionais CMOS, no nível de portas lógicas. O objetivo do método é fazer uma previsão do consumo de potência do circuito na fase de projeto lógico, o que permitirá a aplicação de técnicas de redução de potência ou até alteração do projeto antes da geração do seu leiaute. A potência dinâmica consumida por circuitos CMOS depende dos seguintes parâmetros: tensão de alimentação, freqüência de operação, capacitâncias parasitas e atividades de comutação em cada nodo do circuito. A análise desenvolvida na Tese, propõe que a potência seja dividida em duas componentes. A primeira componente está relacionada ao consumo de potência devido às capacitâncias intrínsecas dos transistores, que por sua vez estão relacionadas às dimensões dos transistores. Estas capacitâncias intrínsecas são concentradas nos nodos externos das portas e manifestam-se em função das combinações dos vetores de entrada. A segunda componente está relacionada às interconexões entre as células do circuito. Para esta etapa utiliza-se a estimativa do comprimento médio das interconexões e as dimensões tecnológicas para estimar o consumo de potência. Este comprimento médio é estimado em função do número de transistores e fanout das várias redes do circuito. Na análise que trata das capacitâncias intrínsecas dos transistores os erros encontrados na estimativa da potência dissipada estão no máximo em torno de 11% quando comparados ao SPICE. Já na estimativa das interconexões a comparação feita entre capacitâncias de interconexões estimadas no nível lógico e capacitâncias de interconexões extraídas do leiaute apresentou erros menores que 10%.
Resumo:
Resumo não disponível.
Resumo:
O presente ensaio clínico randomizado, duplo-cego, em paralelo, controlado por placebo, teve como objetivo comparar, a curto prazo, raspagem e alisamento radiculares subgengivais (RASUB) com e sem o uso de azitromicina no tratamento da periodontite em indivíduos jovens. Foram convidados 20 indivíduos (13-26 anos de idade) com profundidade de sondagem (PS) ≥4 mm e perda de inserção clínica (PI) ≥4 mm, associados a sangramento à sondagem periodontal (SS), em pelo menos um primeiro molar e/ou incisivo permanente após o tratamento da gengivite. Os indivíduos foram aleatoriamente distribuídos, após estratificação para fumo e extensão de doença, em um grupo teste (azitromicina 500 mg, 24/24 horas por três dias) e um controle (placebo). O exame foi realizado após 14 dias de controle de placa supragengival. RASUB foi realizada por um único periodontista num período máximo de duas semanas. A medicação foi iniciada no primeiro dia de raspagem subgengival. Um examinador calibrado avaliou os Índices de Placa Visível (IPV) e de Sangramento Gengival (ISG), cálculo (C), PS, recessão gengival (RG) e SS, no início e após três meses do término da RASUB. O nível de inserção clínica (NIC) foi obtido com o somatório de PS e RG. A análise foi realizada apenas com os sítios com PS≥4 mm e PI≥4 mm. PS e NIC foram comparados entre os grupos através de teste t não-pareado e de análise de covariância, tendo placa como covariável IPV, ISG, C e SS foram comparados utilizando a Prova U de Mann-Whitney. A unidade analítica foi o indivíduo (alfa=5%). 16 indivíduos finalizaram o estudo (8 por grupo). Foram observadas reduções significativas no IPV, ISG e C nos dois grupos, não havendo diferenças significativas entre eles ao final do estudo. Ambos os grupos apresentaram reduções significativas na PS, porém o grupo teste apresentou redução significativamente maior do que o controle nas bolsas com PS≥7 mm, mesmo após ajuste para placa (3,33±0,30 mm e 2,14±0,35 mm, respectivamente). Considerando todas as bolsas e apenas bolsas de 4-6 mm, não houve diferenças significativas entre os grupos. Também não houve diferenças entre os grupos em relação ao ganho de inserção clínica, embora apenas o grupo teste tenha demonstrado ganho significativo de inserção de 2,09±0,15 mm em bolsas profundas. Pode-se concluir que, a curto prazo, o uso coadjuvante de azitromicina, comparado ao placebo, na terapia mecânica subgengival precedida de controle de placa supragengival em indivíduos jovens, resultou em maiores reduções de profundidade de sondagem em bolsas profundas.
Resumo:
O presente trabalho teve como objetivo avaliar se as variáveis biomassa (BM) e respiração (RM) microbianas e as atividades de β -glucosidase, urease, amidase, fosfatase ácida e aril-sulfatase podem servir como indicadores biológicos de qualidade do solo. Foram realizados três estudos, utilizando um experimento de longa duração que avalia diferentes sistemas de culturas na recuperação do solo. No primeiro, as variáveis acima foram avaliadas durante um ano, e os resultados foram correlacionados com indicadores físicos, químicos e de produtividade dos tratamentos solo descobertoc (SD), pousio/milho, aveia/milho, pousio/milho+lablab, aveia+vica/milho+caupi, guandu/milho+guandu e campo nativo (CN), buscando demonstrar a adequação de seu uso como indicadores biológicos de qualidade, além de observar seus comportamentos quanto a variações sazonais. No segundo, foi avaliada a influência da presença de raízes e da cobertura constante e integral do solo sobre a qualidade biológica, utilizando-se as variáveis acima para comparar o solo quando sob gramínea perene, sob dois sistemas de cultura de milho (com e sem leguminosa em consórcio) ou sob CN e SD. O terceiro estudo avaliou a qualidade do solo, segundo estas variáveis, em função da adição de N em cobertura no milho, em dois sistemas de cultura de milho (com e sem leguminosa em consórcio). Foram verificadas altas correlações entre as variáveis analisadas e teores de C orgânico e N total, além de outros indicadores de qualidade física e de produtividade do solo, confirmando a adequação de seu uso como indicadores biológicos de qualidade. Porém, como seu uso individual pode induzir a erros, foi proposta sua avaliação conjunta, em forma gráfica ou de índice, o que garante resultados mais abrangentes e integrados sobre a qualidade do solo. No segundo estudo, a elevada presença de raízes no tratamento com gramínea perene não garantiu a elevação dos valores das variáveis analisadas aos níveis do solo sob CN, indicando que estes possam estar relacionados à complexidade da comunidade vegetal presente sobre o mesmo e à diversidade microbiana dela resultante. No terceiro estudo, a adição de N em cobertura no milho, consorciado ou não com leguminosa, agiu seletivamente sobre a vida microbiana e sua atividade no solo, não alterando significativamente sua qualidade em termos biológicos. As variáveis avaliadas mostraram-se adequadas para a quantificação da qualidade biológica do solo, e seus resultados sugerem que a rotação e a consorciação de culturas são práticas recomendáveis para a recuperação e a manutenção da mesma em solos cultivados.
Resumo:
Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.
Resumo:
Resumo não disponível.
Resumo:
Introdução: O diagnóstico microbiológico da infecção por Legionella é complexo, pois a bactéria não é visualizada à coloração de Gram no escarro, e sua cultura não é realizada na maioria dos laboratórios clínicos. A imunofluorescência direta nas secreções respiratórias tem baixa sensibilidade, em torno de 40% e a técnica da “PCR” não é ainda recomendada para o diagnóstico clínico (CDC, 1997). A detecção de anticorpos no soro é a técnica mais utilizada, e o critério definitivo é a soroconversão para no mínimo 1:128, cuja sensibilidade é de 70 a 80% (Edelstein, 1993). Como critérios diagnósticos de possível pneumonia por Legionella, eram utilizados: título único de anticorpos a L pneumophila positivo na diluição 1:256, em paciente com quadro clínico compatível (CDC, 1990) e o achado de antígeno a Legionella na urina (WHO, 1990). Nos últimos anos, porém, com o uso crescente do teste de antigenúria, foram detectados casos de pneumonia por Legionella, que não eram diagnosticados por cultura ou sorologia, tornando-o método diagnóstico de certeza para o diagnóstico de pneumonia por Legionella (CDC, 1997). Por sua fácil execução, resultado imediato, e alta sensibilidade - de 86% a 98% (Kashuba & Ballow, 1986; Harrison & Doshi, 2001), tem sido recomendado para o diagnóstico das PAC que necessitam internação hospitalar (Mulazimoglu & Yu, 2001; Gupta et al., 2001; Marrie, 2001), especialmente em UTI (ATS, 2001). Vários estudos documentaram baixo valor preditivo positivo do título único positivo de 1:256, tornando-o sem valor para o diagnóstico da pneumonia por Legionella, exceto, talvez, em surtos (Plouffe et al., 1995). Outros detectaram alta prevalência de anticorpos positivos na diluição 1:256 na população, em pessoas normais (Wilkinson et al., 1983; Nichol et al., 1991). A partir de 1996, o CDC de Atlanta recomendou que não seja mais utilizado o critério de caso provável de infecção por Legionella pneumophila por título único de fase convalescente ≥1:256, por falta de especificidade(CDC, 1997). A pneumonia por Legionella é raramente diagnosticada, e sua incidência é subestimada. Em estudos de PAC, a incidência da pneumonia por Legionella nos EUA, Europa, Israel e Austrália, foi estimada entre 1% a 16% (Muder & Yu, 2000). Nos EUA, foi estimado que cerca de 8 000 a 23 000 casos de PAC por Legionella ocorrem anualmente, em pacientes que requerem hospitalização (Marston et al., 1994 e 1977). No Brasil, a incidência de PAC causadas por Legionella em pacientes hospitalizados é tema de investigação pertinente, ainda não relatado na literatura. Objetivo: detectar a incidência de pneumonias causadas por Legionella pneumophila sorogrupos 1 a 6, em pacientes que internaram no Hospital de Clínicas de Porto Alegre por PAC, por um ano. Material e Métodos: o delineamento escolhido foi um estudo de coorte (de incidência), constituída por casos consecutivos de pneumonia adquirida na comunidade que internaram no HCPA de 19 de julho de 2000 a 18 de julho de 2001. Para a identificação dos casos, foram examinados diariamente o registro computadorizado das internações hospitalares, exceto as internações da pediatria e da obstetrícia, sendo selecionados todos os pacientes internados com o diagnóstico de pneumonia e de insuficiência respiratória aguda. Foram excluídos aqueles com menos de 18 anos ou mais de 80 anos; os procedentes de instituições, HIV-positivos, gestantes, pacientes restritos ao leito; e portadores de doença estrutural pulmonar ou traqueostomias. Foram excluídos os pacientes que tivessem tido alta hospitalar nos últimos 15 dias, e aqueles já incluídos no decorrer do estudo. Os pacientes selecionados foram examinados por um pesquisador, e incluídos para estudo se apresentassem infiltrado ao RX de tórax compatível com pneumonia, associado a pelo menos um dos sintomas respiratórios maiores (temperatura axilar > 37,8ºC, tosse ou escarro; ou dois sintomas menores (pleurisia, dispnéia, alteração do estado mental, sinais de consolidação à ausculta pulmonar, mais de 12 000 leucócitos/mm3). O estudo foi previamente aprovado pela Comissão de Ética em Pesquisa do HCPA. Os pacientes eram entrevistados por um pesquisador, dando seu consentimento por escrito, e então seus dados clínicos e laboratoriais eram registrados em protocolo individual. Não houve interferência do pesquisador, durante a internação, exceto pela coleta de urina e de sangue para exame laboratoriais específicos da pesquisa. Os pacientes eram agendados, no ambulatório de pesquisa, num prazo de 4 a 12 semanas após sua inclusão no estudo, quando realizavam nova coleta de sangue, RX de tórax de controle, e outros exames que se fizessem necessários para esclarecimento diagnóstico.Todos os pacientes foram acompanhados por 1 ano, após sua inclusão no estudo.Foram utilizadas a técnica de imunofluorescência indireta para detecção de anticorpos das classes IgG, IgM e IgA a Legionella pneumophila sorogrupos 1 a 6 no soro, em duas amostras, colhidas, respectivamente, na 1ª semana de internação e depois de 4 a 12 semanas; e a técnica imunológica por teste ELISA para a detecção do antígeno de Legionella pneumophila sorogrupo 1 na urina, colhida na primeira semana de internação. As urinas eram armazenadas, imediatamente após sua coleta, em freezer a –70ºC, e depois descongeladas e processadas em grupos de cerca de 20 amostras. A imunofluorescência foi feita no laboratório de doenças Infecciosas da Universidade de Louisville (KY, EUA), em amostras de soro da fase aguda e convalescente, a partir da diluição 1:8; e a detecção do antígeno de Legionella pneumophila sorogrupo 1, nas amostras de urina, foi realizada no laboratório de pesquisa do HCPA, pelos investigadores, utilizando um kit comercial de teste ELISA fabricado por Binax (Binax Legionella Urinary Enzyme Assay, Raritan, EUA). As urinas positivas eram recongeladas novamente, para serem enviadas para confirmação no mesmo laboratório americano, ao fim do estudo. Foram adotados como critérios definitivos de infecção por Legionella pneumophila sorogrupos 1 a 6, a soroconversão (elevação de 4 vezes no título de anticorpos séricos entre o soro da fase aguda e da fase convalescente para no mínimo 1:128); ou o achado de antígeno de L pneumophila sorogrupo 1 na urina não concentrada, numa razão superior a 3, conforme instruções do fabricante e da literatura.Os pacientes foram classificados, de acordo com suas características clínicas, em 1º) portadores de doenças crônicas (doenças pulmonares, cardíacas, diabete mellitus, hepatopatias e insuficiência renal); 2º) portadores de doenças subjacentes com imunossupressão; 3º) pacientes hígidos ou com outras doenças que não determinassem insuficiência orgânica. Imunossupressão foi definida como esplenectomia, ser portador de neoplasia hematológica, portador de doença auto-imune, ou de transplante; ou uso de medicação imunossupressora nas 4 semanas anteriores ao diagnóstico (Yu et al., 2002b); ou uso de prednisolona 10 mg/dia ou equivalente nos últimos 3 meses (Lim et al., 2001). As características clínicas e laboratoriais dos pacientes que evoluíram ao óbito por pneumonia foram comparados àquelas dos pacientes que obtiveram cura. Para a análise das variáveis categóricas, utilizou-se o teste qui-quadrado de Pearson ou teste exato de Fisher. Para as variáveis numéricas contínuas, utilizou-se o teste “t“ de Student. Um valor de p< 0,05 foi considerado como resultado estatisticamente significativo (programas SPSS, versão 10). Foi calculada a freqüência de mortes por pneumonia na população estudada, adotando-se a alta hospitalar como critério de cura. Foi calculada a incidência cumulativa para pneumonia por Legionella pneumophila sorogrupos 1 a 6, em um hospital geral, no período de 1 ano. Resultados: durante um ano de estudo foram examinados 645 registros de internação, nos quais constavam, como motivo de baixa hospitalar, o diagnóstico de pneumonia ou de insuficiência respiratória aguda; a maioria desses diagnósticos iniciais não foram confirmados. Desses 645 pacientes, foram incluídos no estudo 82 pacientes, nos quais os critérios clínicos ou radiológicos de pneumonia foram confirmados pelos pesquisadores. Durante o acompanhamento desses pacientes, porém, foram excluídos 23 pacientes por apresentarem outras patologias que mimetizavam pneumonia: DPOC agudizado (5), insuficiência cardíaca (3), tuberculose pulmonar (2), colagenose (1), fibrose pulmonar idiopática (1), edema pulmonar em paciente com cirrose (1), somente infecçâo respiratória em paciente com sequelas pulmonares (4); ou por apresentarem critérios de exclusão: bronquiectasias (4), HIV positivo (1), pneumatocele prévia (1). Ao final, foram estudados 59 pacientes com pneumonia adquirida na comunidade, sendo 20 do sexo feminino e 39 do sexo masculino, com idade entre 24 e 80 anos (média de 57,6 anos e desvio padrão de ±10,6). Tivemos 36 pacientes com doenças subjacentes classificadas como “doenças crônicas”, dos quais 18 pacientes apresentavam mais de uma co-morbidade, por ordem de prevalência: doenças pulmonares, cardíacas, diabete mellitus, hepatopatias e insuficiência renal; neoplasias ocorreram em 9 pacientes, sendo sólidas em 7 pacientes e hematológicas em 2. Dos 59 pacientes, 61% eram tabagistas e 16,9%, alcoolistas. Do total, 10 pacientes apresentavam imunossupressão. Dos demais 13 pacientes, somente um era previamente hígido, enquanto os outros apresentavam tabagismo, sinusite, anemia, HAS, gota, ou arterite de Takayasu. A apresentação radiológica inicial foi broncopneumonia em 59,3% dos casos; pneumonia alveolar ocorreu em 23,7% dos casos, enquanto ambos padrões ocorreram em 15,2% dos pacientes. Pneumonia intersticial ocorreu em somente um caso, enquanto broncopneumonia obstrutiva ocorreu em 5 pacientes (8,5%). Derrame pleural ocorreu em 22% dos casos, e em 21 pacientes (35%) houve comprometimento de mais de um lobo ao RX de tórax. Foram usados beta-lactâmicos para o tratamento da maioria dos pacientes (72,9%9). A segunda classe de antibióticos mais usados foi a das fluoroquinolonas respiratórias, que foram receitadas para 23 pacientes (39,0%), e em 3º lugar, os macrolídeos, usados por 11 pacientes (18,6%). Apenas 16 pacientes não usaram beta-lactâmicos, em sua maioria recebendo quinolonas ou macrolídeos. Dos 43 pacientes que usaram beta-lactâmicos, 25 não usaram nem macrolídeos, nem quinolonas. Em 13 pacientes as fluoroquinolonas respiratórias foram as únicas drogas usadas para o tratamento da pneumonia. Do total, 8 pacientes foram a óbito por pneumonia; em outros 3 pacientes, o óbito foi atribuído a neoplasia em estágio avançado. Dos 48 pacientes que obtiveram cura, 33 (68,7%) estavam vivos após 12 meses. Os resultados da comparação realizada evidenciaram tendência a maior mortalidade no sexo masculino e em pacientes com imunossupressão, porém essa associação não alcançou significância estatística. Os pacientes que usaram somente beta-lactâmicos não apresentaram maior mortalidade do que os pacientes que usaram beta-lactâmicos associados a outras classes de antibióticos ou somente outras classes de antibióticos. Examinando-se os pacientes que utiizaram macrolídeos ou quinolonas em seu regime de tratamento, isoladamente ou combinados a outros antibióticos, observou-se que também não houve diferença dos outros pacientes, quanto à mortalidade. Os pacientes com padrão radiológico de pneumonia alveolar tiveram maior mortalidade, e essa diferença apresentou uma significância limítrofe (p= 0,05). Nossa mortalidade (11,9%) foi similar à de Fang et al. (1990), em estudo clássico de 1991 (13,7%); foi também similar à média de mortalidade das PAC internadas não em UTI (12%), relatada pela ATS, no seu último consenso para o tratamento empírico das PAC (ATS, 2001). Foram detectados 3 pacientes com pneumonia por Legionella pneumophila sorogrupo 1 na população estudada: 2 foram diagnosticados por soroconversão e por antigenúria positiva, e o 3º foi diagnosticado somente pelo critério de antigenúria positiva, tendo sorologia negativa, como alguns autores (McWhinney et al., 2000). Dois pacientes com PAC por Legionella não responderam ao tratamento inicial com beta-lactâmicos, obtendo cura com levofloxacina; o 3º paciente foi tratado somente com betalactâmicos, obtendo cura. Conclusões: A incidência anual de PAC por Legionella pneumophila sorogrupos 1 a 6, no HCPA, foi de 5,1%, que representa a incidência anual de PAC por Legionella pneumophila sorogrupos 1 a 6 em um hospital geral universitário. Comentários e Perspectivas: Há necessidade de se empregar métodos diagnósticos específicos para o diagnóstico das pneumonias por Legionella em nosso meio, como a cultura, a sorologia com detecção de todas as classes de anticorpos, e a detecção do antígeno urinário, pois somente com o uso simultâneo de técnicas complementares pode-se detectar a incidência real de pneumonias causadas tanto por Legionella pneumophila, como por outras espécies. A detecção do antígeno de Legionella na urina é o teste diagnóstico de maior rendimento, sendo recomendado seu uso em todas as PAC que necessitarem internação hospitalar (Mulazimoglu & Yu, 2001; Gupta et al., 2001); em todos os pacientes com PAC que apresentarem fatores de risco potenciais para legionelose (Marrie, 2001); e para o diagnóstico etiológico das pneumonias graves (ATS, 2001). Seu uso é indicado, com unanimidade na literatura, para a pesquisa de legionelose nosocomial e de surtos de legionelose na comunidade.
Resumo:
Tradicionalmente, pesquisa na área de metodologia da Ciência Econômica consiste em estudar as implicações de teorias epistemológicas para Economia, sem se preocupar muito com que os economistas realmente fazem. Uma abordagem mais moderna procura lançar um olhar mais reflexivo sobre atividade dos economistas. Isto é, parte-se do que os economistas realmente fazem e, depois, empreende-se uma análise filosófica. Neste contexto, formação filosófica conhecimento teórico possuem mesma importância para produção científica em Metodologia. Adicionalmente, cumpre notar que são poucos os trabalhos que procuram analisar as contribuições mais recentes Teoria Econômica, lançando olhar da Metodologia para fronteira da ciência. Assim, novas correntes novas áreas da Economia carecem de uma avaliação epistemológica, ainda que vaga preliminar. escolha de temas já consagrados pode ser explicada pela segurança de explorar, sob um ponto de vista metodológico, um corpo de conhecimento científico coeso pouco mutável. Desse modo, análise não corre grande risco de se tornar anacrônica ou de ser parcial. Por outro lado, esquecimento da fronteira do conhecimento desvia atenção da relação entre processo de construção da teoria e a comunidade científica. risco da escolha de um tema mais de vanguarda é a superação da análise rapidamente pelo tempo, superfícialidade por falta de elementos mais sedimentados os erros de julgamento a respeito do que relevante. Apesar disso, os frutos de uma aventura no terreno movediço do saber econômico parecem mais que compensar eventuais pecados na análise metodológica dos temas considerados. Um outro ponto importante forma com que os temas vinculados tradição Neoclássica são tratados, no Brasil, pelos metodologistas da ciência econômica. Com efeito, existem trabalhos sobre Equilíbrio Geral Arrow-Debreu, todavia muito poucos procuram incorporar elementos tais como incerteza, dinâmica, formação de expectativas, os quais robustecem aproximam Modelo tradicional Arrow-Debreu da realidade. Assim, ao considerar apenas Teoria de Equilíbrio Geral Estática já consagrada, muitas críticas metodológicas perdem sua força quando observação feita um nível mais abrangente, considerando as contribuições mais modernas. presente trabalho uma contribuição Metodologia, todavia procura responder às críticas esboçadas nos parágrafos precedentes. De fato, trata-se de uma análise metodológica que toma como ponto de partida contribuições próximas fronteira do conhecimento, que estão vinculadas tradição Neoclássica, sem contudo constituir uma Teoria de Equilíbrio de Mercados. De resto, trabalho faz um pouco de História do Pensamento recente ao escolher Ronald Coase como fio condutor da exposição, além de conter algumas resenhas dos temas considerados. trabalho toma forma de três ensaios. primeiro se concentra na obra de Ronald Coase,e usa arcabouço da Indeterminação de Sênior para avaliar contribuição deste pensador para Economia. segundo consiste numa resenha seletiva das modernas contribuições Teoria da Firma, qual usada como elemento para construção de uma análise metodológica, que busca estabelecer as conexões entre trabalho pioneiro de Coase sobre natureza da firma, e as contribuições posteriores esse tema. questão saber qual influência das concepções de Ronald Coase sobre trabalhos posteriores que buscam explicar que firma. possível estabelecer uma relação de continuidade entre as idéias originais de Coase esses desdobramentos posteriores? Quais os limites dessa relação? Até que ponto as contribuições mais novas sobre teoria da firma descendem de Coase terceiro ensaio realiza uma exposição sumária de três Modelos na área da Economia das Instituições Jurídicas ("Law and Economics"), onde Coase também foi um pioneiro, em seguida, usando os modelos como exemplos estilizados, procura discutir forma como as instituições estão sendo incorporadas Teoria Econômica, suas implicações para relação entre Economia outras Ciências Sociais. guisa de conclusão, vale enfatizar convicção de que pesquisa em Metodologia da Ciência um terreno rico, desde que foco de análise fique mais abrangente procure avaliar não só os fundamentos as Teorias já consagradas como também novas áreas, novas abordagens contribuições de ponta, as quais, efetivamente movimentam Pesquisa em Economia.
Resumo:
Um dos primeiros papers a encontrar uma tendência clara de reversão no retorno das ações no longo prazo, De Bondt e Thaler (1985) identificaram o padrão encontrado como fruto de um comportamento irracional dos investidores que eles denominaram de “overreaction”. Seus resultados foram interpretados como evidência de que existem erros sistemáticos de avaliação no mercado de ações causada pelo excessivo pessimismo/otimismo dos agentes. Neste caso uma estratégia contrária baseada na compra dos portfólios perdedores e venda dos portfólios vencedores deveria gerar retornos extraordinários. A evidência encontrada para uma amostra de ações negociadas na Bovespa e na Soma durante o período de janeiro de 1986 a julho de 2000 corrobora esta hipótese tanto no longo prazo quanto no curto prazo, mesmo depois de se controlar para diferenças de tamanho, risco e liquidez.
Resumo:
Com base na literatura internacional, testa-se o desempenho de alguns Drivers de Valor comumente utilizados para avaliação de empresas pelos práticos em finanças através de modelos de regressão simples do tipo cross-section que estimam os Múltiplos de Mercado (?'s dos modelos). Utilizando dados de empresas listadas na Bolsa de Valores de São Paulo-Bovespa, diagnostica-se o comportamento dos diversos múltiplos no decorrer do período entre 1994-2004, atentando-se também para as particularidades das atividades desempenhadas pelas empresas da amostra (e seus possíveis impactos no desempenho de cada Driver de Valor) através de uma subseqüente análise com a separação das empresas da amostra em setores. Extrapolando os padrões de avaliação por múltiplos simples usados pelos analistas de empresas das principais instituições financeiras presentes no Brasil, verifica-se que a introdução de intercepto na formulação tradicional não oferece resultados satisfatórios na redução dos erros de apreçamento. Os resultados encontrados podem não ser genericamente representativos, dada a limitada disponibilidade de informações e as restrições impostas na obtenção da base de dados.
Resumo:
A demanda pela responsabilidade corporativa nunca foi tão grande. A necessidade de aliar a governança corporativa a atividades de controle eficientes nunca foi tão clara. Essa dissertação tem como objetivo responder a questão sobre se a abordagem Top Down do Earnings at Risk pode ser considerada como compatível às demandas da Sarbanes Oxley, e adicionalmente, um método eficiente de gerenciamento de riscos para as empresas não financeiras. Baseado nos resultados que encontramos a abordagem Top Down do Earnings at Risk não atende às demandas impostas pela Sarbanes-Oxley. Embora a SOX atente para a eficácia e não para eficiência dos controles utilizados pelas empresas, decisões gerenciais baseadas neste método podem conduzir a empresa a possíveis erros.
Resumo:
Os impactos sobre o meio ambiente, associados ao desenvolvimento de atividades pelo homem em uma bacia hidrográfica, estão fortemente inter-relacionados e têm, a cada dia, se tornado mais evidentes. Esta idéia motiva a concepção de uma gestão integrada dos recursos naturais em várias partes do mundo, inclusive em países em desenvolvimento como o Brasil. Modelos matemáticos de qualidade de água podem ser ferramentas úteis para a tomada de decisão no apoio à gestão de bacias hidrográficas. O planejamento e gestão dos recursos hídricos em um país de grande porte como o Brasil envolve, geralmente, bacias extensas, com um vasto conjunto de elementos naturais e antrópicos. Um modelo de qualidade de água deve permitir a representação da variabilidade espacial da região e, desta forma, a consideração de fontes difusas juntamente com fontes pontuais de poluição. O presente estudo analisou o impacto do desenvolvimento sobre a qualidade da água em uma bacia de grande extensão (bacia do rio Taquari-Antas, RS, com 26.500 km2), considerando a alternativa de aproveitamento hidrelétrico definida no inventário da bacia. Utilizou-se um modelo distribuído de simulação hidrológica e de qualidade de água aplicável principalmente a grandes bacias ( > 1.000 km2), o IPH-MGBq. Este modelo, desenvolvido no IPH, foi ajustado aos dados diários observados de vazão, no seu módulo de quantidade, e de concentração de OD, DBO, nitrogênio e fósforo totais e coliformes fecais, obtidos de coletas trimestrais, no módulo de qualidade. O modelo permite a análise temporal das condições hidrológicas e de qualidade da água de toda a bacia, discretizada por células, com trechos de rios e reservatórios. O modelo apresentou bom desempenho quanto à quantidade (vazões) e quanto aos perfis de concentração dos parâmetros de qualidade de água ao longo do Taquari- Antas, principalmente em termos de valores médios. Foi realizada uma análise de incertezas de alguns parâmetros e variáveis de entrada do modelo com relação à inerente incerteza existente na definição destes elementos. Esta metodologia demonstrou ser uma alternativa adequada à aplicação de modelos distribuídos de qualidade de água em bacias sem dados, sendo que os erros cometidos pelo modelo, em relação aos valores de concentração observados, foram aceitáveis para uma confiança de 95%. A simulação de alguns cenários de desenvolvimento na bacia do Taquari-Antas evidenciou a importância da avaliação conjunta de todos os elementos da bacia (fontes pontuais e difusas de poluição e da implantação de reservatórios) sobre a qualidade de suas águas. O IPH-MGBq mostrou ser uma ferramenta útil para a simulação de cenários de desenvolvimento em grandes bacias como base para a tomada de decisão na gestão dos recursos hídricos.