1000 resultados para Métodos e Procedimentos Estatísticos
Resumo:
Introdução – A lipofilia é uma das propriedades físico-químicas que mais influencia a capacidade de uma molécula se movimentar através de compartimentos biológicos. O coeficiente de partição octanol/água (log P) permite, assim, obter uma estimativa da absorção dos fármacos no organismo. A existência de métodos indirectos para um cálculo rápido do log P pode revelar-se de grande importância na análise de listas de compostos com potencial acção farmacológica, reduzindo-as àqueles que se prevêem ter um melhor comportamento biológico. Objectivos – O propósito deste estudo é dar a conhecer um método cromatográfico de RP-HPLC desenvolvido para a determinação indirecta da lipofilia molecular e avaliar a performance de vários programas de cálculo computacional desse mesmo parâmetro. Metodologias – Seleccionaram-se 25 compostos químicos, avaliou-se o log P de cada um deles por RP-HPLC e confrontaram-se os resultados obtidos com os de sete programas computacionais. Resultados – O método RP-HPLC testado demonstrou ser vantajoso em comparação com o convencional shake flask. O programa de cálculo indirecto que proporcionou resultados mais próximos dos experimentais foi o ALOGPS© 2.1. Conclusões – A escolha ideal para a determinação da lipofilia de compostos cujo log P estimado esteja entre 0 e 6 é, sobretudo no que diz respeito à rapidez e simplicidade do processo, o método experimental indirecto RP-HPLC. Quanto aos métodos computacionais concluiu-se que nenhum dos programas, incluindo o ALOGPS© 2.1, demonstrou ser eficaz na avaliação de isómeros pelo que, para estes compostos, será sempre necessário recorrer ao método shake flask ou RP-HPLC.
Resumo:
Para conhecer as características físicas ou mecânicas de uma construção antiga é necessário o recurso a técnicas capazes de dar essa informação. Este trabalho tem como motivação a necessidade de fornecer uma base de conhecimento cientifico acerca de métodos de inspecção e ensaio em paredes de edifícios antigos, por forma a contribuir para a escolha mais correcta por parte dos técnicos do sector, tendo em conta factores como: • Tipologia do edifício; • Anomalias presentes; • Estado de conservação; • Carácter da inspecção a realizar; • Disponibilidade financeira. Neste sentido são enumeradas as tipologias construtivas das alvenarias antigas (Capítulo II) e as suas anomalias mais comuns (Capitulo III). De seguida identificam-se os métodos de inspecção e ensaio existentes, abordando-se os procedimentos de ensaio, os parâmetros passíveis de se obter e os objectivos inerentes a cada uma das técnicas (Capítulo IV). No estudo de caso (Capítulo V), aplicam-se alguns métodos de inspecção e ensaio estudados a um edifício antigo, apresentando-se os procedimentos, as dificuldades encontradas e os resultados obtidos. Nas conclusões obtidas (Capítulo VI) dá-se especial enfoque à possível correlação entre diversos ensaios de modo a construir uma base de dados tão completa quanto possível acerca da construção estudada.
Resumo:
OBJETIVO: Discutir aspectos metodológicos da estratégia de identificação de casos psiquiátricos, em duas etapas, em estudos epidemiológicos. MÉTODOS: Analisa-se a metodologia utilizada no Estudo Multicêntrico de Morbidade Psiquiátrica do Adulto realizado em três cidades brasileiras, entre 1990-1991. Na primeira etapa do citado estudo, uma amostra aleatória (6.740 indivíduos) da população foi selecionada e submetida a um rastreamento com o Questionário de Morbidade Psiquiátrica do Adulto -- QMPA. Na segunda etapa, uma subamostra (775 indivíduos) foi selecionada e submetida ao Inventário de Sintomas do DSM-III (Diagnostic and Statistical Manual of Mental Disorders), aplicado por psiquiatras e psicólogos treinados, para confirmação-diagnóstica. RESULTADOS: São descritos os procedimentos empregados para a estimativa das prevalências, mostrando que o fraco desempenho da escala de rastreamento não compromete o método. CONCLUSÃO: A vantagem da metodologia é a de corrigir as distorções apresentadas pelos instrumentos atuais de identificação de casos psiquiátricos.
Resumo:
Mestrado em Radiações Aplicadas às Tecnologias da Saúde. Área de especialização: Protecção contra Radiações
Resumo:
OBJETIVO: Identificar problemas técnicos nas exumações para pesquisa de DNA em ossos e propor soluções por meio de protocolo. MÉTODOS: Estudo prospectivo e qualitativo das exumações, procedendo cada etapa da perícia conforme proposto na literatura médico-legal. Foram realizadas dez exumações no período de 1995 a 1998, para coleta de restos humanos e extração do DNA, sendo sete de interesse civil e três, criminal. As dificuldades técnicas surgidas na execução desses procedimentos foram resolvidas a partir de alternativas estabelecidas. RESULTADOS: A escassez de informações úteis para a identificação do indivíduo, baseada em seus restos mortais, foi observada em todos os casos. As características morfológicas individuais contribuíram para a identificação em 50% dos casos. O auxílio dos familiares foi importante na revelação dessas características. Em três casos, foi indicado apenas o sexo e, em um, a idade. A falta de infra-estrutura dos cemitérios e de segurança policial dificultou o trabalho pericial. CONCLUSÕES: Para garantir a fidelidade do exame molecular do DNA é necessário identificar de quem são os restos mortais a serem exumados. Para a eficiência da perícia, é fundamental o uso de um protocolo que inclua, entre outras questões, as relativas a identificação, infra-estrutura e segurança pessoal dos peritos no local do exame.
Resumo:
Na indústria farmacêutica, a limpeza dos equipamentos e superfícies é muito importante no processo de fabrico/embalagem dos produtos farmacêuticos. Possíveis resíduos contaminantes devem ser removidos dos equipamentos e das superfícies envolvidas no processo. De acordo com as Boas Práticas de Fabrico (GMP), os procedimentos de limpeza e os métodos analíticos usados para determinar as quantidades de resíduos devem ser validados. O método analítico combinado com o método de amostragem utilizado na colheita de amostras deve ser sujeito a um ensaio de “recovery”. Neste trabalho apresenta-se uma estratégia inovadora para a validação de limpeza de formas farmacêuticas semi-sólidas. Propõe-se o uso de um método de amostragem que consiste na colheita direta de amostra após o seu fabrico, sendo a análise de resíduos feita directamente nesta amostra. Os produtos escolhidos para a avaliação da estratégia foram dois medicamentos dermatológicos, apresentados na forma de pomada e produzidos numa unidade de fabrico de vários produtos, pela Schering Plough Farma/ Merck Sharp & Dohme (Cacém, Portugal). Como métodos analíticos para a quantificação dos resíduos, utilizaram-se métodos validados por via espectrofotométrica (HPLC), usados na análise do produto acabado. A validação de limpeza foi avaliada através da análise de uma quantidade conhecida de pomada (produto B (*)), usando o método de análise da pomada fabricada anteriormente (produto A (*)), de modo a verificar-se a existência ou não de agente de limpeza e substâncias ativas deixadas após a limpeza do produto A, e vice-versa. As concentrações residuais das substâncias ativas e do agente de limpeza encontradas após a limpeza foram nulas, ou seja, inferiores ao limite de deteção (LOD), sendo que o critério de aceitação da limpeza utilizado foi de 6,4 x 10-4 mg/g para a substância ativa 1 (*); 1,0 x 10-2 mg/g para a substância ativa 2 (*); 1,0 x 10-3 mg/g para a substância ativa 3 (*) e de 10 ppm para o agente de limpeza. No ensaio de “recovery”, obtiveram-se resultados acima de 70% para todas as substâncias ativas e para o agente de limpeza nas duas pomadas. Antes de se proceder a este ensaio de “recovery”, houve a necessidade de ajustar as condições cromatográficas dos métodos analíticos de ambos os produtos e do agente de limpeza, por forma a obter-se valores da conformidade do sistema (fator de tailling e de resolução) de acordo com as especificações. A precisão dos resultados, reportada como desvio padrão relativo (RSD), deu abaixo de 2,0%, excepto nos ensaios que envolvem a substância ativa 3, cuja especificação é inferior a 10,0%. Os resultados obtidos demonstraram que os procedimentos de limpeza usados na unidade de fabrico em causa são eficazes, eliminando assim a existência de contaminação cruzada.
Resumo:
OBJETIVO: Comparar o conhecimento sobre métodos anticoncepcionais e identificar os fatores associados ao conhecimento adequado dos adolescentes de escolas públicas e privadas. MÉTODOS: Realizou-se estudo transversal, do qual participaram 1.594 adolescentes entre 12 e 19 anos, de 13 escolas públicas e cinco privadas do Município de São Paulo entre junho e dezembro de 2003. As escolas foram selecionadas aleatoriamente e os alunos responderam um questionário sobre características sociodemográficas, reprodutivas e métodos anticoncepcionais. As razões de prevalência foram calculadas com intervalo de confiança de 95% para cada questão sobre conhecimento de métodos e o tipo de escola. Atribuiu-se meio ponto para cada questão correta sobre conhecimento de anticoncepcionais, o ponto de corte foi 50% de acerto. Os testes estatísticos utilizados foram o qui-quadrado, o Wilcoxon-Gehan e a regressão múltipla de Poisson. RESULTADOS: Dentre os adolescentes, 61% eram do sexo feminino nos dois grupos de escolas. Predominou nível socioeconômico baixo nas escolas públicas e alto nas privadas (p<0,001). Cerca de 18,6% dos adolescentes nas escolas privadas e 28,6% nas públicas tinham atividade sexual (p<0,002). Quanto ao conhecimento, 25,7% dos adolescentes das escolas públicas e 40,8% das privadas apresentaram escore superior ou igual a cinco. Os fatores associados ao maior conhecimento foram ser do sexo feminino, estudar em escola privada, estar no ensino médio, ter nível socioeconômico alto, ter relação sexual e ter maior idade. CONCLUSÕES: O nível de conhecimento adequado sobre métodos anticoncepcionais foi baixo para os adolescentes de ambos os tipos de escolas. Os resultados revelam que, assim como os mais desfavorecidos, os adolescentes de maior nível socioeconômico necessitam de informações adequadas sobre planejamento familiar, visando a melhorar esse conhecimento para mudança seu comportamento.
Resumo:
OBJETIVO: O conhecimento dos erros de amostragem é necessário à correta interpretação dos resultados de inquéritos domiciliares e à avaliação dos seus planos de amostragem. A composição das amostras de domicílios utilizadas em inquéritos caracteriza situação complexa de estimação. Nesse sentido, realizou-se estudo com o objetivo de avaliar o desempenho de estimadores de variância em inquéritos efetuados em populações urbanas brasileiras. MÉTODOS: A população de referência do estudo constituiu-se de amostra sorteada pela Fundação Sistema Estadual de Análise de Dados Estatísticos, para a realização da Pesquisa de Emprego e Desemprego na Região Metropolitana de São Paulo. Para estimar variâncias foram utilizados: o método de linearização de Taylor e as técnicas de replicação Jackknife e BRR. Repetidas amostras foram retiradas da população de referência utilizando amostragem estratificada, por conglomerados, em dois estágios: setor censitário e domicílio. Três delineamentos foram utilizados e 2.000 amostras foram sorteadas sob cada um deles. Para um estimador razão, foi avaliada a acurácia dos estimadores de variância, por meio do erro quadrático médio, e a cobertura dos intervalos de confiança. RESULTADOS: Os resultados relacionados ao erro quadrático médio relativo dos estimadores foram semelhantes. As razões de vício ficaram em torno de 0,10 para as menores amostras. As coberturas dos intervalos de confiança indicaram que os níveis de confiança observados foram menores que os fixados (95%), ficando em torno de 90% para as menores amostras. CONCLUSÕES: Os estimadores de variância mostraram desempenhos semelhantes quanto à acurácia e cobertura dos intervalos de confiança. Os vícios foram irrelevantes frente às dimensões do erro-padrão. Os níveis de confiança reais foram menores que os níveis nominais da distribuição normal, mas as alterações não impedem que estimativas intervalares sejam feitas com razoável confiança.
Resumo:
OBJETIVO: Avaliar a associação entre as atividades odontológicas preventivas do serviço público de odontologia e a saúde bucal de jovens. MÉTODOS: Foram utilizados dados de 4.033 jovens de 15 a 19 anos, de 85 municípios do estado do Rio Grande do Sul, obtidos no inquérito epidemiológico Saúde Bucal Brasil, realizado no período de 2002-2003. As variáveis estudadas foram: idade, sexo renda, escolaridade, tempo desde a última visita ao dentista, motivo da visita, e presença de flúor na água de abastecimento. Dados sobre as atividades odontológicas foram extraídos da base de dados do Sistema de Informações Ambulatoriais do Sistema Único de Saúde. Para análise estatística foi utilizada a regressão logística multinível. RESULTADOS: Os indivíduos dos 21 municípios com menores taxas de procedimentos (por 100 habitantes) de procedimentos individuais preventivos (limpeza + flúor + selante) tiveram 2,27 (IC 95%: 1,45;3,56) vezes mais chance de ter uma cárie não restaurada do que residentes dos 21 municípios com maiores taxas. Essa chance permaneceu mesmo depois de ajustada por fatores individuais e contextuais, mas decresceu para 1,76 (IC 95%: 1,13;2,72). A proporção da variabilidade atribuível aos municípios foi de 14,1% para o modelo vazio e 10,5% para o modelo cheio. CONCLUSÕES: O serviço público de odontologia no Rio Grande do Sul pode ter contribuído para a redução no número de cáries não restauradas em jovens. Porém, não foi possível detectar influência desse serviço na experiência total da cárie .
Resumo:
OBJETIVO: Avaliar a subnotificação de registros de nascidos vivos em sistemas de informação em saúde. MÉTODOS: Foram utilizados dados secundários do Sistema de Informação Hospitalar (SIH) e Sistema de Informação sobre Nascidos Vivos (Sinasc) em municípios de Minas Gerais, 2001. A análise foi feita por meio de dois procedimentos: a comparação do número de nascidos vivos por município de residência e a técnica de relacionamento probabilístico de dados individuais. Em ambos os casos, consideraram-se como indicadores de subnotificação as proporções de nascidos vivos informadas ao SIH e não obtidas no Sinasc. Os municípios foram posteriormente agregados em quatro faixas de tamanho populacional. RESULTADOS: O relacionamento probabilístico identificou maior proporção de nascidos vivos subnotificados no Sinasc, relativamente à comparação do número de nascidos vivos nos municípios. As variações das diferenças entre os percentuais de subnotificação por procedimentos foram: 9,4% nos municípios com população menor que 5.000 habitantes; 9,1% nos municípios com população entre 5.000 e 9.999 e 8,0% nos municípios com população entre 10.000 e 49.999 e com mais de 50.000 habitantes. CONCLUSÕES: A magnitude de acréscimos revelou-se sensível ao procedimento adotado. O relacionamento probabilístico incrementou certeza no pareamento e possibilitou identificação de maior proporção de casos não registrados no Sinasc, inclusive em grandes municípios. O SIH apresentou-se como importante indicador de subnotificação de nascidos vivos.
Resumo:
Trabalho de relatório de Estágio de natureza científica para obtenção do grau de Mestre em Engenharia Civil na Área de Especialização em Edificações
Acurácia em métodos de relacionamento probabilístico de bases de dados em saúde: revisão sistemática
Resumo:
OBJETIVO: Analisar a literatura nacional e internacional sobre validade de métodos de relacionamentos nominais de base de dados em saúde, com ênfase nas medidas de aferição da qualidade dos resultados. MÉTODOS: Revisão sistemática de estudos de coorte, caso-controles e seccionais que avaliaram a qualidade dos métodos de relacionamento probabilístico de base de dados em saúde. Foi utilizada metodologia Cochrane para revisões sistemáticas. As bases consultadas foram as mais amplamente utilizadas: Medline, LILACS, Scopus, SciELO e Scirus. Não foi utilizado filtro temporal e os idiomas considerados foram: português, espanhol, francês e inglês. RESULTADOS: As medidas sumárias da qualidade dos relacionamentos probabilísticos foram a sensibilidade, a especificidade e o valor preditivo positivo. Dos 202 estudos identificados, após critérios de inclusão, foram analisados 33 artigos. Apenas seis apresentaram dados completos sobre as medidas-sumárias de interesse. Observam-se como principais limitações a ausência de revisor na avaliação dos títulos e dos resumos dos artigos e o não-mascaramento da autoria dos artigos no processo de revisão. Estados Unidos, Reino Unido e Nova Zelândia concentraram as publicações científicas neste campo. Em geral, a acurácia dos métodos de relacionamento probabilístico de bases de dados variou de 74% a 98% de sensibilidade e 99% a 100% de especificidade. CONCLUSÕES: A aplicação do relacionamento probabilístico a bases de dados em saúde tem primado pela alta sensibilidade e uma maior flexibilização da sensibilidade do método, mostrando preocupação com a precisão dos dados a serem obtidos. O valor preditivo positivo nos estudos aponta alta proporção de pares de registros verdadeiramente positivos. A avaliação da qualidade dos métodos empregados tem se mostrado indispensável para validar os resultados obtidos nestes tipos de estudos, podendo ainda contribuir para a qualificação das grandes bases de dados em saúde disponíveis no País.
Resumo:
O processamento de amostras citológicas em meio líquido e a coloração de May-Grünwald Giemsa (MGG) fazem parte da rotina em anatomia patológica. Na origem desta investigação esteve a possibilidade do uso desta coloração em amostras processadas em ThinPrep (TP). Estudou-se a fase compreendida entre o processamento de amostras em TP e a coloração com MGG – pós-processamento. O objetivo do estudo consistiu em avaliar diferentes métodos de pós-processamento em amostras de secreções brônquicas processadas pela metodologia TP e coradas com MGG. Utilizaram-se 32 amostras de secreções brônquicas, processadas em TP. De cada amostra obtiveram-se três lâminas, nas quais se aplicaram três métodos de pós-processamento: secagem ao ar; imersão em solução salina de tampão Tris; imersão em etanol a 96%. Realizou-se a coloração de MGG e as lâminas foram avaliadas por três avaliadores independentes, relativamente à constituição da amostra e qualidade da coloração. Este último parâmetro resultou da soma da pontuação obtida para os detalhes nuclear e citoplasmático (escala de 0 a 4 valores). Aplicaram-se os testes estatísticos One-Way ANOVA (p=0,05) e de Tukey. Para a qualidade de coloração, os métodos imersão em solução tampão, imersão em etanol a 96% e secagem ao ar obtiveram a pontuação média de 2,39 (s=1,309), 2,15 (s=1,248) e 1,22 (s=1,250), respetivamente. Verificou-se que existia diferença estatisticamente significativa entre o método secagem ao ar e os métodos imersão em solução tampão e em etanol a 96% (p=,000). O pós-processamento por secagem ao ar demonstrou qualidade da coloração não aceitável, ou seja pontuação média inferior a 2 valores. Pelo contrário, os pós-processamentos por imersão em solução tampão e em etanol a 96% apresentaram qualidade de coloração aceitável, podendo ser utilizados na rotina laboratorial para coloração com MGG de amostras processadas em TP.
Resumo:
OBJETIVO: Avaliar a sensibilidade e a especificidade de diferentes protocolos de medida da pressão arterial para o diagnóstico da hipertensão em adultos. MÉTODOS: Estudo transversal com amostra não probabilística de 250 funcionários de ambos os sexos de instituição pública na faixa etária de 35 a 74 anos em Vitória, ES, entre 2008 e 2010. Os participantes tiveram suas pressões arteriais aferidas por três métodos: medida clínica, automedida e medida ambulatorial por 24 horas. Foram coletados dados antropométricos (peso, estatura e circunferências) e realizada entrevista. Os métodos foram confrontados e analisados em relação à medida ambulatorial 24 h (padrão-ouro). Foram calculadas as medidas de desempenho diagnóstico: sensibilidade, especificidade, valores preditivos positivos e negativos e acurácia. A metodologia de Bland & Altman foi utilizada para verificar a concordância entre a variabilidade pressórica na medida ambulatorial (desvio-padrão relativo ao período diurno) e a variabilidade pressórica na automedida (desvio-padrão das quatro medidas). Adotou-se nível de significância de 5% para todos os testes. RESULTADOS: A automedida apresentou maior sensibilidade (S = 84%; IC95%: 75;93) e acurácia global (0,817; p < 0,001) no diagnóstico da hipertensão que a medida clínica (S = 79%; IC95%: 73;86 e AG = 0,815; p < 0,001). Apesar da forte correlação com o método de medida ambulatorial durante a vigília (r = 0,843; p = 0,000), a automedida não mostrou boa concordância com o referido método para a medida sistólica (viés = 5,82; IC95%: 4,49;7,15). Foram identificados sete (2,8%) indivíduos com hipertensão do avental branco, 26 (10,4%) com hipertensão mascarada e 46 (18,4%) com efeito do avental branco. CONCLUSÕES: Os resultados sugerem que a automedida apresenta sensibilidade superior à medida clínica para identificar verdadeiros hipertensos na população. Os valores de predição negativa encontrados confirmam a superioridade da automedida em relação à medida clínica no que tange à capacidade do teste em apontar os indivíduos verdadeiramente normotensos. Contudo, não pode substituir a medida clínica, que ainda é o método mais fidedigno.
Resumo:
A previsão das concentrações de ozono troposférico é importante devido aos impactos deste poluente na saúde humana e na vegetação. Neste contexto, o objectivo principal deste trabalho é a previsão de ozono na região de Lisboa e Vale do Tejo, através de métodos estatísticos com base em dados horários do próprio dia, para cada estação. A previsão foi dividida entre avaliação instantânea (previsão baseada em dados momentâneos) recorrendo a árvores de regressão, e previsão horária para um período horário de previsão específico (13:00 -17:00 horas UTC) utilizando modelos de regressão linear. A Avaliação instantânea foi dividida entre análise espacial e análise meteorológica e de precursores. Foram utilizadas séries temporais de dados de 2000 a 2005. No caso da previsão horária utilizaram-se, na fase de validação, dados de 2006. Concluiu-se que, para a avaliação instantânea, a análise espacial apresenta melhores resultados do que a meteorológica. Os modelos de regressão elaborados, para a previsão horária apresentam bons resultados na fase de treino, mas os índices de performance demonstram resultados menos bons na fase de validação. No geral, estes podem ser considerados bons a explicar o comportamento do ozono, contudo menos rigorosos na previsão de excedências. Foi constatada a existência de uma tendência geral para um decréscimo do coeficiente de determinação e um aumento do erro padrão ao longo do período de previsão. Assim os coeficientes de determinação mais elevados e os erros padrão menores verificam-se às 13:00 e o contrário verifica-se às 17:00 horas UTC.