998 resultados para imputação de dados
Resumo:
As mortes por causas externas correspondem a grande parcela de óbitos em, praticamente, todos os países do mundo, ocupando, sempre, a segunda ou terceira colocação. Porém a sua distribuição quanto ao tipo de causa é diversa. Com o objetivo de estudar a mortalidade por causas externas, segundo o tipo de causa, sexo e idade, foi descrita a situação dessas mortes no Brasil e capitais, no período 1977 a 1994. Foram calculados os coeficientes de mortalidade por causas externas e a mortalidade proporcional, utilizando os dados de mortalidade fornecidos pelo Sistema de Informação de Mortalidade do Ministério da Saúde, e a população foi estimada baseada nos dados censitários de 1970, 1980 e 1991. Os resultados mostraram que, em números absolutos, os óbitos por causas externas quase dobraram no período de 1977 a 1994, passando a ser a segunda causa de morte no País. O coeficiente de mortalidade, em 1994, foi de 69,8/100.000 habitantes e o maior crescimento se deu nos óbitos do sexo masculino. Os coeficientes de mortalidade masculinos são, aproximadamente, 4,5 vezes o valor dos femininos. As causas externas representaram a primeira causa de morte dos 5 aos 39 anos, sendo a maior ocorrência na faixa etária dos 15 a 19 anos (65% dos óbitos por causas externas). Além do aumento, parece estar ocorrendo um deslocamento das mortes para faixas etárias mais jovens. A mortalidade por causas externas, segundo tipo, mostra que durante o período analisado houve aumento tanto nos óbitos por acidentes de trânsito, quanto por homicídios, tendo os suicídios permanecido, praticamente, constantes. No grupo de acidentes classificados como "demais acidentes" houve leve aumento, devido, principalmente, às quedas e afogamentos. Nas capitais dos Estados a mortalidade por causas externas apresentam valores mais altos que a média brasileira, com exceção de algumas áreas do Nordeste. As capitais da região Norte apresentaram algumas das maiores taxas para o País. Já na região Nordeste apenas Recife, Maceió e Salvador apresentaram níveis muito elevados em relação ao País. Vitória, Rio de Janeiro e São Paulo, na região Sudeste, apresentaram os maiores coeficientes do País e Belo Horizonte apresentou declínio no período de estudo. Na região Sul houve aumento nas taxas, bem como na região Centro-Oeste, que teve aumento homogêneo em suas capitais. Esse aumento observado nas diferentes capitais apresentou diferenciais quanto ao tipo de causa externa. Os suicídios não representaram problema de Saúde Pública em nenhuma delas. Os acidentes de trânsito em Vitória, Goiânia, Macapá, Distrito Federal e Curitiba tiveram sua situação agravada. Os homicídios tiveram aumento expressivo em Porto Velho, Rio Branco, Recife, São Luís, Vitória, São Paulo, Curitiba, Porto Alegre, Cuiabá e Distrito Federal. No período estudado houve o crescimento da importância das causas externas para a população brasileira, chamando atenção, principalmente, o aumento dos homicídios. A qualidade das estatísticas de mortalidade por causas externas depende da colaboração do médico legista, e essa qualidade não é a mesma para todas as capitais estudadas.
Resumo:
O Registo Nacional de Anomalias Congénitas (RENAC) recebe notificações da ocorrência de anomalias congénitas diagnosticadas até ao final do 1º mês de vida, algumas das quais são raras. Foi realizado um estudo observacional, transversal, com a finalidade de descrever a epidemiologia dos registos de anomalias congénitas que constituem uma síndrome genética rara, utilizando os dados do RENAC entre 2000-2013. Observou-se uma prevalência de 1,17 casos/10 000 nascimentos de indivíduos com síndrome genética rara com anomalias que afetam múltiplos sistemas. Estas patologias representam um pequeno grupo do universo das doenças raras. No total das síndromes estudadas (n=171), a maior frequência observou-se no grupo de síndromes que afetam predominantemente o aspeto da face (50,9%) e, neste grupo, destacam-se a Sequência de Pierre Robin (26,3%) e a Síndrome de Goldenhar (11,7%). No grupo de outras síndromes genéticas, a Síndrome de DiGeorge foi diagnosticada em 12,3% dos casos. Dada a inexistência de um registo nacional de doenças raras, os dados do RENAC podem contribuir para avaliar a prevalência de algumas destas doenças. Contudo para uma melhor vigilância de algumas doenças raras, o prazo de registo será alargado até ao ano de idade de modo a permitir que situações mais complexas possam ser identificadas e registadas.
Análise dos métodos de medição dos parâmetros geométricos de via e correlação entre os dados obtidos
Resumo:
A razão atribuída à escolha do tema do T.F.M. em Caminhos-de-ferro, tem a ver com o facto de ser uma via de comunicação específica. Contrariamente ao que acontece na execução de auto-estradas, no caminho-de-ferro, a gestora da infra-estrutura responsabiliza-se pela execução, exploração (sinalização e controlo de circulação), abastecimento de energia fornecida às vias que dispõem de catenária (tracção eléctrica), manutenção e conservação da via. O processo de análise e inspecção de geometria de via, é usado quando e necessário preservar a infra-estrutura. Este processo iniciou-se nos caminhos-de-ferro portugueses, há muitos anos, depois da inauguração do primeiro troco de linha férrea. A primeira viagem ocorre em Outubro de 1856, sendo o início do processo em 1968, com a dresina “Matisa PV-6”. Em 1991 a C.P. adquiriu outro veículo de inspecção de via, tendo sido escolhido o VIV02 EM 120 da marca Plasser & Theurer, para substituir “Matisa PV-6”. O tema Análise dos Métodos de Medição dos Parâmetros Geométricos de Via e Correlação entre os Dados Obtidos está directamente relacionado com a manutenção e conservação de via. Na Unidade Operacional Sul (hoje ROS – Região Operacional Sul), local onde desenvolvi o T.F.M., não existem obras de construção de caminhos-de-ferro que pudesse acompanhar e constituir tema para o meu trabalho. Na realidade, com a falta de investimento que se perspectiva no futuro próximo, a manutenção da infra-estrutura passa a ser a actividade principal desenvolvida pela REFER, de modo a assegurar a comodidade, segurança e rapidez na deslocação de cargas e pessoas. A Analise Geométrica de Via e actualmente uma das principais actividades no âmbito da manutenção, que é feita por diagnóstico, contrariamente ao que acontecia no passado em que a conservação metódica era realizada num determinado ano num troço seleccionado independentemente da necessidade ou não da mesma. Uma ajuda preciosa, no que se refere à decisão de se realizar um determinado trabalho de conservação, e a do veículo VIV02 EM 120 que faz inspeções ao longo de toda a rede ferroviária e permite recolher dados e classificar através do desvio padrão, troços com extensão de 200 metros, obtendo os dados relevantes sobre a necessidade de intervenção. Para além do referido veículo existem também equipamentos ligeiros de inspecção dos parâmetros geométricos de via. Um desses equipamentos designa-se por Trólei, não sendo motorizado, pois o mesmo é movido manualmente por um operador. Obviamente que este equipamento não faz a inspecção a toda a rede pois a operação de medição é morosa, sendo contudo utilizado para análise de defeitos geométricos em pequenos trocos, tornando-se assim uma mais-valia, evitando o deslocar de um equipamento “pesado” como o VIV 02 EM 120. Para atingir os objectivos deste trabalho realizaram-se testes de medição com ambos (veiculo e equipamento ligeiro), no mesmo espaço temporal e com as mesmas características físicas, como a temperatura, humidade etc. Os resultados, de acordo com os objectivos, são a comparação entre as medições de ambos, com vista a comprovar a sua utilidade e necessidade, de acordo com os vários tipos de superstruturas constituintes da rede ferroviária nacional.
Resumo:
A larga difusão, nos últimos anos, de softwares estatísticos indicados para análises multivariadas, aliada à facilidade de seu manuseio, poderá conduzir os usuários à obtenção de estimativas enganosas caso não se conheçam os pressupostos teóricos necessários para o emprego destas técnicas. Com o propósito de se destacar alguns desses pressupostos, apresentam-se as etapas executadas para a análise dos dados de um estudo caso-controle, conduzido no Município de São Paulo, entre março de 1993 e fevereiro de 1994, cujo objetivo foi testar a associação do diabetes mellitus com a doença isquêmica do coração após o ajustamento para possíveis variáveis de confusão e/ou modificadoras de efeito. Para uma melhor visualização didática desses pressupostos metodológicos são destacadas quatro etapas fundamentais durante a fase de análise dos dados: a) construção do banco de dados; b) cálculo do poder estatístico; c) categorização e codificação das variáveis e d) a escolha do modelo de regressão logística multivariada.
Resumo:
Em 50 doentes matriculados para o tratamento de tuberculose pulmonar, foram estudadas as informações que antecederam o diagnóstico da doença tais como: sintomatologia antes do diagnóstico, tempo decorrido entre o aparecimento dos sintomas e a procura de assistência médica, tempo decorrido entre o início dos sintomas e o início do tratamento e presença ou não de co-infecção com HIV. Nos últimos dez anos não houve alteração significativa em relação ao tempo de identificação dos casos novos de tuberculose e o início do tratamento.
Resumo:
OBJETIVO: Avaliar a qualidade dos dados populacionais e a cobertura dos registros de óbitos para as Unidades da Federação Brasileira (UF), por sexo, no ano de 1990. MÉTODOS: Os dados populacionais extraídos dos Censos Demográficos foram avaliados através de métodos demográficos clássicos. Os registros de óbitos, extraídos da Fundação Instituto Brasileiro de Geografia e Estatística e do Ministério da Saúde, foram avaliados através de três técnicas de mensuração do sub-registro de óbitos. RESULTADOS: A precisão das declarações das idades das UF, em sua maioria, passou do status de "pouco preciso" ou "moderado" para "preciso" na década de 80. A cobertura dos óbitos, em 1990, foi classificada como "boa" ou "satisfatória" para todos os Estados do Sul, Sudeste, Centro-Oeste e para os do Nordeste, abaixo do Rio Grande do Norte. O restante dos estados foram classificados como "regular" ou "insatisfatório". CONCLUSÕES: Houve uma melhora importante na qualidade das declarações da população recenseada e aumento da cobertura de óbitos e que, para muitas UF, é possível gerar confiáveis indicadores de mortalidade.
Resumo:
São apresentados dados sobre a ocorrência de viés nas estimativas de tendência secular em estatura, baseadas em dados da Marinha do Brasil. Foram analisados três bancos de dados; um para o período entre 1940 e 1965 e dois entre 1970 e 1977.
Resumo:
OBJETIVO: Comparar "softwares" específicos para análise de dados de levantamentos amostrais complexos, em relação às características: facilidade de aplicação, eficiência computacional e exatidão dos resultados. MÉTODOS: Utilizaram-se dados secundários da Pesquisa Nacional sobre Demografia e Saúde, de 1996, cuja população-alvo foram as mulheres de 15 a 49 anos de idade, pertencentes a uma subamostra probabilística selecionada em dois estágios, estratificada, com probabilidade proporcional ao tamanho no primeiro estágio. Foram selecionadas da subamostra as regiões Norte e Centro-oeste do País. Os parâmetros analisados foram: a média, para a variável idade, e a proporção, para cinco outras variáveis qualitativas, utilizando os "softwares" Epi Info, Stata e WesVarPC. RESULTADOS: Os programas apresentam duas opções em comum para importação de arquivos: o dBASE e arquivos tipo texto. O número de passos anteriores à execução das análises foram 21, 11 e 9, respectivamente para o Epi Info, Stata e WesVarPC. A eficiência computacional foi alta em todos eles, inferior a três segundos. Os erros padrão estimados utilizando-se o Epi Info e o Stata foram os mesmos, com aproximação até a terceira casa decimal; os do WesVarPC foram, em geral, superiores. CONCLUSÕES: O Epi Info é o mais limitado em termos das análises disponíveis, porém ele é simples de usar e gratuito. O Stata e o WesVarPC são bem mais completos nos recursos de análises, porém há a desvantagem do custo. A escolha do programa dependerá principalmente das necessidades específicas do usuário.
Resumo:
Mestrado em Radiações Aplicadas às Tecnologias da Saúde. Área de especialização: Ressonância Magnética
Resumo:
OBJETIVO: Verificar a concordância entre as informações constantes no Sistema de Informação sobre Nascidos Vivos (Sinasc) referentes a partos hospitalares e aquelas obtidas por inquérito seccional (padrão-ouro). MÉTODOS: Realizou-se inquérito por amostragem em 2.831 partos hospitalares ocorridos em dez maternidades do município de São Luís, MA, abrangendo cerca de 98% dos nascimentos hospitalares da cidade. O arquivo do Sinasc foi comparado com os dados do inquérito perinatal após a realização de linkage por programa de computador. Foram analisados: a cobertura estimada do Sinasc em relação aos nascimentos hospitalares verificados, o percentual de informação ignorada ou não preenchida e o grau de concordância entre as informações constantes no arquivo do Sinasc com o arquivo perinatal. Na medida da concordância, foram utilizados o indicador "kappa", no caso de variáveis qualitativas, e a correlação intraclasse, em se tratando de variáveis quantitativas. RESULTADOS: A cobertura estimada do Sinasc foi de 75,8% (IC95%; 73,3%-78,2%). Os campos do Sinasc que apresentaram boa confiabilidade foram: peso ao nascer, sexo, hospital de nascimento, tipo de parto e idade materna. As estimativas do baixo peso ao nascer foram semelhantes nas duas pesquisas e a concordância foi alta (kappa=0,94). Entretanto, a prematuridade foi mais alta no inquérito (11,2%) do que no Sinasc (1,7%), e a concordância foi baixa (kappa=0,09). CONCLUSÃO: A cobertura estimada do Sinasc foi baixa. A análise do arquivo do Sinasc mostrou que a cobertura estimada foi baixa; a taxa de baixo peso ao nascer parece ter boa validade e reprodutibilidade; e a taxa de prematuridade está subestimada.
Resumo:
Este documento foi escrito para retratar o trabalho desenvolvido como tese de mestrado “Desenvolvimento de um Programa/Base de dados para o controlo automático da Engenharia/Manutenção Aeronáutica”. O programa criado tem como objectivo de gerir a aeronavegabilidade de uma frota de aeronaves, traduzindo todos os requisitos da autoridade que rege a aeronáutica na Europa. O mesmo fundamenta-se no desenvolvimento de um software aplicado a uma empresa que faz a gestão contínua da aeronavegabilidade de um operador aéreo. A sua realização implica conhecer todas as tarefas na gestão contínua de aeronavegabilidade dentro de uma empresa certificada Part M. Para esse conhecimento foi preciso um estudo sobre todas as entidades, manuais e definições envolventes a essa função. A base da construção do programa foi o anexo II, requisitos exigidos pelo INAC para aprovar um programa desse género. Para uma melhor abordagem foi preciso uma revisão de conceitos da manutenção industrial resultantes da Manutenção Aeronáutica e demais. Num início, comeca-se por definir através de vários pontos de vista a manutenção, planeamento da manutenção, noções de fiabilidade e teorias fiabilisticas que estão na base do desenvolvimento de programas de manutenção, seguido de uma explicação sucinta do que é uma empresa que gere aeronavegabilidade de um operador aéreo. É fei3 ta uma explicação de todas as tarefas para manter todo o material de voo aeronavegável segundo o INAC . No capítulo III temos uma explicação de todas as teorias usadas na manutenção aeronáutica na evolução de programas de manutenção de aeronaves passando pelo MSG1 até à filosofia actual usada no desenvolvimento de programas de manutenção na aeronáutica, MSG3. O capítulo IV descreve todos os documentos técnicos envolvidos na gestão de aeronavegabilidade, desde os manuais emitidos pelo fabricante, passando pelos documentos emitidos pelas autoridades aeronáuticas e documentos técnicos produzidos pelo próprio operador aéreo. No capítulo V é descrita uma organização Part M, subpart G, as tarefas mais importantes na gestão contínua de aeronavegabilidade e as responsabilidades da mesma perante a autoridade aeronáutica nacional e tambem define todo o tipo de manutenção exigida a um operador aéreo para manter o seu material de voo aeronavegável sempre atendendo à segurança. Este capítulo define todo o tipo de trabalho a realizar, desde as manutenções mais leves realizadas na placa com o avião em trânsito até às grandes manutenções realizadas num Hangar e apoiodas por oficinas de especialidade. O capítulo VI descreverá o que foi feito. Este capítulo descreve sucintamente tudo o que foi feito, as razões da criação das tabelas, consultas, formulários e relatórios e importância desses na dinâmica da gestão de aeronavegabilidade. Depois de explicar a razão da criação de todas as tabelas, consultas e formulários segue-se um subcapítulo com dados de manutenção fornecidos gentilmente por uma empresa no ramo de forma a poder demostrar como o programa funciona. O último subcapítulo tem algumas considerações finais sobre aquilo que foi feito e aquilo que deveria ser feito com o objectivo de desempenhar de forma automática todoss os requisitos de gestão de aeronavegabilidade. O capítulo VIII tem algumas recomendações futuras a alguém que quiser dar uma continuidade a esse projecto que pode tornar-se muito interessante para uma empresa Part M.
Resumo:
Na presente dissertação pretendemos averiguar da pertinência prática do actual modelo de protecção de dados clínicos, ou seja, se nele está devidamente consagrada a autonomia e a individualidade do utente; pretendemos ainda perceber a tendência evolutiva do sistema português de protecção de dados clínicos, nomeadamente a sua capacidade de inovação e adaptação aos sistemas internacionais, respeitando o nosso ordenamento jurídico. Concretamente, pretendemos perceber de que forma esta informação estará protegida, bem como até onde os utentes estarão consciencializados dos perigos que enfrentam. Embora este seja um problema mundial, o facto é que a Gestão do Sistema de Protecção de Dados Pessoais e Clínicos suscita polémica e interpretações diferentes, dada a sensibilidade ética do tema, a integridade humana. Além deste facto, estamos perante uma problemática que irá sempre envolver vários interesses e consequentemente um confronto de posições. Este trabalho procura ilustrar de que forma se lida com a gestão de dados pessoais no nosso país, de que modo se harmonizam os diferentes interesses e perspectivas, que prioridades se encontram na orientação governamental nesta matéria, quais as penalizações para os eventuais incumpridores e qual o futuro possível dos dados pessoais em saúde, tendo como objectivo comum uma eficácia e sustentabilidade dos mecanismos utilizados. Vamos encontrar interesses divergentes, compromissos permissivos ou restritivos de tratamento de dados, tendências que suportam interesses privados e públicos que se vão concretizar em escolhas eficientes de gestão de dados. Esta diversidade de comportamentos vai ser objecto de estudo e análise neste trabalho, procurando aferir das vantagens e desvantagens de um sistema de informação em saúde: universal com a população coberta, e integrado a fim de compartilhar informações de todos os pacientes, de todas as unidades de prestação de cuidados de saúde.
Resumo:
INTRODUÇÃO: Existem muitas críticas à qualidade dos dados criminais existentes no Brasil, mas há pouco estudo sistemático para corroborar essas críticas. Nesse sentido, foi feito estudo com o objetivo de comparar o número de homicídios registrados entre dois sistemas públicos de informação. MÉTODOS: Foram analisados os óbitos registrados pelo Sistema de Informações de Mortalidade do Ministério da Saúde (SIM/MS) e pela Polícia Militar (PMMG), de 1979 a 1998. A comparação entre os dois sistemas foi feita pela razão entre os números absolutos, categorizando os municípios em cinco grupos de acordo com o tamanho da população em 1998, e pelas taxas de homicídio. Foram ajustados dois modelos de regressão linear das taxas no tempo, um para cada sistema. RESULTADOS: Nas cidades de menos de 100.00 habitantes, as informações de homicídios da PMMG são mais completas do que as do SIM/MS. Nas cidades de mais de 100.000 habitantes, o SIM/MS é capaz de recuperar mais eficientemente os óbitos, embora possam ser incluídos indevidamente óbitos de homicídios cometidos em outros municípios e óbitos por arma branca e de fogo de intenção indeterminada que não tenham sido devido a homicídio. O sub-registro da PMMG pode ser devido às mortes hospitalares tardias, que não são acompanhadas pela PMMG. CONCLUSÕES: Os sistemas do SIM/MS e PMMG representam limites superiores e inferiores do número real de homicídios ocorridos nas grandes cidades. Sugere-se que, quando disponíveis, as duas fontes sejam analisadas e comparadas; quando apenas uma delas estiver disponível, propõe-se que a análise deva considerar as diferenças.
Resumo:
Os testes acelerados de vida são realizados com o objectivo de estimar determinados parâmetros fiabilísticos, referentes a um determinado tipo de bem, despoletando a ocorrência de um dado modo de falha específico, num período de tempo mais reduzido do que aquele em que, em condições de normal operação se verificaria. Torna-se assim possível, através da utilização dos testes acelerados de vida e dos modelos matemáticos de extrapolação de dados, prever a ocorrência de falhas e dos seus modos, permitindo assim realizar alterações aos projectos em estudo, antes mesmo de estes serem disponibilizados no mercado. O emprego deste tipo de metodologia possibilita às organizações uma economia de tempo na determinação dos dados de vida dos bens, o que se reflecte numa grande vantagem face aos testes realizados para normais condições de operação. No presente documento é feita uma abordagem muito objectiva dos conceitos de fiabilidade de modo a poder perceber os conceitos teóricos em que assentam as metodologias relacionadas com os testes acelerados de vida, bem como o estudo e análise das teorias que servem por base aos testes acelerados. No presente documento são analisados os modelos matemáticos de extrapolação de dados dos testes acelerados de vida, tais como o modelo de Arrhenius, o modelo de Eyring, o modelo da Lei da Potência Inversa e o modelo de Bazovsky. Para uma melhor compreensão dos conceitos é feita uma análise às distribuições mais utilizadas em fiabilidade, caso da distribuição de Weibull, da distribuição Normal e da distribuição Lognormal. Para implementar os conceitos e metodologias estudadas, obtiveram-se dados referentes a testes acelerados de vida de um óleo isolante de um transformador eléctrico, implementou-se a metodologia relacionada com o modelo da Lei da Potência Inversa através do software ALTA 8 e determinaram-se os parâmetros fiabilísticos correspondentes. De outro modo, foi ainda utilizado um método detalhado de resolução, utilizando o software Weibull++ 8, para posterior comparação de resultados.