998 resultados para Visualização de dados
Resumo:
OBJETIVO: Avaliar a qualidade dos dados populacionais e a cobertura dos registros de óbitos para as Unidades da Federação Brasileira (UF), por sexo, no ano de 1990. MÉTODOS: Os dados populacionais extraídos dos Censos Demográficos foram avaliados através de métodos demográficos clássicos. Os registros de óbitos, extraídos da Fundação Instituto Brasileiro de Geografia e Estatística e do Ministério da Saúde, foram avaliados através de três técnicas de mensuração do sub-registro de óbitos. RESULTADOS: A precisão das declarações das idades das UF, em sua maioria, passou do status de "pouco preciso" ou "moderado" para "preciso" na década de 80. A cobertura dos óbitos, em 1990, foi classificada como "boa" ou "satisfatória" para todos os Estados do Sul, Sudeste, Centro-Oeste e para os do Nordeste, abaixo do Rio Grande do Norte. O restante dos estados foram classificados como "regular" ou "insatisfatório". CONCLUSÕES: Houve uma melhora importante na qualidade das declarações da população recenseada e aumento da cobertura de óbitos e que, para muitas UF, é possível gerar confiáveis indicadores de mortalidade.
Resumo:
São apresentados dados sobre a ocorrência de viés nas estimativas de tendência secular em estatura, baseadas em dados da Marinha do Brasil. Foram analisados três bancos de dados; um para o período entre 1940 e 1965 e dois entre 1970 e 1977.
Resumo:
OBJETIVO: Comparar "softwares" específicos para análise de dados de levantamentos amostrais complexos, em relação às características: facilidade de aplicação, eficiência computacional e exatidão dos resultados. MÉTODOS: Utilizaram-se dados secundários da Pesquisa Nacional sobre Demografia e Saúde, de 1996, cuja população-alvo foram as mulheres de 15 a 49 anos de idade, pertencentes a uma subamostra probabilística selecionada em dois estágios, estratificada, com probabilidade proporcional ao tamanho no primeiro estágio. Foram selecionadas da subamostra as regiões Norte e Centro-oeste do País. Os parâmetros analisados foram: a média, para a variável idade, e a proporção, para cinco outras variáveis qualitativas, utilizando os "softwares" Epi Info, Stata e WesVarPC. RESULTADOS: Os programas apresentam duas opções em comum para importação de arquivos: o dBASE e arquivos tipo texto. O número de passos anteriores à execução das análises foram 21, 11 e 9, respectivamente para o Epi Info, Stata e WesVarPC. A eficiência computacional foi alta em todos eles, inferior a três segundos. Os erros padrão estimados utilizando-se o Epi Info e o Stata foram os mesmos, com aproximação até a terceira casa decimal; os do WesVarPC foram, em geral, superiores. CONCLUSÕES: O Epi Info é o mais limitado em termos das análises disponíveis, porém ele é simples de usar e gratuito. O Stata e o WesVarPC são bem mais completos nos recursos de análises, porém há a desvantagem do custo. A escolha do programa dependerá principalmente das necessidades específicas do usuário.
Resumo:
Mestrado em Radiações Aplicadas às Tecnologias da Saúde. Área de especialização: Ressonância Magnética
Resumo:
OBJETIVO: Verificar a concordância entre as informações constantes no Sistema de Informação sobre Nascidos Vivos (Sinasc) referentes a partos hospitalares e aquelas obtidas por inquérito seccional (padrão-ouro). MÉTODOS: Realizou-se inquérito por amostragem em 2.831 partos hospitalares ocorridos em dez maternidades do município de São Luís, MA, abrangendo cerca de 98% dos nascimentos hospitalares da cidade. O arquivo do Sinasc foi comparado com os dados do inquérito perinatal após a realização de linkage por programa de computador. Foram analisados: a cobertura estimada do Sinasc em relação aos nascimentos hospitalares verificados, o percentual de informação ignorada ou não preenchida e o grau de concordância entre as informações constantes no arquivo do Sinasc com o arquivo perinatal. Na medida da concordância, foram utilizados o indicador "kappa", no caso de variáveis qualitativas, e a correlação intraclasse, em se tratando de variáveis quantitativas. RESULTADOS: A cobertura estimada do Sinasc foi de 75,8% (IC95%; 73,3%-78,2%). Os campos do Sinasc que apresentaram boa confiabilidade foram: peso ao nascer, sexo, hospital de nascimento, tipo de parto e idade materna. As estimativas do baixo peso ao nascer foram semelhantes nas duas pesquisas e a concordância foi alta (kappa=0,94). Entretanto, a prematuridade foi mais alta no inquérito (11,2%) do que no Sinasc (1,7%), e a concordância foi baixa (kappa=0,09). CONCLUSÃO: A cobertura estimada do Sinasc foi baixa. A análise do arquivo do Sinasc mostrou que a cobertura estimada foi baixa; a taxa de baixo peso ao nascer parece ter boa validade e reprodutibilidade; e a taxa de prematuridade está subestimada.
Resumo:
Este documento foi escrito para retratar o trabalho desenvolvido como tese de mestrado “Desenvolvimento de um Programa/Base de dados para o controlo automático da Engenharia/Manutenção Aeronáutica”. O programa criado tem como objectivo de gerir a aeronavegabilidade de uma frota de aeronaves, traduzindo todos os requisitos da autoridade que rege a aeronáutica na Europa. O mesmo fundamenta-se no desenvolvimento de um software aplicado a uma empresa que faz a gestão contínua da aeronavegabilidade de um operador aéreo. A sua realização implica conhecer todas as tarefas na gestão contínua de aeronavegabilidade dentro de uma empresa certificada Part M. Para esse conhecimento foi preciso um estudo sobre todas as entidades, manuais e definições envolventes a essa função. A base da construção do programa foi o anexo II, requisitos exigidos pelo INAC para aprovar um programa desse género. Para uma melhor abordagem foi preciso uma revisão de conceitos da manutenção industrial resultantes da Manutenção Aeronáutica e demais. Num início, comeca-se por definir através de vários pontos de vista a manutenção, planeamento da manutenção, noções de fiabilidade e teorias fiabilisticas que estão na base do desenvolvimento de programas de manutenção, seguido de uma explicação sucinta do que é uma empresa que gere aeronavegabilidade de um operador aéreo. É fei3 ta uma explicação de todas as tarefas para manter todo o material de voo aeronavegável segundo o INAC . No capítulo III temos uma explicação de todas as teorias usadas na manutenção aeronáutica na evolução de programas de manutenção de aeronaves passando pelo MSG1 até à filosofia actual usada no desenvolvimento de programas de manutenção na aeronáutica, MSG3. O capítulo IV descreve todos os documentos técnicos envolvidos na gestão de aeronavegabilidade, desde os manuais emitidos pelo fabricante, passando pelos documentos emitidos pelas autoridades aeronáuticas e documentos técnicos produzidos pelo próprio operador aéreo. No capítulo V é descrita uma organização Part M, subpart G, as tarefas mais importantes na gestão contínua de aeronavegabilidade e as responsabilidades da mesma perante a autoridade aeronáutica nacional e tambem define todo o tipo de manutenção exigida a um operador aéreo para manter o seu material de voo aeronavegável sempre atendendo à segurança. Este capítulo define todo o tipo de trabalho a realizar, desde as manutenções mais leves realizadas na placa com o avião em trânsito até às grandes manutenções realizadas num Hangar e apoiodas por oficinas de especialidade. O capítulo VI descreverá o que foi feito. Este capítulo descreve sucintamente tudo o que foi feito, as razões da criação das tabelas, consultas, formulários e relatórios e importância desses na dinâmica da gestão de aeronavegabilidade. Depois de explicar a razão da criação de todas as tabelas, consultas e formulários segue-se um subcapítulo com dados de manutenção fornecidos gentilmente por uma empresa no ramo de forma a poder demostrar como o programa funciona. O último subcapítulo tem algumas considerações finais sobre aquilo que foi feito e aquilo que deveria ser feito com o objectivo de desempenhar de forma automática todoss os requisitos de gestão de aeronavegabilidade. O capítulo VIII tem algumas recomendações futuras a alguém que quiser dar uma continuidade a esse projecto que pode tornar-se muito interessante para uma empresa Part M.
Resumo:
Na presente dissertação pretendemos averiguar da pertinência prática do actual modelo de protecção de dados clínicos, ou seja, se nele está devidamente consagrada a autonomia e a individualidade do utente; pretendemos ainda perceber a tendência evolutiva do sistema português de protecção de dados clínicos, nomeadamente a sua capacidade de inovação e adaptação aos sistemas internacionais, respeitando o nosso ordenamento jurídico. Concretamente, pretendemos perceber de que forma esta informação estará protegida, bem como até onde os utentes estarão consciencializados dos perigos que enfrentam. Embora este seja um problema mundial, o facto é que a Gestão do Sistema de Protecção de Dados Pessoais e Clínicos suscita polémica e interpretações diferentes, dada a sensibilidade ética do tema, a integridade humana. Além deste facto, estamos perante uma problemática que irá sempre envolver vários interesses e consequentemente um confronto de posições. Este trabalho procura ilustrar de que forma se lida com a gestão de dados pessoais no nosso país, de que modo se harmonizam os diferentes interesses e perspectivas, que prioridades se encontram na orientação governamental nesta matéria, quais as penalizações para os eventuais incumpridores e qual o futuro possível dos dados pessoais em saúde, tendo como objectivo comum uma eficácia e sustentabilidade dos mecanismos utilizados. Vamos encontrar interesses divergentes, compromissos permissivos ou restritivos de tratamento de dados, tendências que suportam interesses privados e públicos que se vão concretizar em escolhas eficientes de gestão de dados. Esta diversidade de comportamentos vai ser objecto de estudo e análise neste trabalho, procurando aferir das vantagens e desvantagens de um sistema de informação em saúde: universal com a população coberta, e integrado a fim de compartilhar informações de todos os pacientes, de todas as unidades de prestação de cuidados de saúde.
Resumo:
INTRODUÇÃO: Existem muitas críticas à qualidade dos dados criminais existentes no Brasil, mas há pouco estudo sistemático para corroborar essas críticas. Nesse sentido, foi feito estudo com o objetivo de comparar o número de homicídios registrados entre dois sistemas públicos de informação. MÉTODOS: Foram analisados os óbitos registrados pelo Sistema de Informações de Mortalidade do Ministério da Saúde (SIM/MS) e pela Polícia Militar (PMMG), de 1979 a 1998. A comparação entre os dois sistemas foi feita pela razão entre os números absolutos, categorizando os municípios em cinco grupos de acordo com o tamanho da população em 1998, e pelas taxas de homicídio. Foram ajustados dois modelos de regressão linear das taxas no tempo, um para cada sistema. RESULTADOS: Nas cidades de menos de 100.00 habitantes, as informações de homicídios da PMMG são mais completas do que as do SIM/MS. Nas cidades de mais de 100.000 habitantes, o SIM/MS é capaz de recuperar mais eficientemente os óbitos, embora possam ser incluídos indevidamente óbitos de homicídios cometidos em outros municípios e óbitos por arma branca e de fogo de intenção indeterminada que não tenham sido devido a homicídio. O sub-registro da PMMG pode ser devido às mortes hospitalares tardias, que não são acompanhadas pela PMMG. CONCLUSÕES: Os sistemas do SIM/MS e PMMG representam limites superiores e inferiores do número real de homicídios ocorridos nas grandes cidades. Sugere-se que, quando disponíveis, as duas fontes sejam analisadas e comparadas; quando apenas uma delas estiver disponível, propõe-se que a análise deva considerar as diferenças.
Resumo:
Os testes acelerados de vida são realizados com o objectivo de estimar determinados parâmetros fiabilísticos, referentes a um determinado tipo de bem, despoletando a ocorrência de um dado modo de falha específico, num período de tempo mais reduzido do que aquele em que, em condições de normal operação se verificaria. Torna-se assim possível, através da utilização dos testes acelerados de vida e dos modelos matemáticos de extrapolação de dados, prever a ocorrência de falhas e dos seus modos, permitindo assim realizar alterações aos projectos em estudo, antes mesmo de estes serem disponibilizados no mercado. O emprego deste tipo de metodologia possibilita às organizações uma economia de tempo na determinação dos dados de vida dos bens, o que se reflecte numa grande vantagem face aos testes realizados para normais condições de operação. No presente documento é feita uma abordagem muito objectiva dos conceitos de fiabilidade de modo a poder perceber os conceitos teóricos em que assentam as metodologias relacionadas com os testes acelerados de vida, bem como o estudo e análise das teorias que servem por base aos testes acelerados. No presente documento são analisados os modelos matemáticos de extrapolação de dados dos testes acelerados de vida, tais como o modelo de Arrhenius, o modelo de Eyring, o modelo da Lei da Potência Inversa e o modelo de Bazovsky. Para uma melhor compreensão dos conceitos é feita uma análise às distribuições mais utilizadas em fiabilidade, caso da distribuição de Weibull, da distribuição Normal e da distribuição Lognormal. Para implementar os conceitos e metodologias estudadas, obtiveram-se dados referentes a testes acelerados de vida de um óleo isolante de um transformador eléctrico, implementou-se a metodologia relacionada com o modelo da Lei da Potência Inversa através do software ALTA 8 e determinaram-se os parâmetros fiabilísticos correspondentes. De outro modo, foi ainda utilizado um método detalhado de resolução, utilizando o software Weibull++ 8, para posterior comparação de resultados.
Resumo:
O estudo insere-se no âmbito da educação matemática, mais especificamente na área da geometria. Com esta investigação pretende-se compreender qual o contributo do Ambiente de Geometria Dinâmica (AGD), GeoGebra, e do material manipulável (geoplano) na identificação das propriedades e relações entre quadriláteros: trapézio, paralelogramo, retângulo, losango e quadrado. De acordo com o objetivo do estudo formularam-se três questões: Qual o papel das representações na identificação das propriedades dos quadriláteros? Que influência tem a visualização na identificação das propriedades dos quadriláteros? Quais os contributos da utilização do AGD, GeoGebra, e do material manipulável (geoplano) na compreensão das propriedades e relações entre os quadriláteros? Atendendo à problemática em estudo, optou-se por uma metodologia de investigação predominantemente qualitativa, baseada em três estudos de caso. A recolha de dados empíricos foi realizada numa turma de 4.º ano do 1.º ciclo do ensino básico onde se implementou uma experiência de ensino, envolvendo todos os alunos e recorrendo ao geoplano e ao GeoGebra. Essa recolha incidiu na observação participante, em sala de aula, no registo de notas da investigadora, nos documentos produzidos pelos alunos e nos registos áudio e vídeo das discussões nos grupos e no coletivo da turma. Em termos de resultados, salienta-se que a utilização de representações evidenciou a compreensão que os alunos têm dos conceitos, facilitou a identificação das propriedades dos quadriláteros e a compreensão das relações entre eles. Os alunos identificaram as propriedades com base nas representações, no entanto focaram-se em casos particulares, de acordo com a imagem mental que têm da figura, especificamente o protótipo, indiciando a influência da visualização. Dos resultados sobressai também a dificuldade que os alunos sentiram em considerar uma figura como representante de uma classe e em distinguir atributos essenciais e não essenciais. Da análise dos dados ressalta também que tanto o geoplano como o GeoGebra foram uma mais-valia na concretização da experiência de ensino deste estudo. Os dois possuem vantagens e limitações e podem ser usados de maneira que um complemente o outro, podendo dessa forma contribuir, favoravelmente, para a aprendizagem da geometria. - ABSTRACT The study falls within the scope of mathematics education, specifically in the area of geometry. This research aims to understand the contribution of the Dynamic Geometry Environment (GeoGebra) and manipulative material (Geoboard) in the identification of properties and relations of quadrilaterals: trapezium, parallelogram, rectangle, diamond and square. According to the purpose of the study three questions were formulated: What is the role of the representations in the identification of the properties of quadrilaterals? What is the influence of visualization on the identification of the properties of quadrilaterals? What are the contributions on the use of Dynamic Geometry Environment (GeoGebra) and manipulative material (Geoboard) to understand the properties and relationships among quadrilaterals? Given the problem under study, it was chosen a predominantly qualitative research methodology based on three case studies. The empirical data collection was carried out on a fourth primary grade class, where it was implemented a teaching experience, involving all students and the use of Geoboard and GeoGebra. This collection was focused on participant observation in the classroom, in the record of the researcher’s notes, the documents produced by the students and the audio and video recordings of group discussions and collective class. In terms of results, it is noted that the use of representations showed the students understanding of the concepts and that it has facilitated the identification of the properties of quadrilaterals and understanding of the relationships between them. The students identified properties based on representations, however they focused in particular cases, according to the mental image that they have of the figure, specifically the prototype, indicating the influence of visualization. Results also highlights the difficulty that students felt in considering a figure as a representation of a group and distinguishing essential and nonessential attributes. Data analysis also highlights that both Geoboard and GeoGebra have been an asset in the delivery of teaching experience in this study. Both have advantages and limitations and they may be used to complement each other and contribute favorably to the learning of geometry.
Resumo:
OBJETIVO: Avaliar a qualidade da informação sobre óbito por infarto agudo do miocárdio nos sistemas de informação hospitalar e de mortalidade. MÉTODOS: Foram analisados dados sobre mortalidade hospitalar por infarto agudo do miocárdio, em 2000, utilizando as bases de dados do Sistema de Informação de Mortalidade (SIM) e do Sistema de Informação Hospitalar (SIH/SUS); e numa segunda etapa utilizaram-se de dados obtidos de levantamento direto de prontuários médicos de dois hospitais do Sistema Único de Saúde no município do Rio de Janeiro. Foi feita comparação entre prontuários, declarações de óbitos e formulários de autorização de internação hospitalar. Utilizou-se para confirmação do diagnóstico de infarto agudo do miocárdio critérios da Organização Mundial de Saúde. A concordância entre as informações presentes na declaração de óbito, autorização de internação hospitalar e prontuários foi utilizado o teste de Kappa de Cohen e o coeficiente de correlação intraclasse (ICC). RESULTADOS: O total de óbitos hospitalares por infarto agudo do miocárdio registrados no SIM é expressivamente maior que no SIH/SUS. Foram identificados três fontes que explicam grande parte da discrepância observada: ausência de emissão de autorização de internação hospitalar (32,9%), notificação de outro diagnóstico principal no SIH/SUS (19,2%) e subnotificação do óbito na autorização de internação hospitalar (3,3%). O diagnóstico de infarto foi confirmado em 67,1% dos casos de notificados na declaração de óbito. A sensibilidade da informação sobre óbito por infarto do miocárdio foi de aproximadamente 90% em ambos os sistemas de informação analisados. CONCLUSÕES: Os resultados mostraram ser necessário implementar medidas voltadas para a melhoria da qualidade da informação no SIH/SUS, tais como a padronização de critérios para emissão da autorização de internação hospitalar nas emergências e o treinamento das equipes dos sistemas de registro.
Resumo:
OBJETIVO: A tuberculose é uma das maiores causas de mortalidade no mundo, porém seus efeitos econômicos são pouco conhecidos. O objetivo do estudo foi o de estimar os custos do tratamento e prevenção da tuberculose para o sistema de saúde (público e privado) e para as famílias. MÉTODOS: O estudo foi realizado no município de Salvador, BA, em 1999. Os dados para estimação dos custos para o sistema de saúde foram coletados nas secretarias de saúde, centros de saúde e em uma entidade filantrópica. Os custos públicos e privados foram estimados pela metodologia da contabilidade de custos. Os dados de custos para as famílias foram coletados por meio de questionários e incluem despesas com transporte, alimentação e outros, bem como as perdas de renda associadas à doença. RESULTADOS: O custo médio para tratamento de um caso novo de tuberculose foi de aproximadamente R$186,00 (US$103); para o tratamento de um paciente multiresistente o custo foi 27 vezes mais alto. Os custos para o serviço público corresponderam a 65% em internações, 32% em tratamento e apenas 3% em prevenção. As famílias comprometeram cerca de 33% da sua renda com despesas relacionadas a tuberculose. CONCLUSÕES: Apesar do fato das famílias não terem que pagar por medicamentos e tratamento, dado que este serviço é oferecido pelo Estado, os custos familiares ligados a perda de rendimentos devido a doença foram muito elevados. A proporção utilizada em prevenção pelo serviço público é pequena. Um maior investimento em campanhas de prevenção poderia não somente diminuir o número de casos, mas também, levar a um diagnósticos precoce, diminuindo os custos associados à hospitalização. A falta de um sistema integrado de custos não permite a visualização dos custos nos diversos setores.
Resumo:
Neste artigo apresenta-se a ferramenta SmartClean, destinada à detecção e correcção de problemas de qualidade dos dados. Comparativamente às ferramentas actualmente existentes, o SmartClean possui a mais-valia de não obrigar a que a sequência de execução das operações seja especificada pelo utilizador. Para tal, foi concebida uma sequência segundo a qual os problemas são manipulados (i.e., detectados e corrigidos). A existência da sequência suporta ainda a execução incremental das operações. No artigo, a arquitectura subjacente à ferramenta é exposta, sendo detalhados os seus componentes. A validade da ferramenta e, consequentemente, da arquitectura é comprovada através da apresentação do caso de estudo efectuado. Apesar do SmartClean possuir potencialidades de limpeza de dados noutros níveis (e.g., relação), no artigo apenas são descritas as relativas ao nível do valor individual do atributo.