999 resultados para Bancos - Processamento de dados
Resumo:
Objetivou-se testar a associação do diabetes mellitus com a doença isquêmica do coração, procedendo-se ao ajustamento simultâneo para possíveis variáveis de confusão e/ou modificadoras de efeito. O estudo foi planejado sob a forma de um desenho tipo caso-controle, a coleta de dados estendeu-se de março de 1993 a fevereiro de 1994. Utilizou-se a estratégia de compor três bancos de dados que permitiram a realização do estudo em duas bases populacionais: uma base primária e uma base secundária. A amostra total foi composta por 833 indivíduos de ambos os sexos, na faixa etária de 30 a 69 anos completos, sendo todos residentes no município de São Paulo. A técnica estatística utilizada para a análise dos dados foi a regressão logística multivariada. Os resultados permitiram identificar que o diabetes mellitus não se constituiu em fator de risco independente para a doença isquêmica do coração, nas duas bases populacionais estudadas. Por outro lado, foi possível identificar, de forma consistente, um efeito independente para as variáveis hipertensão arterial, hipercolesterolemia, hábito de fumar e antecedentes familiares de cardiopatia. As interações consideradas de interesse, combinando-se história positiva de diabetes com as categorias de exposição de outras variáveis, não apresentaram significância estatística. São apresentadas algumas razões de ordem metodológica que exerceriam influência sobre a magnitude das medidas de efeito em diferentes bases populacionais. Conclui-se que o desaparecimento da associação diabetes x doença isquêmica do coração foi decorrente da presença, nos modelos, de potentes fatores de risco.
Resumo:
Apresenta-se um sistema computacional, denominado ICADPLUS, desenvolvido para elaboração de banco de dados, tabulação de dados, cálculo do índice CPO e análise estatística para estimação de intervalos de confiança e comparação de resultados de duas populações.Tem como objetivo apresentar método simplificado para atender necessidades de serviços de saúde na área de odontologia processando fichas utilizadas por cirurgiões dentistas em levantamentos epidemiológicos de cárie dentária. A característica principal do sistema é a dispensa de profissional especializado na área de odontologia e computação, exigindo o conhecimento mínimo de digitação por parte do usuário, pois apresenta "menus" simples e claros como também relatórios padronizados, sem possibilidade de erro. Possui opções para fichas de CPO segundo Klein e Palmer, CPO proposto pela OMS, CPOS segundo Klein, Palmer e Knutson, e ceo. A validação do sistema foi feita por comparação com outros métodos, permitindo recomendar sua adoção.
Resumo:
Perda auditiva: elevada prevalência da perda auditiva (14,1%), efeitos na comunicação, efeitos em aspectos psicossociais, cognitivos, da fala e linguagem. Avaliação da perda auditiva: baseia-se nos testes audiométricos psicoacústicos, base audiometria tonal, que permite estimar a sensibilidade auditiva (normal vs anormal), permite classificar o tipo e grau de perda auditiva, avaliação qualitativa com a utilização de escalas desenvolvidas para esse efeito, HHIA (Hearing Handicap Inventory for Adults), instrumento desenvolvido a partir do HHIE (Hearing Handicap Inventory for the Elderly), para ser usado com pacientes de idade inferior a 65 anos.
Resumo:
As mortes por causas externas correspondem a grande parcela de óbitos em, praticamente, todos os países do mundo, ocupando, sempre, a segunda ou terceira colocação. Porém a sua distribuição quanto ao tipo de causa é diversa. Com o objetivo de estudar a mortalidade por causas externas, segundo o tipo de causa, sexo e idade, foi descrita a situação dessas mortes no Brasil e capitais, no período 1977 a 1994. Foram calculados os coeficientes de mortalidade por causas externas e a mortalidade proporcional, utilizando os dados de mortalidade fornecidos pelo Sistema de Informação de Mortalidade do Ministério da Saúde, e a população foi estimada baseada nos dados censitários de 1970, 1980 e 1991. Os resultados mostraram que, em números absolutos, os óbitos por causas externas quase dobraram no período de 1977 a 1994, passando a ser a segunda causa de morte no País. O coeficiente de mortalidade, em 1994, foi de 69,8/100.000 habitantes e o maior crescimento se deu nos óbitos do sexo masculino. Os coeficientes de mortalidade masculinos são, aproximadamente, 4,5 vezes o valor dos femininos. As causas externas representaram a primeira causa de morte dos 5 aos 39 anos, sendo a maior ocorrência na faixa etária dos 15 a 19 anos (65% dos óbitos por causas externas). Além do aumento, parece estar ocorrendo um deslocamento das mortes para faixas etárias mais jovens. A mortalidade por causas externas, segundo tipo, mostra que durante o período analisado houve aumento tanto nos óbitos por acidentes de trânsito, quanto por homicídios, tendo os suicídios permanecido, praticamente, constantes. No grupo de acidentes classificados como "demais acidentes" houve leve aumento, devido, principalmente, às quedas e afogamentos. Nas capitais dos Estados a mortalidade por causas externas apresentam valores mais altos que a média brasileira, com exceção de algumas áreas do Nordeste. As capitais da região Norte apresentaram algumas das maiores taxas para o País. Já na região Nordeste apenas Recife, Maceió e Salvador apresentaram níveis muito elevados em relação ao País. Vitória, Rio de Janeiro e São Paulo, na região Sudeste, apresentaram os maiores coeficientes do País e Belo Horizonte apresentou declínio no período de estudo. Na região Sul houve aumento nas taxas, bem como na região Centro-Oeste, que teve aumento homogêneo em suas capitais. Esse aumento observado nas diferentes capitais apresentou diferenciais quanto ao tipo de causa externa. Os suicídios não representaram problema de Saúde Pública em nenhuma delas. Os acidentes de trânsito em Vitória, Goiânia, Macapá, Distrito Federal e Curitiba tiveram sua situação agravada. Os homicídios tiveram aumento expressivo em Porto Velho, Rio Branco, Recife, São Luís, Vitória, São Paulo, Curitiba, Porto Alegre, Cuiabá e Distrito Federal. No período estudado houve o crescimento da importância das causas externas para a população brasileira, chamando atenção, principalmente, o aumento dos homicídios. A qualidade das estatísticas de mortalidade por causas externas depende da colaboração do médico legista, e essa qualidade não é a mesma para todas as capitais estudadas.
Resumo:
A presente dissertação pretende conceber e implementar um sistema de controlo tolerante a falhas, no canal experimental de rega da Universidade de Évora, utilizando um modelo implementado em MATLAB/SIMULINK®. Como forma de responder a este desafio, analisaram-se várias técnicas de diagnóstico de falhas, tendo-se optado por técnicas baseadas em redes neuronais para o desenvolvimento de um sistema de detecção e isolamento de falhas no canal de rega, sem ter em conta o tipo de sistema de controlo utilizado. As redes neuronais foram, assim, os processadores não lineares utilizados e mais aconselhados em situações onde exista uma abundância de dados do processo, porque aprendem por exemplos e são suportadas por teorias estatísticas e de optimização, focando não somente o processamento de sinais, como também expandindo os horizontes desse processamento. A ênfase dos modelos das redes neuronais está na sua dinâmica, na sua estabilidade e no seu comportamento. Portanto, o trabalho de investigação do qual resultou esta Dissertação teve como principais objectivos o desenvolvimento de modelos de redes neuronais que representassem da melhor forma a dinâmica do canal de rega, de modo a obter um sistema de detecção de falhas que faça uma comparação entre os valores obtidos nos modelos e no processo. Com esta diferença de valores, da qual resultará um resíduo, é possível desenvolver tanto o sistema de detecção como de isolamento de falhas baseados nas redes neuronais, possibilitando assim o desenvolvimento dum sistema de controlo tolerante a falhas, que engloba os módulos de detecção, de isolamento/diagnóstico e de reconfiguração do canal de rega. Em síntese, na Dissertação realizada desenvolveu-se um sistema que permite reconfigurar o processo em caso de ocorrência de falhas, melhorando significativamente o desempenho do canal de rega.
Resumo:
O Programa Nacional de Avaliação Externa da Qualidade (PNAEQ) foi criado em 1978 como sendo uma das atribuições do Instituto Nacional de Saúde Doutor Ricardo Jorge (INSA). A sua missão é promover, organizar e coordenar programas de avaliação externa da qualidade (AEQ) para laboratórios que exerçam atividade no setor da saúde. O primeiro programa de AEQ do PNAEQ para avaliação da Fase Pré-Analítica foi distribuído em 2007. Os ensaios são pluridisciplinares, podendo incluir o envio de amostras para avaliação das condições para processamento (aceitação ou rejeição, preparação, acondicionamento), a simulação de requisições médicas, a resposta a questionários, a interpretação de casos-estudo, o levantamento de dados (auditorias ou monitorização de indicadores) ou a realização de chamadas anónimas (“cliente mistério”). O PNAEQ disponibiliza ainda 4 programas em colaboração com a Labquality (Flebotomia e POCT, Química Clínica, Microbiologia e Gases no Sangue) e 1 programa com a ECAT (Hemostase). Em 2015 e 2016, o objetivo dos programas da Fase Pré-Analítica do PNAEQ foi proporcionar o envolvimento do laboratório no processo de avaliação e monitorização da fase pré-analítica, conferindo-lhe ferramentas que lhe permitam realizar a sua autoavaliação. A fase pré-analítica é a que absorve o maior número de erros na análise de amostras biológicas, representando 40% a 70% de todas as falhas ocorridas no processamento analítico (Codagnone et al, 2014). A principal razão está na dificuldade em controlar as variáveis pré-analíticas , uma vez que esta fase envolve inúmeras atividades não automatizadas como a colheita, o manuseamento, o transporte e a preparação das amostras.
Resumo:
O Registo Nacional de Anomalias Congénitas (RENAC) recebe notificações da ocorrência de anomalias congénitas diagnosticadas até ao final do 1º mês de vida, algumas das quais são raras. Foi realizado um estudo observacional, transversal, com a finalidade de descrever a epidemiologia dos registos de anomalias congénitas que constituem uma síndrome genética rara, utilizando os dados do RENAC entre 2000-2013. Observou-se uma prevalência de 1,17 casos/10 000 nascimentos de indivíduos com síndrome genética rara com anomalias que afetam múltiplos sistemas. Estas patologias representam um pequeno grupo do universo das doenças raras. No total das síndromes estudadas (n=171), a maior frequência observou-se no grupo de síndromes que afetam predominantemente o aspeto da face (50,9%) e, neste grupo, destacam-se a Sequência de Pierre Robin (26,3%) e a Síndrome de Goldenhar (11,7%). No grupo de outras síndromes genéticas, a Síndrome de DiGeorge foi diagnosticada em 12,3% dos casos. Dada a inexistência de um registo nacional de doenças raras, os dados do RENAC podem contribuir para avaliar a prevalência de algumas destas doenças. Contudo para uma melhor vigilância de algumas doenças raras, o prazo de registo será alargado até ao ano de idade de modo a permitir que situações mais complexas possam ser identificadas e registadas.
Resumo:
As redes de telecomunicações nos últimos anos têm sofrido um grande desenvolvimento a nível tecnológico. A prova disso é a revolução das redes sem fios, iniciada com a tecnologia GSM (Global System Mobile) nos anos 90, na qual eram apenas disponibilizados serviços de voz. Esta tendência continuou com o GPRS (General Packet Radio Service) onde se iniciaram os serviços de dados surgindo assim mais tarde, a tecnologia UMTS (Universal Mobile Telecommunications System). Com o aparecimento da nova tecnologia LTE (Long-Term Evolution), surgiu um novo paradigma consumista no mercado, facto que gerou um conflicto directo com as redes de banda larga (ADSL - Asymmetric Digital Subscriber Line) fornecidas anteriormente apenas pela rede fixa. A partir deste momento, estas duas tecnologias passaram a oferecer altos débitos de dados, eliminando assim esta diferenciação existente até então entre ambas. Esta foi a plataforma que despoletou o meu interesse em explorar a tecnologia LTE, mais precisamente, o planeamento de rádio em ambientes Indoor e Outdoor. Este planeamento requeria uma comparação prática e teórica, de forma a observar que a tecnologia reflectia os valores estipulados na norma LTE. Como método de comparação foi utilizada uma ferramenta de planeamento de redes móveis, gentilmente disponibilizada pela Alcatel-Lucent para o tipo de ambiente outdoor em estudo, para o indoor não foi efectuado simulação, por indisponibilidade da ferramenta. Após a configuração do sistema de rádio foi efectuada a recolha de dados no terreno através de drive-testes. Findo esta fase, procedeu-se ao pós-processamento e análise dos dados recolhidos, por forma a ser possível estabelecer a comparação entre o planeamento teórico efectuado através da ferramenta de planeamento e os dados capturados no terreno. Os resultados obtidos demonstram que a cobertura preconizada no caso Outdoor estavam de acordo com o planeamento efectuado, uma vez que os dados medidos no terreno coincidiram com os valores simulados, apenas com um desvio mínimo dentro da margem de tolerância. No que respeita ao indoor verificou-se que as medidas estavam de acordo com o estipulado na norma. Como conclusão, confirmou-se a validade das ferramentas e da metodologia utilizada.
Análise dos métodos de medição dos parâmetros geométricos de via e correlação entre os dados obtidos
Resumo:
A razão atribuída à escolha do tema do T.F.M. em Caminhos-de-ferro, tem a ver com o facto de ser uma via de comunicação específica. Contrariamente ao que acontece na execução de auto-estradas, no caminho-de-ferro, a gestora da infra-estrutura responsabiliza-se pela execução, exploração (sinalização e controlo de circulação), abastecimento de energia fornecida às vias que dispõem de catenária (tracção eléctrica), manutenção e conservação da via. O processo de análise e inspecção de geometria de via, é usado quando e necessário preservar a infra-estrutura. Este processo iniciou-se nos caminhos-de-ferro portugueses, há muitos anos, depois da inauguração do primeiro troco de linha férrea. A primeira viagem ocorre em Outubro de 1856, sendo o início do processo em 1968, com a dresina “Matisa PV-6”. Em 1991 a C.P. adquiriu outro veículo de inspecção de via, tendo sido escolhido o VIV02 EM 120 da marca Plasser & Theurer, para substituir “Matisa PV-6”. O tema Análise dos Métodos de Medição dos Parâmetros Geométricos de Via e Correlação entre os Dados Obtidos está directamente relacionado com a manutenção e conservação de via. Na Unidade Operacional Sul (hoje ROS – Região Operacional Sul), local onde desenvolvi o T.F.M., não existem obras de construção de caminhos-de-ferro que pudesse acompanhar e constituir tema para o meu trabalho. Na realidade, com a falta de investimento que se perspectiva no futuro próximo, a manutenção da infra-estrutura passa a ser a actividade principal desenvolvida pela REFER, de modo a assegurar a comodidade, segurança e rapidez na deslocação de cargas e pessoas. A Analise Geométrica de Via e actualmente uma das principais actividades no âmbito da manutenção, que é feita por diagnóstico, contrariamente ao que acontecia no passado em que a conservação metódica era realizada num determinado ano num troço seleccionado independentemente da necessidade ou não da mesma. Uma ajuda preciosa, no que se refere à decisão de se realizar um determinado trabalho de conservação, e a do veículo VIV02 EM 120 que faz inspeções ao longo de toda a rede ferroviária e permite recolher dados e classificar através do desvio padrão, troços com extensão de 200 metros, obtendo os dados relevantes sobre a necessidade de intervenção. Para além do referido veículo existem também equipamentos ligeiros de inspecção dos parâmetros geométricos de via. Um desses equipamentos designa-se por Trólei, não sendo motorizado, pois o mesmo é movido manualmente por um operador. Obviamente que este equipamento não faz a inspecção a toda a rede pois a operação de medição é morosa, sendo contudo utilizado para análise de defeitos geométricos em pequenos trocos, tornando-se assim uma mais-valia, evitando o deslocar de um equipamento “pesado” como o VIV 02 EM 120. Para atingir os objectivos deste trabalho realizaram-se testes de medição com ambos (veiculo e equipamento ligeiro), no mesmo espaço temporal e com as mesmas características físicas, como a temperatura, humidade etc. Os resultados, de acordo com os objectivos, são a comparação entre as medições de ambos, com vista a comprovar a sua utilidade e necessidade, de acordo com os vários tipos de superstruturas constituintes da rede ferroviária nacional.
Resumo:
A larga difusão, nos últimos anos, de softwares estatísticos indicados para análises multivariadas, aliada à facilidade de seu manuseio, poderá conduzir os usuários à obtenção de estimativas enganosas caso não se conheçam os pressupostos teóricos necessários para o emprego destas técnicas. Com o propósito de se destacar alguns desses pressupostos, apresentam-se as etapas executadas para a análise dos dados de um estudo caso-controle, conduzido no Município de São Paulo, entre março de 1993 e fevereiro de 1994, cujo objetivo foi testar a associação do diabetes mellitus com a doença isquêmica do coração após o ajustamento para possíveis variáveis de confusão e/ou modificadoras de efeito. Para uma melhor visualização didática desses pressupostos metodológicos são destacadas quatro etapas fundamentais durante a fase de análise dos dados: a) construção do banco de dados; b) cálculo do poder estatístico; c) categorização e codificação das variáveis e d) a escolha do modelo de regressão logística multivariada.
Resumo:
Em 50 doentes matriculados para o tratamento de tuberculose pulmonar, foram estudadas as informações que antecederam o diagnóstico da doença tais como: sintomatologia antes do diagnóstico, tempo decorrido entre o aparecimento dos sintomas e a procura de assistência médica, tempo decorrido entre o início dos sintomas e o início do tratamento e presença ou não de co-infecção com HIV. Nos últimos dez anos não houve alteração significativa em relação ao tempo de identificação dos casos novos de tuberculose e o início do tratamento.
Resumo:
OBJETIVO: Avaliar a qualidade dos dados populacionais e a cobertura dos registros de óbitos para as Unidades da Federação Brasileira (UF), por sexo, no ano de 1990. MÉTODOS: Os dados populacionais extraídos dos Censos Demográficos foram avaliados através de métodos demográficos clássicos. Os registros de óbitos, extraídos da Fundação Instituto Brasileiro de Geografia e Estatística e do Ministério da Saúde, foram avaliados através de três técnicas de mensuração do sub-registro de óbitos. RESULTADOS: A precisão das declarações das idades das UF, em sua maioria, passou do status de "pouco preciso" ou "moderado" para "preciso" na década de 80. A cobertura dos óbitos, em 1990, foi classificada como "boa" ou "satisfatória" para todos os Estados do Sul, Sudeste, Centro-Oeste e para os do Nordeste, abaixo do Rio Grande do Norte. O restante dos estados foram classificados como "regular" ou "insatisfatório". CONCLUSÕES: Houve uma melhora importante na qualidade das declarações da população recenseada e aumento da cobertura de óbitos e que, para muitas UF, é possível gerar confiáveis indicadores de mortalidade.
Resumo:
INTRODUÇÃO: Muitas mudanças ocorreram no perfil da morbidade dos pacientes atendidos nos hospitais do País nos últimos anos, seja em função de fatores demográficos, epidemiológicos, financeiros, tecnológicos ou da estrutura dos serviços. MÉTODOS: Foram utilizados dois bancos de dados referentes às saídas hospitalares nos anos de 1975 e 1988, no Vale do Paraíba, contendo as mesmas variáveis: hospital; residência, idade e sexo do paciente; condição de saída; fontes de financiamento; tempo de permanência e diagnóstico principal. RESULTADOS E CONCLUSÕES: Nas internações percebeu-se queda de alguns grupos de diagnósticos como "sintomas, sinais e afecções maldefinidas" e "doenças infecciosas e parasitárias" e crescimento de outros, em especial "neoplasmas" e "doenças do aparelho circulatório", tendo como causas possíveis as mudanças demográficas, epidemiológicas, tecnológicas e da estrutura de serviços. Houve, ainda, uma migração de diagnósticos pouco específicos para outros mais definidos, provavelmente, como conseqüência das mudanças na forma de remuneração do sistema de saúde.
Resumo:
Um dos maiores desafios tecnológicos no presente é o de se conseguir gerar e manter, de uma maneira eficiente e consistente, uma base de dados de objectos multimédia, em particular, de imagens. A necessidade de desenvolver métodos de pesquisa automáticos baseados no conteúdo semântico das imagens tornou-se de máxima importância. MPEG-7 é um standard que descreve o contudo dos dados multimédia que suportam estes requisitos operacionais. Adiciona um conjunto de descritores audiovisuais de baixo nível. O histograma é a característica mais utilizada para representar as características globais de uma imagem. Neste trabalho é usado o “Edge Histogram Descriptor” (EHD), que resulta numa representação de baixo nível que permite a computação da similaridade entre imagens. Neste trabalho, é obtida uma caracterização semântica da imagem baseada neste descritor usando dois métodos da classificação: o algoritmo k Nearest Neighbors (k-NN) e uma Rede Neuronal (RN) de retro propagação. No algoritmo k-NN é usada a distância Euclidiana entre os descritores de duas imagens para calcular a similaridade entre imagens diferentes. A RN requer um processo de aprendizagem prévia, que inclui responder correctamente às amostras do treino e às amostras de teste. No fim deste trabalho, será apresentado um estudo sobre os resultados dos dois métodos da classificação.