997 resultados para mIneração de dados


Relevância:

20.00% 20.00%

Publicador:

Resumo:

XXI Jornadas de Classificação e Análise de Dados (JOCLAD 2014). 10-12 Abril, 2014, INE, Lisboa, Portugal (Comunicação).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Estratégias metodológicas vêm sendo desenvolvidas para minimizar o efeito do erro de medida da dieta. O objetivo do estudo foi descrever a aplicação de uma estratégia para correção da informação dietética pelo erro de medida. MÉTODOS: Foram obtidos dados de consumo alimentar pela aplicação do Questionário de Freqüência Alimentar a 79 adolescentes do Município de São Paulo em 1999. Os dados dietéticos obtidos foram corrigidos por meio de regressão linear, após o ajuste pela energia usando-se o método dos resíduos. O método de referência utilizado foi o recordatório de 24 horas, aplicado em três momentos distintos. RESULTADOS: Os valores corrigidos aproximaram-se dos valores de referência. O fator de correção lambda foi de 0,89 para energia. Para os macronutrientes, os fatores foram de 0,41; 0,22 e 0,20, para carboidratos, lipídios e proteínas, respectivamente. CONCLUSÕES: As médias e desvios-padrão dos valores corrigidos denotam que houve uma correção do erro de medida. Apesar disso, debate-se o desempenho desses métodos, que são notoriamente imperfeitos quando seus pressupostos teóricos não são atendidos, o que é comum nos estudos da dieta que usam instrumentos de medida baseados no relato dos indivíduos.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de Mestrado em Gestão e Conservação da Natureza.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

XXII Jornadas de Classificação e Análise de Dados (JOCLAD 2015), 10-11 abril 2015, ESTBarreiro/IPS, Barreiro, Portugal (Comunicação).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Analisar fatores determinantes do status de saúde em cada estado da Região Nordeste do Brasil. MÉTODOS: Estudo utilizando a metodologia de dados em painel, com informações agregadas para municípios. Os dados compreendem os anos de 1991 e 2000, e foram obtidos no Atlas do Desenvolvimento Humano do Programa das Nações Unidas para o Desenvolvimento, e Secretaria do Tesouro Nacional. Utilizou-se como indicador do status de saúde, a taxa de mortalidade infantil, e como determinantes as variáveis: gastos com saúde e saneamento per capita, números de médicos por mil habitantes, acesso à água tratada, taxa de fecundidade e de analfabetismo, percentual de mães adolescentes, renda per capita e índice de Gini. RESULTADOS: As taxas de mortalidade infantil na região Nordeste reduziram-se em 31,8% no período analisado, desempenho pouco superior ao apresentado para a média nacional. No entanto, em alguns estados, como Rio Grande do Norte, Bahia, Ceará e Alagoas, a redução foi mais significativa. Isso pode ser atribuído à melhora de alguns indicadores que são os principais determinantes da redução da taxa de mortalidade infantil: maior acesso à educação, redução da taxa de fecundidade, aumento da renda, e do acesso à água. CONCLUSÕES: Os estados que apresentaram maiores ganhos no acesso à água tratada, educação, renda e redução da taxa de fecundidade, foram também os que obtiveram maiores ganhos na redução da mortalidade de menores de um ano de idade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho apresenta os resultados dos estudos geotécnicos e de uma base de dados da zona ribeirinha de Vila Nova de Gaia, com o objectivo de compreender melhor os aspectos geotécnicos em ambiente urbano numa área sensível com um registo histórico de instabilidade de taludes rochosos. Além disso, os escassos estudos científicos recentes de natureza geológica e geotécnica em Vila Nova de Gaia justificam o estudo exploratório da geotecnia urbana da zona ribeirinha de Vila Nova de Gaia. A importância de Vila Nova de Gaia como a terceira maior cidade portuguesa e como centro de intensa actividade económica e cultural despoleta uma constante necessidade de expansão. O aumento da densidade populacional acarreta a realização de projectos complexos de engenharia, utilizando o subsolo para a construção e, com frequência, em terrenos com características geotécnicas desfavoráveis. As cidades de Vila Nova de Gaia e do Porto foram sendo edificadas ao longo de encostas numa plataforma litoral caracterizada por uma vasta área aplanada, inclinando ligeiramente para Oeste. Esta plataforma foi cortada pelo Rio Douro num vale encaixado de vertentes abruptas, nas quais se localizam as zonas ribeirinhas das duas cidades. Este trabalho envolveu, inicialmente, uma caracterização topográfica, morfoestrutural, geotectónica e geomecânica da área de estudo e, numa fase posterior, o desenvolvimento duma base de dados geotécnica. Todos os dados geológicos e geotécnicos locais e os estudos geotécnicos levados a cabo in situ pelas diversas empresas e instituições foram representados cartograficamente numa base apoiada pelos Sistemas de Informação Geográfica (SIG). Esta metodologia inter‐disciplinar foi de grande valor para um melhor conhecimento dos riscos geológico‐geotécnicos ao longo das margens do Rio Douro. De facto, a cartografia geotécnica da zona ribeirinha de Vila Nova de Gaia deve constituir uma ferramenta importante para uma previsão mais rigorosa de futuras instabilidades de taludes e um bom instrumento para a gestão do espaço urbano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho propus-me realizar um Sistema de Aquisição de Dados em Tempo Real via Porta Paralela. Para atingir com sucesso este objectivo, foi realizado um levantamento bibliográfico sobre sistemas operativos de tempo real, salientando e exemplificando quais foram marcos mais importantes ao longo da sua evolução. Este levantamento permitiu perceber o porquê da proliferação destes sistemas face aos custos que envolvem, em função da sua aplicação, bem como as dificuldades, científicas e tecnológicas, que os investigadores foram tendo, e que foram ultrapassando com sucesso. Para que Linux se comporte como um sistema de tempo real, é necessário configura-lo e adicionar um patch, como por exemplo o RTAI ou ADEOS. Como existem vários tipos de soluções que permitem aplicar as características inerentes aos sistemas de tempo real ao Linux, foi realizado um estudo, acompanhado de exemplos, sobre o tipo de arquitecturas de kernel mais utilizadas para o fazer. Nos sistemas operativos de tempo real existem determinados serviços, funcionalidades e restrições que os distinguem dos sistemas operativos de uso comum. Tendo em conta o objectivo do trabalho, e apoiado em exemplos, fizemos um pequeno estudo onde descrevemos, entre outros, o funcionamento escalonador, e os conceitos de latência e tempo de resposta. Mostramos que há apenas dois tipos de sistemas de tempo real o ‘hard’ que tem restrições temporais rígidas e o ‘soft’ que engloba as restrições temporais firmes e suaves. As tarefas foram classificadas em função dos tipos de eventos que as despoletam, e evidenciando as suas principais características. O sistema de tempo real eleito para criar o sistema de aquisição de dados via porta paralela foi o RTAI/Linux. Para melhor percebermos o seu comportamento, estudamos os serviços e funções do RTAI. Foi dada especial atenção, aos serviços de comunicação entre tarefas e processos (memória partilhada e FIFOs), aos serviços de escalonamento (tipos de escalonadores e tarefas) e atendimento de interrupções (serviço de rotina de interrupção - ISR). O estudo destes serviços levou às opções tomadas quanto ao método de comunicação entre tarefas e serviços, bem como ao tipo de tarefa a utilizar (esporádica ou periódica). Como neste trabalho, o meio físico de comunicação entre o meio ambiente externo e o hardware utilizado é a porta paralela, também tivemos necessidade de perceber como funciona este interface. Nomeadamente os registos de configuração da porta paralela. Assim, foi possível configura-lo ao nível de hardware (BIOS) e software (módulo do kernel) atendendo aos objectivos do presente trabalho, e optimizando a utilização da porta paralela, nomeadamente, aumentando o número de bits disponíveis para a leitura de dados. No desenvolvimento da tarefa de hard real-time, foram tidas em atenção as várias considerações atrás referenciadas. Foi desenvolvida uma tarefa do tipo esporádica, pois era pretendido, ler dados pela porta paralela apenas quando houvesse necessidade (interrupção), ou seja, quando houvesse dados disponíveis para ler. Desenvolvemos também uma aplicação para permitir visualizar os dados recolhidos via porta paralela. A comunicação entre a tarefa e a aplicação é assegurada através de memória partilhada, pois garantindo a consistência de dados, a comunicação entre processos do Linux e as tarefas de tempo real (RTAI) que correm ao nível do kernel torna-se muito simples. Para puder avaliar o desempenho do sistema desenvolvido, foi criada uma tarefa de soft real-time cujos tempos de resposta foram comparados com os da tarefa de hard real-time. As respostas temporais obtidas através do analisador lógico em conjunto com gráficos elaborados a partir destes dados, mostram e comprovam, os benefícios do sistema de aquisição de dados em tempo real via porta paralela, usando uma tarefa de hard real-time.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Analisar a literatura nacional e internacional sobre validade de métodos de relacionamentos nominais de base de dados em saúde, com ênfase nas medidas de aferição da qualidade dos resultados. MÉTODOS: Revisão sistemática de estudos de coorte, caso-controles e seccionais que avaliaram a qualidade dos métodos de relacionamento probabilístico de base de dados em saúde. Foi utilizada metodologia Cochrane para revisões sistemáticas. As bases consultadas foram as mais amplamente utilizadas: Medline, LILACS, Scopus, SciELO e Scirus. Não foi utilizado filtro temporal e os idiomas considerados foram: português, espanhol, francês e inglês. RESULTADOS: As medidas sumárias da qualidade dos relacionamentos probabilísticos foram a sensibilidade, a especificidade e o valor preditivo positivo. Dos 202 estudos identificados, após critérios de inclusão, foram analisados 33 artigos. Apenas seis apresentaram dados completos sobre as medidas-sumárias de interesse. Observam-se como principais limitações a ausência de revisor na avaliação dos títulos e dos resumos dos artigos e o não-mascaramento da autoria dos artigos no processo de revisão. Estados Unidos, Reino Unido e Nova Zelândia concentraram as publicações científicas neste campo. Em geral, a acurácia dos métodos de relacionamento probabilístico de bases de dados variou de 74% a 98% de sensibilidade e 99% a 100% de especificidade. CONCLUSÕES: A aplicação do relacionamento probabilístico a bases de dados em saúde tem primado pela alta sensibilidade e uma maior flexibilização da sensibilidade do método, mostrando preocupação com a precisão dos dados a serem obtidos. O valor preditivo positivo nos estudos aponta alta proporção de pares de registros verdadeiramente positivos. A avaliação da qualidade dos métodos empregados tem se mostrado indispensável para validar os resultados obtidos nestes tipos de estudos, podendo ainda contribuir para a qualificação das grandes bases de dados em saúde disponíveis no País.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução Actualmente, as mensagens electrónicas são consideradas um importante meio de comunicação. As mensagens electrónicas – vulgarmente conhecidas como emails – são utilizadas fácil e frequentemente para enviar e receber o mais variado tipo de informação. O seu uso tem diversos fins gerando diariamente um grande número de mensagens e, consequentemente um enorme volume de informação. Este grande volume de informação requer uma constante manipulação das mensagens de forma a manter o conjunto organizado. Tipicamente esta manipulação consiste em organizar as mensagens numa taxonomia. A taxonomia adoptada reflecte os interesses e as preferências particulares do utilizador. Motivação A organização manual de emails é uma actividade morosa e que consome tempo. A optimização deste processo através da implementação de um método automático, tende a melhorar a satisfação do utilizador. Cada vez mais existe a necessidade de encontrar novas soluções para a manipulação de conteúdo digital poupando esforços e custos ao utilizador; esta necessidade, concretamente no âmbito da manipulação de emails, motivou a realização deste trabalho. Hipótese O objectivo principal deste projecto consiste em permitir a organização ad-hoc de emails com um esforço reduzido por parte do utilizador. A metodologia proposta visa organizar os emails num conjunto de categorias, disjuntas, que reflectem as preferências do utilizador. A principal finalidade deste processo é produzir uma organização onde as mensagens sejam classificadas em classes apropriadas requerendo o mínimo número esforço possível por parte do utilizador. Para alcançar os objectivos estipulados, este projecto recorre a técnicas de mineração de texto, em especial categorização automática de texto, e aprendizagem activa. Para reduzir a necessidade de inquirir o utilizador – para etiquetar exemplos de acordo com as categorias desejadas – foi utilizado o algoritmo d-confidence. Processo de organização automática de emails O processo de organizar automaticamente emails é desenvolvido em três fases distintas: indexação, classificação e avaliação. Na primeira fase, fase de indexação, os emails passam por um processo transformativo de limpeza que visa essencialmente gerar uma representação dos emails adequada ao processamento automático. A segunda fase é a fase de classificação. Esta fase recorre ao conjunto de dados resultantes da fase anterior para produzir um modelo de classificação, aplicando-o posteriormente a novos emails. Partindo de uma matriz onde são representados emails, termos e os seus respectivos pesos, e um conjunto de exemplos classificados manualmente, um classificador é gerado a partir de um processo de aprendizagem. O classificador obtido é então aplicado ao conjunto de emails e a classificação de todos os emails é alcançada. O processo de classificação é feito com base num classificador de máquinas de vectores de suporte recorrendo ao algoritmo de aprendizagem activa d-confidence. O algoritmo d-confidence tem como objectivo propor ao utilizador os exemplos mais significativos para etiquetagem. Ao identificar os emails com informação mais relevante para o processo de aprendizagem, diminui-se o número de iterações e consequentemente o esforço exigido por parte dos utilizadores. A terceira e última fase é a fase de avaliação. Nesta fase a performance do processo de classificação e a eficiência do algoritmo d-confidence são avaliadas. O método de avaliação adoptado é o método de validação cruzada denominado 10-fold cross validation. Conclusões O processo de organização automática de emails foi desenvolvido com sucesso, a performance do classificador gerado e do algoritmo d-confidence foi relativamente boa. Em média as categorias apresentam taxas de erro relativamente baixas, a não ser as classes mais genéricas. O esforço exigido pelo utilizador foi reduzido, já que com a utilização do algoritmo d-confidence obteve-se uma taxa de erro próxima do valor final, mesmo com um número de casos etiquetados abaixo daquele que é requerido por um método supervisionado. É importante salientar, que além do processo automático de organização de emails, este projecto foi uma excelente oportunidade para adquirir conhecimento consistente sobre mineração de texto e sobre os processos de classificação automática e recuperação de informação. O estudo de áreas tão interessantes despertou novos interesses que consistem em verdadeiros desafios futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com a crescente geração, armazenamento e disseminação da informação nos últimos anos, o anterior problema de falta de informação transformou-se num problema de extracção do conhecimento útil a partir da informação disponível. As representações visuais da informação abstracta têm sido utilizadas para auxiliar a interpretação os dados e para revelar padrões de outra forma escondidos. A visualização de informação procura aumentar a cognição humana aproveitando as capacidades visuais humanas, de forma a tornar perceptível a informação abstracta, fornecendo os meios necessários para que um humano possa absorver quantidades crescentes de informação, com as suas capacidades de percepção. O objectivo das técnicas de agrupamento de dados consiste na divisão de um conjunto de dados em vários grupos, em que dados semelhantes são colocados no mesmo grupo e dados dissemelhantes em grupos diferentes. Mais especificamente, o agrupamento de dados com restrições tem o intuito de incorporar conhecimento a priori no processo de agrupamento de dados, com o objectivo de aumentar a qualidade do agrupamento de dados e, simultaneamente, encontrar soluções apropriadas a tarefas e interesses específicos. Nesta dissertação é estudado a abordagem de Agrupamento de Dados Visual Interactivo que permite ao utilizador, através da interacção com uma representação visual da informação, incorporar o seu conhecimento prévio acerca do domínio de dados, de forma a influenciar o agrupamento resultante para satisfazer os seus objectivos. Esta abordagem combina e estende técnicas de visualização interactiva de informação, desenho de grafos de forças direccionadas e agrupamento de dados com restrições. Com o propósito de avaliar o desempenho de diferentes estratégias de interacção com o utilizador, são efectuados estudos comparativos utilizando conjuntos de dados sintéticos e reais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Avaliar efeitos respiratórios tardios da inalação ocupacional de talco contaminado por asbesto. MÉTODOS: Análise de série de casos de 29 ex-trabalhadores de mineração de talco contaminado com asbestos provenientes de Carandaí, MG, atendidos no Centro de Referência Estadual de Saúde do Trabalhador de Minas Gerais em 2004-2005. Os ex-trabalhadores foram submetidos a anamnese clínico-ocupacional, radiografia de tórax e espirometria. Foi criado um escore de exposição que, multiplicado pela duração, originou um índice de exposição cumulativa ao talco. Para verificar a associação do índice de exposição cumulativa com a presença de alterações radiológicas, sugestivas de pneumoconiose e/ou alterações pleurais, foi ajustado um modelo de regressão logística exata. RESULTADOS: Todos os ex-trabalhadores eram homens, com média de idade de 48,2 anos. Nas radiografias de tórax foram encontradas alterações pleurais em três deles, opacidades parenquimatosas compatíveis com pneumoconiose em um e suspeita em seis. Alterações espirométricas ocorreram em três. A regressão logística apontou odds ratio de 1,059 (IC 95%: 1,012;1,125) para o índice acumulado, ou seja, cada unidade no índice resulta em um aumento de 5,9% na chance de apresentar alteração radiológica compatível ou suspeita de pneumoconiose. Em relação à mediana do tempo estimado de latência entre o início da exposição até o diagnóstico das placas pleurais, ocorreu diferença significativa (p = 0,013) entre os casos (27,0 anos) e não casos (14,3 anos). CONCLUSÕES: Os achados apontam a necessidade de controle clínico nos trabalhadores que foram expostos a asbesto, particularmente devido aos efeitos tardios da exposição a esse mineral.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Desenvolver um modelo preditivo de óbito hospitalar com base nos dados do Sistema de Informações Hospitalares do Sistema Único de Saúde. MÉTODOS: Estudo transversal com dados de 453.515 autorizações de internação de 332 hospitais do Rio Grande do Sul no ano de 2005. A partir da razão entre óbitos observados e óbitos esperados elaborou-se um ranking ajustado dos hospitais que foi comparado ao ranking bruto da taxa de mortalidade. Utilizou-se regressão logística para desenvolvimento do modelo preditivo de probabilidade para óbito hospitalar segundo sexo, idade, diagnóstico e uso de unidade de terapia intensiva. Foram obtidos os intervalos com 95% de confiança para 206 hospitais com mais de 365 internações por ano. RESULTADOS: Obteve-se um índice de risco para mortalidade hospitalar. A ordenação dos hospitais utilizando apenas a taxa de mortalidade bruta diferiu da ordenação quando se utiliza o ranking ajustado pelo modelo preditivo de probabilidade. Dos 206 hospitais analisados, 40 hospitais apresentaram mortalidade observada significativamente superior à esperada e 58 hospitais com mortalidade significativamente inferior à esperada. Uso de unidade de terapia intensiva apresentou maior peso para a composição do índice de risco, seguida pela idade e diagnóstico. Quando os hospitais atendem pacientes com perfis muito diferentes, o ajuste de risco não resulta numa indicação definitiva sobre qual prestador é o melhor. Os hospitais de grande porte apresentaram, no conjunto, maior número de óbitos do que seria esperado de acordo com as características das internações. CONCLUSÕES: O índice de risco de óbito hospitalar mostrou-se preditor adequado para o cálculo dos óbitos esperados, podendo ser aplicado na avaliação do desempenho hospitalar. Recomenda-se que, ao comparar hospitais, seja utilizado o ajuste pelo modelo preditivo de probabilidade de risco, estratificando-se pelo porte do hospital.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Artigo baseado na comunicação proferida no 8º Congresso SOPCOM: Comunicação Global, Cultura e Tecnologia, realizado na Escola Superior de Comunicação Social (ESCS-IPL), Lisboa, Portugal, 17-19 de outubro de 2013