997 resultados para Limpeza de dados


Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Analisar a literatura nacional e internacional sobre validade de métodos de relacionamentos nominais de base de dados em saúde, com ênfase nas medidas de aferição da qualidade dos resultados. MÉTODOS: Revisão sistemática de estudos de coorte, caso-controles e seccionais que avaliaram a qualidade dos métodos de relacionamento probabilístico de base de dados em saúde. Foi utilizada metodologia Cochrane para revisões sistemáticas. As bases consultadas foram as mais amplamente utilizadas: Medline, LILACS, Scopus, SciELO e Scirus. Não foi utilizado filtro temporal e os idiomas considerados foram: português, espanhol, francês e inglês. RESULTADOS: As medidas sumárias da qualidade dos relacionamentos probabilísticos foram a sensibilidade, a especificidade e o valor preditivo positivo. Dos 202 estudos identificados, após critérios de inclusão, foram analisados 33 artigos. Apenas seis apresentaram dados completos sobre as medidas-sumárias de interesse. Observam-se como principais limitações a ausência de revisor na avaliação dos títulos e dos resumos dos artigos e o não-mascaramento da autoria dos artigos no processo de revisão. Estados Unidos, Reino Unido e Nova Zelândia concentraram as publicações científicas neste campo. Em geral, a acurácia dos métodos de relacionamento probabilístico de bases de dados variou de 74% a 98% de sensibilidade e 99% a 100% de especificidade. CONCLUSÕES: A aplicação do relacionamento probabilístico a bases de dados em saúde tem primado pela alta sensibilidade e uma maior flexibilização da sensibilidade do método, mostrando preocupação com a precisão dos dados a serem obtidos. O valor preditivo positivo nos estudos aponta alta proporção de pares de registros verdadeiramente positivos. A avaliação da qualidade dos métodos empregados tem se mostrado indispensável para validar os resultados obtidos nestes tipos de estudos, podendo ainda contribuir para a qualificação das grandes bases de dados em saúde disponíveis no País.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução Actualmente, as mensagens electrónicas são consideradas um importante meio de comunicação. As mensagens electrónicas – vulgarmente conhecidas como emails – são utilizadas fácil e frequentemente para enviar e receber o mais variado tipo de informação. O seu uso tem diversos fins gerando diariamente um grande número de mensagens e, consequentemente um enorme volume de informação. Este grande volume de informação requer uma constante manipulação das mensagens de forma a manter o conjunto organizado. Tipicamente esta manipulação consiste em organizar as mensagens numa taxonomia. A taxonomia adoptada reflecte os interesses e as preferências particulares do utilizador. Motivação A organização manual de emails é uma actividade morosa e que consome tempo. A optimização deste processo através da implementação de um método automático, tende a melhorar a satisfação do utilizador. Cada vez mais existe a necessidade de encontrar novas soluções para a manipulação de conteúdo digital poupando esforços e custos ao utilizador; esta necessidade, concretamente no âmbito da manipulação de emails, motivou a realização deste trabalho. Hipótese O objectivo principal deste projecto consiste em permitir a organização ad-hoc de emails com um esforço reduzido por parte do utilizador. A metodologia proposta visa organizar os emails num conjunto de categorias, disjuntas, que reflectem as preferências do utilizador. A principal finalidade deste processo é produzir uma organização onde as mensagens sejam classificadas em classes apropriadas requerendo o mínimo número esforço possível por parte do utilizador. Para alcançar os objectivos estipulados, este projecto recorre a técnicas de mineração de texto, em especial categorização automática de texto, e aprendizagem activa. Para reduzir a necessidade de inquirir o utilizador – para etiquetar exemplos de acordo com as categorias desejadas – foi utilizado o algoritmo d-confidence. Processo de organização automática de emails O processo de organizar automaticamente emails é desenvolvido em três fases distintas: indexação, classificação e avaliação. Na primeira fase, fase de indexação, os emails passam por um processo transformativo de limpeza que visa essencialmente gerar uma representação dos emails adequada ao processamento automático. A segunda fase é a fase de classificação. Esta fase recorre ao conjunto de dados resultantes da fase anterior para produzir um modelo de classificação, aplicando-o posteriormente a novos emails. Partindo de uma matriz onde são representados emails, termos e os seus respectivos pesos, e um conjunto de exemplos classificados manualmente, um classificador é gerado a partir de um processo de aprendizagem. O classificador obtido é então aplicado ao conjunto de emails e a classificação de todos os emails é alcançada. O processo de classificação é feito com base num classificador de máquinas de vectores de suporte recorrendo ao algoritmo de aprendizagem activa d-confidence. O algoritmo d-confidence tem como objectivo propor ao utilizador os exemplos mais significativos para etiquetagem. Ao identificar os emails com informação mais relevante para o processo de aprendizagem, diminui-se o número de iterações e consequentemente o esforço exigido por parte dos utilizadores. A terceira e última fase é a fase de avaliação. Nesta fase a performance do processo de classificação e a eficiência do algoritmo d-confidence são avaliadas. O método de avaliação adoptado é o método de validação cruzada denominado 10-fold cross validation. Conclusões O processo de organização automática de emails foi desenvolvido com sucesso, a performance do classificador gerado e do algoritmo d-confidence foi relativamente boa. Em média as categorias apresentam taxas de erro relativamente baixas, a não ser as classes mais genéricas. O esforço exigido pelo utilizador foi reduzido, já que com a utilização do algoritmo d-confidence obteve-se uma taxa de erro próxima do valor final, mesmo com um número de casos etiquetados abaixo daquele que é requerido por um método supervisionado. É importante salientar, que além do processo automático de organização de emails, este projecto foi uma excelente oportunidade para adquirir conhecimento consistente sobre mineração de texto e sobre os processos de classificação automática e recuperação de informação. O estudo de áreas tão interessantes despertou novos interesses que consistem em verdadeiros desafios futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com a crescente geração, armazenamento e disseminação da informação nos últimos anos, o anterior problema de falta de informação transformou-se num problema de extracção do conhecimento útil a partir da informação disponível. As representações visuais da informação abstracta têm sido utilizadas para auxiliar a interpretação os dados e para revelar padrões de outra forma escondidos. A visualização de informação procura aumentar a cognição humana aproveitando as capacidades visuais humanas, de forma a tornar perceptível a informação abstracta, fornecendo os meios necessários para que um humano possa absorver quantidades crescentes de informação, com as suas capacidades de percepção. O objectivo das técnicas de agrupamento de dados consiste na divisão de um conjunto de dados em vários grupos, em que dados semelhantes são colocados no mesmo grupo e dados dissemelhantes em grupos diferentes. Mais especificamente, o agrupamento de dados com restrições tem o intuito de incorporar conhecimento a priori no processo de agrupamento de dados, com o objectivo de aumentar a qualidade do agrupamento de dados e, simultaneamente, encontrar soluções apropriadas a tarefas e interesses específicos. Nesta dissertação é estudado a abordagem de Agrupamento de Dados Visual Interactivo que permite ao utilizador, através da interacção com uma representação visual da informação, incorporar o seu conhecimento prévio acerca do domínio de dados, de forma a influenciar o agrupamento resultante para satisfazer os seus objectivos. Esta abordagem combina e estende técnicas de visualização interactiva de informação, desenho de grafos de forças direccionadas e agrupamento de dados com restrições. Com o propósito de avaliar o desempenho de diferentes estratégias de interacção com o utilizador, são efectuados estudos comparativos utilizando conjuntos de dados sintéticos e reais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A descoberta de conhecimento em dados hoje em dia é um ponto forte para as empresas. Atualmente a CardMobili não dispõe de qualquer sistema de mineração de dados, sendo a existência deste uma mais-valia para as suas operações de marketing diárias, nomeadamente no lançamento de cupões a um grupo restrito de clientes com uma elevada probabilidade que os mesmos os utilizem. Para isso foi analisada a base de dados da aplicação tentando extrair o maior número de dados e aplicadas as transformações necessárias para posteriormente serem processados pelos algoritmos de mineração de dados. Durante a etapa de mineração de dados foram aplicadas as técnicas de associação e classificação, sendo que os melhores resultados foram obtidos com técnicas de associação. Desta maneira pretende-se que os resultados obtidos auxiliem o decisor na sua tomada de decisões.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Identificar, com o auxílio de técnicas computacionais, regras referentes às condições do ambiente físico para a classificação de microáreas de risco. MÉTODOS: Pesquisa exploratória, desenvolvida na cidade de Curitiba, PR, em 2007, dividida em três etapas: identificação de atributos para classificar uma microárea; construção de uma base de dados; e aplicação do processo de descoberta de conhecimento em base de dados, por meio da aplicação de mineração de dados. O conjunto de atributos envolveu as condições de infra- estrutura, hidrografia, solo, área de lazer, características da comunidade e existência de vetores. A base de dados foi construída com dados obtidos em entrevistas com agentes comunitários de saúde, sendo utilizado um questionário com questões fechadas, elaborado com os atributos essenciais, selecionados por especialistas. RESULTADOS: Foram identificados 49 atributos, sendo 41 essenciais e oito irrelevantes. Foram obtidas 68 regras com a mineração de dados, as quais foram analisadas sob a perspectiva de desempenho e qualidade e divididas em dois conjuntos: as inconsistentes e as que confirmam o conhecimento de especialistas. A comparação entre os conjuntos mostrou que as regras que confirmavam o conhecimento, apesar de terem desempenho computacional inferior, foram consideradas mais interessantes. CONCLUSÕES: A mineração de dados ofereceu um conjunto de regras úteis e compreensíveis, capazes de caracterizar microáreas, classificando-as quanto ao grau do risco, com base em características do ambiente físico. A utilização das regras propostas permite que a classificação de uma microárea possa ser realizada de forma mais rápida, menos subjetiva, mantendo um padrão entre as equipes de saúde, superando a influência da percepção particular de cada componente da equipe.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Desenvolver um modelo preditivo de óbito hospitalar com base nos dados do Sistema de Informações Hospitalares do Sistema Único de Saúde. MÉTODOS: Estudo transversal com dados de 453.515 autorizações de internação de 332 hospitais do Rio Grande do Sul no ano de 2005. A partir da razão entre óbitos observados e óbitos esperados elaborou-se um ranking ajustado dos hospitais que foi comparado ao ranking bruto da taxa de mortalidade. Utilizou-se regressão logística para desenvolvimento do modelo preditivo de probabilidade para óbito hospitalar segundo sexo, idade, diagnóstico e uso de unidade de terapia intensiva. Foram obtidos os intervalos com 95% de confiança para 206 hospitais com mais de 365 internações por ano. RESULTADOS: Obteve-se um índice de risco para mortalidade hospitalar. A ordenação dos hospitais utilizando apenas a taxa de mortalidade bruta diferiu da ordenação quando se utiliza o ranking ajustado pelo modelo preditivo de probabilidade. Dos 206 hospitais analisados, 40 hospitais apresentaram mortalidade observada significativamente superior à esperada e 58 hospitais com mortalidade significativamente inferior à esperada. Uso de unidade de terapia intensiva apresentou maior peso para a composição do índice de risco, seguida pela idade e diagnóstico. Quando os hospitais atendem pacientes com perfis muito diferentes, o ajuste de risco não resulta numa indicação definitiva sobre qual prestador é o melhor. Os hospitais de grande porte apresentaram, no conjunto, maior número de óbitos do que seria esperado de acordo com as características das internações. CONCLUSÕES: O índice de risco de óbito hospitalar mostrou-se preditor adequado para o cálculo dos óbitos esperados, podendo ser aplicado na avaliação do desempenho hospitalar. Recomenda-se que, ao comparar hospitais, seja utilizado o ajuste pelo modelo preditivo de probabilidade de risco, estratificando-se pelo porte do hospital.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os estudos sobre a questão da Justiça Política nas transições para a democracia têm conhecido, sobretudo nos últimos anos, consideráveis progressos, nomeadamente no que diz respeito aos casos integrados na chamada Terceira Vaga de democratização. Relativamente ao caso português, e apesar da ideia generalizada de que o processo de “purgas” terá sido limitado, três décadas depois do 25 de Abril de 1974, são ainda escassos os estudos que nos permitam conhecer em detalhe a forma como a Democracia lidou com o seu passado repressivo. A par dos trabalhos pioneiros de António Costa Pinto (Pinto: 1998 e 2008), apenas são conhecidos alguns estudos sectoriais e lacunares incidindo sobre a Polícia Política (Raimundo: 2007), Educação (Serra: 2008) e Justiça (Rezola: 2008). Pouco ou nada se sabe, por exemplo, sobre o que efectivamente se passou na Comunicação Social, sector consensualmente considerado como fundamental para a definição da natureza do novo regime político. Inserida no âmbito do projecto Justiça política na transição para a democracia em Portugal (1974-2008) (PTDC/HIS-HIS/103286/2008), com a presente comunicação, propomo-nos analisar a situação específica da Radiotelevisão Portuguesa (RTP) durante o período revolucionário, pretendendo assim dar um contributo para o estudo dos media e da justiça transicional em Portugal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Artigo baseado na comunicação proferida no 8º Congresso SOPCOM: Comunicação Global, Cultura e Tecnologia, realizado na Escola Superior de Comunicação Social (ESCS-IPL), Lisboa, Portugal, 17-19 de outubro de 2013

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada à escola Superior de Educação de Lisboa para obtenção de grau de mestre em Educação Matemática na Educação Pré-Escolar e nos 1º e 2º Ciclos do Ensino Básico

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Relatório do Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Informática e de Computadores

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta dissertação faz-se a apresentação dos trabalhos elaborados conducentes à realização de provas na Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia no ramo de Engenharia Electrotécnica, na especialidade de Sistemas de Informação Industriais, para obtenção do grau de Doutor. A tese defendida consiste na proposta de um enquadramento global de suporte ao processo de recolha e catalogação dos dados disponibilizados na Web por forma a permitir uma maior eficácia e melhor desempenho na sua exploração. O enquadramento global assenta nos seguintes pilares: i) uma metodologia geral; ii) uma arquitectura de referência; iii) uma metodologia específica de suporte à derivação de sistemas particulares e; iv) a operacionalização da arquitectura de referência. A metodologia geral está centrada no utilizador tendo por objectivo simplificar a recolha e catalogação dos dados electrónicos e viabilizando a personalização da Web pela construção de catálogos dinâmicos. A arquitectura de referência recorre à utilização de catálogos dinâmicos, sistemas de multiagentes inteligentes, ontologias e métodos de aprendizagem em texto, por contraste com os métodos habitualmente utilizados nos portais de recolha de dados. A metodologia específica de suporte à derivação de sistemas particulares possibilita uma aproximação sistemática à instalação da arquitectura, propondo um conjunto de passos que permitem capturar e configurar as necessidades do utilizador. Finalmente, a operacionalização da arquitectura de referência origina a construção de um protótipo composto por dois sistemas-base: o Sistema de Catalogação e o Sistema Interactivo de Apoio à Derivação de Sistemas Particulares. O Sistema de Catalogação é o sistema que permite o armazenamento e a consulta dos dados recolhidos através das pesquisas previamente efectuadas. O Sistema de Apoio à Derivação de Sistemas Particulares, permite a personalização do Sistema de Catalogação, pela definição de regras e SAD específicos, dedicados a cada caso concreto. Sumariamente, os obstáculos mais relevantes, abordados no decurso dos trabalhos, foram: • a coexistência de diversos formatos de dados na Web; • a capacidade de processamento dos dados, desde a filtragem de documentos tendo por base a sua relevância, passando pela identificação dos conceitos e sua posterior classificação; • a formalização do conhecimento com vista à adopção de uma terminologia comum; • a natureza do problema distribuído, complexo, descentralizado e com reduzida estruturação. Este documento está organizado em diversos capítulos e cada capítulo está dividido em várias secções. O primeiro capítulo apresenta a inovação e os objectivos genéricos do enquadramento global. O segundo capítulo descreve o estado da arte de um conjunto de assuntos essenciais para o desenrolar dos trabalhos. O terceiro capítulo apresenta, em detalhe, o enquadramento global e a arquitectura proposta. O quarto capítulo descreve a metodologia de derivação de sistemas particulares. O quinto capítulo apresenta o estudo de caso e os resultados obtidos que visam validar a tese defendida. Finalmente, o último capítulo apresenta as conclusões e trabalhos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de Tese apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Ecologia,Gestão e Modelação dos Recursos Marinhos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Ciência e Sistemas de Informação Geográfica