1000 resultados para Custos assistenciais. Plano de saúde. Mineração de dados


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste trabalho foi identificar marcadores moleculares relacionados à resistência do cafeeiro (Coffea arabica) à ferrugem (Hemileia vastatrix). Foram identificadas sequências de DNA potencialmente envolvidas na resistência do cafeeiro a doenças, por meio de análise "in silico", a partir das informações geradas pelo Projeto Brasileiro do Genoma Café. A partir das sequências mineradas, foram desenhados 59 pares de iniciadores para amplificá-las. Os 59 iniciadores foram testados em 12 cafeeiros resistentes e 12 susceptíveis a H. vastatrix. Vinte e sete iniciadores resultaram em bandas únicas e bem definidas, enquanto um deles amplificou fragmento de DNA em todos os cafeeiros resistentes, mas não nos suscetíveis. Esse marcador molecular polimórfico amplificou uma região do DNA que corresponde a uma janela aberta de leitura parcial do genoma de C. arabica que codifica uma proteína de resistência a doenças. O marcador CARF 005 é capaz de diferenciar os cafeeiros analisados em resistentes e susceptíveis a H. vastatrix.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A ferrugem asiática é a mais importante doença da soja no Brasil. Apesar de sua epidemiologia ser conhecida, são escassos os estudos sobre os fatores que desencadeiam a doença com base em dados de campo. Este trabalho objetivou modelar a influência de variáveis meteorológicas a partir de um conjunto extenso de dados de ocorrência da ferrugem, por meio da técnica de indução de árvores de decisão. Os modelos foram desenvolvidos com dados de data de ocorrência da doença em quatro safras (2007/08 a 2010/11) e variáveis de temperatura e chuva em diferentes janelas de tempo prévias à data de detecção. Para cada registro de ocorrência, foi gerado um correspondente de "não ocorrência" como sendo o trigésimo dia anterior ao dia da detecção, assumindo-se a presença de inóculo, mas condições meteorológicas desfavoráveis à doença. O conjunto de treinamento para a modelagem foi composto de 45 variáveis de chuva e temperatura e 12.591 registros. O modelo preditivo escolhido resultou em uma árvore de decisão com, aproximadamente, 78% de taxa de acerto e 108 regras, determinadas por validação cruzada. O modelo interpretado, com 28 regras, considerou variáveis de temperatura como mais importantes, sendo que temperaturas abaixo de 15 °C e acima de 30 °C foram relacionadas com eventos de não ocorrência, enquanto temperaturas dentro da faixa favorável foram associadas com eventos de ocorrência, mostrando coerência com a literatura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUMO O conhecimento sobre a cobertura da terra é fundamental como informação para o planejamento e o estudo dos efeitos da substituição de paisagens naturais por paisagens antropizadas. Este estudo objetivou analisar a dinâmica da cobertura da terra entre os anos de 1989 e 2011, na bacia hidrográfica do rio Marombas (SC), empregando o classificador árvore de decisão (AD). Foram utilizadas bandas espectrais do satélite Landsat 5, índices de vegetação e atributos de terreno extraídos do modelo digital de elevação. Esses dados foram utilizados como atributos de classificação da cobertura da terra, nos anos de 1989, 1991, 1993, 1997, 2001, 2004 e 2011. A qualidade do classificador AD foi avaliada por um conjunto de 500 pontos aleatórios e independentes, gerados para cada ano, o que permitiu calcular os parâmetros índice Kappa e exatidão global a partir das matrizes de confusão. O algoritmo AD obteve desempenho médio próximo a 83% para o índice Kappa e exatidão global média de 86%. Esses valores permitem considerar a classificação como excelente, o que permitiu uma associação segura entre a influência antrópica e a dinâmica da cobertura da terra na bacia hidrográfica estudada. Foi diagnosticado o aumento das atividades agrícolas e silvicultoras em detrimento das coberturas naturais, além de uma fragmentação dos corredores ecológicos da Floresta Ombrófila Mista, no intervalo analisado de 22 anos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O paciente cirúrgico portador de abdome aberto é de difícil manuseio devido as perdas de água e eletrólitos, a difícil reposição volêmica, o grande número de curativos diários e o risco de infecção. A utilização do sistema VAC permite medir rigorosamente as perdas por um período de 48 horas, que pode ser renovado, facilita a reposição volêmica, diminue o risco de contaminação e de infecção e cria um ambiente úmido que facilita o processo de cicatrização. Quando comparado o custo com processos tradicionais além da vantagem verificada com o sistema VAC. Ocorre também uma redução do risco e do período de permanência hospitalar. Os autores relatam o tratamento de um paciente do no HC-UFPE que documenta essas vantagens.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

INTRODUÇÃO: A hipertensão arterial é um problema de saúde pública mundial e um dos principais fatores de risco para o desenvolvimento da doença renal crônica. MÉTODOS: Com a finalidade de comparar a equação Cockcroft-Gault com a creatinina sérica e o clearance de creatinina (ClCr) na triagem de função renal reduzida, realizouse um estudo transversal com 198 hipertensos de uma unidade básica de saúde. Foram analisados dados demográficos, nutricionais e clínico-laboratoriais. A função renal foi analisada pela creatinina sérica e pelo ClCr em urina de 24 horas. A taxa de filtração glomerular foi também estimada segundo a equação Cockcroft-Gault. RESULTADOS: Os pacientes apresentaram idade média de 60,6 ± 11,6 anos, e 73,7% eram do sexo feminino. A prevalência de creatinina sérica > 1,2 mg/dL foi de 7,6% e da taxa de filtração glomerular < 60 mL/ minutos foi de 24,2%, quando avaliadas pelo ClCr e pela equação Cockcroft-Gault. A filtração glomerular reduzida foi observada em homens mais velhos, com menor índice de massa corporal, valores normais de glicemia de jejum e maiores níveis de ácido úrico e pressão arterial sistólica. DISCUSSÃO: A prevalência de função renal reduzida entre hipertensos varia consideravelmente dependendo da abordagem laboratorial utilizada. O clearance de creatinina, principalmente quando estimado pela equação de Cockcroft-Gault, mostrou ser um marcador mais acurado que a creatinina sérica na avaliação da taxa de filtração glomerular. CONCLUSÕES: A equação Cockcroft-Gault apresentou maior concordância com o clearance de creatinina, provando ser um confiável teste de triagem para o diagnóstico precoce e manejo de hipertensos com função renal reduzida na atenção básica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As técnicas que formam o campo da Descoberta de Conhecimento em Bases de Dados (DCBD) surgiram devido à necessidade de se tratar grandes volumes de dados. O processo completo de DCBD envolve um elevado grau de subjetividade e de trabalho não totalmente automatizado. Podemos dizer que a fase mais automatizada é a de Mineração de Dados (MD). Uma importante técnica para extração de conhecimentosa partir de dados é a Programação Lógica Indutiva (PLI), que se aplica a tarefas de classificação, induzindo conhecimento na forma da lógica de primeira ordem. A PLI tem demonstrado as vantagens de seu aparato de aprendizado em relação a outras abordagens, como por exemplo, aquelas baseadas em aprendizado proposicional Os seus algorítmos de aprendizado apresentam alta expressividade, porém sofrem com a grande complexidade de seus processos, principalmente o teste de corbertura das variáveis. Por outro lado, as Redes Neurais Artificiais (RNs) introduzem um ótimo desempenho devido à sua natureza paralela. às RNs é que geralmente são "caixas pretas", o que torna difícil a obtenção de um interpretação razoável da estrutura geral da rede na forma de construções lógicas de fácil compreensão Várias abordagens híbridas simbólico-conexionistas (por exemplo, o MNC MAC 890 , KBANN SHA 94 , TOW 94 e o sistema INSS OSO 98 têm sido apresentadas para lidar com este problema, permitindo o aprendizado de conhecimento simbólico através d euma RN. Entretanto, estas abordagens ainda lidam com representações atributo-valor. Neste trabalho é apresentado um modelo que combina a expressividade obtida pela PLI com o desempenho de uma rede neural: A FOLONET (First Order Neural Network).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A visualização de informações congrega um conjunto de técnicas que têm por objetivo facilitar o entendimento de informações a partir de representações visuais. Nesta área, parte-se do pressuposto de que uma representação visual de dados ou informações proporciona uma forma mais simples e intuitiva de entendê-los e, com isso, inferir mais rapidamente e com maior precisão o seu significado. Normalmente, a tarefa de análise de dados é realizada com o auxílio de ferramentas de acordo com a natureza dos dados e do estudo sendo realizado. As técnicas de visualização de dados e informações não substituem ferramentas de análise específicas. Elas podem ser usadas como primeira aproximação do processo de análise, quando sintetizam de forma visual uma grande massa de dados, permitindo escolher partes do volume de dados para análise mais detalhada, ou como forma de apresentação de dados já reduzidos. Quando o subconjunto dos dados de interesse está disponível, a utilização de uma ferramenta de visualização proporciona maior agilidade nas análises e padrões na massa de dados podem ser descobertos visualmente. Uma das classes de técnicas de visualização utilizada nesta área é a icônica. Um ícone (ou glifo) é um objeto com geometria e aparência paramétricas, as quais podem ser arbitrariamente vinculadas a dados. A função de um ícone é agir como uma representação simbólica, que mostra as características essenciais de um domínio de dados ao qual o ícone se refere. Assim é possível obter uma visualização dos dados de uma forma mais clara e compacta. Em geral, ícones são utilizados para representar dados multidimensionais, ou seja, múltiplos atributos associados a uma posição num espaço qualquer, ou a entidades em estudo. O presente trabalho analisa o uso de ícones na visualização de informações. São discutidos os conceitos fundamentais de visualização de informações e sua relação com a área de mineração de dados. O uso de ícones em diversos trabalhos apontados na literatura é apresentado, sendo abordada a questão de geração automática de ícones, mais flexível do que os conjuntos fixos providos pelos sistemas de visualização estudados. Uma proposta para gerar ícones de forma automática baseada numa especificação paramétrica dos ícones é utilizada em um conjunto de dados característicos de espécimes animais estudados por biólogos do Departamento de Genética da UFRGS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo de caso de mineração de dados no varejo. O negócio em questão é a comercialização de móveis e materiais de construção. A mineração foi realizada sobre informações geradas das transações de vendas por um período de 8 meses. Informações cadastrais de clientes também foram usadas e cruzadas com informações de venda, visando obter resultados que possam ser convertidos em ações que, por conseqüência, gerem lucro para a empresa. Toda a modelagem, preparação e transformação dos dados, foi feita visando facilitar a aplicação das técnicas de mineração que as ferramentas de mineração de dados proporcionam para a descoberta de conhecimento. O processo foi detalhado para uma melhor compreensão dos resultados obtidos. A metodologia CRISP usada no trabalho também é discutida, levando-se em conta as dificuldades e facilidades que se apresentaram durante as fases do processo de obtenção dos resultados. Também são analisados os pontos positivos e negativos das ferramentas de mineração utilizadas, o IBM Intelligent Miner e o WEKA - Waikato Environment for Knowledge Analysis, bem como de todos os outros softwares necessários para a realização do trabalho. Ao final, os resultados obtidos são apresentados e discutidos, sendo também apresentada a opinião dos proprietários da empresa sobre tais resultados e qual valor cada um deles poderá agregar ao negócio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introdução: Estudos sobre implicações clínicas da nova definição de infarto do miocárdio (IAM), incorporando novos marcadores de lesão miocárdica, são escassos na literatura. A prevalência de IAM e das suas complicações são diretamente dependentes do critério diagnóstico utilizado. Objetivo: Avaliar o impacto diagnóstico, prognóstico e econômico da nova definição de IAM proposta pela AHA/ ESC usando troponina T (TnT) como marcador de lesão cardíaca. Métodos: Um total de 740 pacientes com dor torácica admitidos na Emergência do Hospital de Clínicas de Porto Alegre no período de julho/ 1999 a janeiro/ 2002 foram incluídos no estudo. Creatina quinase total (CK), CK-MB atividade e TnT foram dosados em uma amostra de 363 pacientes, representativa de toda a coorte. Para redefinição de IAM foram utilizados como ponto de corte valores pico de TnT > 0,2 mg/dl. Os desfechos avaliados foram classificados como eventos cardíacos maiores (angina recorrente, insuficiência cardíaca congestiva, choque cardiogênico e óbito) e como procedimentos de revascularização. Também foram avaliados o manejo prescrito, os custos e o faturamento hospitalar. Resultados: Nos 363 pacientes com marcadores dosados, foram diagnosticados 59 casos de IAM (16%) pelos critérios clássicos; enquanto 40 pacientes (11%) tiveram o diagnóstico de IAM pelo critério redefinido, o que corresponde a um incremento de 71% na incidência. Pacientes com IAM redefinido eram significativamente mais idosos e do sexo masculino, apresentaram mais dor atípica e diabetes mellitus. Na análise multivariada, pacientes com infarto redefinido tiveram um risco 5,1 [IC 95% 1,0-28] vezes maior para óbito hospitalar e 3,4 [IC 95% 1,1-10] vezes maior para eventos combinados em relação aqueles sem IAM. O manejo dos casos de IAM redefinido foi semelhante ao manejo daqueles com IAM tradicional, exceto pelos procedimentos de revascularização que foram menos freqüentes (25% vs. 51%, P < 0,001). O grupo com IAM redefinido permaneceu mais tempo internado e foi submetido a procedimentos mais tardiamente. Do ponto de vista institucional, o uso dos novos critérios para IAM poderia resultar em um aumento de 9% (mais R$ 2.756,00 por grupo de 100 pacientes avaliados) no faturamento baseado em diagnóstico segundo a tabela do SUS. Conclusões: O novo diagnóstico de IAM acrescenta um número expressivo de indivíduos com infarto aos serviços de emergência. A incorporação deste critério é importante na medida que estes pacientes têm um prognóstico semelhante aos demais casos tradicionalmente diagnosticados. Como a identificação destes casos poderia resultar em um manejo mais qualificado e eficiente destes pacientes, esforços deveriam ser adotados para reforçar a adoção da redefinição de IAM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tendo como motivação o desenvolvimento de uma representação gráfica de redes com grande número de vértices, útil para aplicações de filtro colaborativo, este trabalho propõe a utilização de superfícies de coesão sobre uma base temática multidimensionalmente escalonada. Para isso, utiliza uma combinação de escalonamento multidimensional clássico e análise de procrustes, em algoritmo iterativo que encaminha soluções parciais, depois combinadas numa solução global. Aplicado a um exemplo de transações de empréstimo de livros pela Biblioteca Karl A. Boedecker, o algoritmo proposto produz saídas interpretáveis e coerentes tematicamente, e apresenta um stress menor que a solução por escalonamento clássico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

o objetivo deste estudo é verificar até que ponto o Endomarketing, por intermédio da sua linha de ação da atitude, pode contribuir para a expansão de um serviço orientado para o paciente, por parte dos funcionários do Hospital Geral de Santo António. Para responder a essa questão, analisamos a teoria do Endomarketing, sob o ponto de vista do seu criador (Saul Faingaus Bekin) e de outros autores, fazendo o seu contexto temporal e refletindo acerca da sua importância no setor público de saúde português. Os dados foram obtidos mediante uma pesquisa bibliográfica e documental e por intennédio da aplicação de um questionário a alguns funcionários da instituição analisada. Os resultados da pesquisa demonstram que, nessa instituição, já existe uma consciência em tomo da pertinência de um serviço orientado para o paciente, porém essa consciência deve ser mais efetiva e só pode ser realmente implantada com a aplicação do Endomarketing. Embora, para a maioria das pessoas inquiridas, comprometer, envolver, valorizar e qualificar ajudem a expandir um serviço orientado para o paciente, esses fatores não parecem ser os mais importantes para elas, o que nos leva a crer que talvez isto ocorra por esses fatores não serem levados em consideração o suficiente ao longo do seu cotidiano profissional, razão pela qual o Endomarketing se torna importante. Finalmente, foram detectadas grandes falhas ao nível da comunicação interna da instituição, o que também torna pertinente a aplicação de uma estratégia de Endomarketing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A Dinâmica dos Sistemas vem expandindo seu leque de aplicações por diversas áreas do conhecimento humano, dentre as quais está a Administração de Empresas. Este trabalho mostra que esta disciplina pode ser utilizada como uma ferramenta que fornece subsídios para negociações post mortem de projetos de grande porte. Dentro deste âmbito, o ponto principal é avaliar qual foi a influência do comportamento do cliente no resultado final do projeto. Interferências do tipo: ingerência nas decisões de projeto, alterações de escopo, atraso na aprovação de documentos e solicitações para que sejam realizadas atividades adicionais não diretamente relacionadas ao projeto podem contribuir para o aumento do prazo e do custo de realização de um empreendimento. A abordagem deste problema através da Dinâmica dos Sistemas fornece a possibilidade de criar modelos de simulação em que possam ser incorporados fatores importantes, porém subjetivos, que contribuem para o entendimento do projeto como o moral da equipe de engenharia e a confiança do cliente na empresa contratada. Este trabalho traz uma parte teórica que é fruto da pesquisa sobre a ' literatura existente nesta área específica de aplicação. Nela são explicados os ciclos de paralelismo, de retrabalho e de interferência do cliente. Na segunda parte, um caso real de um projeto de engenharia é apresentado e modelado. Os resultados são então analisados de forma a fornecer informações confiáveis sobre atraso e custos adicionais de responsabilidade do cliente. Estes dados são a base para a elaboração pela contratada de um documento pleiteando compensação pela interferência do cliente. Esta abordagem por Dinâmica dos Sistemas é pouco conhecida e ainda pode ser bastante explorada

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trata da aplicação de ferramentas de Data Mining e do conceito de Data Warehouse à coleta e análise de dados obtidos a partir das ações da Secretaria de Estado da Educação de São Paulo. A variável dependente considerada na análise é o resultado do rendimento das escolas estaduais obtido através das notas de avaliação do SARESP (prova realizada no estado de São Paulo). O data warehouse possui ainda dados operacionais e de ações já realizadas, possibilitando análise de influência nos resultados