999 resultados para Bases de dados hospitalares


Relevância:

80.00% 80.00%

Publicador:

Resumo:

A mortalidade materna atrai inúmeras discussões e preocupações no Paraná visto que reflete a qualidade da assistência prestada nos serviços de saúde, bem como a operacionalização das políticas públicas voltadas à saúde da mulher. O objetivo deste trabalho foi conhecer o perfil epidemiológico da mortalidade materna no Estado do Paraná, por meio de revisão de estudos sobre o tema. Trata-se de uma revisão sistemática da literatura, realizada através da busca eletrônica de artigos científicos publicados entre 2000 e 2010, nas bases de dados LILACS e SciELO. Identificaram-se inicialmente 30 artigos. Após aplicação dos critérios de inclusão e exclusão restaram 09 artigos. A comparação dos dados mostrou queda da RMM no Estado. Prevaleceram as causas obstétricas diretas, com predomínio das doenças hipertensivas. Concluiu-se que apesar de sua relevância, são poucos os artigos sobre mortalidade materna no Estado do Paraná. A RMM, embora em declínio, permanece em níveis elevados. Tais dados são absolutamente necessários para se ter uma visão do quadro epidemiológico. Eles permitem identificar os problemas e/ou falhas e possibilitam a formulação de propostas intervencionistas no sentido de diminuir os coeficientes de mortalidade materna. Ações mais efetivas para redução das mortes maternas evitáveis no Estado, ainda são imprescindíveis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A promoção de ações e/ou programas de Qualidade de Vida no Trabalho (QVT) vem se tornando a maneira pela qual é possível se desenvolver e manter a motivação e o comprometimento dos colaboradores, resultando em inúmeros benefícios. Contudo, cada programa deve ter um direcionamento, uma vez que cada empresa tem a sua especificidade. O presente estudo teve como objetivo expor possíveis ações e programas de promoção da QVT com o propósito de melhorar a saúdedo trabalhador e o ganho das empresas. Realizou-se um estudo de revisão narrativa do conhecimento disponível na literatura, com consulta às seguintes bases de dados: DEDALUS, LILACS, MEDLINE e Scielo, tendo como base os períodos de 1995-2008. Conclui-se que, ainda hoje, existem poucas ações que visam à melhora da qualidade de vida no trabalho. Deve-se diminuir a distância entre o discurso e a prática, para que ações e/ou programas de QVT não sejam apenas mais um modismo e não venha a desaparecer diante da primeira dificuldade a ser enfrentada.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A medida de Qualidade de Vida no Trabalho (QVT) vemsurgindo no meio científico como instrumento importante para a investigação e avaliação da saúde ocupacional dos indivíduos, de forma holística. Os instrumentosde medida são desenvolvidos para as mais diversas finalidades e indicações, sendo realizadas através de escalas genéricas do estado de saúde e escalas específicas a uma determinada situação. As- sim, o objetivo do presente estudo é levantar alguns aspectos importantes relacionados à QVT , buscando apresentá-los sistematizadamente sob a forma de conceitos, indicadores e instrumentos de medida utilizados, e validados no Brasil. Realizou-se um estudo de revisão narrativa do conhecimento disponível na literatura, com consulta às seguintes bases de dados: DEDALUS, LILACS, MEDLINE e Scielo, tendo como base os períodos de 1995-2008. Conclui-se que apesar de serem instrumentos reconhecidos nacional e internacionalmente, ainda são necessários mais estudos de aplicação, para melhor assegurar as suaspropriedades psicométricas, aplicabilidade, melhor forma de administração e as possíveis interferências interexaminadores.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho tem por objectivo contribuir para uma maior tomada de consciência de que as colecções de um museu devem ser tratadas com diversos cuidados, sem os quais rapidamente essas colecções, que na maior parte das vezes foram recolhidas com muito zelo, empenhamento e participação, correm o risco de se tornarem num conjunto de objectos, dispersos, sem memória (memórias) , deteriorando-se ao ritmo dos anos que passam. Esses cuidados têm a ver por um lado com a conservação, que é complexa devido a muitos factores, como sejam a diversidade dos materiais que compõem os objectos, a sua própria fragilidade, as condições de arrumação e de climatização tão difíceis de criar nos pequenos museus, pois envolvem conhecimentos e recursos difíceis de obter. Por outro lado a inventariação de uma colecção é uma tarefa que exige continuidade e uniformidade de critérios. Neste campo a informatização de uma colecção pode ser um meio de registar um conjunto de informações sobre os objectos de uma colecção de forma eficiente e fácil de manusear Acontece porem que os programas informáticos com os quais são criadas as bases de dados orientados para os museus e que existem á venda no mercado especializado, são pensadas para as grandes instituições museológicas, partindo do princípio que estas dispõem de recursos financeiros e humanos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

3.Manual do utilizador 3.1. Requisitos mínimos * computador pessoal com os seguintes programas * microsoft windows 95 * microsoft access 97 a infomusa funciona em versões superiores aos requisitos mínimos. 3.2. Instalação do programa infomusa 4.utilização da base de dados infomusa 4.1. A segurança 4. 2. Iniciar a infomusa 4.2.1. Ficha de inventário 4.2.2. A introdução de imagens 4.2.3. Relatório - como imprimir uma ficha 4.3. Recomendações finais

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Vivemos, em Portugal, na Europa, como no resto do Mundo, momentos de alguma sobrevalorização de soluções imediatas em prejuízo dos Direitos, Liberdades e Garantias dos Cidadãos. Constituem-se e transmitem-se bases de dados de ADN, com dados dos cidadãos, registam-se, organizam-se e transmitem-se ficheiros com o registo das comunicações efectuadas pelos cidadãos, são detidos cidadãos por mera suspeita da sua eventual associação a uma associação terrorista, “pensa-se”, melhor, decide-se restaurar actos atentatórios de Direitos, Liberdade e Garantias dos Cidadãos. Tal é um risco e, diria mesmo que a sua mera equação, um retrocesso centenário.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A enfermagem se destaca como consumidora de tecnologia em diversos contextos: ensino, pesquisa e assistência. Como os alunos do curso de Enfermagem utilizam a internet para o processo de produção de Trabalhos de Conclusão de Curso (TCC)? Com o intuito de responder a essa questão e compreender melhor como a internet vem sendo utilizada na construção dos TCC dos alunos de Enfermagem, este trabalho tem os seguintes objetivos: avaliar a utilização da internet na elaboração de TCC; investigar o uso da internet por esses; identificar as bases de dados utilizadas; levantar as principais dificuldades e/ou facilidades; e descrever como a internet é usada para buscar a literatura produzida. Trata-se de um estudo descritivo, seccional, com abordagem quantitativa, desenvolvido em duas instituições de ensino superior em Teresina – Piauí, sendo uma de caráter privado e outra de caráter público. A pesquisa teve como amostragem os alunos de Enfermagem do 8º período das duas instituições. É relevante considerar que o acesso democrático e a falta de conhecimento frente à internet ainda são realidade em nossa sociedade, o que nos remete à necessidade de implementar estratégias de educação relacionadas à utilização da internet como ferramenta para a construção do conhecimento em saúde e enfermagem.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Desde o aparecimento da Internet, têm surgido inúmeras oportunidades para os autores de artigos científicos disponibilizarem de forma livre e gratuita a sua produção intelectual. Tal produção poderá estar disponível nas mais diversas formas e inserida nos mais variados ambientes institucionais (Repositórios, Bases de Dados, entre outros). Tal constituiu uma verdadeira revolução informativa que, depois, ultrapassou em larga medida os meios limitados do mundo académico, tornando-se num fenómeno global. Consideramos que a disponibilização e o acesso à documentação da União Europeia constitui uma das faces visíveis dessa revolução. A nível da Informação, sempre houve uma necessidade dos dirigentes europeus em adotar uma Política de Informação adequada. Desde a necessidade de transmitir informação ao público e aos jornalistas nos primeiros tempos da Comunidade até à criação do Portal da União Europeia, vai um longo processo de amadurecimento do projeto europeu. A política de transparência que hoje se verifica e que se revela, acima de tudo, nas ligações proporcionadas pelo Portal é o resultado de um longo caminho de integração europeia. Assim, esta investigação consiste na identificação e na análise da documentação em acesso livre produzida pela União Europeia. O seu objetivo prioritário é tentar determinar até que ponto a documentação europeia consegue estar disponível e acessível a todos aqueles que a pretendam utilizar. Para tal, foram analisadas as mais diversas fontes institucionais, assim como as várias Bases de Dados e os vários sítios Web onde se pode aceder gratuitamente à Informação da União Europeia. As conclusões a que chegámos, assim como as considerações finais apresentadas no final deste trabalho de investigação levam-nos a perceber as políticas de acesso à documentação europeia e até que ponto elas servem de suporte à boa governação e à democracia.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O câncer de pulmão é um problema de saúde pública global que tem uma elevada taxa de letalidade e poderia ser evitado em grande parte, com a redução do tabagismo. Após o diagnóstico desta enfermidade as chances de cura são pequenas e as probabilidades de sobrevida, muito baixas. O propósito desta tese é analisar a tendência de mortalidade por câncer de pulmão e identificar fatores associados à sobrevida, em uma coorte de pacientes com câncer de pulmão, atendida no Hospital do Câncer I do Instituto Nacional de Câncer José Alencar Gomes da Silva (HCI/INCA). Para atingir os objetivos, foram analisadas bases de dados secundários fornecidas pelo Registro Hospitalar de Câncer e pelo Sistema de Informações sobre Mortalidade. Além disso, prontuários médicos também foram consultados. Três abordagens de análise  estudo de tendência temporal, estudo de perfil e análise de sobrevida  foram utilizadas para ilustrar diferentes aspectos do câncer de pulmão. Os resultados obtidos foram organizados prioritariamente no formato de artigos. O primeiro artigo trata da tendência de mortalidade por câncer de pulmão no Brasil entre 1980 e 2007 sob a ótica de uma metodologia que permite estimar os efeitos associados à idade na data do óbito, ao período de ocorrência do óbito e à coorte de nascimento da população estudada. Nesse artigo foram detectados resultados positivos, em relação à redução das taxas de mortalidade entre homens jovens. Entre as mulheres, destaca-se que o efeito coorte estimado indica que este grupo está experimentando atualmente uma tendência semelhante à que os homens experimentaram décadas atrás.O segundo artigo aborda o perfil dos indivíduos com câncer de pulmão, que foram atendidos no HCI/INCA entre 2000 e 2007, por meio da Análise de Correspondência Múltipla. Quatro grupos de pacientes foram identificados: fumantes, não fumantes, portadores de tumores do tipo carcinoma de pequenas células e portadores de tumores em estádios iniciais.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dissertação apresentada ao Programa de Mestrado em Administração da Universidade Municipal de São Caetano do Sul - USCS

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A segurança do paciente em enfermagem visa à busca contínua para evitar danos ao paciente durante o período de prestação de serviços à saúde. Objetivou-se com este estudo conhecer os eventos adversos ocorridos no trabalho da enfermagem apresentadas em publicações científicas no período de 2007 a 2011. Para a coleta de dados, foram utilizados artigos selecionados por meio de pesquisas em bases de dados eletrônicas, de acordo com os critérios de inclusão estabelecidos. A análise das informações foi realizada por meio de leitura exploratória dos materiais obtidos na pesquisa. A leitura dos artigos permitiu evidenciar o foco das publicações referentes à segurança do paciente e os principais eventos adversos discutidos na literatura, que foram sintetizadas, agrupadas e categorizadas. Os resultados demostraram que a prática segura e com atenção durante a prestação do cuidado ao paciente pode evitar danos irreversíveis ou até fatais aos pacientes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

As técnicas que formam o campo da Descoberta de Conhecimento em Bases de Dados (DCBD) surgiram devido à necessidade de se tratar grandes volumes de dados. O processo completo de DCBD envolve um elevado grau de subjetividade e de trabalho não totalmente automatizado. Podemos dizer que a fase mais automatizada é a de Mineração de Dados (MD). Uma importante técnica para extração de conhecimentosa partir de dados é a Programação Lógica Indutiva (PLI), que se aplica a tarefas de classificação, induzindo conhecimento na forma da lógica de primeira ordem. A PLI tem demonstrado as vantagens de seu aparato de aprendizado em relação a outras abordagens, como por exemplo, aquelas baseadas em aprendizado proposicional Os seus algorítmos de aprendizado apresentam alta expressividade, porém sofrem com a grande complexidade de seus processos, principalmente o teste de corbertura das variáveis. Por outro lado, as Redes Neurais Artificiais (RNs) introduzem um ótimo desempenho devido à sua natureza paralela. às RNs é que geralmente são "caixas pretas", o que torna difícil a obtenção de um interpretação razoável da estrutura geral da rede na forma de construções lógicas de fácil compreensão Várias abordagens híbridas simbólico-conexionistas (por exemplo, o MNC MAC 890 , KBANN SHA 94 , TOW 94 e o sistema INSS OSO 98 têm sido apresentadas para lidar com este problema, permitindo o aprendizado de conhecimento simbólico através d euma RN. Entretanto, estas abordagens ainda lidam com representações atributo-valor. Neste trabalho é apresentado um modelo que combina a expressividade obtida pela PLI com o desempenho de uma rede neural: A FOLONET (First Order Neural Network).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A grande quantidade de dados eletrônicos disponível atualmente nem sempre pode ser representada com modelos tradicionais, principalmente devido à ausência de esquema no momento da criação destes dados. Neste sentido, modelos semi-estruturados têm sido propostos; uma das abordagens utilizadas é XML, uma linguagem para troca e representação deste tipo de informação. Entretanto, consultar dados semi-estruturados pode demandar processos de extração com alto custo. Uma das alternativas para solucionar este problema é a definição de visões sobre estes dados, e a posterior materialização destas informações. O uso de visões materializadas para dados XML ainda é pouco explorado. Uma das abordagens que podem ser utilizadas é o uso de sistemas de gerenciamento de bancos de dados relacionais para o armazenamento das visões. Desse modo, informação semanticamente relacionada (informação acerca de um mesmo domínio, possivelmente representada em formatos diferentes) pode ser agrupada em uma única unidade lógica, facilitando o acesso a estes dados por parte do usuário, e introduzindo alguma estrutura nos dados semiestruturados. Dessa maneira, o usuário final submete consultas diretamente sobre a visão materializada, evitando extrações contínuas de dados nas fontes XML. A materialização de dados XML exige a definição de um repositório de dados para o armazenamento destas instâncias. Utilizando-se a abordagem relacional, é necessário definir um mecanismo para a geração do esquema lógico do banco de dados. Consultar os dados nas fontes XML exige a integração destas instâncias. Neste contexto, integrá-las significa identificar quais instâncias de dados representam o mesmo objeto do mundo real, bem como resolver ambigüidades de representação deste objeto. O problema de identificação de entidades em XML é mais complexo que em bases de dados estruturadas. Dados XML, como propostos originalmente, não carregam necessariamente a noção de chave primária ou identificador de objeto. Assim, é necessária a adoção de um mecanismo que faça a identificação das instâncias na integração destes dados. Além disso, à medida que as fontes de dados XML sofrem alterações, a visão materializada deve ser atualizada, a fim de manter-se consistente com as fontes de dados. A manutenção deve propagar as alterações feitas nos dados XML para a visão materializada. Reprocessar todo o conteúdo da visão materializada é, na maioria das vezes, muito caro. Assim, é desejável propagar as mudanças incrementalmente, ou seja, processar apenas as alterações necessárias. Neste sentido, o presente trabalho apresenta uma proposta de técnica para armazenamento de dados XML em um banco de dados relacional. A proposta utiliza ontologias para a geração do esquema lógico do banco de dados. O problema de integração de dados é mostrado. O foco principal do trabalho está na proposta de uma técnica de atribuição de identificadores a instâncias XML, baseada no uso de funções Skolem e no padrão XPath, proposto pelo W3C. Também é proposto um mecanismo para manutenção incremental deste banco, à medida que as fontes XML sofrem atualizações.