817 resultados para Bases de Dados Bibliográficas


Relevância:

80.00% 80.00%

Publicador:

Resumo:

A promoção de ações e/ou programas de Qualidade de Vida no Trabalho (QVT) vem se tornando a maneira pela qual é possível se desenvolver e manter a motivação e o comprometimento dos colaboradores, resultando em inúmeros benefícios. Contudo, cada programa deve ter um direcionamento, uma vez que cada empresa tem a sua especificidade. O presente estudo teve como objetivo expor possíveis ações e programas de promoção da QVT com o propósito de melhorar a saúdedo trabalhador e o ganho das empresas. Realizou-se um estudo de revisão narrativa do conhecimento disponível na literatura, com consulta às seguintes bases de dados: DEDALUS, LILACS, MEDLINE e Scielo, tendo como base os períodos de 1995-2008. Conclui-se que, ainda hoje, existem poucas ações que visam à melhora da qualidade de vida no trabalho. Deve-se diminuir a distância entre o discurso e a prática, para que ações e/ou programas de QVT não sejam apenas mais um modismo e não venha a desaparecer diante da primeira dificuldade a ser enfrentada.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A medida de Qualidade de Vida no Trabalho (QVT) vemsurgindo no meio científico como instrumento importante para a investigação e avaliação da saúde ocupacional dos indivíduos, de forma holística. Os instrumentosde medida são desenvolvidos para as mais diversas finalidades e indicações, sendo realizadas através de escalas genéricas do estado de saúde e escalas específicas a uma determinada situação. As- sim, o objetivo do presente estudo é levantar alguns aspectos importantes relacionados à QVT , buscando apresentá-los sistematizadamente sob a forma de conceitos, indicadores e instrumentos de medida utilizados, e validados no Brasil. Realizou-se um estudo de revisão narrativa do conhecimento disponível na literatura, com consulta às seguintes bases de dados: DEDALUS, LILACS, MEDLINE e Scielo, tendo como base os períodos de 1995-2008. Conclui-se que apesar de serem instrumentos reconhecidos nacional e internacionalmente, ainda são necessários mais estudos de aplicação, para melhor assegurar as suaspropriedades psicométricas, aplicabilidade, melhor forma de administração e as possíveis interferências interexaminadores.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho tem por objectivo contribuir para uma maior tomada de consciência de que as colecções de um museu devem ser tratadas com diversos cuidados, sem os quais rapidamente essas colecções, que na maior parte das vezes foram recolhidas com muito zelo, empenhamento e participação, correm o risco de se tornarem num conjunto de objectos, dispersos, sem memória (memórias) , deteriorando-se ao ritmo dos anos que passam. Esses cuidados têm a ver por um lado com a conservação, que é complexa devido a muitos factores, como sejam a diversidade dos materiais que compõem os objectos, a sua própria fragilidade, as condições de arrumação e de climatização tão difíceis de criar nos pequenos museus, pois envolvem conhecimentos e recursos difíceis de obter. Por outro lado a inventariação de uma colecção é uma tarefa que exige continuidade e uniformidade de critérios. Neste campo a informatização de uma colecção pode ser um meio de registar um conjunto de informações sobre os objectos de uma colecção de forma eficiente e fácil de manusear Acontece porem que os programas informáticos com os quais são criadas as bases de dados orientados para os museus e que existem á venda no mercado especializado, são pensadas para as grandes instituições museológicas, partindo do princípio que estas dispõem de recursos financeiros e humanos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

3.Manual do utilizador 3.1. Requisitos mínimos * computador pessoal com os seguintes programas * microsoft windows 95 * microsoft access 97 a infomusa funciona em versões superiores aos requisitos mínimos. 3.2. Instalação do programa infomusa 4.utilização da base de dados infomusa 4.1. A segurança 4. 2. Iniciar a infomusa 4.2.1. Ficha de inventário 4.2.2. A introdução de imagens 4.2.3. Relatório - como imprimir uma ficha 4.3. Recomendações finais

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Vivemos, em Portugal, na Europa, como no resto do Mundo, momentos de alguma sobrevalorização de soluções imediatas em prejuízo dos Direitos, Liberdades e Garantias dos Cidadãos. Constituem-se e transmitem-se bases de dados de ADN, com dados dos cidadãos, registam-se, organizam-se e transmitem-se ficheiros com o registo das comunicações efectuadas pelos cidadãos, são detidos cidadãos por mera suspeita da sua eventual associação a uma associação terrorista, “pensa-se”, melhor, decide-se restaurar actos atentatórios de Direitos, Liberdade e Garantias dos Cidadãos. Tal é um risco e, diria mesmo que a sua mera equação, um retrocesso centenário.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Desde o aparecimento da Internet, têm surgido inúmeras oportunidades para os autores de artigos científicos disponibilizarem de forma livre e gratuita a sua produção intelectual. Tal produção poderá estar disponível nas mais diversas formas e inserida nos mais variados ambientes institucionais (Repositórios, Bases de Dados, entre outros). Tal constituiu uma verdadeira revolução informativa que, depois, ultrapassou em larga medida os meios limitados do mundo académico, tornando-se num fenómeno global. Consideramos que a disponibilização e o acesso à documentação da União Europeia constitui uma das faces visíveis dessa revolução. A nível da Informação, sempre houve uma necessidade dos dirigentes europeus em adotar uma Política de Informação adequada. Desde a necessidade de transmitir informação ao público e aos jornalistas nos primeiros tempos da Comunidade até à criação do Portal da União Europeia, vai um longo processo de amadurecimento do projeto europeu. A política de transparência que hoje se verifica e que se revela, acima de tudo, nas ligações proporcionadas pelo Portal é o resultado de um longo caminho de integração europeia. Assim, esta investigação consiste na identificação e na análise da documentação em acesso livre produzida pela União Europeia. O seu objetivo prioritário é tentar determinar até que ponto a documentação europeia consegue estar disponível e acessível a todos aqueles que a pretendam utilizar. Para tal, foram analisadas as mais diversas fontes institucionais, assim como as várias Bases de Dados e os vários sítios Web onde se pode aceder gratuitamente à Informação da União Europeia. As conclusões a que chegámos, assim como as considerações finais apresentadas no final deste trabalho de investigação levam-nos a perceber as políticas de acesso à documentação europeia e até que ponto elas servem de suporte à boa governação e à democracia.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O câncer de pulmão é um problema de saúde pública global que tem uma elevada taxa de letalidade e poderia ser evitado em grande parte, com a redução do tabagismo. Após o diagnóstico desta enfermidade as chances de cura são pequenas e as probabilidades de sobrevida, muito baixas. O propósito desta tese é analisar a tendência de mortalidade por câncer de pulmão e identificar fatores associados à sobrevida, em uma coorte de pacientes com câncer de pulmão, atendida no Hospital do Câncer I do Instituto Nacional de Câncer José Alencar Gomes da Silva (HCI/INCA). Para atingir os objetivos, foram analisadas bases de dados secundários fornecidas pelo Registro Hospitalar de Câncer e pelo Sistema de Informações sobre Mortalidade. Além disso, prontuários médicos também foram consultados. Três abordagens de análise  estudo de tendência temporal, estudo de perfil e análise de sobrevida  foram utilizadas para ilustrar diferentes aspectos do câncer de pulmão. Os resultados obtidos foram organizados prioritariamente no formato de artigos. O primeiro artigo trata da tendência de mortalidade por câncer de pulmão no Brasil entre 1980 e 2007 sob a ótica de uma metodologia que permite estimar os efeitos associados à idade na data do óbito, ao período de ocorrência do óbito e à coorte de nascimento da população estudada. Nesse artigo foram detectados resultados positivos, em relação à redução das taxas de mortalidade entre homens jovens. Entre as mulheres, destaca-se que o efeito coorte estimado indica que este grupo está experimentando atualmente uma tendência semelhante à que os homens experimentaram décadas atrás.O segundo artigo aborda o perfil dos indivíduos com câncer de pulmão, que foram atendidos no HCI/INCA entre 2000 e 2007, por meio da Análise de Correspondência Múltipla. Quatro grupos de pacientes foram identificados: fumantes, não fumantes, portadores de tumores do tipo carcinoma de pequenas células e portadores de tumores em estádios iniciais.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dissertação apresentada ao Programa de Mestrado em Administração da Universidade Municipal de São Caetano do Sul - USCS

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A segurança do paciente em enfermagem visa à busca contínua para evitar danos ao paciente durante o período de prestação de serviços à saúde. Objetivou-se com este estudo conhecer os eventos adversos ocorridos no trabalho da enfermagem apresentadas em publicações científicas no período de 2007 a 2011. Para a coleta de dados, foram utilizados artigos selecionados por meio de pesquisas em bases de dados eletrônicas, de acordo com os critérios de inclusão estabelecidos. A análise das informações foi realizada por meio de leitura exploratória dos materiais obtidos na pesquisa. A leitura dos artigos permitiu evidenciar o foco das publicações referentes à segurança do paciente e os principais eventos adversos discutidos na literatura, que foram sintetizadas, agrupadas e categorizadas. Os resultados demostraram que a prática segura e com atenção durante a prestação do cuidado ao paciente pode evitar danos irreversíveis ou até fatais aos pacientes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

As técnicas que formam o campo da Descoberta de Conhecimento em Bases de Dados (DCBD) surgiram devido à necessidade de se tratar grandes volumes de dados. O processo completo de DCBD envolve um elevado grau de subjetividade e de trabalho não totalmente automatizado. Podemos dizer que a fase mais automatizada é a de Mineração de Dados (MD). Uma importante técnica para extração de conhecimentosa partir de dados é a Programação Lógica Indutiva (PLI), que se aplica a tarefas de classificação, induzindo conhecimento na forma da lógica de primeira ordem. A PLI tem demonstrado as vantagens de seu aparato de aprendizado em relação a outras abordagens, como por exemplo, aquelas baseadas em aprendizado proposicional Os seus algorítmos de aprendizado apresentam alta expressividade, porém sofrem com a grande complexidade de seus processos, principalmente o teste de corbertura das variáveis. Por outro lado, as Redes Neurais Artificiais (RNs) introduzem um ótimo desempenho devido à sua natureza paralela. às RNs é que geralmente são "caixas pretas", o que torna difícil a obtenção de um interpretação razoável da estrutura geral da rede na forma de construções lógicas de fácil compreensão Várias abordagens híbridas simbólico-conexionistas (por exemplo, o MNC MAC 890 , KBANN SHA 94 , TOW 94 e o sistema INSS OSO 98 têm sido apresentadas para lidar com este problema, permitindo o aprendizado de conhecimento simbólico através d euma RN. Entretanto, estas abordagens ainda lidam com representações atributo-valor. Neste trabalho é apresentado um modelo que combina a expressividade obtida pela PLI com o desempenho de uma rede neural: A FOLONET (First Order Neural Network).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A grande quantidade de dados eletrônicos disponível atualmente nem sempre pode ser representada com modelos tradicionais, principalmente devido à ausência de esquema no momento da criação destes dados. Neste sentido, modelos semi-estruturados têm sido propostos; uma das abordagens utilizadas é XML, uma linguagem para troca e representação deste tipo de informação. Entretanto, consultar dados semi-estruturados pode demandar processos de extração com alto custo. Uma das alternativas para solucionar este problema é a definição de visões sobre estes dados, e a posterior materialização destas informações. O uso de visões materializadas para dados XML ainda é pouco explorado. Uma das abordagens que podem ser utilizadas é o uso de sistemas de gerenciamento de bancos de dados relacionais para o armazenamento das visões. Desse modo, informação semanticamente relacionada (informação acerca de um mesmo domínio, possivelmente representada em formatos diferentes) pode ser agrupada em uma única unidade lógica, facilitando o acesso a estes dados por parte do usuário, e introduzindo alguma estrutura nos dados semiestruturados. Dessa maneira, o usuário final submete consultas diretamente sobre a visão materializada, evitando extrações contínuas de dados nas fontes XML. A materialização de dados XML exige a definição de um repositório de dados para o armazenamento destas instâncias. Utilizando-se a abordagem relacional, é necessário definir um mecanismo para a geração do esquema lógico do banco de dados. Consultar os dados nas fontes XML exige a integração destas instâncias. Neste contexto, integrá-las significa identificar quais instâncias de dados representam o mesmo objeto do mundo real, bem como resolver ambigüidades de representação deste objeto. O problema de identificação de entidades em XML é mais complexo que em bases de dados estruturadas. Dados XML, como propostos originalmente, não carregam necessariamente a noção de chave primária ou identificador de objeto. Assim, é necessária a adoção de um mecanismo que faça a identificação das instâncias na integração destes dados. Além disso, à medida que as fontes de dados XML sofrem alterações, a visão materializada deve ser atualizada, a fim de manter-se consistente com as fontes de dados. A manutenção deve propagar as alterações feitas nos dados XML para a visão materializada. Reprocessar todo o conteúdo da visão materializada é, na maioria das vezes, muito caro. Assim, é desejável propagar as mudanças incrementalmente, ou seja, processar apenas as alterações necessárias. Neste sentido, o presente trabalho apresenta uma proposta de técnica para armazenamento de dados XML em um banco de dados relacional. A proposta utiliza ontologias para a geração do esquema lógico do banco de dados. O problema de integração de dados é mostrado. O foco principal do trabalho está na proposta de uma técnica de atribuição de identificadores a instâncias XML, baseada no uso de funções Skolem e no padrão XPath, proposto pelo W3C. Também é proposto um mecanismo para manutenção incremental deste banco, à medida que as fontes XML sofrem atualizações.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Apresenta-se neste estudo o potencial de recuperação de informação em C&T nas bases de dados nacionais e internacionais na grande área das Ciências da Saúde, na área da Medicina e na pesquisa médica em Câncer no Brasil. Esta capacitação científica instalada foi hierarquizada geográfica e institucionalmente usando como parâmetro o conceito de mérito científico fornecido pelo próprio sistema de C&T brasileiro. Os dados foram complementados pela análise da produção científica para identificar o grau de inserção internacional da pesquisa médica em Câncer no Brasil. Para tanto foram incorporadas informações das bases de dados do Institute for Scientific Information. Pode-se concluir que a grande área das Ciências da Saúde é a maior em contingente de pesquisa no Brasil, sendo a Medicina a área numericamente predominante. Na pesquisa médica em Câncer constatou-se que existem apenas dois cursos de pós-graduação diretamente relacionados com a formação de recursos humanos neste tema de pesquisa, 569 grupos de pesquisa (3,8% do total do país), 785 pesquisadores doutores, dos quais somente 153 são pesquisadores com bolsa de produtividade em pesquisa do CNPq (1,7% do total do país) No entanto, a produção científica, apesar de pouco expressiva do ponto de vista quantitativo, apresenta uma inserção internacional qualificada, sendo utilizada por outros pesquisadores com um elevado percentual, 84% de citações dos artigos brasileiros produzidos entre 1998-2002. Conclui-se, portanto, que apesar de não esgotar completamente as muitas especificidades do tema investigado, as informações disponíveis nas bases de dados nacionais e internacionais podem apontar caminhos para a investigação de tendências significativas da comunidade científica em todas as áreas do conhecimento ou temas de pesquisa, conforme os modos de recuperação apresentados. Através da interpretação criteriosa a partir de estudos continuados nessas bases, como é o caso deste trabalho, é possível utilizar a informação em C&T como subsídio para o planejamento de políticas de CT&I no Brasil.