999 resultados para Bases de dados
Resumo:
Vivemos, em Portugal, na Europa, como no resto do Mundo, momentos de alguma sobrevalorização de soluções imediatas em prejuízo dos Direitos, Liberdades e Garantias dos Cidadãos. Constituem-se e transmitem-se bases de dados de ADN, com dados dos cidadãos, registam-se, organizam-se e transmitem-se ficheiros com o registo das comunicações efectuadas pelos cidadãos, são detidos cidadãos por mera suspeita da sua eventual associação a uma associação terrorista, “pensa-se”, melhor, decide-se restaurar actos atentatórios de Direitos, Liberdade e Garantias dos Cidadãos. Tal é um risco e, diria mesmo que a sua mera equação, um retrocesso centenário.
Resumo:
A enfermagem se destaca como consumidora de tecnologia em diversos contextos: ensino, pesquisa e assistência. Como os alunos do curso de Enfermagem utilizam a internet para o processo de produção de Trabalhos de Conclusão de Curso (TCC)? Com o intuito de responder a essa questão e compreender melhor como a internet vem sendo utilizada na construção dos TCC dos alunos de Enfermagem, este trabalho tem os seguintes objetivos: avaliar a utilização da internet na elaboração de TCC; investigar o uso da internet por esses; identificar as bases de dados utilizadas; levantar as principais dificuldades e/ou facilidades; e descrever como a internet é usada para buscar a literatura produzida. Trata-se de um estudo descritivo, seccional, com abordagem quantitativa, desenvolvido em duas instituições de ensino superior em Teresina – Piauí, sendo uma de caráter privado e outra de caráter público. A pesquisa teve como amostragem os alunos de Enfermagem do 8º período das duas instituições. É relevante considerar que o acesso democrático e a falta de conhecimento frente à internet ainda são realidade em nossa sociedade, o que nos remete à necessidade de implementar estratégias de educação relacionadas à utilização da internet como ferramenta para a construção do conhecimento em saúde e enfermagem.
Resumo:
Desde o aparecimento da Internet, têm surgido inúmeras oportunidades para os autores de artigos científicos disponibilizarem de forma livre e gratuita a sua produção intelectual. Tal produção poderá estar disponível nas mais diversas formas e inserida nos mais variados ambientes institucionais (Repositórios, Bases de Dados, entre outros). Tal constituiu uma verdadeira revolução informativa que, depois, ultrapassou em larga medida os meios limitados do mundo académico, tornando-se num fenómeno global. Consideramos que a disponibilização e o acesso à documentação da União Europeia constitui uma das faces visíveis dessa revolução. A nível da Informação, sempre houve uma necessidade dos dirigentes europeus em adotar uma Política de Informação adequada. Desde a necessidade de transmitir informação ao público e aos jornalistas nos primeiros tempos da Comunidade até à criação do Portal da União Europeia, vai um longo processo de amadurecimento do projeto europeu. A política de transparência que hoje se verifica e que se revela, acima de tudo, nas ligações proporcionadas pelo Portal é o resultado de um longo caminho de integração europeia. Assim, esta investigação consiste na identificação e na análise da documentação em acesso livre produzida pela União Europeia. O seu objetivo prioritário é tentar determinar até que ponto a documentação europeia consegue estar disponível e acessível a todos aqueles que a pretendam utilizar. Para tal, foram analisadas as mais diversas fontes institucionais, assim como as várias Bases de Dados e os vários sítios Web onde se pode aceder gratuitamente à Informação da União Europeia. As conclusões a que chegámos, assim como as considerações finais apresentadas no final deste trabalho de investigação levam-nos a perceber as políticas de acesso à documentação europeia e até que ponto elas servem de suporte à boa governação e à democracia.
Resumo:
O câncer de pulmão é um problema de saúde pública global que tem uma elevada taxa de letalidade e poderia ser evitado em grande parte, com a redução do tabagismo. Após o diagnóstico desta enfermidade as chances de cura são pequenas e as probabilidades de sobrevida, muito baixas. O propósito desta tese é analisar a tendência de mortalidade por câncer de pulmão e identificar fatores associados à sobrevida, em uma coorte de pacientes com câncer de pulmão, atendida no Hospital do Câncer I do Instituto Nacional de Câncer José Alencar Gomes da Silva (HCI/INCA). Para atingir os objetivos, foram analisadas bases de dados secundários fornecidas pelo Registro Hospitalar de Câncer e pelo Sistema de Informações sobre Mortalidade. Além disso, prontuários médicos também foram consultados. Três abordagens de análise estudo de tendência temporal, estudo de perfil e análise de sobrevida foram utilizadas para ilustrar diferentes aspectos do câncer de pulmão. Os resultados obtidos foram organizados prioritariamente no formato de artigos. O primeiro artigo trata da tendência de mortalidade por câncer de pulmão no Brasil entre 1980 e 2007 sob a ótica de uma metodologia que permite estimar os efeitos associados à idade na data do óbito, ao período de ocorrência do óbito e à coorte de nascimento da população estudada. Nesse artigo foram detectados resultados positivos, em relação à redução das taxas de mortalidade entre homens jovens. Entre as mulheres, destaca-se que o efeito coorte estimado indica que este grupo está experimentando atualmente uma tendência semelhante à que os homens experimentaram décadas atrás.O segundo artigo aborda o perfil dos indivíduos com câncer de pulmão, que foram atendidos no HCI/INCA entre 2000 e 2007, por meio da Análise de Correspondência Múltipla. Quatro grupos de pacientes foram identificados: fumantes, não fumantes, portadores de tumores do tipo carcinoma de pequenas células e portadores de tumores em estádios iniciais.
Resumo:
Dissertação apresentada ao Programa de Mestrado em Administração da Universidade Municipal de São Caetano do Sul - USCS
Resumo:
A segurança do paciente em enfermagem visa à busca contínua para evitar danos ao paciente durante o período de prestação de serviços à saúde. Objetivou-se com este estudo conhecer os eventos adversos ocorridos no trabalho da enfermagem apresentadas em publicações científicas no período de 2007 a 2011. Para a coleta de dados, foram utilizados artigos selecionados por meio de pesquisas em bases de dados eletrônicas, de acordo com os critérios de inclusão estabelecidos. A análise das informações foi realizada por meio de leitura exploratória dos materiais obtidos na pesquisa. A leitura dos artigos permitiu evidenciar o foco das publicações referentes à segurança do paciente e os principais eventos adversos discutidos na literatura, que foram sintetizadas, agrupadas e categorizadas. Os resultados demostraram que a prática segura e com atenção durante a prestação do cuidado ao paciente pode evitar danos irreversíveis ou até fatais aos pacientes.
Resumo:
As técnicas que formam o campo da Descoberta de Conhecimento em Bases de Dados (DCBD) surgiram devido à necessidade de se tratar grandes volumes de dados. O processo completo de DCBD envolve um elevado grau de subjetividade e de trabalho não totalmente automatizado. Podemos dizer que a fase mais automatizada é a de Mineração de Dados (MD). Uma importante técnica para extração de conhecimentosa partir de dados é a Programação Lógica Indutiva (PLI), que se aplica a tarefas de classificação, induzindo conhecimento na forma da lógica de primeira ordem. A PLI tem demonstrado as vantagens de seu aparato de aprendizado em relação a outras abordagens, como por exemplo, aquelas baseadas em aprendizado proposicional Os seus algorítmos de aprendizado apresentam alta expressividade, porém sofrem com a grande complexidade de seus processos, principalmente o teste de corbertura das variáveis. Por outro lado, as Redes Neurais Artificiais (RNs) introduzem um ótimo desempenho devido à sua natureza paralela. às RNs é que geralmente são "caixas pretas", o que torna difícil a obtenção de um interpretação razoável da estrutura geral da rede na forma de construções lógicas de fácil compreensão Várias abordagens híbridas simbólico-conexionistas (por exemplo, o MNC MAC 890 , KBANN SHA 94 , TOW 94 e o sistema INSS OSO 98 têm sido apresentadas para lidar com este problema, permitindo o aprendizado de conhecimento simbólico através d euma RN. Entretanto, estas abordagens ainda lidam com representações atributo-valor. Neste trabalho é apresentado um modelo que combina a expressividade obtida pela PLI com o desempenho de uma rede neural: A FOLONET (First Order Neural Network).
Resumo:
Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.
Resumo:
A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.
Resumo:
A grande quantidade de dados eletrônicos disponível atualmente nem sempre pode ser representada com modelos tradicionais, principalmente devido à ausência de esquema no momento da criação destes dados. Neste sentido, modelos semi-estruturados têm sido propostos; uma das abordagens utilizadas é XML, uma linguagem para troca e representação deste tipo de informação. Entretanto, consultar dados semi-estruturados pode demandar processos de extração com alto custo. Uma das alternativas para solucionar este problema é a definição de visões sobre estes dados, e a posterior materialização destas informações. O uso de visões materializadas para dados XML ainda é pouco explorado. Uma das abordagens que podem ser utilizadas é o uso de sistemas de gerenciamento de bancos de dados relacionais para o armazenamento das visões. Desse modo, informação semanticamente relacionada (informação acerca de um mesmo domínio, possivelmente representada em formatos diferentes) pode ser agrupada em uma única unidade lógica, facilitando o acesso a estes dados por parte do usuário, e introduzindo alguma estrutura nos dados semiestruturados. Dessa maneira, o usuário final submete consultas diretamente sobre a visão materializada, evitando extrações contínuas de dados nas fontes XML. A materialização de dados XML exige a definição de um repositório de dados para o armazenamento destas instâncias. Utilizando-se a abordagem relacional, é necessário definir um mecanismo para a geração do esquema lógico do banco de dados. Consultar os dados nas fontes XML exige a integração destas instâncias. Neste contexto, integrá-las significa identificar quais instâncias de dados representam o mesmo objeto do mundo real, bem como resolver ambigüidades de representação deste objeto. O problema de identificação de entidades em XML é mais complexo que em bases de dados estruturadas. Dados XML, como propostos originalmente, não carregam necessariamente a noção de chave primária ou identificador de objeto. Assim, é necessária a adoção de um mecanismo que faça a identificação das instâncias na integração destes dados. Além disso, à medida que as fontes de dados XML sofrem alterações, a visão materializada deve ser atualizada, a fim de manter-se consistente com as fontes de dados. A manutenção deve propagar as alterações feitas nos dados XML para a visão materializada. Reprocessar todo o conteúdo da visão materializada é, na maioria das vezes, muito caro. Assim, é desejável propagar as mudanças incrementalmente, ou seja, processar apenas as alterações necessárias. Neste sentido, o presente trabalho apresenta uma proposta de técnica para armazenamento de dados XML em um banco de dados relacional. A proposta utiliza ontologias para a geração do esquema lógico do banco de dados. O problema de integração de dados é mostrado. O foco principal do trabalho está na proposta de uma técnica de atribuição de identificadores a instâncias XML, baseada no uso de funções Skolem e no padrão XPath, proposto pelo W3C. Também é proposto um mecanismo para manutenção incremental deste banco, à medida que as fontes XML sofrem atualizações.
Resumo:
Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.
Resumo:
Apresenta-se neste estudo o potencial de recuperação de informação em C&T nas bases de dados nacionais e internacionais na grande área das Ciências da Saúde, na área da Medicina e na pesquisa médica em Câncer no Brasil. Esta capacitação científica instalada foi hierarquizada geográfica e institucionalmente usando como parâmetro o conceito de mérito científico fornecido pelo próprio sistema de C&T brasileiro. Os dados foram complementados pela análise da produção científica para identificar o grau de inserção internacional da pesquisa médica em Câncer no Brasil. Para tanto foram incorporadas informações das bases de dados do Institute for Scientific Information. Pode-se concluir que a grande área das Ciências da Saúde é a maior em contingente de pesquisa no Brasil, sendo a Medicina a área numericamente predominante. Na pesquisa médica em Câncer constatou-se que existem apenas dois cursos de pós-graduação diretamente relacionados com a formação de recursos humanos neste tema de pesquisa, 569 grupos de pesquisa (3,8% do total do país), 785 pesquisadores doutores, dos quais somente 153 são pesquisadores com bolsa de produtividade em pesquisa do CNPq (1,7% do total do país) No entanto, a produção científica, apesar de pouco expressiva do ponto de vista quantitativo, apresenta uma inserção internacional qualificada, sendo utilizada por outros pesquisadores com um elevado percentual, 84% de citações dos artigos brasileiros produzidos entre 1998-2002. Conclui-se, portanto, que apesar de não esgotar completamente as muitas especificidades do tema investigado, as informações disponíveis nas bases de dados nacionais e internacionais podem apontar caminhos para a investigação de tendências significativas da comunidade científica em todas as áreas do conhecimento ou temas de pesquisa, conforme os modos de recuperação apresentados. Através da interpretação criteriosa a partir de estudos continuados nessas bases, como é o caso deste trabalho, é possível utilizar a informação em C&T como subsídio para o planejamento de políticas de CT&I no Brasil.
Resumo:
Um conceito recente, relacionado à tecnologia educacional, baseia-se na idéia de objetos de aprendizagem (OAs), entendidos como pequenos componentes que podem ser usados, reusados ou referenciados durante a aprendizagem suportada pela tecnologia. Paralelo a isto, várias organizações estão envolvidas num trabalho de desenvolvimento de padrões de metadados para estes objetos, a fim de facilitar a catalogação e recuperação dos mesmos. Desta forma, os OAs podem ser localizados mais facilmente e utilizados em diferentes contextos e plataformas e por diferentes pessoas. O que se propõe para atingir esta facilidade de uso dos OAs é que os objetos sejam armazenados em bases de dados que são também conhecidas como repositórios, que fornecem ao usuário vários benefícios em termos de recuperação de informações. Neste contexto, este trabalho apresenta o GROA - Gerenciador de Repositórios de Objetos de Aprendizagem, que disponibiliza recursos de criação de repositórios capazes de armazenamento, gerenciamento, indexação e estruturação de objetos de aprendizagem, e capazes de operar como serviços deWeb, na internet. Este sistema foi implementado no Zope, que utiliza um banco de dados orientado a objetos, integrado a um servidor web. O texto analisa o conceito de OA e o contextualiza em relação a questões como a educação a distância, ambientes de apoio ao ensino e reusabilidade de conteúdos. Também, detalha os padrões de metadados que permitem a inserção dos OAs como componentes da Web Semântica. Em particular, apresenta-se o mecanismo de mapas de tópicos utilizado para estruturar os repositórios de OAs gerenciados pelo GROA. Finalmente, o texto discorre sobre os detalhes da implementação do GROA.
Resumo:
O objetivo principal desta pesquisa é avaliar até que ponto a mudança de mecanismos de controle numa organização pública contribui para melhorar o desempenho na sua atividade fim. Trata-se de um estudo de caso da mudança ocorrida no final de 1999 na Diretoria de Fiscalização do Banco Central do Brasil. Ao receber a atribuição de implementar uma estrutura de prevenção e combate à lavagem de dinheiro através do Sistema Financeiro Nacional, esta organização absorve a equipe de monitoramento de câmbio, originalmente ligada à Diretoria de Assuntos Internacionais, e reorienta sua estrutura de controle, com vistas ao alcance da nova missão. O entendimento dos condicionantes e do modo da mudança, das dimensões e formas de controle organizacional e das diferentes abordagens do desempenho forma o embasamento teórico do estudo. Os dados secundários, básicos para a caracterização das variáveis, foram coletados principalmente em bases de dados, publicações e documentos internos do Banco Central do Brasil. Os resultados encontrados apontam uma flexibilização significativa da organização em foco, que não teve contrapartida favorável no desempenho medido pelos indicadores selecionados para esta pesquisa. Estes resultados, em retrospecto com a implementação da mudança, sugerem a influência de um conjunto de fatores não considerados neste processo, tais como a adequação do pessoal e a legitimação da nova forma de trabalho. Recomenda-se que sejam mantidos pela organização os desenvolvimentos alcançados com a nova estrutura de controle, mas que sejam reforçadas as atividades que geram os resultados positivos em termos de desempenho. Alguns temas para futuros trabalhos são apresentados, destacando-se o estudo dos efeitos da implantação do sistema preventivo nas instituições financeiras supervisionadas pelo Banco Central do Brasil.
Resumo:
This study aimed at the public expenses in education and its impact on the level of the student's proficiency. The data passed through a statistical and an econometrical analysis. The multiple regressions did not identify a significant relation between the differential of expenses per pupil in the elementary level and the level of proficiency of the students of municipal schools. It is possible to conclude that a raise of the level of resources isolated cannot contribute to the improvement of the system. The quality of the public expenses must be monitored in order to promote more effective polices.