34 resultados para conhecimento científico


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na sociedade atual, as organizações têm de saber lidar com um meio-ambiente muito instável e concorrencial, vivendo em constante adaptação/mudança interna e externa. Nesse cenário, a informação apresenta-se como um elemento fundamental para o delineamento da estratégia organizacional que vai permitir enquadrar e apoiar o processo de tomada de decisão bem como definir o caminho a trilhar no médio e longo prazo. A gestão da informação tem-se apresentado como contributo imprescindível para um máximo aproveitamento das potencialidades da informação, fazendo uso de métodos e técnicas específicas e apropriadas, contribuindo para a competitividade e para o sucesso organizacional. Desde a década de oitenta do século passado, a auditoria de informação tem sido apresentada como um método adequado à identificação, avaliação e gestão da informação no sentido de criar alicerces necessários para o aproveitamento de todo o potencial estratégico que esse recurso apresenta para as organizações. Assim, partindo de uma breve reflexão acerca do valor da informação para as organizações, faremos uma revisão do conceito e das metodologias de auditoria da informação, de modo a explicitar uma proposta de identificação das componentes do universo de análise da auditoria da informação, considerando as bases teóricas e metodológicas da Ciência da Informação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No âmbito duma investigação que cruza a área científica da Ciência da Informação com a Educação, elegendo como objeto de estudo a Literacia da Informação (LI), selecionaram-se um conjunto de competências de LI, reconhecidas como mais importantes e mencionadas em vasta literatura sobre o tema, com destaque para alguns Referenciais internacionais. Pretende-se averiguar qual o papel da formação ministrada em diferentes licenciaturas de uma escola de ensino superior politécnico e refletir sobre que competências são mais desenvolvidas nos estudantes de diferentes cursos, comparando aqueles que iniciam e os que terminam a sua formação. Para além dos estudantes, destaca-se, neste estudo, a intervenção dos professores das referidas licenciaturas, ambos os grupos inquiridos através de questionários online. Também os elementos responsáveis pela coordenação dos oito cursos de primeiro ciclo em análise e a bibliotecária da instituição são envolvidos, neste caso, através de entrevistas semidirigidas, contribuindo para uma investigação que se pretende o mais completa possível e com a robustez decorrente do cruzamento de vários dados. Recorrendo a uma abordagem metodológica quantitativa e qualitativa, num interessante jogo de perceções consonantes ou divergentes entre estes atores cruciais do processo educativo, os resultados e a sua interpretação permitem refletir sobre a necessidade de adotar novas posturas e atuações no complexo processo de formação e de desenvolvimento de competências de LI. Estas devem ser adequadas aos perfis desejáveis dos diplomados do ensino superior, profissionais e cidadãos que se pretende que obtenham sucesso nas diferentes áreas da sua vida, revelando-se, em suma, indivíduos infoincluídos, ativos e participativos face às mudanças, desafios e crises do século XXI.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Atualmente, são geradas enormes quantidades de dados que, na maior parte das vezes, não são devidamente analisados. Como tal, existe um fosso cada vez mais significativo entre os dados existentes e a quantidade de dados que é realmente analisada. Esta situação verifica-se com grande frequência na área da saúde. De forma a combater este problema foram criadas técnicas que permitem efetuar uma análise de grandes massas de dados, retirando padrões e conhecimento intrínseco dos dados. A área da saúde é um exemplo de uma área que cria enormes quantidades de dados diariamente, mas que na maior parte das vezes não é retirado conhecimento proveitoso dos mesmos. Este novo conhecimento poderia ajudar os profissionais de saúde a obter resposta para vários problemas. Esta dissertação pretende apresentar todo o processo de descoberta de conhecimento: análise dos dados, preparação dos dados, escolha dos atributos e dos algoritmos, aplicação de técnicas de mineração de dados (classificação, segmentação e regras de associação), escolha dos algoritmos (C5.0, CHAID, Kohonen, TwoSteps, K-means, Apriori) e avaliação dos modelos criados. O projeto baseia-se na metodologia CRISP-DM e foi desenvolvido com a ferramenta Clementine 12.0. O principal intuito deste projeto é retirar padrões e perfis de dadores que possam vir a contrair determinadas doenças (anemia, doenças renais, hepatite, entre outras) ou quais as doenças ou valores anormais de componentes sanguíneos que podem ser comuns entre os dadores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá