1000 resultados para Recuperação da informação na Web


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o aumento de utilização de sistemas de informação geográfica na internet, surge a distribuição de informação georreferenciada e procedimentos para a sua manipulação, estando o acesso a esta informação disponível em vários tipos de dispositivos, a partir de qualquer localização e a qualquer utilizador. Tipicamente, a informação geográfica é obtida e tratada por empresas especializadas. O papel dos utilizadores resume-se, na maior parte dos casos, a meros consumidores dessa informação. Neste trabalho é proposto uma plataforma especializada para localizações portuguesas, em que os utilizadores de forma colaborativa podem enriquecer(acrescentando, actualizando e removendo) um determinado conjunto de dados geográficos. Esta plataforma pretende dar suporte a web sites que pretendam disponibilizar informação georreferenciada de elementos de uma determinada categoria e de uma determinada zona geográfica. Colocar um mapa num web site, com as ferramentas disponibilizadas por algumas empresas como a Microsof(http://maps.live.com/) e o Google (http://maps.google.com/), é relativamente fácil, mas o mapa sem conteúdo não terá grande interesse, o processo de aquisição da informação pode ser demorado pois pode requerer bastante trabalho e somente estará actualizado aquando da elaboração. A plataforma proposta pretende ajudar nessa tarefa através de um repositório central que é gerido e acedido colaborativamente, permitido obter somente a informação pretendida, da categoria pretendida e para a zona geográfica pretendida. A plataforma proposta, juntamente com as funcionalidades disponibilizadas por empresas como a Microsoft e o Google, permitem de forma simples disponibilizar em Web sites mapas com a informação que possa ser útil aos utilizadores desse web site.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A limitada capacidade dos computadores em processar documentos de texto e consequente di culdade de extracção de informação desses documentos deve-se à dificuldade de processamento de informação não-estruturada. De modo a reduzir essa limitação é necessário aumentar a estrutura dos documentos com que os computadores trabalham. Este trabalho propõe um modelo de classificação de documentos através de um processo de refinamento sucessivo da informação. A cada iteração a informação presente no documento é melhor caracterizada através da aplicação de um classi cador apropriado. O processo de classificação recorre a informação estatística, usando o modelo de classificação de Bayes, sobre documentos ou fragmentos de documentos. O processo de classificação também recorre a técnicas para especificação de padrões de texto, usando expressões regulares para extrair informação que exibe um padrão conhecido. A informação obtida é armazenada em XML, que permite a interrogação de colecções de documentos de modo automático (recorrendo a bases de dados de suporte nativo XML). O XML também é usado para transformar a informação original noutros formatos, como por exemplo o HTML. Este formato pode ser usado para sintetizar a informação de modo melhorar a sua apresentação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A integração de informação geográfica disponível em diferentes formatos levanta a necessidade de criar mecanismos de resolução de incompatibilidades, tendo em vista facilitar a partilha e reutilização de informação. No âmbito desta dissertação, propõe-se uma arquitectura que efectue a integração de informação geográfica. A arquitectura processa diferentes fontes de informação geográfica com diferentes formatos. A informação geográfica apresentada nas entradas é transformada atendendo a um formato de representação interno e, após ser realizada a sua integração, é disponibilizada em múltiplos formatos de saída. A arquitectura proposta é modular e inclui o módulo de leitura das entradas, o módulo que associa as fontes de informação aos respectivos formatos, o módulo de conversão dos dados de entrada no formato de representação interno e o módulo de integração que gera os dados nos diferentes formatos de saída. Com o objectivo de avaliar experimentalmente a arquitectura, foi desenvolvido um protótipo. Foram processados exemplos de informação geográfica relativos a cenários de integração que cobrem as funcionalidades da arquitectura, nomeadamente a inclusão de novos formatos de informação geográfica e a integração de fontes de informação homogéneas ou heterogéneas. Os resultados obtidos confirmam que a arquitectura proposta é adequada à integração de fontes de informação geográfica e que é uma contribuição válida para a resolução de problemas de interoperabilidade em sistemas de informação geográfica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar da existência de produtos comerciais e da investigação na área, a construção de sistemas de informação com diversos componentes distribuídos, heterogéneos e autónomos - conhecidos como sistemas de informação federados - é ainda um desafio. Estes sistemas de informação oferecem uma visão global unificada sobre os vários modelos de dados (parciais). No entanto, a modelação destes sistemas é um desafio, já que modelos de dados como o relacional não incluem informação sobre a distribuição e tratamento de heterogeneidade. É também necessário interagir com estes sistemas de informação, através de interrogações sobre os diversos componentes dos sistemas, sem ser necessário conhecer os detalhes dos mesmos. Este trabalho propõe uma abordagem a estes desafios, através da utilização de modelos para descrição semântica, e.g. linguagem OWL (Ontology Web Language), para construir uma descrição unificada dos seus diversos modelos parciais. O modelo criado para dar suporte a esta descrição é, em parte, baseado em ontologias existentes, que foram alteradas e extendidas para resolver diversos desafios de modelação. Sobre este modelo, é criado um componente de software que permite a execução de interrogações SQL (Structured Query Language) sobre o sistema federado, resolvendo os problemas de distribuição e heterogeneidade existentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No início da década de 90, as empresas começaram a sentir a necessidade de melhorar o acesso à informação das suas actividades para auxiliar na tomada de decisões. Desta forma, no mundo da informática, emergiu o sector Business Intelligence (BI) composto inicialmente por data warehousing e ferramentas de geração de relatórios. Ao longo dos anos o conceito de BI evoluiu de acordo com as necessidades empresariais, tornando a análise das actividades e do desempenho das organizações em aspectos críticos na gestão das mesmas. A área de BI abrange diversos sectores, sendo o de geração de relatórios e o de análise de dados aqueles que melhor preenchem os requisitos pretendidos no controlo de acesso à informação do negócio e respectivos processos. Actualmente o tempo e a informação são vantagens competitivas e por esse mesmo motivo as empresas estão cada vez mais preocupadas com o facto de o aumento do volume de informação estar a tornar-se insustentável na medida que o tempo necessário para processar a informação é cada vez maior. Por esta razão muitas empresas de software, tais como Microsoft, IBM e Oracle estão numa luta por um lugar neste mercado de BI em expansão. Para que as empresas possam ser competitivas, a sua capacidade de previsão e resposta às necessidades de mercado em tempo real é requisito principal, em detrimento da existência apenas de uma reacção a uma necessidade que peca por tardia. Os produtos de BI têm fama de trabalharem apenas com dados históricos armazenados, o que faz com que as empresas não se possam basear nessas soluções quando o requisito de alguns negócios é de tempo quase real. A latência introduzida por um data warehouse é demasiada para que o desempenho seja aceitável. Desta forma, surge a tecnologia Business Activity Monitoring (BAM) que fornece análise de dados e alertas em tempo quase real sobre os processos do negócio, utilizando fontes de dados como Web Services, filas de mensagens, etc. O conceito de BAM surgiu em Julho de 2001 pela organização Gartner, sendo uma extensão orientada a eventos da área de BI. O BAM define-se pelo acesso em tempo real aos indicadores de desempenho de negócios com o intuito de aumentar a velocidade e eficácia dos processos de negócio. As soluções BAM estão a tornar-se cada vez mais comuns e sofisticadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Today, information overload and the lack of systems that enable locating employees with the right knowledge or skills are common challenges that large organisations face. This makes knowledge workers to re-invent the wheel and have problems to retrieve information from both internal and external resources. In addition, information is dynamically changing and ownership of data is moving from corporations to the individuals. However, there is a set of web based tools that may cause a major progress in the way people collaborate and share their knowledge. This article aims to analyse the impact of ‘Web 2.0’ on organisational knowledge strategies. A comprehensive literature review was done to present the academic background followed by a review of current ‘Web 2.0’ technologies and assessment of their strengths and weaknesses. As the framework of this study is oriented to business applications, the characteristics of the involved segments and tools were reviewed from an organisational point of view. Moreover, the ‘Enterprise 2.0’ paradigm does not only imply tools but also changes the way people collaborate, the way the work is done (processes) and finally impacts on other technologies. Finally, gaps in the literature in this area are outlined.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A família de especificações WS-* define um modelo de segurança para web services, baseado nos conceitos de claim, security token e Security Token Service (STS). Neste modelo, a informação de segurança dos originadores de mensagens (identidade, privilégios, etc.) é representada através de conjuntos de claims, contidos dentro de security tokens. A emissão e obtenção destes security tokens, por parte dos originadores de mensagens, são realizadas através de protocolos legados ou através de serviços especiais, designados de Security Token Services, usando as operações e os protocolos definidos na especificação WS-Trust. O conceito de Security Token Service não é usado apenas no contexto dos web services. Propostas como o modelo dos Information Cards, aplicável no contexto de aplicações web, também utilizam este conceito. Os Security Token Services desempenham vários papéis, dependendo da informação presente no token emitido. São exemplos o papel de Identity Provider, quando os tokens emitidos contêm informação de identidade, ou o papel de Policy Decision Point, quando os tokens emitidos definem autorizações. Este documento descreve o projecto duma biblioteca software para a realização de Security Token Services, tal como definidos na norma WS-Trust, destinada à plataforma .NET 3.5. Propõem-se uma arquitectura flexível e extensível, de forma a suportar novas versões das normas e as diversas variantes que os Security Token Services possuem, nomeadamente: o tipo dos security token emitidos e das claims neles contidas, a inferência das claims e os métodos de autenticação das entidades requerentes. Apresentam-se aspectos de implementação desta arquitectura, nomeadamente a integração com a plataforma WCF, a sua extensibilidade e o suporte a modelos e sistemas externos à norma. Finalmente, descrevem-se as plataformas de teste implementadas para a validação da biblioteca realizada e os módulos de extensão da biblioteca para: suporte do modelo associado aos Information Cards, do modelo OpenID e para a integração com o Authorization Manager.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A análise da mortalidade por causas, bem como da morbidade, necessita de um instrumento que agrupe as doenças segundo características comuns, isto é, uma classificação de doenças. Atualmente está em uso a Classificação Internacional de Doenças da OMS, na sua Nona Revisão. Esta classificação surgiu em 1893; para 1993 está proposta a implantação da Décima Revisão. O trabalho descreve as raízes de uma classificação internacional, fazendo referências a John Graunt, William Farr e Jacques Bertillon bem como à evolução pela qual passou em suas sucessivas revisões. Inicialmente era uma classificação de causas de morte passando a ser, a partir da Sexta Revisão, uma classificação que incluiu todas as doenças e motivos de consultas, possibilitando seu uso em morbidade, sendo que a partir da Décima Revisão se propõe uma "família" de classificações, para os mais diversos usos em administração de serviços de saúde e epidemiologia. O trabalho também apresenta algumas críticas que são feitas à Classificação Internacional de Doenças.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A popularização dos PDA (Personal Data Assistant ) originou um aumento das suas capacidades e funcionalidades, nomeadamente a inclusão de sistemas de posicionamento global(GPS - Global Positioning System ). Tendo como objectivo o aproveitamento das capacidades deste tipo de dispositivos surge o sistema RecGPS. O RecGPS é um pacote de aplicações para recolha, gestão, análise e partilha de percursos (rotas). A recolha e armazenamento das rotas é efectuada através de uma aplicação instalada no PDA com recurso à funcionalidade GPS do mesmo. A gestão e análise das rotas pode ser efectuada nas aplicações PDA e web, sendo a partilha efectuada através de aplicação web (portal/rede social). A colecção de rotas tanto pode ser armazenada no dispositivo como através da aplicação web. Ao nível do PDA para além da criação de novas rotas é possível executar as rotas existentes, efectuando recolha de dados que permitem a comparação com as execuções anteriores. A rede social permite a partilha de rotas e fomenta a discussão dos utilizadores sobre as mesmas. Para permitir a veri cação das capacidades da aplicação para PDA são efectuados testes. Tendo por base um conjunto de amostras são obtidos resultados através da aplicação e efectuada a sua comparação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O projecto apresentado neste relatório consiste na implementação de uma plataforma de desenvolvimento de aplicações Web orientada a mensagens, capaz de facilitar a construção de páginas Web e de automatizar o acesso a dados com base nos requisitos do problema. O foco da solução é baseado nos requisitos que forem definidos, de modo a desenvolver uma aplicação Web que responda a esses requisitos. A estratégia adoptada visa reduzir o acoplamento e aumentar a coesão dos módulos funcionais. Para reduzir o acoplamento e aumentar a coesão dos módulos funcionais separou-se a apresentação dos dados, permitindo assim que o desenvolvimento e os testes sejam realizados independentemente um do outro. O desenvolvimento é baseado em normas padronizadas (standards) de modo a facilitar a integração com outras tecnologias. Para o desenvolvimento do trabalho foi adoptada uma metodologia ágil. A gestão de projecto foi realizada com recurso a uma plataforma de gestão de projecto, que permitiu registar e organizar todas as informações e tarefas realizadas ao longo do projecto. Após a conclusão da plataforma e como caso de estudo, foi realizada uma aplicação baseada num cenário real de gestão académica (Portal Académico) para aferir os conceitos envolvidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, propõe-se estudar o enquadramento dos Sistemas Integrados de Gestão Empresarial (Enterprise Resource Planning – ERP) numa Arquitectura Orientada a Serviços (Service Oriented Architecture – SOA) e quais os benefícios que podem ser obtidos no desenvolvimento de novas aplicações e integração com outros Sistemas de Informação (SI). Propõe-se fazer um levantamento da evolução e do estado da arte dos sistemas ERP e da arquitectura SOA. Para ter uma visão concreta, escolheu-se analisar um sistema ERP específico, o ERP da SAP e a plataforma tecnológica em que assenta, o SAP NetWeaver. Que estratégia tem sido seguida pelos principais fabricantes de sistemas ERPs, para enquadrar os seus sistemas ERP numa arquitectura SOA? Finalmente avalia-se o conceito de aplicação composta (Composite Application) baseada na arquitectura SOA, através da utilização de um Ambiente Integrado de Composição (Integrated Composition Environment – ICE). A plataforma utilizada para essa avaliação é o SAP NetWeaver Composition Enviroment (CE). Mais especificamente, desenvolve-se uma aplicação composta, resultante da combinação de serviços expostos pelo sistema ERP da SAP (enterprise services) e um Web Service instalado noutra plataforma.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este relatório de estágio tem por finalidade demonstrar as aptidões adquiridas no decorrer do Mestrado, aptidões essas que tornaram possíveis a participação num projecto bastante inovador e em fase de desenvolvimento. Para além da grande importância do cálculo e verificação estrutural realizada, podemos também retirar algumas informações importantes sobre a tecnologia referente a energia das ondas, verificar que esta ainda está pouco desenvolvida e que se apresentam bastantes variações de equipamentos, quer pela sua forma, quer pelo seu método de extracção de energia, tal facto demonstra que ainda não se encontrou um tipo de dispositivo predominante que tenha uma boa eficiência energética e que os seus custos de construção tornem possível a sua comercialização. No âmbito do estágio deu-se mais importância ao dispositivo do tipo coluna de água oscilante, uma vez que se pretende desenvolver um dispositivo deste tipo para instalação offshore. Tal importância deve-se ao facto de que são poucos os dispositivos deste tipo e que os mesmos tenham sido bem-sucedidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No presente trabalho é proposta uma arquitectura, assim como a concepção e implementação de um PoC, de um sistema de recomendações flexível que permite integrar novos modelos de negócio relacionados ao longo do tempo. O PoC implementado é vocacionado para a problemática da televisão interactiva e, mais concretamente, para o excesso de informação com que os utilizadores se deparam diariamente. Este sistema, denominado de iTV PREFARC, permite processar, de forma massiva, a informação de EPG, integrando-a para posterior processamento no motor de recomendações. Disponibiliza também funcionalidades para classificar os itens presentes no sistema (programas televisivos, vídeos, etc.), e obter as recomendações calculadas pelo sistema. A interacção com os consumidores do sistema é sempre feita através de serviços Web. São também abordados cenários de aplicação que permitem atestar a utilidade do sistema, demonstrando simultaneamente como interagem os diferentes componentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Ministério da Saúde, considerando a existência de falhas do ponto de vista quantitativo (cobertura) no registro de nascidos vivos, no Brasil, e a impossibilidade de conhecer a distribuição dos nascidos vivos segundo algumas variáveis importantes sob a óptica clínico/epidemiológica (peso ao nascer, Índice de Apgar, duração da gestação, tipo de parto, paridade, idade e instrução da mãe), implantou em 1990, no Brasil, o Sistema de Informações sobre Nascidos Vivos - SINASC- tendo como documento-base a Declaração de Nascido Vivo - DN - com a finalidade de suprir essas lacunas. Com o objetivo de avaliar a cobertura e a fidedignidade das informações geradas pelo SINASC, foi analisada a distribuição dos nascidos vivos hospitalares segundo características epidcmiológicas relativas ao produto de concepção, à gravidez, ao parto e à mãe. A população de estudo compreendeu 15.142 nascidos vivos hospitalares ocorridos em cinco municípios do Estado de São Paulo, Brasil, no período de janeiro a julho de 1992. Os resultados permitiram reconhecer excelente cobertura do SINASC (emissão de DN acima de 99,5%) e ótima fidedignidade do preenchimento das DNs, para a maioria das variáveis, quando comparadas aos documentos hospitalares. Para algumas características foi observada maior fragilidade (Índice de Apgar, duração da gestação, instrução da mãe, número total de filhos tidos e nome do pai). São apresentadas sugestões para o aperfeiçoamento do SINASC e recomendados treinamentos/reciclagens do pessoal envolvido no preenchimento das DNs. O estudo confirma o fato de os dados permitirem análise válida para o conhecimento de aspectos ligados à saúde materno-infantil. Do ponto de vista epidemiológico, o estudo permitiu detectar proporções elevadas de parto operatório (48,4%), mães adolescentes (17,5%) e o valor estimado para o baixo peso ao nascer foi de 8,5%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We provide all agent; the capability to infer the relations (assertions) entailed by the rules that, describe the formal semantics of art RDFS knowledge-base. The proposed inferencing process formulates each semantic restriction as a rule implemented within a, SPARQL query statement. The process expands the original RDF graph into a fuller graph that. explicitly captures the rule's described semantics. The approach is currently being explored in order to support descriptions that follow the generic Semantic Web Rule Language. An experiment, using the Fire-Brigade domain, a small-scale knowledge-base, is adopted to illustrate the agent modeling method and the inferencing process.