49 resultados para Internet Things Web Middleware Cloud Computing


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com a evolução da Internet houve uma consequente transformação da forma como os resultados são apresentados e das técnicas de visualização e apresentação de conteúdos. A presente dissertação é sobre visualização com nuvens de tags e foi a conjugação de diversos factores que originou a investigação sobre este tema. Uma nuvem de tags (em inglês: tag clouds) é uma concepção visual de um conjunto de tags isoladas com uma representação ilustrativa da sua importância, ou seja visualmente hierarquizadas e em que cada tag se hiperliga a um ou mais sítios Web ou documentos. São extremamente úteis para a navegação ou para a descoberta de informação genérica, podendo requerer menor carga cognitiva do utilizador durante consultas e pesquisas se alguns aspectos forem considerados na sua construção. Nesta dissertação discutem-se alguns dos factores visuais que podem contribuir para que as nuvens de tags sejam ferramentas efectivas e intuitivas para os utilizadores. O conceito de folksonomia está relacionado com nuvens de tags, permitindo categorizar as definições atribuídas a conteúdos recorrendo a palavras-chave (tags). Neste documento são ainda exploradas as suas vantagens e desvantagens. Discutem-se ainda alguns modos de visualização e apresentação de nuvens de tags, desde o tipo de ordenação ao algoritmo de geração da nuvem de tags. Aborda-se ainda o impacto do tipo de fonte e a utilização de cores monocromáticas ou coloridas que estas possam ter na visualização da nuvem. A própria tag também é categorizada e explorada ao nível do seu posicionamento na nuvem e a percepção que causa no utilizador. Sobre a visualização de nuvens de tags, refere-se ainda que as conclusões obtidas foram utilizadas num repositório de objectos educativos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

When exploring a virtual environment, realism depends mainly on two factors: realistic images and real-time feedback (motions, behaviour etc.). In this context, photo realism and physical validity of computer generated images required by emerging applications, such as advanced e-commerce, still impose major challenges in the area of rendering research whereas the complexity of lighting phenomena further requires powerful and predictable computing if time constraints must be attained. In this technical report we address the state-of-the-art on rendering, trying to put the focus on approaches, techniques and technologies that might enable real-time interactive web-based clientserver rendering systems. The focus is on the end-systems and not the networking technologies used to interconnect client(s) and server(s).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

When the Internet was born, the purpose was to interconnect computers to share digital data at large-scale. On the other hand, when embedded systems were born, the objective was to control system components under real-time constraints through sensing devices, typically at small to medium scales. With the great evolution of the Information and Communication Technology (ICT), the tendency is to enable ubiquitous and pervasive computing to control everything (physical processes and physical objects) anytime and at a large-scale. This new vision gave recently rise to the paradigm of Cyber-Physical Systems (CPS). In this position paper, we provide a realistic vision to the concept of the Cyber-Physical Internet (CPI), discuss its design requirements and present the limitations of the current networking abstractions to fulfill these requirements. We also debate whether it is more productive to adopt a system integration approach or a radical design approach for building large-scale CPS. Finally, we present a sample of realtime challenges that must be considered in the design of the Cyber-Physical Internet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Constrained and unconstrained Nonlinear Optimization Problems often appear in many engineering areas. In some of these cases it is not possible to use derivative based optimization methods because the objective function is not known or it is too complex or the objective function is non-smooth. In these cases derivative based methods cannot be used and Direct Search Methods might be the most suitable optimization methods. An Application Programming Interface (API) including some of these methods was implemented using Java Technology. This API can be accessed either by applications running in the same computer where it is installed or, it can be remotely accessed through a LAN or the Internet, using webservices. From the engineering point of view, the information needed from the API is the solution for the provided problem. On the other hand, from the optimization methods researchers’ point of view, not only the solution for the problem is needed. Also additional information about the iterative process is useful, such as: the number of iterations; the value of the solution at each iteration; the stopping criteria, etc. In this paper are presented the features added to the API to allow users to access to the iterative process data.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Aiming for teaching/learning support in sciences and engineering areas, the Remote Experimentation concept (an E-learning subset) has grown in last years with the development of several infrastructures that enable doing practical experiments from anywhere and anytime, using a simple PC connected to the Internet. Nevertheless, given its valuable contribution to the teaching/learning process, the development of more infrastructures should continue, in order to make available more solutions able to improve courseware contents and motivate students for learning. The work presented in this paper contributes for that purpose, in the specific area of industrial automation. After a brief introduction to the Remote Experimentation concept, we describe a remote accessible lab infrastructure that enables users to conduct real experiments with an important and widely used transducer in industrial automation, named Linear Variable Differential Transformer.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As Leis de Potência, LP, (Power Laws, em inglês), Leis de Pareto ou Leis de Zipf são distribuições estatísticas, com inúmeras aplicações práticas, em sistemas naturais e artificiais. Alguns exemplos são a variação dos rendimentos pessoais ou de empresas, a ocorrência de palavras em textos, as repetições de sons ou conjuntos de sons em composições musicais, o número de vítimas em guerras ou outros cataclismos, a magnitude de tremores de terra, o número de vendas de livros ou CD’s na internet, o número de sítios mais acedidos na Internet, entre muitos outros. Vilfredo Pareto (1897-1906) afirma, no manual de economia política “Cours d’Economie Politique”, que grande parte da economia mundial segue uma determinada distribuição, em que 20% da população reúne 80% da riqueza total do país, estando, assim uma pequena fração da sociedade a controlar a maior fatia do dinheiro. Isto resume o comportamento de uma variável que segue uma distribuição de Pareto (ou Lei de Potência). Neste trabalho pretende-se estudar em pormenor a aplicação das leis de potência a fenómenos da internet, como sendo o número de sítios mais visitados, o número de links existentes em determinado sítio, a distribuição de nós numa rede da internet, o número livros vendidos e as vendas em leilões online. Os resultados obtidos permitem-nos concluir que todos os dados estudados são bem aproximados, numa escala logarítmica, por uma reta com declive negativo, seguindo, assim, uma distribuição de Pareto. O desenvolvimento e crescimento da Web, tem proporcionado um aumento do número dos utilizadores, conteúdos e dos sítios. Grande parte dos exemplos presentes neste trabalho serão alvo de novos estudos e de novas conclusões. O fato da internet ter um papel preponderante nas sociedades modernas, faz com que esteja em constante evolução e cada vez mais seja possível apresentar fenómenos na internet associados Lei de Potência.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Extracting the semantic relatedness of terms is an important topic in several areas, including data mining, information retrieval and web recommendation. This paper presents an approach for computing the semantic relatedness of terms using the knowledge base of DBpedia — a community effort to extract structured information from Wikipedia. Several approaches to extract semantic relatedness from Wikipedia using bag-of-words vector models are already available in the literature. The research presented in this paper explores a novel approach using paths on an ontological graph extracted from DBpedia. It is based on an algorithm for finding and weighting a collection of paths connecting concept nodes. This algorithm was implemented on a tool called Shakti that extract relevant ontological data for a given domain from DBpedia using its SPARQL endpoint. To validate the proposed approach Shakti was used to recommend web pages on a Portuguese social site related to alternative music and the results of that experiment are reported in this paper.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O hotel, para muitos autores, tem como função oferecer abrigo para quem está distante da sua casa e atender às suas necessidades básicas. A hotelaria tem como função básica alojar as pessoas que estão longe da sua residência e que precisam de um quarto com uma cama para dormir e uma casa de banho (Duarte, 1996). Para Beni (2003), um hotel, além de ter a função básica de alojar, tem uma característica que nenhum outro estabelecimento comercial possui, que é o facto de o consumidor se deslocar até ao hotel para poder utilizar os serviços disponíveis. Outra característica muito especifica da atividade hoteleira, é o facto de o atendimento ser o mais importante na hora da prestação do serviço. O Hostel é uma designação muito usada atualmente como sinónimo de albergue. É um tipo de unidade hoteleira que se caracteriza pelos preços convidativos e pela possibilidade de socialização dos hóspedes, onde cada hóspede pode arrendar uma cama ou beliche, num dormitório partilhado, com casa de banho, lavandaria e, por vezes, cozinha, também em regime partilhado. Os Hostels são geralmente económicos praticando preços intitulados low-­‐cost. Definir uma estratégia para a Internet é hoje um imperativo para qualquer organização que pretenda utilizar este canal de comunicação para promover a sua atividade. As unidades hoteleiras também não são exceção; a necessidade de comunicar com os públicos alvo no sentido de aumentarem a captação de turistas exige uma presença na Internet que consiga simultaneamente informar e motivar à escolha pelos serviços prestados. A Internet evidencia um incontornável potencial informativo e comunicativo em questões de rapidez de circulação: número de pessoas que atinge e áreas geográficas que abarca; e devido às suas características de imaterialidade, instantaneidade e multimédia, democratiza o acesso à informação e a determinados tipos de bens, facilita a comunicação entre pessoas e instituições e universaliza as oportunidades, eliminando as barreiras espaciais, geográficas e temporais (Balsa, 2007). Rapidamente as unidades hoteleiras se aperceberam das vantagens e potencialidades da Internet: rápida, imediata, económica, integrada no dia-­‐a-­‐dia de trabalho e lazer e acessível a um cada vez maior número de pessoas. A nível geral, mas com especial incidência no caso das unidades hoteleiras, a Internet apresenta inúmeras vantagens ao nível da estruturação da informação em bases de dados e da sua apresentação dinâmica, tirando partido da inclusão de objetos multimédia em páginas HTML. Os objetos multimédia podem incluir áudio, vídeo,animações em tecnologia Flash e mesmo animações 3D tornando a visita a um sítio Web com este tipo de conteúdos, uma experiência muito gratificante. Por sua vez, a interatividade, característica do próprio funcionamento das páginas Web, facilita a interação entre a unidade hoteleira e o visitante. A interatividade permite ou facilita uma relação ativa entre o utilizador e o hotel. O utilizador passa de espectador passivo a interveniente ativo no processo de consulta da informação. Na web, os avanços tecnológicos têm sido constantes. Em 1980, Alvin Toffler’s no seu bestseller ‘The Third Wave’ previu um novo tipo de consumidor a quem chamou de ‘prosumer’ e que seria um misto de DIY (do-­it-­yourself) produtor e consumidor em mercados offline (Toffler, 1980). Foi sem dúvida de uma grande visão, mas sem os recentes avanços na web e nas tecnologias digitais, a maioria dos utilizadores não poderia ter dado o salto de espectador passivo para ator que participa ativamente na construção da web (Shuen, 2008). O aparecimento das redes sociais que permitem criar comunidades com interesses afins, o desenvolvimento de plataformas como o Youtube.com para a partilha de vídeos, a vulgarização de plataformas como o flickr.com para a partilha de imagens constituíram marcos determinantes para aquilo a que se designa por WEB 2.0 (tecnologia do século XXI). Enquanto no tempo da WEB 1.0 (tecnologia dos anos 90) os sites eram essencialmente estáticos e a interatividade não era levada aos limites, agora com a WEB 2.0 é possível construir modelos de negócio com conteúdos mais ricos simulando, com muito maior realismo, em ambientes virtuais, o que se passa em ambientes reais. Os sítios Web das unidades hoteleiras estão a evoluir rapidamente para um modelo que contemple as potencialidades da WEB 2.0 Tendo em consideração a importância das unidades hoteleiras no panorama do turismo, a relevância da Internet como meio de comunicação entre as instituições e os cidadãos e a necessidade das unidades hoteleiras disporem de uma estratégia de comunicação digital para difundir as suas valências e atividades, entendemos justificar-­se fazer uma revisão da literatura onde: procuraremos compreender a importância do turismo na sociedade atual assim como, o impacto das novas tecnologias da informação em atividades relacionadas com o turismo e ainda, procuraremos perceber quais os canais de comunicação digital que estão ao dispor dos profissionais de turismo, nomeadamente os gestores de unidades hoteleiras, para promover os seus serviços. O objetivo principal deste trabalho consiste em mostrar como foi desenvolvido uma estratégia de comunicação digital para promover online uma unidade hoteleira low cost, no caso presente o Oporto Invictus Hostel. Trata­‐se de um projeto integrado em que não só se criaram as diferentes peças de comunicação como se definiu e aplicou uma estratégia promocional com vista à divulgação do Hostel. O projeto apresentado evidencia como é possível, com recursos limitados, criar um sistema integrado de comunicação digital online que promova uma pequena unidade hoteleira, de forma a dar-­‐lhe visibilidade tanto a nível nacional como internacional. O projeto está dividido em cinco partes. Numa primeira parte é feita a apresentação do briefing que resultou de uma primeira reunião com o cliente. Numa segunda parte apresenta­‐se a fase de planeamento relativa ao desenvolvimento do projeto. Numa terceira parte descreve-­se o processo de implementação do projeto. Na quarta fase abordam-se os testes funcionais e na quinta e última fase faz-­se referencia a aspetos relacionados com a conclusão do projeto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação de Mestrado apresentada ao Instituto Superior de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Marketing Digital, sob orientação do Prof. Paulo Alexandre Pires

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos últimos anos, o processo de ensino e aprendizagem tem sofrido significativas alterações graças ao aparecimento da Internet. Novas ferramentas para apoio ao ensino têm surgido, nas quais se destacam os laboratórios remotos. Atualmente, muitas instituições de ensino disponibilizam laboratórios remotos nos seus cursos, que permitem, a professores e alunos, a realização de experiências reais através da Internet. Estes são implementados por diferentes arquiteturas e infraestruturas, suportados por vários módulos de laboratório acessíveis remotamente (e.g. instrumentos de medição). No entanto, a sua inclusão no ensino é ainda deficitária, devido: i) à falta de meios e competências técnicas das instituições de ensino para os desenvolverem, ii) à dificuldade na partilha dos módulos de laboratório por diferentes infraestruturas e, iii) à reduzida capacidade de os reconfigurar com esses módulos. Para ultrapassar estas limitações, foi idealizado e desenvolvido no âmbito de um trabalho de doutoramento [1] um protótipo, cuja arquitetura é baseada na norma IEEE 1451.0 e na tecnologia de FPGAs. Para além de garantir o desenvolvimento e o acesso de forma normalizada a um laboratório remoto, este protótipo promove ainda a partilha de módulos de laboratório por diferentes infraestruturas. Nesse trabalho explorou-se a capacidade de reconfiguração de FPGAs para embutir na infraestrutura do laboratório vários módulos, todos descritos em ficheiros, utilizando linguagens de descrição de hardware estruturados de acordo com a norma IEEE 1451.0. A definição desses módulos obriga à criação de estruturas de dados binárias (Transducer Electronic Data Sheets, TEDSs), bem como de outros ficheiros que possibilitam a sua interligação com a infraestrutura do laboratório. No entanto, a criação destes ficheiros é bastante complexa, uma vez que exige a realização de vários cálculos e conversões. Tendo em consideração essa mesma complexidade, esta dissertação descreve o desenvolvimento de uma aplicação Web para leitura e escrita dos TEDSs. Para além de um estudo sobre os laboratórios remotos, é efetuada uma descrição da norma IEEE 1451.0, com particular atenção para a sua arquitetura e para a estrutura dos diferentes TEDSs. Com o objetivo de enquadrar a aplicação desenvolvida, efetua-se ainda uma breve apresentação de um protótipo de um laboratório remoto reconfigurável, cuja reconfiguração é apoiada por esta aplicação. Por fim, é descrita a verificação da aplicação Web, de forma a tirar conclusões sobre o seu contributo para a simplificação dessa reconfiguração.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O surgir da World Wide Web providenciou aos utilizadores uma série de oportunidades no que diz respeito ao acesso a dados e informação. Este acesso tornou-se um ato banal para qualquer utilizador da Web, tanto pelo utilizador comum como por outros mais experientes, tanto para obter informações básicas, como outras informações mais complexas. Todo este avanço tecnológico permitiu que os utilizadores tivessem acesso a uma vasta quantidade de informação, dispersa pelo globo, não tendo, na maior parte das vezes, a informação qualquer tipo de ligação entre si. A necessidade de se obter informação de interesse relativamente a determinado tema, mas tendo que recorrer a diversas fontes para obter toda a informação que pretende obter e comparar, torna-se um processo moroso para o utilizador. Pretende-se que este processo de recolha de informação de páginas web seja o mais automatizado possível, dando ao utilizador a possibilidade de utilizar algoritmos e ferramentas de análise e processamento automáticas, reduzindo desta forma o tempo e esforço de realização de tarefas sobre páginas web. Este processo é denominado Web Scraping. Neste trabalho é descrita uma arquitetura de sistema de web scraping automático e configurável baseado em tecnologias existentes, nomeadamente no contexto da web semântica. Para tal o trabalho desenvolvido analisa os efeitos da aplicação do Web Scraping percorrendo os seguintes pontos: • Identificação e análise de diversas ferramentas de web scraping; • Identificação do processo desenvolvido pelo ser humano complementar às atuais ferramentas de web scraping; • Design duma arquitetura complementar às ferramentas de web scraping que dê apoio ao processo de web scraping do utilizador; • Desenvolvimento dum protótipo baseado em ferramentas e tecnologias existentes; • Realização de experiências no domínio de aplicação de páginas de super-mercados portugueses; • Analisar resultados obtidos a partir destas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste estudo é conhecer uma vertente específica do perfil informacional dos alunos que cresceram na era digital, ditos nativos digitais, na utilização que fazem da Internet. Assim, pretende-se aferir os critérios que aplicam na avaliação das fontes de informação disponíveis na web na vertente da credibilidade. A análise dos dados obtidos, resultantes da aplicação de 195 questionários a alunos do 8º ao 12º, é enquadrada e sustentada por revisão da literatura acerca do conceito de credibilidade da informação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Relatório de estágio apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Empreendedorismo e Internacionalização, sob orientação de Doutora Ana Azevedo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apresentam-se os resultados parcelares de um estudo destinado a promover um melhor conhecimento das estratégias que os jovens em idade escolar (12-18 anos) consideram relevantes para avaliar as fontes de informação disponíveis na Internet. Para o efeito, foi aplicado um inquérito distribuído a uma amostra de 195 alunos de uma escola do 3o ciclo e outra do ensino secundário de um concelho do distrito do Porto. São apresentados e discutidos os resultados acerca da perceção destes alunos quanto aos critérios a aplicar na avaliação das fontes de informação disponíveis na Internet, na vertente da credibilidade. Serão apresenta- das as práticas que os jovens declaram ter relativamente ao uso de critérios de autoria, originalidade, estrutura, atualidade e de comparação para avaliar a credibilidade das fontes de informação. Em complemento, estes resultados serão comparados e discutidos com as perceções que os mesmos inquiridos demonstram possuir relativamente aos elementos que compõem cada um destes critérios. A análise dos dados obtidos é enquadrada e sustentada numa revisão da literatura acerca do conceito de credibilidade, aplicado às fontes de informação disponíveis na Internet. São ainda abordados alguns tópicos relaciona- dos com a inclusão de estratégias de avaliação da credibilidade da informação digital no modelo Big6, um dos modelos de desenvolvimento de competências de literacia da informação mais conhecidos e utilizados nas bibliotecas escolares portuguesas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The Internet of Things (IoT) has emerged as a paradigm over the last few years as a result of the tight integration of the computing and the physical world. The requirement of remote sensing makes low-power wireless sensor networks one of the key enabling technologies of IoT. These networks encompass several challenges, especially in communication and networking, due to their inherent constraints of low-power features, deployment in harsh and lossy environments, and limited computing and storage resources. The IPv6 Routing Protocol for Low Power and Lossy Networks (RPL) [1] was proposed by the IETF ROLL (Routing Over Low-power Lossy links) working group and is currently adopted as an IETF standard in the RFC 6550 since March 2012. Although RPL greatly satisfied the requirements of low-power and lossy sensor networks, several issues remain open for improvement and specification, in particular with respect to Quality of Service (QoS) guarantees and support for mobility. In this paper, we focus mainly on the RPL routing protocol. We propose some enhancements to the standard specification in order to provide QoS guarantees for static as well as mobile LLNs. For this purpose, we propose OF-FL (Objective Function based on Fuzzy Logic), a new objective function that overcomes the limitations of the standardized objective functions that were designed for RPL by considering important link and node metrics, namely end-to-end delay, number of hops, ETX (Expected transmission count) and LQL (Link Quality Level). In addition, we present the design of Co-RPL, an extension to RPL based on the corona mechanism that supports mobility in order to overcome the problem of slow reactivity to frequent topology changes and thus providing a better quality of service mainly in dynamic networks application. Performance evaluation results show that both OF-FL and Co-RPL allow a great improvement when compared to the standard specification, mainly in terms of packet loss ratio and average network latency. 2015 Elsevier B.V. Al