122 resultados para Web content adaptation


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los profesores de la licenciatura en Ciencias e Tecnologías da Documentaçáo e Informaçáo (CTDI) se preparan para sacar partido de las herramientas Web 2.0 como un complemento de su actividad lectiva. En este contexto, se presenta el Grupo de Investigación PlGeCo que pretende, por un lado, implementar la utilización de herramientas Web 2.0 de tal forma que se pueda conseguir ciertas premisas que actualmente orientan la nueva generación web (colaboración, contribución, comunidad), aplicando-las á la actividad lectiva e, por otro lado, el estímulo de la producción científica de los profesores y académica de los alumnos, así como su posterior análisis. Se ha hecho una valoración de los proyectos en curso y se discuten las expectativas esperadas presentado un análisis de las perspectivas y ambiciones futuras del grupo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos últimos anos, o processo de ensino e aprendizagem tem sofrido significativas alterações graças ao aparecimento da Internet. Novas ferramentas para apoio ao ensino têm surgido, nas quais se destacam os laboratórios remotos. Atualmente, muitas instituições de ensino disponibilizam laboratórios remotos nos seus cursos, que permitem, a professores e alunos, a realização de experiências reais através da Internet. Estes são implementados por diferentes arquiteturas e infraestruturas, suportados por vários módulos de laboratório acessíveis remotamente (e.g. instrumentos de medição). No entanto, a sua inclusão no ensino é ainda deficitária, devido: i) à falta de meios e competências técnicas das instituições de ensino para os desenvolverem, ii) à dificuldade na partilha dos módulos de laboratório por diferentes infraestruturas e, iii) à reduzida capacidade de os reconfigurar com esses módulos. Para ultrapassar estas limitações, foi idealizado e desenvolvido no âmbito de um trabalho de doutoramento [1] um protótipo, cuja arquitetura é baseada na norma IEEE 1451.0 e na tecnologia de FPGAs. Para além de garantir o desenvolvimento e o acesso de forma normalizada a um laboratório remoto, este protótipo promove ainda a partilha de módulos de laboratório por diferentes infraestruturas. Nesse trabalho explorou-se a capacidade de reconfiguração de FPGAs para embutir na infraestrutura do laboratório vários módulos, todos descritos em ficheiros, utilizando linguagens de descrição de hardware estruturados de acordo com a norma IEEE 1451.0. A definição desses módulos obriga à criação de estruturas de dados binárias (Transducer Electronic Data Sheets, TEDSs), bem como de outros ficheiros que possibilitam a sua interligação com a infraestrutura do laboratório. No entanto, a criação destes ficheiros é bastante complexa, uma vez que exige a realização de vários cálculos e conversões. Tendo em consideração essa mesma complexidade, esta dissertação descreve o desenvolvimento de uma aplicação Web para leitura e escrita dos TEDSs. Para além de um estudo sobre os laboratórios remotos, é efetuada uma descrição da norma IEEE 1451.0, com particular atenção para a sua arquitetura e para a estrutura dos diferentes TEDSs. Com o objetivo de enquadrar a aplicação desenvolvida, efetua-se ainda uma breve apresentação de um protótipo de um laboratório remoto reconfigurável, cuja reconfiguração é apoiada por esta aplicação. Por fim, é descrita a verificação da aplicação Web, de forma a tirar conclusões sobre o seu contributo para a simplificação dessa reconfiguração.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O surgir da World Wide Web providenciou aos utilizadores uma série de oportunidades no que diz respeito ao acesso a dados e informação. Este acesso tornou-se um ato banal para qualquer utilizador da Web, tanto pelo utilizador comum como por outros mais experientes, tanto para obter informações básicas, como outras informações mais complexas. Todo este avanço tecnológico permitiu que os utilizadores tivessem acesso a uma vasta quantidade de informação, dispersa pelo globo, não tendo, na maior parte das vezes, a informação qualquer tipo de ligação entre si. A necessidade de se obter informação de interesse relativamente a determinado tema, mas tendo que recorrer a diversas fontes para obter toda a informação que pretende obter e comparar, torna-se um processo moroso para o utilizador. Pretende-se que este processo de recolha de informação de páginas web seja o mais automatizado possível, dando ao utilizador a possibilidade de utilizar algoritmos e ferramentas de análise e processamento automáticas, reduzindo desta forma o tempo e esforço de realização de tarefas sobre páginas web. Este processo é denominado Web Scraping. Neste trabalho é descrita uma arquitetura de sistema de web scraping automático e configurável baseado em tecnologias existentes, nomeadamente no contexto da web semântica. Para tal o trabalho desenvolvido analisa os efeitos da aplicação do Web Scraping percorrendo os seguintes pontos: • Identificação e análise de diversas ferramentas de web scraping; • Identificação do processo desenvolvido pelo ser humano complementar às atuais ferramentas de web scraping; • Design duma arquitetura complementar às ferramentas de web scraping que dê apoio ao processo de web scraping do utilizador; • Desenvolvimento dum protótipo baseado em ferramentas e tecnologias existentes; • Realização de experiências no domínio de aplicação de páginas de super-mercados portugueses; • Analisar resultados obtidos a partir destas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Internet, conforme a conhecemos, foi projetada com base na pilha de protocolos TCP/IP, que foi desenvolvida nos anos 60 e 70 utilizando um paradigma centrado nos endereços individuais de cada máquina (denominado host-centric). Este paradigma foi extremamente bem-sucedido em interligar máquinas através de encaminhamento baseado no endereço IP. Estudos recentes demonstram que, parte significativa do tráfego atual da Internet centra-se na transferência de conteúdos, em vez das tradicionais aplicações de rede, conforme foi originalmente concebido. Surgiram então novos modelos de comunicação, entre eles, protocolos de rede ponto-a-ponto, onde cada máquina da rede pode efetuar distribuição de conteúdo (denominadas de redes peer-to-peer), para melhorar a distribuição e a troca de conteúdos na Internet. Por conseguinte, nos últimos anos o paradigma host-centric começou a ser posto em causa e apareceu uma nova abordagem de Redes Centradas na Informação (ICN - information-centric networking). Tendo em conta que a Internet, hoje em dia, basicamente é uma rede de transferência de conteúdos e informações, porque não centrar a sua evolução neste sentido, ao invés de comunicações host-to-host? O paradigma de Rede Centrada no Conteúdo (CCN - Content Centric Networking) simplifica a solução de determinados problemas de segurança relacionados com a arquitetura TCP/IP e é uma das principais propostas da nova abordagem de Redes Centradas na Informação. Um dos principais problemas do modelo TCP/IP é a proteção do conteúdo. Atualmente, para garantirmos a autenticidade e a integridade dos dados partilhados na rede, é necessário garantir a segurança do repositório e do caminho que os dados devem percorrer até ao seu destino final. No entanto, a contínua ineficácia perante os ataques de negação de serviço praticados na Internet, sugere a necessidade de que seja a própria infraestrutura da rede a fornecer mecanismos para os mitigar. Um dos principais pilares do paradigma de comunicação da CCN é focalizar-se no próprio conteúdo e não na sua localização física. Desde o seu aparecimento em 2009 e como consequência da evolução e adaptação a sua designação mudou atualmente para Redes de Conteúdos com Nome (NNC – Named Network Content). Nesta dissertação, efetuaremos um estudo de uma visão geral da arquitetura CCN, apresentando as suas principais características, quais os componentes que a compõem e como os seus mecanismos mitigam os tradicionais problemas de comunicação e de segurança. Serão efetuadas experiências com o CCNx, que é um protótipo composto por um conjunto de funcionalidades e ferramentas, que possibilitam a implementação deste paradigma. O objetivo é analisar criticamente algumas das propostas existentes, determinar oportunidades, desafios e perspectivas para investigação futura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste estudo é conhecer uma vertente específica do perfil informacional dos alunos que cresceram na era digital, ditos nativos digitais, na utilização que fazem da Internet. Assim, pretende-se aferir os critérios que aplicam na avaliação das fontes de informação disponíveis na web na vertente da credibilidade. A análise dos dados obtidos, resultantes da aplicação de 195 questionários a alunos do 8º ao 12º, é enquadrada e sustentada por revisão da literatura acerca do conceito de credibilidade da informação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No panorama socioeconómico atual, a contenção de despesas e o corte no financiamento de serviços secundários consumidores de recursos conduzem à reformulação de processos e métodos das instituições públicas, que procuram manter a qualidade de vida dos seus cidadãos através de programas que se mostrem mais eficientes e económicos. O crescimento sustentado das tecnologias móveis, em conjunção com o aparecimento de novos paradigmas de interação pessoa-máquina com recurso a sensores e sistemas conscientes do contexto, criaram oportunidades de negócio na área do desenvolvimento de aplicações com vertente cívica para indivíduos e empresas, sensibilizando-os para a disponibilização de serviços orientados ao cidadão. Estas oportunidades de negócio incitaram a equipa do projeto a desenvolver uma plataforma de notificação de problemas urbanos baseada no seu sistema de informação geográfico para entidades municipais. O objetivo principal desta investigação foca a idealização, conceção e implementação de uma solução completa de notificação de problemas urbanos de caráter não urgente, distinta da concorrência pela facilidade com que os cidadãos são capazes de reportar situações que condicionam o seu dia-a-dia. Para alcançar esta distinção da restante oferta, foram realizados diversos estudos para determinar características inovadoras a implementar, assim como todas as funcionalidades base expectáveis neste tipo de sistemas. Esses estudos determinaram a implementação de técnicas de demarcação manual das zonas problemáticas e reconhecimento automático do tipo de problema reportado nas imagens, ambas desenvolvidas no âmbito deste projeto. Para a correta implementação dos módulos de demarcação e reconhecimento de imagem, foram feitos levantamentos do estado da arte destas áreas, fundamentando a escolha de métodos e tecnologias a integrar no projeto. Neste contexto, serão apresentadas em detalhe as várias fases que constituíram o processo de desenvolvimento da plataforma, desde a fase de estudo e comparação de ferramentas, metodologias, e técnicas para cada um dos conceitos abordados, passando pela proposta de um modelo de resolução, até à descrição pormenorizada dos algoritmos implementados. Por último, é realizada uma avaliação de desempenho ao par algoritmo/classificador desenvolvido, através da definição de métricas que estimam o sucesso ou insucesso do classificador de objetos. A avaliação é feita com base num conjunto de imagens de teste, recolhidas manualmente em plataformas públicas de notificação de problemas, confrontando os resultados obtidos pelo algoritmo com os resultados esperados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Relatório de estágio apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Empreendedorismo e Internacionalização, sob orientação de Doutora Ana Azevedo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresentam-se os resultados parcelares de um estudo destinado a promover um melhor conhecimento das estratégias que os jovens em idade escolar (12-18 anos) consideram relevantes para avaliar as fontes de informação disponíveis na Internet. Para o efeito, foi aplicado um inquérito distribuído a uma amostra de 195 alunos de uma escola do 3o ciclo e outra do ensino secundário de um concelho do distrito do Porto. São apresentados e discutidos os resultados acerca da perceção destes alunos quanto aos critérios a aplicar na avaliação das fontes de informação disponíveis na Internet, na vertente da credibilidade. Serão apresenta- das as práticas que os jovens declaram ter relativamente ao uso de critérios de autoria, originalidade, estrutura, atualidade e de comparação para avaliar a credibilidade das fontes de informação. Em complemento, estes resultados serão comparados e discutidos com as perceções que os mesmos inquiridos demonstram possuir relativamente aos elementos que compõem cada um destes critérios. A análise dos dados obtidos é enquadrada e sustentada numa revisão da literatura acerca do conceito de credibilidade, aplicado às fontes de informação disponíveis na Internet. São ainda abordados alguns tópicos relaciona- dos com a inclusão de estratégias de avaliação da credibilidade da informação digital no modelo Big6, um dos modelos de desenvolvimento de competências de literacia da informação mais conhecidos e utilizados nas bibliotecas escolares portuguesas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Since the middle of the first decade of this century, several authors have announced the dawn of a new Age, following the Information/ Knowledge Age (1970-2005?). We are certainly living in a Shift Age (Houle, 2007), but no standard designation has been broadly adopted so far, and others, such as Conceptual Age (Pink, 2005) or Social Age (Azua, 2009), are only some of the proposals to name current times. Due to the amount of information available nowadays, meaning making and understanding seem to be common features of this new age of change; change related to (i) how individuals and organizations engage with each other, to (ii) the way we deal with technology, to (iii) how we engage and communicate within communities to create meaning, i.e., also social networking-driven changes. The Web 2.0 and the social networks have strongly altered the way we learn, live, work and, of course, communicate. Within all the possible dimensions we could address this change, we chose to focus on language – a taken-for-granted communication tool, used, translated and recreated in personal and geographical variants, by the many users and authors of the social networks and other online communities and platforms. In this paper, we discuss how the Web 2.0, and specifically social networks, have contributed to changes in the communication process and, in bi- or multilingual environments, to the evolution and freeware use of the so called “international language”: English. Next, we discuss some of the impacts and challenges of this language diversity in international communication in the shift age of understanding and social networking, focusing on specialized networks. Then we point out some skills and strategies to avoid babelization and to build meaningful and effective content in mono or multilingual networks, through the use of common and shared concepts and designations in social network environments. For this purpose, we propose a social and collaborative approach to terminology management, as a shared, strategic and sense making tool for specialized communication in Web 2.0 environments.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Near real time media content personalisation is nowadays a major challenge involving media content sources, distributors and viewers. This paper describes an approach to seamless recommendation, negotiation and transaction of personalised media content. It adopts an integrated view of the problem by proposing, on the business-to-business (B2B) side, a brokerage platform to negotiate the media items on behalf of the media content distributors and sources, providing viewers, on the business-to-consumer (B2C) side, with a personalised electronic programme guide (EPG) containing the set of recommended items after negotiation. In this setup, when a viewer connects, the distributor looks up and invites sources to negotiate the contents of the viewer personal EPG. The proposed multi-agent brokerage platform is structured in four layers, modelling the registration, service agreement, partner lookup, invitation as well as item recommendation, negotiation and transaction stages of the B2B processes. The recommendation service is a rule-based switch hybrid filter, including six collaborative and two content-based filters. The rule-based system selects, at runtime, the filter(s) to apply as well as the final set of recommendations to present. The filter selection is based on the data available, ranging from the history of items watched to the ratings and/or tags assigned to the items by the viewer. Additionally, this module implements (i) a novel item stereotype to represent newly arrived items, (ii) a standard user stereotype for new users, (iii) a novel passive user tag cloud stereotype for socially passive users, and (iv) a new content-based filter named the collinearity and proximity similarity (CPS). At the end of the paper, we present off-line results and a case study describing how the recommendation service works. The proposed system provides, to our knowledge, an excellent holistic solution to the problem of recommending multimedia contents.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The present work reports new sensors for the direct determination of Microcystin-LR (MC-LR) in environmental waters. Both selective membrane and solid contact were optimized to ensure suitable analytical features in potentiometric transduction. The sensing layer consisted of Imprinted Sol–Gel (ISG) materials capable of establishing surface interactions with MC-LR. Non-Imprinted Sol–Gel (NISG) membranes were used as negative control. The effects of an ionic lipophilic additive, time of sol–gel polymerization, time of extraction of MC-LR from the sensitive layer, and pH were also studied. The solid contact was made of carbon, aluminium, titanium, copper or nickel/chromium alloys (80 : 20 or 90 : 10). The best ISG sensor had a carbon solid contact and displayed average slopes of 211.3 mV per decade, with detection limits of 7.3 1010 M, corresponding to 0.75 mg L1 . It showed linear responses in the range of 7.7 1010 to 1.9 109 M of MC-LR (corresponding to 0.77–2.00 mg L1 ), thus including the limiting value for MC-LR in waters (1.0 mg L1 ). The potentiometric-selectivity coefficients were assessed by the matched potential method for ionic species regularly found in waters up to their limiting levels. Chloride (Cl) showed limited interference while aluminium (Al3+), ammonium (NH4 + ), magnesium (Mg2+), manganese (Mn2+), sodium (Na+ ), and sulfate (SO4 2) were unable to cause the required potential change. Spiked solutions were tested with the proposed sensor. The relative errors and standard deviation obtained confirmed the accuracy and precision of the method. It also offered the advantages of low cost, portability, easy operation and suitability for adaptation to flow methods.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Poster presented in Redes de Veiculos nas sociedades do futuro (RVSF 2015). 3, Jun, 2015. Castelo Branco, Portugal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this paper, three approaches for the assessment of credibility in a web environment will be presented, namely the checklists model, the cognitive authority model and the contextual model. This theoretical framework was used to conduct a study about the assessment of web resources credibility among a sample of 195 students, from elementary and secondary schools in a municipality in Oporto district (Portugal). The practices that young people and children claim to use regarding the use of criteria for web resources selection will be presented. In addition, these results will be discussed and compared with the perceptions that these respondents have demonstrated for the use of criteria to establish or assess authorship, originality, or information resources structure. These results will be also discussed and compared with the perceptions that these respondents have demonstrated for the elements that make up each of these criteria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Abstract: Preferential flow and transport through macropores affect plant water use efficiency and enhance leaching of agrochemicals and the transport of colloids, thereby increasing the risk for contamination of groundwater resources. The effects of soil compaction, expressed in terms of bulk density (BD), and organic carbon (OC) content on preferential flow and transport were investigated using 150 undisturbed soil cores sampled from 15 × 15–m grids on two field sites. Both fields had loamy textures, but one site had significantly higher OC content. Leaching experiments were conducted in each core by applying a constant irrigation rate of 10 mm h−1 with a pulse application of tritium tracer. Five percent tritium mass arrival times and apparent dispersivities were derived from each of the tracer breakthrough curves and correlated with texture, OC content, and BD to assess the spatial distribution of preferential flow and transport across the investigated fields. Soils from both fields showed strong positive correlations between BD and preferential flow. Interestingly, the relationships between BD and tracer transport characteristics were markedly different for the two fields, although the relationship between BD and macroporosity was nearly identical. The difference was likely caused by the higher contents of fines and OC at one of the fields leading to stronger aggregation, smaller matrix permeability, and a more pronounced pipe-like pore system with well-aligned macropores.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mental practice is an internal reproduction of a motor act (whose intention is to promote learning and improving motor skills). Some studies have shown that other cognitive strategies also increase the strength and muscular resistance in healthy people by the enhancement of the performance during dynamic tasks. Mental training sessions may be primordial to improving muscle strength in different subjects. The aim of this study was to systematically review and meta-analiyze studies that assessed whether mental practice is effective in improving muscular strength. We conducted an electronic-computed search in Pub-Med/Medline and ISI Web of Knowledge, Scielo and manual searchs, searching papers written in English between 1991 and 2014. There were 44 studies in Pub-Med/Medline, 631 in ISI Web of Knowledge, 11 in Scielo and 3 in manual searchs databases. After exclusion of studies for duplicate, unrelated to the topic by title and summary, different samples and methodologies, a meta-analysis of 4 studies was carried out to identify the dose-response relationship. We did not find evidence that mental practice is effective in increasing strength in healthy individuals. There is no evidence that mental practice alone can be effective to induce strength gains or to optimize the training effects.