941 resultados para web content
Resumo:
Desde o início que os sistemas periciais não foram vistos apenas como sistemas que poderiam substituir os peritos. Os peritos por sua vez, independentemente da área em que operam, eram tidos como indivíduos que atingiram a excelência através da experiência, estudo e total dedicação, por vezes durante anos. Hoje, mais do que assumir o papel de um perito na excelência de uma área de actuação, os sistemas periciais sobressaem pela disponibilidade contínua, acessos facilitados, custos reduzidos, estabilidade de funcionamento e coerência de raciocínio. Empurrados pelos avanços actuais das redes em termos de velocidade e propagação global, estes sistemas são hoje disponibilizados de forma mais simples e acessível. Este trabalho é realizado com o propósito de evoluir o actual sistema para uma versão mais apelativa, funcional e fiável. Um dos objectivos passa pela evolução do actual modo de funcionamento, utilização local e apenas um utilizador, para um modo de funcionamento que permita uma disponibilização num ambiente de acesso global, acessível a qualquer hora e em qualquer local.
Resumo:
O objectivo do projecto descrito nesta dissertação é o desenvolvimento da interface entre as empresas e a plataforma Business-to-Business (B2B) de negociação automática de anúncios em construção. A plataforma, no seu todo, deve garantir que os intervalos da programação são preenchidos com um alinhamento de anúncios compatível com os interesses expressos e o perfil construído dos espectadores. A plataforma funciona como um mercado electrónico de negociação automática destinado a agências de publicidade (empresas produtoras) e empresas provedoras de conteúdos e serviços multimédia aos consumidores finais (empresas distribuidoras). As empresas, uma vez registadas na plataforma, passam a ser representadas por agentes que negoceiam automaticamente os itens submetidos com o comportamento especificado. Do ponto de vista da arquitectura, a plataforma consiste num sistema multiagente organizado em três camadas compostas por: (i) agentes de interface com as empresas; (ii) agentes de modelação das empresas; e (iii) agentes delegados, de duração efémera, exclusivamente criados para participar em negociações específicas de conteúdos multimédia. Cada empresa representada na plataforma possui, para além de um número indeterminado de delegados envolvidos em negociações específicas, dois agentes: (i) o agente de interface com a empresa, que expõe um conjunto de operações de interface ao exterior através de um serviço Web, localizado na primeira camada; e (ii) o agente que modela a empresa na plataforma, que expõe através de um serviço Web um conjunto de operações aos agentes das restantes camadas da plataforma, residente na camada intermédia. Este projecto focou-se no desenvolvimento da camada superior de interface da plataforma com as empresas e no enriquecimento da camada intermédia. A realização da camada superior incluiu a especificação da parte da ontologia da plataforma que dá suporte às operações de interface com o exterior, à sua exposição como serviços Web e à criação e controlo dos agentes de interface. Esta camada superior deve permitir às empresas carregar e descarregar toda informação relevante de e para a plataforma, através de uma interface gráfica ou de forma automática, e apresentar de forma gráfica e intuitiva os resultados alcançados, nomeadamente, através da apresentação da evolução das transacções. Em relação à camada intermédia, adicionou-se à ontologia da plataforma a representação do conhecimento de suporte às operações de interface com a camada superior, adoptaram-se taxonomias de classificação de espectadores, anúncios e programas, desenvolveu-se um algoritmo de emparelhamento entre os espectadores, programas e anúncios disponíveis e, por fim, procedeu-se ao armazenamento persistente dos resultados das negociações. Do ponto de vista da plataforma, testou-se o seu funcionamento numa única plataforma física e assegurou-se a segurança e privacidade da comunicação entre empresa e plataforma e entre agentes que representam uma mesma empresa.
Resumo:
Com a expansão da Televisão Digital e a convergência entre os meios de difusão convencionais e a televisão sobre IP, o número de canais disponíveis tem aumentado de forma gradual colocando o espectador numa situação de difícil escolha quanto ao programa a visionar. Sobrecarregados com uma grande quantidade de programas e informação associada, muitos espectadores desistem sistematicamente de ver um programa e tendem a efectuar zapping entre diversos canais ou a assistir sempre aos mesmos programas ou canais. Diante deste problema de sobrecarga de informação, os sistemas de recomendação apresentam-se como uma solução. Nesta tese pretende estudar-se algumas das soluções existentes dos sistemas de recomendação de televisão e desenvolver uma aplicação que permita a recomendação de um conjunto de programas que representem potencial interesse ao espectador. São abordados os principais conceitos da área dos algoritmos de recomendação e apresentados alguns dos sistemas de recomendação de programas de televisão desenvolvidos até à data. Para realizar as recomendações foram desenvolvidos dois algoritmos baseados respectivamente em técnicas de filtragem colaborativa e de filtragem de conteúdo. Estes algoritmos permitem através do cálculo da similaridade entre itens ou utilizadores realizar a predição da classificação que um utilizador atribuiria a um determinado item (programa de televisão, filme, etc.). Desta forma é possível avaliar o nível de potencial interesse que o utilizador terá em relação ao respectivo item. Os conjuntos de dados que descrevem as características dos programas (título, género, actores, etc.) são armazenados de acordo com a norma TV-Anytime. Esta norma de descrição de conteúdo multimédia apresenta a vantagem de ser especificamente vocacionada para conteúdo audiovisual e está disponível livremente. O conjunto de recomendações obtidas é apresentado ao utilizador através da interacção com uma aplicação Web que permite a integração de todos os componentes do sistema. Para validação do trabalho foi considerado um dataset de teste designado de htrec2011-movielens-2k e cujo conteúdo corresponde a um conjunto de filmes classificados por diversos utilizadores num ambiente real. Este conjunto de filmes possui, para além da classificações atribuídas pelos utilizadores, um conjunto de dados que descrevem o género, directores, realizadores e país de origem. Para validação final do trabalho foram realizados diversos testes dos quais o mais relevante correspondeu à avaliação da distância entre predições e valores reais e cujo objectivo é classificar a capacidade dos algoritmos desenvolvidos preverem com precisão as classificações que os utilizadores atribuiriam aos itens analisados.
Resumo:
Web tornou-se uma ferramenta indispensável para a sociedade moderna. A capacidade de aceder a enormes quantidades de informação, disponível em praticamente todo o mundo, é uma grande vantagem para as nossas vidas. No entanto, a quantidade avassaladora de informação disponível torna-se um problema, que é o de encontrar a informação que precisamos no meio de muita informação irrelevante. Para nos ajudar nesta tarefa, foram criados poderosos motores de pesquisa online, que esquadrinham a Web à procura dos melhores resultados, segundo os seus critérios, para os dados que precisamos. Actualmente, os motores de pesquisa em voga, usam um formato de apresentação de resultados simples, que consiste apenas numa caixa de texto para o utilizador inserir as palavras-chave sobre o tema que quer pesquisar e os resultados são dispostos sobre uma lista de hiperligações ordenada pela relevância que o motor atribui a cada resultado. Porém, existem outras formas de apresentar resultados. Uma das alternativas é apresentar os resultados sobre interfaces em 3 dimensões. É nestes tipos de sistemas que este trabalho vai incidir, os motores de pesquisa com interfaces em 3 dimensões. O problema é que as páginas Web não estão preparadas para serem consumidas por este tipo de motores de pesquisa. Para resolver este problema foi construído um modelo generalista para páginas Web, que consegue alimentar os requisitos das diversas variantes destes motores de pesquisa. Foi também desenvolvido um protótipo de instanciação automático, que recolhe as informações necessárias das páginas Web e preenche o modelo.
Resumo:
A Internet causou uma revolução em grande parte dos processos das empresas, criando oportunidades e gerando necessidades até então desconhecidas. Os Sistemas de Informação, ferramentas indispensáveis para uma gestão moderna das actividades empresariais, também foram influenciados pela evolução constante da tecnologia e as facilidades oferecidas para a popularização do uso da Internet. Rumo a uma crescente necessidade de modernização, rapidez, agilidade, eficiência e eficácia que são exigidos das actividades da empresa, actualmente, a tecnologia da Web é exibida como uma opção viável para melhorar o desempenho na gestão da informação. Esta Tese procura dissertar acerca dos aspectos relativos ao funcionamento e implementação de Serviços Web, suas principais características, vantagens e desvantagens comparativamente aos sistemas de informação tradicionais. Os objectivos propostos podem ser sintetizados no conhecimento e descrição das funcionalidades dos Serviços Web, no estudo da situação actual, na identificação das características que potenciam a capacidade de evolução dos Serviços Web, no estudo e desempenho dos Serviços Web, e finalmente, no estudo e análise da especificação Segurança.
Resumo:
Com a evolução da Internet houve uma consequente transformação da forma como os resultados são apresentados e das técnicas de visualização e apresentação de conteúdos. A presente dissertação é sobre visualização com nuvens de tags e foi a conjugação de diversos factores que originou a investigação sobre este tema. Uma nuvem de tags (em inglês: tag clouds) é uma concepção visual de um conjunto de tags isoladas com uma representação ilustrativa da sua importância, ou seja visualmente hierarquizadas e em que cada tag se hiperliga a um ou mais sítios Web ou documentos. São extremamente úteis para a navegação ou para a descoberta de informação genérica, podendo requerer menor carga cognitiva do utilizador durante consultas e pesquisas se alguns aspectos forem considerados na sua construção. Nesta dissertação discutem-se alguns dos factores visuais que podem contribuir para que as nuvens de tags sejam ferramentas efectivas e intuitivas para os utilizadores. O conceito de folksonomia está relacionado com nuvens de tags, permitindo categorizar as definições atribuídas a conteúdos recorrendo a palavras-chave (tags). Neste documento são ainda exploradas as suas vantagens e desvantagens. Discutem-se ainda alguns modos de visualização e apresentação de nuvens de tags, desde o tipo de ordenação ao algoritmo de geração da nuvem de tags. Aborda-se ainda o impacto do tipo de fonte e a utilização de cores monocromáticas ou coloridas que estas possam ter na visualização da nuvem. A própria tag também é categorizada e explorada ao nível do seu posicionamento na nuvem e a percepção que causa no utilizador. Sobre a visualização de nuvens de tags, refere-se ainda que as conclusões obtidas foram utilizadas num repositório de objectos educativos.
Resumo:
Conceitos como Globalização, Internacionalização, Localização e Tradução surgem, na realidade da indústria da língua, com uma grande interligação, mas com perspectivas nem sempre concordantes. O nosso trabalho analisa, por isso, as diferentes definições propostas dedicando especial atenção ao conceito de localização, uma vez que o nosso projecto analisa o processo de localização de uma página Web desenvolvido num contexto empresarial real. O nosso enfoque recai mais específicamente sobre a localização de páginas Web, objecto do nosso projecto, identificando não só as suas particularidades, como também os intervenientes e o tipo de competências necessárias para o desenvolvimento de um trabalho nesta área da tradução e as ferramentas disponíveis para o profissional da tradução/ localização, de que se destacam as freeware. O processo de localização impõe metas de qualidade exigentes, pelo que, partindo da definição do conceito de qualidade, analisamos o tipo de requisitos necessários a uma correcta definição de tarefas e objectivos no contexto da localização. Esta definição de conceitos e a análise do processo de localização suportaram, em seguida, o desenvolvimento do objecto do nosso projecto - o processo de localização da página Web da empresa Pinto & Cruz, ao mesmo tempo que permitiram uma prévia identificação de todos os passos a desenvolver e do tipo de dificuldades e problemas a enfrentar. Assim, e em função das condicionantes impostas pelo modelo de gestão da página, definimos um fluxo de trabalho, em que identificamos as diferentes fases e intervenientes, mediante a utilização de uma plataforma de trabalho disponibilizada pelo webmaster do sítio em questão. O processo seguido para a localização da página é descrito, as suas especificidades documentadas e as dúvidas e dificuldades identificadas. Pretendeu-se, com o desenvolvimento deste projecto e com a descrição feita sistematizar uma abordagem ao processo e alertar para o tipo de dificuldades inerentes à sua prossecução, sobretudo para quem se dispõem a fazê-lo pela primeira vez.
Resumo:
OBJETIVO: Descrever um sistema gestor de regulação médica em emergência baseado na rede mundial de computadores. MÉTODOS: O Sistema de Regulação de Urgências e Emergências foi desenvolvido segundo modelo evolutivo de software de prototipação. A comunicação entre os usuários e o sistema foi implementada utilizando tecnologias web; o sistema foi desenvolvido em personal home page (PHP) e o banco de dados, em MySQL. O protótipo foi baseado no processo de regulação médica da Divisão Regional de Saúde XIII do Estado de São Paulo e aplicado a 26 municípios dessa regional durante quatro semanas consecutivas em setembro de 2009. O sistema possibilitou a documentação das solicitações em ordem cronológica, sem permitir edição de dados já inseridos e garantindo o acesso hierarquizado e sigiloso às informações para cada participante do sistema. RESULTADOS: O sistema apresentou 100% de disponibilidade, confiabilidade e integridade da informação. Foram realizadas 1.046 solicitações ao sistema, das quais 703 (68%) foram completadas. Os solicitantes apresentaram 98% de adesão ao sistema na primeira semana de aplicação, e a adesão dos prestadores de serviço foi gradativa (37% na quarta semana). Os municípios mais próximos de Ribeirão Preto que não possuem prestadores de alta complexidade foram os que mais utilizaram o sistema. CONCLUSÕES: A regulação médica de solicitações de emergência pela rede mundial de computadores mostrou-se exeqüível e confiável, possibilitando a transparência do processo e acesso direto às informações por parte dos gestores. Possibilitou a construção de indicadores para monitorizar e aprimorar o processo, na perspectiva da criação de uma regulação semi-automatizada e de avanços na organização do sistema.
Resumo:
The current models are not simple enough to allow a quick estimation of the remediation time. This work reports the development of an easy and relatively rapid procedure for the forecasting of the remediation time using vapour extraction. Sandy soils contaminated with cyclohexane and prepared with different water contents were studied. The remediation times estimated through the mathematical fitting of experimental results were compared with those of real soils. The main objectives were: (i) to predict, through a simple mathematical fitting, the remediation time of soils with water contents different from those used in the experiments; (ii) to analyse the influence of soil water content on the: (ii1) remediation time; (ii2) remediation efficiency; and (ii3) distribution of contaminants in the different phases present into the soil matrix after the remediation process. For sandy soils with negligible contents of clay and natural organic matter, artificially contaminated with cyclohexane before vapour extraction, it was concluded that (i) if the soil water content belonged to the range considered in the experiments with the prepared soils, then the remediation time of real soils of similar characteristics could be successfully predicted, with relative differences not higher than 10%, through a simple mathematical fitting of experimental results; (ii) increasing soil water content from 0% to 6% had the following consequences: (ii1) increased remediation time (1.8–4.9 h, respectively); (ii2) decreased remediation efficiency (99–97%, respectively); and (ii3) decreased the amount of contaminant adsorbed onto the soil and in the non-aqueous liquid phase, thus increasing the amount of contaminant in the aqueous and gaseous phases.
Resumo:
Abstract This work reports the analysis of the efficiency and time of soil remediation using vapour extraction as well as provides comparison of results using both, prepared and real soils. The main objectives were: (i) to analyse the efficiency and time of remediation according to the water and natural organic matter content of the soil; and (ii) to assess if a previous study, performed using prepared soils, could help to preview the process viability in real conditions. For sandy soils with negligible clay content, artificially contaminated with cyclohexane before vapour extraction, it was concluded that (i) the increase of soil water content and mainly of natural organic matter content influenced negatively the remediation process, making it less efficient, more time consuming, and consequently more expensive; and (ii) a previous study using prepared soils of similar characteristics has proven helpful for previewing the process viability in real conditions.
Resumo:
Artigo baseado na comunicação proferida no 1st International Symposium on Media Studies, realizado na Akdeniz Universitesi Yayınları, Antalya, Turquia, 21-23 de novembro de 2013
Resumo:
We live in a changing world. At an impressive speed, every day new technological resources appear. We increasingly use the Internet to obtain and share information, and new online communication tools are emerging. Each of them encompasses new potential and creates new audiences. In recent years, we witnessed the emergence of Facebook, Twitter, YouTube and other media platforms. They have provided us with an even greater interactivity between sender and receiver, as well as generated a new sense of community. At the same time we also see the availability of content like it never happened before. We are increasingly sharing texts, videos, photos, etc. This poster intends to explore the potential of using these new online communication tools in the cultural sphere to create new audiences, to develop of a new kind of community, to provide information as well as different ways of building organizations’ memory. The transience of performing arts is accompanied by the need to counter that transience by means of documentation. This desire to ‘save’ events reaches its expression with the information archive of the different production moments as well as the opportunity to record the event and present it through, for instance, digital platforms. In this poster we intend to answer the following questions: which online communication tools are being used to engage audiences in the cultural sphere (specifically between theater companies in Lisbon)? Is there a new relationship with the public? Are online communication tools creating a new kind of community? What changes are these tools introducing in the creative process? In what way the availability of content and its archive contribute to the organization memory? Among several references, we will approach the two-way communication model that James E. Grunig & Todd T. Hunt (1984) already presented and the concept of mass self-communication of Manuel Castells (2010). Castells also tells us that we have moved from traditional media to a system of communication networks. For Scott Kirsner (2010), we have entered an era of digital creativity, where artists have the tools to do what they imagined and the public no longer wants to just consume cultural goods, but instead to have a voice and participate. The creativity process is now depending on the public choice as they wander through the screen. It is the receiver who owns an object which can be exchanged. Virtual reality has encouraged the receiver to abandon its position of passive observer and to become a participant agent, which implies a challenge to organizations: inventing new forms of interfaces. Therefore, we intend to find new and effective online tools that can be used by cultural organizations; the best way to manage them; to show how organizations can create a community with the public and how the availability of online content and its archive can contribute to the organizations’ memory.
Resumo:
Folk medicine is a relevant and effective part of indigenous healthcare systems which are, in practice, totally dependent on traditional healers. An outstanding coincidence between indigenous medicinal plant uses and scientifically proved pharmacological properties of several phytochemicals has been observed along the years. This work focused on the leaves of a medicinal plant traditionally used for therapeutic benefits (Angolan Cymbopogon citratus), in order to evaluate their nutritional value. The bioactive phytochemical composition and antioxidant activity of leaf extracts prepared with different solvents (water, methanol and ethanol) were also evaluated. The plant leaves contained ~60% of carbohydrates, protein (~20%), fat (~5%), ash (~4%) and moisture (~9%). The phytochemicals screening revealed the presence of tannins, flavonoids, and terpenoids in all extracts. Methanolic extracts also contained alkaloids and steroids. Several methods were used to evaluate total antioxidant capacity of the different extracts (DPPH; NO; and H2O2 scavenging assays, reducing power, and FRAP). Ethanolic extracts presented a significantly higher antioxidant activity (p < 0.05) except for FRAP, in which the best results were achieved by the aqueous extracts. Methanolic extracts showed the lowest radical scavenging activities for both DPPH; and NO; radicals.
Resumo:
In the last two decades, there was a proliferation of programming exercise formats that hinders interoperability in automatic assessment. In the lack of a widely accepted standard, a pragmatic solution is to convert content among the existing formats. BabeLO is a programming exercise converter providing services to a network of heterogeneous e-learning systems such as contest management systems, programming exercise authoring tools, evaluation engines and repositories of learning objects. Its main feature is the use of a pivotal format to achieve greater extensibility. This approach simplifies the extension to other formats, just requiring the conversion to and from the pivotal format. This paper starts with an analysis of programming exercise formats representative of the existing diversity. This analysis sets the context for the proposed approach to exercise conversion and to the description of the pivotal data format. The abstract service definition is the basis for the design of BabeLO, its components and web service interface. This paper includes a report on the use of BabeLO in two concrete scenarios: to relocate exercises to a different repository, and to use an evaluation engine in a network of heterogeneous systems.
Resumo:
When exploring a virtual environment, realism depends mainly on two factors: realistic images and real-time feedback (motions, behaviour etc.). In this context, photo realism and physical validity of computer generated images required by emerging applications, such as advanced e-commerce, still impose major challenges in the area of rendering research whereas the complexity of lighting phenomena further requires powerful and predictable computing if time constraints must be attained. In this technical report we address the state-of-the-art on rendering, trying to put the focus on approaches, techniques and technologies that might enable real-time interactive web-based clientserver rendering systems. The focus is on the end-systems and not the networking technologies used to interconnect client(s) and server(s).