957 resultados para Recanto stream


Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper describes how MPEG-4 object based video (obv) can be used to allow selected objects to be inserted into the play-out stream to a specific user based on a profile derived for that user. The application scenario described here is for personalized product placement, and considers the value of this application in the current and evolving commercial media distribution market given the huge emphasis media distributors are currently placing on targeted advertising. This level of application of video content requires a sophisticated content description and metadata system (e.g., MPEG-7). The scenario considers the requirement for global libraries to provide the objects to be inserted into the streams. The paper then considers the commercial trading of objects between the libraries, video service providers, advertising agencies and other parties involved in the service. Consequently a brokerage of video objects is proposed based on negotiation and trading using intelligent agents representing the various parties. The proposed Media Brokerage Platform is a multi-agent system structured in two layers. In the top layer, there is a collection of coarse grain agents representing the real world players – the providers and deliverers of media contents and the market regulator profiler – and, in the bottom layer, there is a set of finer grain agents constituting the marketplace – the delegate agents and the market agent. For knowledge representation (domain, strategic and negotiation protocols) we propose a Semantic Web approach based on ontologies. The media components contents should be represented in MPEG-7 and the metadata describing the objects to be traded should follow a specific ontology. The top layer content providers and deliverers are modelled by intelligent autonomous agents that express their will to transact – buy or sell – media components by registering at a service registry. The market regulator profiler creates, according to the selected profile, a market agent, which, in turn, checks the service registry for potential trading partners for a given component and invites them for the marketplace. The subsequent negotiation and actual transaction is performed by delegate agents in accordance with their profiles and the predefined rules of the market.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes a novel business model to support media content personalisation: an agent-based business-to-business (B2B) brokerage platform for media content producer and distributor businesses. Distributors aim to provide viewers with a personalised content experience and producers wish to en-sure that their media objects are watched by as many targeted viewers as possible. In this scenario viewers and media objects (main programmes and candidate objects for insertion) have profiles and, in the case of main programme objects, are annotated with placeholders representing personalisation opportunities, i.e., locations for insertion of personalised media objects. The MultiMedia Brokerage (MMB) platform is a multiagent multilayered brokerage composed by agents that act as sellers and buyers of viewer stream timeslots and/or media objects on behalf of the registered businesses. These agents engage in negotiations to select the media objects that best match the current programme and viewer profiles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

WiDom is a wireless prioritized medium access control protocol which offers a very large number of priority levels. Hence, it brings the potential to employ non-preemptive static-priority scheduling and schedulability analysis for a wireless channel assuming that the overhead of WiDom is modeled properly. One schedulability analysis for WiDom has already been proposed but recent research has created a new version of WiDom (we call it: Slotted WiDom) with lower overhead and for this version of WiDom no schedulability analysis exists. In this paper we propose a new schedulability analysis for slotted WiDom and extend it to work also for message streams with release jitter. We have performed experiments with an implementation of slotted WiDom on a real-world platform (MicaZ). We find that for each message stream, the maximum observed response time never exceeds the calculated response time and hence this corroborates our belief that our new scheduling theory is applicable in practice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we address the problem of sharing a wireless channel among a set of sporadic message streams where a message stream issues transmission requests with real-time deadlines. We propose a collision-free wireless medium access control (MAC) protocol which implements static-priority scheduling, supports a large number of priority levels and is fully distributed. It is an adaptation to a wireless channel of the dominance protocol used in the CAN bus. But, unlike that protocol, our protocol does not require a node having the ability to receive an incoming bit from the channel while transmitting to the channel. The evaluation of the protocol with real embedded computing platforms is presented to show that the proposed protocol is in fact collision-free and prioritized. We measure the response times of our implementation and show that the response-time analysis developed for the protocol offers an upper bound on the response times.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Real-time scheduling usually considers worst-case values for the parameters of task (or message stream) sets, in order to provide safe schedulability tests for hard real-time systems. However, worst-case conditions introduce a level of pessimism that is often inadequate for a certain class of (soft) real-time systems. In this paper we provide an approach for computing the stochastic response time of tasks where tasks have inter-arrival times described by discrete probabilistic distribution functions, instead of minimum inter-arrival (MIT) values.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Consider the problem of sharing a wireless channel between a set of computer nodes. Hidden nodes exist and there is no base station. Each computer node hosts a set of sporadic message streams where a message stream releases messages with real-time deadlines. We propose a collision-free wireless medium access control (MAC) protocol which implements staticpriority scheduling. The MAC protocol allows multiple masters and is fully distributed. It neither relies on synchronized clocks nor out-of-band signaling; it is an adaptation to a wireless channel of the dominance protocol used in the CAN bus. But unlike that protocol, our protocol does not require a node having the ability to receive an incoming bit from the channel while transmitting to the channel. Our protocol has the key feature of not only being prioritized and collision-free but also dealing successfully with hidden nodes. This key feature enables schedulability analysis of sporadic message streams in multihop networks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada para a obtenção do grau de Doutor em Engenharia Química, especialidade Engenharia da Reacção Química, pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

According to numerous studies, airborne nanoparticles have a potential to produce serious adverse human health effects when deposited into the respiratory tract. The most important parts of the lung are the alveolar regions with their enormous surface areas and potential to transfer nanoparticles into the blood stream. These effects may be potentiated in case of the elderly, since this population is more susceptible to air pollutants in general and more to nanoparticles than larger particles. The main goal of this investigation was to determine the exposure of institutionalized elders to nanoparticles using Nanoparticle Surface Area Monitor (NSAM) equipment to calculate the deposited surface area (DSA) of nanoparticles into elderly lungs. In total, 193 institutionalized individuals over 65 yr of age were examined in four elderly care centers (ECC). The occupancy daily pattern was achieved by applying a questionnaire, and it was concluded that these subjects spent most of their time indoors, including the bedroom and living room, the indoor microenvironments with higher prevalence of elderly occupancy. The deposited surface area ranged from 10 to 46 mu m(2)/cm(3). The living rooms presented significantly higher levels compared with bedrooms. Comparing PM10 concentrations with nanoparticles deposited surface area in elderly lungs, it is conceivable that living rooms presented the highest concentration of PM10 and were similar to the highest average DSA. The temporal distribution of DSA was also assessed. While data showed a quantitative fluctuation in values in bedrooms, high peaks were detected in living rooms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The behavior of tandem pin heterojunctions based on a-SiC: H alloys is investigated under different optical and electrical bias conditions. The devices are optimized to act as optically selective wavelength filters. Depending on the device configuration (optical gaps, thickness, sequence of cells in the stack structure) and on the applied voltage (positive or negative) and optical bias (wavelength, intensity, frequency) it is possible to combine the wavelength discrimination function with the self amplification of the signal. This wavelength nonlinearity allows the amplification or the rejection of a weak signal-impulse. The device works as an active tunable optical filter for wavelength selection and can be used as an add/drop multiplexer (ADM) which enables data to enter and leave an optical network bit stream without having to demultiplex the stream. Results show that, even under weak transient input signals, the background wavelength controls the output signal. This nonlinearity, due to the transient asymmetrical light penetration of the input channels across the device together with the modification on the electrical field profile due to the optical bias, allows tuning an input channel without demultiplexing the stream. This high optical nonlinearity makes the optimized devices attractive for the amplification of all optical signals. Transfer characteristics effects due to changes in steady state light, control d.c. voltage and applied light pulses are presented. Based on the experimental results and device configuration an optoelectronic model is developed. The transfer characteristics effects due to changes in steady state light, dc control voltage or applied light pulses are simulated and compared with the experimental data. A good agreement was achieved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Num mercado cada vez mais competitivo, torna-se fundamental para as empresas produzirem mais com menos recursos, aumentando a eficiência interna, através da otimização dos seus processos. Neste contexto aparece o Lean Manufacturing, metodologia que tem como objetivo criar valor para os stakeholders, através da eliminação de desperdício na cadeia de valor. Este projeto descreve a análise e a formulação de soluções do processo de produção de um Módulo de Serviço, produto que faz parte do sistema elétrico de um elevador. Para análise do problema utilizamos técnicas e ferramentas lean, tais como, o value stream mapping (VSM), o diagrama de processo e o diagrama de spaghetti. Para formulação do problema usamos o value stream design (VSD), a metodologia 5S, o sistema Kanban e a criação de fluxo contínuo, através do conceito takt time, do sistema Pull, da definição do processo pacemaker, da programação nivelada (Heijunka), do conceito pitch time e da caixa de nivelamento (Heijunka Box). Com este projeto pretendemos demonstrar que a implementação de um fluxo unitário de peças através da filosofia Lean Manufacturing, acrescenta qualidade ao produto, cria flexibilidade, aumenta a produtividade, liberta áreas de produção, aumenta a segurança, reduz o custo com o stock e aumenta a motivação organizacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma grande parte do tempo de uma organização é despendida em atividades que não criam qualquer tipo de valor. Este tipo de atividades são consideradas como desperdícios, pois consomem recursos e tempo, como é o caso de deslocações, controlos, ajustes, armazenamento de materiais, resolução de problemas, entre tantos outros, levando a um elevado custo dos produtos disponibilizados. Em 1996 a designação de Lean Thinking foi usada, pela primeira vez, por Womack e Jones, onde é falada como uma filosofia de gestão, que tem como principal objetivo reduzir os desperdícios num processo produtivo. Reduzindo os desperdícios aumenta-se a qualidade e diminui-se os tempos de processamento e, consequentemente, os custos de produção. É nesta base que assenta o documento aqui presente, que tem o objetivo de criar e desenvolver um jogo de simulação onde seja possível aplicar várias ferramentas Lean. O jogo de simulação é uma continuação de uma pesquisa e estudo teórico de um aluno de erasmus e faz parte de um projeto internacional do Lean Learning Academy (LLA). Criou-se um processo produtivo de montagem de canetas que fosse o mais semelhante ao que se encontram nas empresas, com todos os acessórios para o pleno funcionamento da simulação, como é o caso de instruções de montagem, procedimentos de controlo e ordens de produção, para assim posteriormente ser possível analisar os dados e as dificuldades encontradas, de modo a aplicar-se as ferramentas Lean. Apesar de serem abordadas várias ferramentas Lean neste trabalho, foram trabalhadas mais detalhadamente as seguintes: - Value Stream Mapping (VSM); - Single Minute Exchange of Dies (SMED); - Balanceamento da linha. De modo a ser percetível o conteúdo e as vantagens das três ferramentas Lean mencionadas no trabalho, estas foram aplicadas e simuladas, de forma a existir uma componente prática no seu estudo, para mais fácil compreensão e rápida aprendizagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Gestão das Organizações, Ramo de Gestão de Empresas. Orientada por Prof. Dra. Maria Rosário Moreira e Prof. Dr. Paulo Sousa

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta uma proposta de sistema capaz de preencher a lacuna entre documentos legislativos em formato PDF e documentos legislativos em formato aberto. O objetivo principal é mapear o conhecimento presente nesses documentos de maneira a representar essa coleção como informação interligada. O sistema é composto por vários componentes responsáveis pela execução de três fases propostas: extração de dados, organização de conhecimento, acesso à informação. A primeira fase propõe uma abordagem à extração de estrutura, texto e entidades de documentos PDF de maneira a obter a informação desejada, de acordo com a parametrização do utilizador. Esta abordagem usa dois métodos de extração diferentes, de acordo com as duas fases de processamento de documentos – análise de documento e compreensão de documento. O critério utilizado para agrupar objetos de texto é a fonte usada nos objetos de texto de acordo com a sua definição no código de fonte (Content Stream) do PDF. A abordagem está dividida em três partes: análise de documento, compreensão de documento e conjunção. A primeira parte da abordagem trata da extração de segmentos de texto, adotando uma abordagem geométrica. O resultado é uma lista de linhas do texto do documento; a segunda parte trata de agrupar os objetos de texto de acordo com o critério estipulado, produzindo um documento XML com o resultado dessa extração; a terceira e última fase junta os resultados das duas fases anteriores e aplica regras estruturais e lógicas no sentido de obter o documento XML final. A segunda fase propõe uma ontologia no domínio legal capaz de organizar a informação extraída pelo processo de extração da primeira fase. Também é responsável pelo processo de indexação do texto dos documentos. A ontologia proposta apresenta três características: pequena, interoperável e partilhável. A primeira característica está relacionada com o facto da ontologia não estar focada na descrição pormenorizada dos conceitos presentes, propondo uma descrição mais abstrata das entidades presentes; a segunda característica é incorporada devido à necessidade de interoperabilidade com outras ontologias do domínio legal, mas também com as ontologias padrão que são utilizadas geralmente; a terceira característica é definida no sentido de permitir que o conhecimento traduzido, segundo a ontologia proposta, seja independente de vários fatores, tais como o país, a língua ou a jurisdição. A terceira fase corresponde a uma resposta à questão do acesso e reutilização do conhecimento por utilizadores externos ao sistema através do desenvolvimento dum Web Service. Este componente permite o acesso à informação através da disponibilização de um grupo de recursos disponíveis a atores externos que desejem aceder à informação. O Web Service desenvolvido utiliza a arquitetura REST. Uma aplicação móvel Android também foi desenvolvida de maneira a providenciar visualizações dos pedidos de informação. O resultado final é então o desenvolvimento de um sistema capaz de transformar coleções de documentos em formato PDF para coleções em formato aberto de maneira a permitir o acesso e reutilização por outros utilizadores. Este sistema responde diretamente às questões da comunidade de dados abertos e de Governos, que possuem muitas coleções deste tipo, para as quais não existe a capacidade de raciocinar sobre a informação contida, e transformá-la em dados que os cidadãos e os profissionais possam visualizar e utilizar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The latest medical diagnosis devices enable the performance of e-diagnosis making the access to these services easier, faster and available in remote areas. However this imposes new communications and data interchange challenges. In this paper a new XML based format for storing cardiac signals and related information is presented. The proposed structure encompasses data acquisition devices, patient information, data description, pathological diagnosis and waveform annotation. When compared with similar purpose formats several advantages arise. Besides the full integrated data model it may also be noted the available geographical references for e-diagnosis, the multi stream data description, the ability to handle several simultaneous devices, the possibility of independent waveform annotation and a HL7 compliant structure for common contents. These features represent an enhanced integration with existent systems and an improved flexibility for cardiac data representation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente qualquer organização que se queira manter no ativo, tem que obrigatoriamente inovar, reduzir o desperdício associado ao processo produtivo e simultaneamente simplificar as tarefas diárias dos seus colaboradores. E é sobre estes princípios que este trabalho é baseado, ou seja, pretende-se através da aplicação de ferramentas Lean, a melhoria contínua do processo de produção da Schmitt Elevadores. Numa fase inicial foi necessário um estudo dos diferentes fluxos de materiais, que permitiu a conceção do VSM (Value Stream Mapping). O VSM juntamente com o diagrama de Spaghetti permitiram a identificação de algumas das fontes de desperdício, relacionadas essencialmente com o excesso de movimentações. Considerando o âmbito do estágio, logística interna, e reunidas as causas de desperdício verificadas nesta área, procedeu-se à criação de um ciclo de entrega de materiais, por parte do operador logístico, baseado no conceito de milk run. Verificaram-se também problemas ao nível da gestão de stocks, pelo que também foi necessária intervenção nesta área. A aplicação das medidas mencionadas anteriormente irá traduzir-se em ganhos para o processo produtivo, nomeadamente, na criação de rotinas para os operadores logísticos; evitar deslocações por parte dos operadores de cada processo e manter em supermercado a quantidade suficiente de cada artigo, para fazer face à variabilidade da procura.