190 resultados para sincronização


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The expectations of citizens from the Information Technologies (ITs) are increasing as the ITs have become integral part of our society, serving all kinds of activities whether professional, leisure, safety-critical applications or business. Hence, the limitations of the traditional network designs to provide innovative and enhanced services and applications motivated a consensus to integrate all services over packet switching infrastructures, using the Internet Protocol, so as to leverage flexible control and economical benefits in the Next Generation Networks (NGNs). However, the Internet is not capable of treating services differently while each service has its own requirements (e.g., Quality of Service - QoS). Therefore, the need for more evolved forms of communications has driven to radical changes of architectural and layering designs which demand appropriate solutions for service admission and network resources control. This Thesis addresses QoS and network control issues, aiming to improve overall control performance in current and future networks which classify services into classes. The Thesis is divided into three parts. In the first part, we propose two resource over-reservation algorithms, a Class-based bandwidth Over-Reservation (COR) and an Enhanced COR (ECOR). The over-reservation means reserving more bandwidth than a Class of Service (CoS) needs, so the QoS reservation signalling rate is reduced. COR and ECOR allow for dynamically defining over-reservation parameters for CoSs based on network interfaces resource conditions; they aim to reduce QoS signalling and related overhead without incurring CoS starvation or waste of bandwidth. ECOR differs from COR by allowing for optimizing control overhead minimization. Further, we propose a centralized control mechanism called Advanced Centralization Architecture (ACA), that uses a single state-full Control Decision Point (CDP) which maintains a good view of its underlying network topology and the related links resource statistics on real-time basis to control the overall network. It is very important to mention that, in this Thesis, we use multicast trees as the basis for session transport, not only for group communication purposes, but mainly to pin packets of a session mapped to a tree to follow the desired tree. Our simulation results prove a drastic reduction of QoS control signalling and the related overhead without QoS violation or waste of resources. Besides, we provide a generic-purpose analytical model to assess the impact of various parameters (e.g., link capacity, session dynamics, etc.) that generally challenge resource overprovisioning control. In the second part of this Thesis, we propose a decentralization control mechanism called Advanced Class-based resource OverpRovisioning (ACOR), that aims to achieve better scalability than the ACA approach. ACOR enables multiple CDPs, distributed at network edge, to cooperate and exchange appropriate control data (e.g., trees and bandwidth usage information) such that each CDP is able to maintain a good knowledge of the network topology and the related links resource statistics on real-time basis. From scalability perspective, ACOR cooperation is selective, meaning that control information is exchanged dynamically among only the CDPs which are concerned (correlated). Moreover, the synchronization is carried out through our proposed concept of Virtual Over-Provisioned Resource (VOPR), which is a share of over-reservations of each interface to each tree that uses the interface. Thus, each CDP can process several session requests over a tree without requiring synchronization between the correlated CDPs as long as the VOPR of the tree is not exhausted. Analytical and simulation results demonstrate that aggregate over-reservation control in decentralized scenarios keep low signalling without QoS violations or waste of resources. We also introduced a control signalling protocol called ACOR Protocol (ACOR-P) to support the centralization and decentralization designs in this Thesis. Further, we propose an Extended ACOR (E-ACOR) which aggregates the VOPR of all trees that originate at the same CDP, and more session requests can be processed without synchronization when compared with ACOR. In addition, E-ACOR introduces a mechanism to efficiently track network congestion information to prevent unnecessary synchronization during congestion time when VOPRs would exhaust upon every session request. The performance evaluation through analytical and simulation results proves the superiority of E-ACOR in minimizing overall control signalling overhead while keeping all advantages of ACOR, that is, without incurring QoS violations or waste of resources. The last part of this Thesis includes the Survivable ACOR (SACOR) proposal to support stable operations of the QoS and network control mechanisms in case of failures and recoveries (e.g., of links and nodes). The performance results show flexible survivability characterized by fast convergence time and differentiation of traffic re-routing under efficient resource utilization i.e. without wasting bandwidth. In summary, the QoS and architectural control mechanisms proposed in this Thesis provide efficient and scalable support for network control key sub-systems (e.g., QoS and resource control, traffic engineering, multicasting, etc.), and thus allow for optimizing network overall control performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Interest on using teams of mobile robots has been growing, due to their potential to cooperate for diverse purposes, such as rescue, de-mining, surveillance or even games such as robotic soccer. These applications require a real-time middleware and wireless communication protocol that can support an efficient and timely fusion of the perception data from different robots as well as the development of coordinated behaviours. Coordinating several autonomous robots towards achieving a common goal is currently a topic of high interest, which can be found in many application domains. Despite these different application domains, the technical problem of building an infrastructure to support the integration of the distributed perception and subsequent coordinated action is similar. This problem becomes tougher with stronger system dynamics, e.g., when the robots move faster or interact with fast objects, leading to tighter real-time constraints. This thesis work addressed computing architectures and wireless communication protocols to support efficient information sharing and coordination strategies taking into account the real-time nature of robot activities. The thesis makes two main claims. Firstly, we claim that despite the use of a wireless communication protocol that includes arbitration mechanisms, the self-organization of the team communications in a dynamic round that also accounts for variable team membership, effectively reduces collisions within the team, independently of its current composition, significantly improving the quality of the communications. We will validate this claim in terms of packet losses and communication latency. We show how such self-organization of the communications can be achieved in an efficient way with the Reconfigurable and Adaptive TDMA protocol. Secondly, we claim that the development of distributed perception, cooperation and coordinated action for teams of mobile robots can be simplified by using a shared memory middleware that replicates in each cooperating robot all necessary remote data, the Real-Time Database (RTDB) middleware. These remote data copies, which are updated in the background by the selforganizing communications protocol, are extended with age information automatically computed by the middleware and are locally accessible through fast primitives. We validate our claim showing a parsimonious use of the communication medium, improved timing information with respect to the shared data and the simplicity of use and effectiveness of the proposed middleware shown in several use cases, reinforced with a reasonable impact in the Middle Size League of RoboCup.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis describes the design and implementation of a reliable centimeter-level indoor positioning system fully compatible with a conventional smartphone. The proposed system takes advantage of the smartphone audio I/O and processing capabilities to perform acoustic ranging in the audio band using non-invasive audio signals and it has been developed having in mind applications that require high accuracy, such as augmented reality, virtual reality, gaming and audio guides. The system works in a distributed operation mode, i.e. each smartphone is able to obtain its own position using only acoustic signals. To support the positioning system, a Wireless Sensor Network (WSN) of synchronized acoustic beacons is used. To keep the infrastructure in sync we have developed an Automatic Time Synchronization and Syntonization (ATSS) protocol with a standard deviation of the sync offset error below 1.25 μs. Using an improved Time Difference of Arrival (TDoA) estimation approach (which takes advantage of the beacon signals’ periodicity) and by performing Non-Line-of-Sight (NLoS) mitigation, we were able to obtain very stable and accurate position estimates with an absolute mean error of less than 10 cm in 95% of the cases and a mean standard deviation of 2.2 cm for a position refresh period of 350 ms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de mest., Produção, Edição e Comunicação de Conteúdos (Comunicação Multimédia), Faculdade de Ciências Humanas e Sociais, Univ. do Algarve, 2012

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo científico dos correlatos cognitivos da aquisição e desenvolvimento da competência de leitura é um assunto de grande relevância quer teórica quer prática, no sentido em que pode ajudar a compreender os processos cognitivos básicos envolvidos na leitura e, em última instância, a delinear os seus preditores e a predizer dificuldades na sua aquisição. A par da consciência fonológica – capacidade para perceber e manipular as unidades de som –, um dos construtos que frequentemente tem sido associado ao desenvolvimento da competência de leitura é a velocidade de nomeação de estímulos visuais (também conhecida como nomeação rápida automatizada ou velocidade de acesso ao léxico). Tradicionalmente, esta capacidade tem sido avaliada recorrendo ao paradigma clássico das provas de nomeação rápida automatizada (RAN) desenvolvidas por Denckla e Rudel (1976), nas quais é pedido ao sujeito que nomeie o mais rapidamente possível um conjunto de estímulos familiares apresentados serialmente. Nas últimas décadas, inúmeros estudos vieram demonstrar que a nomeação rápida é um importante preditor da competência de leitura, sobretudo da fluência da leitura, e um défice central em perturbações de leitura como a dislexia. O desempenho numa tarefa de nomeação rápida apela à sincronização e integração de vários processos, incluindo: (a) atenção ao estímulo, (b) integração da informação visual com representações visuais ou ortográficas arquivadas em memória, (c) recuperação de uma etiqueta verbal, e a (d) ativação da representação articulatória (Wolf & Bowers, 1999). Uma vez que a leitura e a nomeação rápida envolvem processos cognitivos semelhantes, não parece surpreendente que ambas as competências estejam associadas. No entanto, os estudos têm variado consideravelmente no que respeita à magnitude da associação entre a nomeação rápida e a leitura, encontrando-se resultados nulos ou negligenciáveis do valor preditivo da nomeação rápida na explicação da variância do desempenho de leitura. Vários fatores podem contribuir para as discrepâncias observadas na literatura, entre os quais as medidas utilizadas para avaliar o desempenho de nomeação rápida (por exemplo, medidas que utilizam estímulos ortográficos ou não-ortográficos) e de leitura (por exemplo, medidas de fluência ou de acuidade). A importância da natureza das medidas quer de nomeação rápida quer de leitura tem sido reconhecida por vários autores (para uma revisão, ver Norton & Wolf, 2011). Paralelamente, as amostras estudadas, que têm variado quanto à idade/escolaridade dos participantes e à sua competência de leitura (leitores normais ou fracos leitores ou leitores disléxicos), poderão estar a contribuir para a heterogeneidade dos resultados publicados. A literatura recente tem salientado a relevância destes fatores na aquisição e desenvolvimento da leitura, embora a direccionalidade do seu efeito seja ainda pouco clara. Por exemplo, a transição de um procedimento de leitura baseado em estratégias de descodificação fonológica para uma leitura automática, à medida que o sujeito se torna um leitor fluente, parece ser acompanhada por uma mudança no peso relativo das capacidades cognitivas subjacentes à leitura (ex., Reis, Faísca, Castro, & Petersson, in press). Outro fator importante que tem dificultado a interpretação dos dados publicados sobre os construtos envolvidos na leitura, e em particular sobre a nomeação rápida, relaciona-se com a consistência ortográfica do sistema de escrita nos quais os estudos são conduzidos. Estudos trans-linguísticos sugerem que a consistência ortográfica influencia a facilidade com que se aprende a ler nas escritas alfabéticas, bem como o tipo de processamento de leitura predominantemente adotado pelos leitores (Seymour, Aro, & Erskine, 2003). No seio deste enquadramento, nesta tese procurámos clarificar as divergências encontradas na literatura relativamente à relação entre a nomeação rápida e o desempenho de leitura. Através de um estudo de meta-análise 1 é nosso objetivo realizar uma síntese objetiva do estado da arte sobre a relação entre a nomeação rápida e a leitura, e avaliar a influência de potenciais fatores moderadores da magnitude desta relação, nomeadamente: (a) a natureza da tarefa de nomeação (tipo de estímulo nomeado, número total de itens, e número de itens diferentes); (b) a natureza da tarefa de leitura (subcomponente de leitura, e medida de resposta usada para avaliar o desempenho); (c) características da amostra (escolaridade e nível de leitura); e (d) ortografia (sistema de escrita, e consistência ortográfica). Para tal, foi realizada uma procura de artigos científicos nas bases de dados PubMed, PsycINFO, e Web of Knowledge, tendo sido incluídas na meta-análise um total de 154 experiências independentes, compreendendo 21,706 participantes. Os resultados indicam uma relação moderada-a-forte entre a nomeação rápida e o desempenho de leitura (r =.44, I2 = 71.19). Nas análises seguintes procurou-se avaliar o contributo de potenciais variáveis moderadoras que possam explicar a heterogeneidade observada entre os tamanhos dos efeitos. Verificou-se que a nomeação rápida se associa significativamente e em magnitude semelhante com todas as medidas de leitura, i.e., quer estas apelem preferencialmente a um processamento de descodificação fonológica ou de reconhecimento de padrões ortográficos da palavra. Os resultados sugerem ainda que a magnitude das correlações é inflacionada nos estudos em que o desempenho de leitura é baseado na velocidade/fluência de leitura, em particular nos níveis de escolaridade mais avançados, e que utilizam tarefas de nomeação com estímulos alfanuméricos ao invés de estímulos não-alfanuméricos. Adicionalmente, verificou-se que a força da associação entre a nomeação rápida e a acuidade de leitura varia de forma não linear durante a evolução da leitura, sendo que a correlação é maior nos leitores escolarizados mais novos e decresce à medida que a escolaridade aumenta. O papel atribuível à proficiência dos leitores, i.e., fracos leitores/leitores disléxicos ou leitores normais, foi menos claro; no entanto, houve uma tendência para a relação ser mais forte nas amostras de fracos leitores/leitores disléxicos. Os resultados das comparações trans-linguísticas, por sua vez, sugerem que a nomeação rápida tem um papel importante para o desempenho da leitura independentemente das características da ortografia, ainda que as correlações tenham sido maiores nas ortografias opacas, e em particular nas línguas não-alfabéticas. Em suma, a presente meta-análise fornece resultados convincentes de que o desempenho em tarefas de nomeação rápida refletirá processos cognitivos subjacentes que são também relevantes para a aquisição/desenvolvimento da leitura. Consequentemente, pode dizer-se que estas medidas serão um preditor útil da competência de leitura. Os resultados são também discutidos no contexto das teorias atuais que procuram explicar através de que processos cognitivos se associam a nomeação rápida e a leitura, com ênfase nas hipóteses fonológica versus ortográfica. 1 Uma meta-análise permite a integração quantitativa de resultados de diversos estudos, recorrendo para isso à noção de magnitude do efeito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As plataformas com múltiplos núcleos tornaram a programação paralela/concorrente num tópico de interesse geral. Diversos modelos de programação têm vindo a ser propostos, facilitando aos programadores a identificação de regiões de código potencialmente paralelizáveis, deixando ao sistema operativo a tarefa de as escalonar dinamicamente em tempo de execução, explorando o maior grau possível de paralelismo. O Java não foge a esta tendência, disponibilizando ao programador um número crescente de bibliotecas de mecanismos de sincronização e paralelização de código. Neste contexto, esta tese apresenta e discute um conjunto de resultados obtidos através de testes intensivos à eficiência de algoritmos de ordenação implementados com recurso aos mecanismos de concorrência da API do Java 8 (Threads, Threadpools, ExecutorService, CountdownLach, ExecutorCompletionService e ForkJoinPools) em sistemas com um número de núcleos variável. Para cada um dos mecanismos, são apresentadas conclusões sobre o seu funcionamento e discutidos os cenários em que o seu uso pode ser rentabilizado de modo a serem obtidos melhores tempos de execução.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem e desenvolvimento de sistemas embarcados ("embedded systems") de forma distribuída, tende a ser uma tarefa extremamente complexa, especialmente quando envolve sistemas heterogêneos e sincronização de tarefas. Com a utilização do modelo de componentes de software é possível descrever, de uma forma simplificada, todos os elementos de distribuição e de comunicação para este tipo de sistemas. Neste sentido, a especificação de uma ferramenta capaz de auxiliar na modelagem e no desenvolvimento deste tipo de aplicação, certamente irá tornar o trabalho mais simples. Esta dissertação inicia por uma análise comparativa entre as tecnologias passíveis de serem utilizadas na definição de sistemas distribuídos heterogêneos, focando-se principalmente nas metodologias de modelagem, e nos mecanismos e middlewares de comunicação. Dos conceitos formados a partir desta análise é descrita uma ferramenta, baseada em componentes de software. A ferramenta é uma extensão do projeto SIMOO-RT, onde foram adicionados os conceitos de componente de software, biblioteca de componentes e diagrama de implantação. Além disso, foram realizadas modificações no sistema de geração de código, para dar suporte aos novos conceitos da ferramenta. A dissertação termina com a descrição de alguns estudos de caso utilizados para validar a ferramenta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alinhamento estratégico, aliado ao planejamento estratégico, é um importante instrumento de gestão. Por isso, novas abordagens para a operacionalização do alinhamento durante todas as etapas do processo de planejamento podem auxiliar o gerenciamento de topo em suas decisões e influir no desempenho organizacional. O objetivo deste estudo, de natureza exploratória, é conceber e desenvolver um modelo operacional de alinhamento estratégico para uso durante a etapa de implementação dos itens planejados, promovendo o ajuste contínuo entre as necessidades de negócio através do devido suporte da Tecnologia da Informação (TI), tendo por base a análise das contribuições dos estudos sobre metodologia de implementação de planos estratégicos. Os principais resultados encontrados mostram que as empresas estudadas estão promovendo o alinhamento estratégico entre negócios e TI com maior ou menor intensidade, mesmo que, em algumas etapas do processo de planejamento, isto seja realizado de forma empírica. Os resultados apontaram os elementos de alinhamento “metodologia” e “instrumentação da gestão” como principais promotores de alinhamento durante a etapa de implementação do processo de planejamento, responsáveis por grande parte do comprometimento dos participantes do processo e pelo atingimento das metas planejadas. A metodologia de acompanhamento da execução dos itens planejados consiste em reuniões freqüentes de alinhamento dos itens de negócio e de TI, para sincronização dos recursos e controle do atingimento das metas e objetivos, mantendo o foco dos objetivos de longo prazo. A operacionalidade da promoção do alinhamento depende da instrumentação dos executivos (CEO e CIO) com o apropriado conjunto informacional representativo do modelo de negócio e de gestão estratégica para acompanhamento da execução dos itens planejados e promoção dos ajustes necessários em tempo real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação propõe um método de trabalho para a implantação de um sistema de Planejamento Fino da Produção baseado na Teoria das Restrições. É apresentada uma revisão bibliográfica sobre Planejamento e Controle da Produção, destacando a abordagem da Teoria das Restrições. É realizado um estudo sobre ferramentas computacionais de Planejamento Fino da Produção e suas particularidades. A seguir é desenvolvido o método de trabalho, que foi seguido de sua aplicação prática em uma empresa industrial do ramo metal-mecânico. O estudo apresenta as modificações no sistema de Planejamento e Controle da Produção da empresa, que foi adequado as práticas e princípios da Manufatura Sincronizada. As melhorias decorrentes da implantação podem ser constatadas através dos resultados divulgados. Este trabalho explora as particularidades e dificuldades da implementação desta ferramenta de apoio à tomada de decisão, e discute aspectos referentes às mudanças na “filosofia” de produção impostas pela sincronização da manufatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho aplica a Teoria de Autômatos na proposição de uma nova alternativa para prover animações 2D na World Wide Web, verificando as contribuições alcançadas para as questões relacionadas ao espaço de armazenamento, reutilização e manutenção do conteúdo e suporte à recuperação de informação. Para este objetivo, é proposto o modelo AGA (Animação Gráfica baseada em Autômatos Finitos), o qual especifica a animação a partir de uma estrutura baseada em autômatos finitos com saída. Esse modelo é definido de tal forma que os mesmos autômatos utilizados na especificação, ao serem simulados, realizam o controle da animação durante a apresentação. O modelo AGA apresenta características que favorecem a redução do espaço de armazenamento da animação, provêem suporte à recuperação de informação, colaboram com a reutilização e manutenção do conteúdo das animações. Uma implementação multiplataforma foi desenvolvida para apresentar animações especificadas nesse modelo na Web. Essa implementação proporciona a elaboração de consultas ao conteúdo da animação, além dos recursos tradicionais de reprodução. A partir dessa implementação, o AGA foi submetido a um estudo de caso prático, onde os resultados obtidos são comparados com o produzidos pelo GIF (Graphic Interchange Format). Esse comparativo demonstra que o AGA possui várias vantagens em relação à estrutura adotada pelo GIF. O modelo AGA é estendido utilizando autômatos temporizados para prover restrições temporais às especificações e também ampliar as funcionalidades de interação com o observador da animação. Essa extensão, chamada de modelo AGA-S (Animação Gráfica baseada em Autômatos Temporizados Sincronizados), é definida a partir do autômato temporizado proposto por Alur e Dill. Para esse modelo, é definida uma operação formal para sincronização dos componentes da animação e adicionada uma estrutura baseada em autômatos finitos para controlar a interação do observador com a animação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A linguagem de programação Java vem sendo uma das escolhidas para a implementação de aplicações compostas por objetos distribuídos. Estas aplicações caracterizam-se por possuir comportamento complexo e, portanto, são mais difíceis de depurar e refinar para obter melhores desempenhos. Considerando a necessidade do desenvolvimento de uma ferramenta de monitoração para o modelo de objetos distribuídos, que colete informações mais detalhadas sobre a execução da aplicação, é apresentado neste trabalho um ambiente de monitoração de aplicações distribuídas escritas em Java, o DOMonitor. Um dos objetivos do DOMonitor é obter o comportamento que a aplicação apresenta durante a execução, possibilitando a detecção de comportamentos equivocados e seu respectivo refinamento. O DOMonitor é voltado para aplicações compostas por objetos distribuídos e caracteriza-se por identificar principalmente: (i) o comportamento dinâmico das threads; (ii) a utilização dos métodos de sincronização; e (iii) a comunicação entre os entes distribuídos da aplicação. O DOMonitor está fundamentado em quatro premissas: (i) ser transparente para o usuário, não exigindo anotações no código fonte; (ii) apresentar uma organização modular, e por isto ser flexível e expansível; (iii) ser portável, não exigindo nenhuma alteração na Maquina Virtual Java; e (iv) operar de forma a garantir a ordem dos eventos previstos pelo programa. Os dados produzidos pelo DOMonitor podem ser utilizados com diversas finalidades tais como visualização da execução, escalonamento e como suporte à execução de aplicações móveis. Para comprovar esta versatilidade, foi proposta a integração do sistema a dois outros projetos, o Pajé e o ISAM. O projeto ISAM utilizará os dados monitorados para tomadas de decisão durante o curso da execução e o projeto Pajé permite a visualização gráfica das características dinâmicas de uma aplicação Java.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apesar de diversos modelos assumirem que os preços não se ajustam sincronizadamente, tanto a evidência empírica quanto a teórica são ambíguas. Este trabalho tem por objetivo identificar o comportamento dos reajustes de preço, analisando uma extensa base de dados brasileira. Foi encontrada uma evidência de escalonamento, mas quanto mais agregado são os dados, mais perto da sincronização perfeita eles estão. A economia brasileira também mostrou um alto grau de heterogeneidade, tanto na frequência quanto na sincronização dos ajustes de preço entre os produtos, as quais ainda variam com a taxa de inflação.