12 resultados para Injecao : Falhas

em Repositório Institucional da Universidade de Aveiro - Portugal


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas distribuídos embarcados (Distributed Embedded Systems – DES) têm sido usados ao longo dos últimos anos em muitos domínios de aplicação, da robótica, ao controlo de processos industriais passando pela aviónica e pelas aplicações veiculares, esperando-se que esta tendência continue nos próximos anos. A confiança no funcionamento é uma propriedade importante nestes domínios de aplicação, visto que os serviços têm de ser executados em tempo útil e de forma previsível, caso contrário, podem ocorrer danos económicos ou a vida de seres humanos poderá ser posta em causa. Na fase de projecto destes sistemas é impossível prever todos os cenários de falhas devido ao não determinismo do ambiente envolvente, sendo necessária a inclusão de mecanismos de tolerância a falhas. Adicionalmente, algumas destas aplicações requerem muita largura de banda, que também poderá ser usada para a evolução dos sistemas, adicionandolhes novas funcionalidades. A flexibilidade de um sistema é uma propriedade importante, pois permite a sua adaptação às condições e requisitos envolventes, contribuindo também para a simplicidade de manutenção e reparação. Adicionalmente, nos sistemas embarcados, a flexibilidade também é importante por potenciar uma melhor utilização dos, muitas vezes escassos, recursos existentes. Uma forma evidente de aumentar a largura de banda e a tolerância a falhas dos sistemas embarcados distribuídos é a replicação dos barramentos do sistema. Algumas soluções existentes, quer comerciais quer académicas, propõem a replicação dos barramentos para aumento da largura de banda ou para aumento da tolerância a falhas. No entanto e quase invariavelmente, o propósito é apenas um, sendo raras as soluções que disponibilizam uma maior largura de banda e um aumento da tolerância a falhas. Um destes raros exemplos é o FlexRay, com a limitação de apenas ser permitido o uso de dois barramentos. Esta tese apresentada e discute uma proposta para usar a replicação de barramentos de uma forma flexível com o objectivo duplo de aumentar a largura de banda e a tolerância a falhas. A flexibilidade dos protocolos propostos também permite a gestão dinâmica da topologia da rede, sendo o número de barramentos apenas limitado pelo hardware/software. As propostas desta tese foram validadas recorrendo ao barramento de campo CAN – Controller Area Network, escolhido devido à sua grande implantação no mercado. Mais especificamente, as soluções propostas foram implementadas e validadas usando um paradigma que combina flexibilidade com comunicações event-triggered e time-triggered: o FTT – Flexible Time- Triggered. No entanto, uma generalização para CAN nativo é também apresentada e discutida. A inclusão de mecanismos de replicação do barramento impõe a alteração dos antigos protocolos de replicação e substituição do nó mestre, bem como a definição de novos protocolos para esta finalidade. Este trabalho tira partido da arquitectura centralizada e da replicação do nó mestre para suportar de forma eficiente e flexível a replicação de barramentos. Em caso de ocorrência de uma falta num barramento (ou barramentos) que poderia provocar uma falha no sistema, os protocolos e componentes propostos nesta tese fazem com que o sistema reaja, mudando para um modo de funcionamento degradado. As mensagens que estavam a ser transmitidas nos barramentos onde ocorreu a falta são reencaminhadas para os outros barramentos. A replicação do nó mestre baseia-se numa estratégia líder-seguidores (leaderfollowers), onde o líder (leader) controla todo o sistema enquanto os seguidores (followers) servem como nós de reserva. Se um erro ocorrer no nó líder, um dos nós seguidores passará a controlar o sistema de uma forma transparente e mantendo as mesmas funcionalidades. As propostas desta tese foram também generalizadas para CAN nativo, tendo sido para tal propostos dois componentes adicionais. É, desta forma possível ter as mesmas capacidades de tolerância a falhas ao nível dos barramentos juntamente com a gestão dinâmica da topologia de rede. Todas as propostas desta tese foram implementadas e avaliadas. Uma implementação inicial, apenas com um barramento foi avaliada recorrendo a uma aplicação real, uma equipa de futebol robótico onde o protocolo FTT-CAN foi usado no controlo de movimento e da odometria. A avaliação do sistema com múltiplos barramentos foi feita numa plataforma de teste em laboratório. Para tal foi desenvolvido um sistema de injecção de faltas que permite impor faltas nos barramentos e nos nós mestre, e um sistema de medida de atrasos destinado a medir o tempo de resposta após a ocorrência de uma falta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os Sistemas Embarcados Distribuídos (SEDs) estão, hoje em dia, muito difundidos em vastas áreas, desde a automação industrial, a automóveis, aviões, até à distribuição de energia e protecção do meio ambiente. Estes sistemas são, essencialmente, caracterizados pela integração distribuída de aplicações embarcadas, autónomas mas cooperantes, explorando potenciais vantagens em termos de modularidade, facilidade de manutenção, custos de instalação, tolerância a falhas, entre outros. Contudo, o ambiente operacional onde se inserem estes tipos de sistemas pode impor restrições temporais rigorosas, exigindo que o sistema de comunicação subjacente consiga transmitir mensagens com garantias temporais. Contudo, os SEDs apresentam uma crescente complexidade, uma vez que integram subsistemas cada vez mais heterogéneos, quer ao nível do tráfego gerado, quer dos seus requisitos temporais. Em particular, estes subsistemas operam de forma esporádica, isto é, suportam mudanças operacionais de acordo com estímulos exteriores. Estes subsistemas também se reconfiguram dinamicamente de acordo com a actualização dos seus requisitos e, ainda, têm lidar com um número variável de solicitações de outros subsistemas. Assim sendo, o nível de utilização de recursos pode variar e, desta forma, as políticas de alocação estática tornam-se muito ineficientes. Consequentemente, é necessário um sistema de comunicação capaz de suportar com eficácia reconfigurações e adaptações dinâmicas. A tecnologia Ethernet comutada tem vindo a emergir como uma solução sólida para fornecer comunicações de tempo-real no âmbito dos SEDs, como comprovado pelo número de protocolos de tempo-real que foram desenvolvidos na última década. No entanto, nenhum dos protocolos existentes reúne as características necessárias para fornecer uma eficiente utilização da largura de banda e, simultaneamente, para respeitar os requisitos impostos pelos SEDs. Nomeadamente, a capacidade para controlar e policiar tráfego de forma robusta, conjugada com suporte à reconfiguração e adaptação dinâmica, não comprometendo as garantias de tempo-real. Esta dissertação defende a tese de que, pelo melhoramento dos comutadores Ethernet para disponibilizarem mecanismos de reconfiguração e isolamento de tráfego, é possível suportar aplicações de tempo-real críticas, que são adaptáveis ao ambiente onde estão inseridas.Em particular, é mostrado que as técnicas de projecto, baseadas em componentes e apoiadas no escalonamento hierárquico de servidores de tráfego, podem ser integradas nos comutadores Ethernet para alcançar as propriedades desejadas. Como suporte, é fornecida, também, uma solução para instanciar uma hierarquia reconfigurável de servidores de tráfego dentro do comutador, bem como a análise adequada ao modelo de escalonamento. Esta última fornece um limite superior para o tempo de resposta que os pacotes podem sofrer dentro dos servidores de tráfego, com base unicamente no conhecimento de um dado servidor e na hierarquia actual, isto é, sem o conhecimento das especifidades do tráfego dentro dos outros servidores. Finalmente, no âmbito do projecto HaRTES foi construído um protótipo do comutador Ethernet, o qual é baseado no paradigma “Flexible Time-Triggered”, que permite uma junção flexível de uma fase síncrona para o tráfego controlado pelo comutador e uma fase assíncrona que implementa a estrutura hierárquica de servidores referidos anteriormente. Além disso, as várias experiências práticas realizadas permitiram validar as propriedades desejadas e, consequentemente, a tese que fundamenta esta dissertação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho descreve um projeto de implementação da metodologia de Manutenção Produtiva Total (TPM) desenvolvido na Simoldes Plásticos, unidade industrial de injeção de plásticos que opera no setor automóvel. A metodologia TPM salienta o papel fundamental que o trabalho em equipa e, em particular, a participação do pessoal, podem desempenhar na identificação de oportunidades de melhoria e na sua implementação. A sua aplicação visa a diminuição dos desperdícios, acidentes, defeitos, paragens e falhas ao longo de um processo produtivo. De uma forma geral, a TPM utiliza uma ideia base elementar que passa pela sensibilização, formação e treino dos operadores para que estes consigam realizar a manutenção autónoma dos equipamentos e melhorar continuamente o seu desempenho. Este trabalho apresenta em primeiro lugar uma revisão dos conceitos de Gestão da Qualidade Total, particularmente da Melhoria Contínua e da Metodologia TPM. De seguida, é descrita a aplicação da TPM na empresa Simoldes Plásticos, que inclui uma descrição dos principais problemas encontrados e das medidas aplicadas para a sua correção. Finalmente é feita uma análise do impacto das melhorias implementadas, a partir da análise de um indicador de eficiência específico, desenvolvido na empresa - o RUTPM - Rendimento de Utilização TPM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Anualmente ocorrem cerca de 16 milhões AVCs em todo o mundo. Cerca de metade dos sobreviventes irá apresentar défice motor que necessitará de reabilitação na janela dos 3 aos 6 meses depois do AVC. Nos países desenvolvidos, é estimado que os custos com AVCs representem cerca de 0.27% do Produto Interno Bruto de cada País. Esta situação implica um enorme peso social e financeiro. Paradoxalmente a esta situação, é aceite na comunidade médica a necessidade de serviços de reabilitação motora mais intensivos e centrados no doente. Na revisão do estado da arte, demonstra-se o arquétipo que relaciona metodologias terapêuticas mais intensivas com uma mais proficiente reabilitação motora do doente. Revelam-se também as falhas nas soluções tecnológicas existentes que apresentam uma elevada complexidade e custo associado de aquisição e manutenção. Desta forma, a pergunta que suporta o trabalho de doutoramento seguido inquire a possibilidade de criar um novo dispositivo de simples utilização e de baixo custo, capaz de apoiar uma recuperação motora mais eficiente de um doente após AVC, aliando intensidade com determinação da correcção dos movimentos realizados relativamente aos prescritos. Propondo o uso do estímulo vibratório como uma ferramenta proprioceptiva de intervenção terapêutica a usar no novo dispositivo, demonstra-se a tolerabilidade a este tipo de estímulos através do teste duma primeira versão do sistema apenas com a componente de estimulação num primeiro grupo de 5 doentes. Esta fase validará o subsequente desenvolvimento do sistema SWORD. Projectando o sistema SWORD como uma ferramenta complementar que integra as componentes de avaliação motora e intervenção proprioceptiva por estimulação, é descrito o desenvolvimento da componente de quantificação de movimento que o integra. São apresentadas as diversas soluções estudadas e o algoritmo que representa a implementação final baseada na fusão sensorial das medidas provenientes de três sensores: acelerómetro, giroscópio e magnetómetro. O teste ao sistema SWORD, quando comparado com o método de reabilitação tradicional, mostrou um ganho considerável de intensidade e qualidade na execução motora para 4 dos 5 doentes testados num segundo grupo experimental. É mostrada a versatilidade do sistema SWORD através do desenvolvimento do módulo de Tele-Reabilitação que complementa a componente de quantificação de movimento com uma interface gráfica de feedback e uma ferramenta de análise remota da evolução motora do doente. Finalmente, a partir da componente de quantificação de movimento, foi ainda desenvolvida uma versão para avaliação motora automatizada, implementada a partir da escala WMFT, que visa retirar o factor subjectivo da avaliação humana presente nas escalas de avaliação motora usadas em Neurologia. Esta versão do sistema foi testada num terceiro grupo experimental de cinco doentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos objetivos centrais da escola atual é o de desenvolver nos alunos competências que lhes permitam adaptar-se à sociedade em constante transformação e não apenas a veiculação de conteúdos académicos. No entanto, vários estudos mostram que existem dificuldades na transferência das aprendizagens da sala de aula para o mundo real. Uma das razões apontadas é o facto de os conhecimentos de sala de aula não serem bem integrados com os conhecimentos anteriores do aluno. Para que ocorram aprendizagens significativas, torna-se, portanto, necessário que o professor leve em consideração, no planeamento de estratégias de ensino, os conhecimentos anteriores e expectativas dos alunos, as suas questões e ideias. Para que tal aconteça, é essencial que os alunos interajam com o professor, agindo como parceiros no processo de ensino e de aprendizagem, exprimindo as suas ideias, dúvidas e expectativas. Assim sendo, nesta investigação procurou-se aumentar a participação dos alunos através da criação de momentos que lhes permitissem explorar as suas ideias e escrever as suas questões. As ‘produções’ orais e escritas dos alunos foram objeto de reflexão e análise pela professora-investigadora, e levadas em consideração no planeamento das aulas subsequentes. Os dados foram recolhidos através de observação participante e não-participante, de anotações do investigador, de questões e respostas escritas pelos alunos, e da gravação áudio das interações orais das aulas. O método de investigação adotado foi o estudo de caso, sendo a investigação de carácter qualitativo. Pese as limitações do estudo no que diz respeito à dimensão da amostra, os resultados apontam no sentido de que as estratégias aplicadas estimularam a participação dos alunos. A comparação entre o número de questões escritas pelos alunos e o número de intervenções orais em algumas das aulas lecionadas revelou que o número de alunos que escreveram questões foi superior ao número de alunos que intervieram oralmente. Constatou-se, ainda, que nas aulas em que não existiu um momento exclusivamente dedicado a esta atividade, o número de questões escritas pelos alunos foi menor do que o obtido nas aulas em que aquele tempo foi disponibilizado. Estes dados sugerem que a criação de momentos de escrita de questões permite aumentar a participação dos alunos, o que foi já anteriormente defendido por vários autores. Também os momentos de trabalho em grupo constituíram um espaço importante para a exploração das ideias dos alunos, o que se tornou visível pela grande atividade dentro dos grupos, com apresentação de argumentos, construção conjunta de conhecimentos e, sobretudo, pela variedade de propostas que surgiram como forma de dar resposta a questões idênticas das fichas de trabalho. De facto, constatou-se que um maior número de alunos participava nas discussões em turma, quando estas se seguiam aos momentos de trabalho em grupo, do que quando eram realizadas após a exposição dos temas programáticos. Em suma, o que estas constatações sugerem é que a inclusão de momentos de trabalho autónomo, com a possibilidade de trocar ideias com os colegas, pode contribuir para aumentar a motivação dos alunos para intervir na aula. A recolha de questões forneceu informação acerca de falhas no conhecimento e dúvidas implícitas e explicitas na expressão escrita dos alunos, o que corrobora os resultados encontrados por outros estudos. Da mesma forma, a análise do discurso oral dos alunos e das suas respostas escritas constituiu uma fonte de informação importante relativamente àqueles aspetos. A reflexão sobre estas permitiu à professora-investigadora fazer ajustes e planear estratégias adequadas à melhoraria dos aspetos em que foram identificados problemas. O uso das ‘produções’ escritas e orais dos alunos para discussão em aulas posteriores constituiu uma forma de promover interações aluno-aluno, permitiu aceder às dúvidas de outros alunos, que se identificaram com as ideias expressas nas questões escritas, respostas escritas e manifestações orais dos seus colegas, e ajudou a integrar os alunos na gestão do processo de ensino e aprendizagem. No que diz respeito à tentativa de estimular os alunos a reformularem as suas respostas, o pedido explícito de reformulação parece aumentar a predisposição dos alunos para fazerem alterações, quando comparado com os casos em que esse pedido não existiu. Estes resultados sugerem que esta estratégia tem a potencialidade de favorecer a reflexão dos alunos sobre as suas próprias ideias. No final da dissertação, apresentam-se as limitações deste estudo e propõem-se sugestões para melhorar e aprofundar as estratégias implementadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde a Pré-História que a escolha de materiais esteve relacionada com a Arte. Mais tarde, durante a Idade Moderna vai ganhando uma importância cada vez maior. Atingida que foi a Idade Contemporânea, nomeadamente após a Revolução Industrial e durante a Segunda Guerra Mundial, devido ao aumento do número de materiais disponíveis, é que se pode falar de uma verdadeira seleção de materiais. É também após a Revolução Industrial que se clarificam as relações entre a evolução dos materiais e os movimentos e correntes das Artes Plásticas. Neste contexto, estudaram-se as interligações entre o processo de design e as metodologias de seleção, assim como as diversas tipologias de ferramentas existentes para esse efeito. Deste estudo, consideradas as respetivas vantagens e limitações, foi possível identificar bases de dados essencialmente técnicas, ou ao invés, ferramentas para inspiração com muitas imagens e pouca informação sobre as propriedades dos materiais. Para completar este levantamento crítico sobre processos e ferramentas de seleção, inquiriram-se cinquenta e três profissionais que trabalhavam em diferentes gabinetes de design portugueses. As perguntas dirigidas aos designers portugueses versaram sobre problemas relacionados com a escolha de materiais, abrangendo o tipo de matériasprimas empregues, processos utilizados e a qualidade da informação obtida. Na sequência deste estudo, verificou-se a existência de diversas lacunas relativamente aos meios disponíveis, rotinas de seleção, qualidade da informação existente e metodologias utilizadas. Foi neste contexto que se iniciou o projeto de criação de uma nova metodologia suportada por uma ferramenta digital. Os principais aspetos inovadores são: uma melhor interligação entre a metodologia de design e o processo de seleção de materiais e a sua sincronização; a informação necessária em cada etapa e o destaque dos fatores catalisadores da seleção de materiais. Outro elemento inovador foi a conjugação de três formas deferentes de seleção de materiais numa só ferramenta (a geral, a visual e a específica) e a hipótese de aceder a diferentes graus de informação. A metodologia, no contexto dos recursos disponíveis, foi materializada sob a forma de ferramenta digital (ptmaterials.com). O protótipo foi aferido com testes de usabilidade de cariz heurístico, com a participação de dezanove utilizadores. Foram detetadas diversas falhas de interação que condicionaram a liberdade e o controlo da navegação no seio da interface. Os utilizadores também mencionaram a existência de lacunas na prevenção de erros e a ligação do sistema à lógica habitual de outras aplicações já existentes. No entanto, também constituiu um estímulo a circunstância da maioria dos designers avaliarem o sistema como eficaz, eficiente, satisfatório e confirmarem o interesse da existência dos três tipos de seleção. Posteriormente, ao analisar os restantes resultados dos testes de usabilidade, também foram evidenciadas as vantagens dos diferentes tipos de informação disponibilizada e a utilidade de uma ferramenta desta natureza para a Indústria e Economia Nacionais. Esta ferramenta é apenas um ponto de partida, existindo espaço para melhorar a proposta, apesar da concretização de uma ferramenta digital ser um trabalho de grande complexidade. Não obstante se tratar de um protótipo, esta ferramenta está adequada aos dias de hoje e é passível de evoluir no futuro, tendo também a possibilidade de vir a ser preferencialmente utilizada por outros países de língua portuguesa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A perfuração é uma das operações envolvidas no desmonte de rocha com explosivos. A forma como esta operação é executada é determinante para o sucesso do desmonte. Quando é realizada correctamente o desmonte produz superfícies limpas com o mínimo de sobrescavação e perturbação. A selecção das ferramentas de perfuração é um dos factores preponderantes para os custos do desmonte de maciços rochosos. O objectivo deste trabalho é demonstrar a interdependência entre os parâmetros petrofísicos, geotécnicos e geomecânicos do maciço rochoso e as tecnologias de perfuração de forma a optimizar tanto técnica como economicamente. A forma como a perfuração é executada é determinante para a boa fragmentação do maciço rochoso. Este estudo irá centrar-se na perfurabilidade do maciço, linearidade dos furos, rendimento e desgaste das ferramentas de perfuração e desenvolvimento de metodologias do ciclo de perfuração. Neste trabalho, discute-se a importância de uma abordagem integrativa para fins de geoengenhara mineira em que foi aplicada a técnica de amostragem linear em superfícies expostas do maciço num ambiente de uma exploração granítica. As áreas seleccionadas para este estudo — Pedreira de Serdedelo (Ribeira, Ponte de Lima) e pedreira do Fojo (Ferreira, Paredes de Coura), NW de Portugal — estão situadas nas proximidades de falhas geológicas regionais. Em todo os casos de estudo foram desenvolvidos numa plataforma SIG usando as seguintes ferramentas: cartografia geo-aplicada, técnicas de geologia estrutural, da geotecnia e da geomecânica mineiras e avaliação de geotecnologias. Esta abordagem leva-nos a compreender a relevância da heterogeneidade do maciço rochoso para o dimensionamento da exploração a diferentes escalas. O controlo geomecânico do desmonte do maciço rochoso através de uma perfuração alinhada é salientado com o intuito de uma abordagem de geoengenharia integrada nos maciços rochosos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work several techniques to monitor the performance of optical networks were developed. These techniques are dedicated either to the measurement of the data signal parameters (optical signal to noise ratio and dispersion) or to the detection of physical failures on the network infrastructure. The optical signal to noise ratio of the transmitted signal was successfully monitored using methods based on the presence of Bragg gratings imprinted on high birefringent fibres that allowed the distinction of the signal from the noise due to its polarization properties. The monitoring of the signal group-velocity dispersion was also possible. In this case, a method based on the analysis of the electric spectrum of the signal was applied. It was experimentally demonstrated that this technique is applicable on both amplitude and phase modulated signals. It was also developed a technique to monitor the physical infrastructure of an optical access network. Once again, the application of Bragg gratings (this time imprinted on standard single mode fibres) was the basis of the developed method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The expectations of citizens from the Information Technologies (ITs) are increasing as the ITs have become integral part of our society, serving all kinds of activities whether professional, leisure, safety-critical applications or business. Hence, the limitations of the traditional network designs to provide innovative and enhanced services and applications motivated a consensus to integrate all services over packet switching infrastructures, using the Internet Protocol, so as to leverage flexible control and economical benefits in the Next Generation Networks (NGNs). However, the Internet is not capable of treating services differently while each service has its own requirements (e.g., Quality of Service - QoS). Therefore, the need for more evolved forms of communications has driven to radical changes of architectural and layering designs which demand appropriate solutions for service admission and network resources control. This Thesis addresses QoS and network control issues, aiming to improve overall control performance in current and future networks which classify services into classes. The Thesis is divided into three parts. In the first part, we propose two resource over-reservation algorithms, a Class-based bandwidth Over-Reservation (COR) and an Enhanced COR (ECOR). The over-reservation means reserving more bandwidth than a Class of Service (CoS) needs, so the QoS reservation signalling rate is reduced. COR and ECOR allow for dynamically defining over-reservation parameters for CoSs based on network interfaces resource conditions; they aim to reduce QoS signalling and related overhead without incurring CoS starvation or waste of bandwidth. ECOR differs from COR by allowing for optimizing control overhead minimization. Further, we propose a centralized control mechanism called Advanced Centralization Architecture (ACA), that uses a single state-full Control Decision Point (CDP) which maintains a good view of its underlying network topology and the related links resource statistics on real-time basis to control the overall network. It is very important to mention that, in this Thesis, we use multicast trees as the basis for session transport, not only for group communication purposes, but mainly to pin packets of a session mapped to a tree to follow the desired tree. Our simulation results prove a drastic reduction of QoS control signalling and the related overhead without QoS violation or waste of resources. Besides, we provide a generic-purpose analytical model to assess the impact of various parameters (e.g., link capacity, session dynamics, etc.) that generally challenge resource overprovisioning control. In the second part of this Thesis, we propose a decentralization control mechanism called Advanced Class-based resource OverpRovisioning (ACOR), that aims to achieve better scalability than the ACA approach. ACOR enables multiple CDPs, distributed at network edge, to cooperate and exchange appropriate control data (e.g., trees and bandwidth usage information) such that each CDP is able to maintain a good knowledge of the network topology and the related links resource statistics on real-time basis. From scalability perspective, ACOR cooperation is selective, meaning that control information is exchanged dynamically among only the CDPs which are concerned (correlated). Moreover, the synchronization is carried out through our proposed concept of Virtual Over-Provisioned Resource (VOPR), which is a share of over-reservations of each interface to each tree that uses the interface. Thus, each CDP can process several session requests over a tree without requiring synchronization between the correlated CDPs as long as the VOPR of the tree is not exhausted. Analytical and simulation results demonstrate that aggregate over-reservation control in decentralized scenarios keep low signalling without QoS violations or waste of resources. We also introduced a control signalling protocol called ACOR Protocol (ACOR-P) to support the centralization and decentralization designs in this Thesis. Further, we propose an Extended ACOR (E-ACOR) which aggregates the VOPR of all trees that originate at the same CDP, and more session requests can be processed without synchronization when compared with ACOR. In addition, E-ACOR introduces a mechanism to efficiently track network congestion information to prevent unnecessary synchronization during congestion time when VOPRs would exhaust upon every session request. The performance evaluation through analytical and simulation results proves the superiority of E-ACOR in minimizing overall control signalling overhead while keeping all advantages of ACOR, that is, without incurring QoS violations or waste of resources. The last part of this Thesis includes the Survivable ACOR (SACOR) proposal to support stable operations of the QoS and network control mechanisms in case of failures and recoveries (e.g., of links and nodes). The performance results show flexible survivability characterized by fast convergence time and differentiation of traffic re-routing under efficient resource utilization i.e. without wasting bandwidth. In summary, the QoS and architectural control mechanisms proposed in this Thesis provide efficient and scalable support for network control key sub-systems (e.g., QoS and resource control, traffic engineering, multicasting, etc.), and thus allow for optimizing network overall control performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The performance of real-time networks is under continuous improvement as a result of several trends in the digital world. However, these tendencies not only cause improvements, but also exacerbates a series of unideal aspects of real-time networks such as communication latency, jitter of the latency and packet drop rate. This Thesis focuses on the communication errors that appear on such realtime networks, from the point-of-view of automatic control. Specifically, it investigates the effects of packet drops in automatic control over fieldbuses, as well as the architectures and optimal techniques for their compensation. Firstly, a new approach to address the problems that rise in virtue of such packet drops, is proposed. This novel approach is based on the simultaneous transmission of several values in a single message. Such messages can be from sensor to controller, in which case they are comprised of several past sensor readings, or from controller to actuator in which case they are comprised of estimates of several future control values. A series of tests reveal the advantages of this approach. The above-explained approach is then expanded as to accommodate the techniques of contemporary optimal control. However, unlike the aforementioned approach, that deliberately does not send certain messages in order to make a more efficient use of network resources; in the second case, the techniques are used to reduce the effects of packet losses. After these two approaches that are based on data aggregation, it is also studied the optimal control in packet dropping fieldbuses, using generalized actuator output functions. This study ends with the development of a new optimal controller, as well as the function, among the generalized functions that dictate the actuator’s behaviour in the absence of a new control message, that leads to the optimal performance. The Thesis also presents a different line of research, related with the output oscillations that take place as a consequence of the use of classic co-design techniques of networked control. The proposed algorithm has the goal of allowing the execution of such classical co-design algorithms without causing an output oscillation that increases the value of the cost function. Such increases may, under certain circumstances, negate the advantages of the application of the classical co-design techniques. A yet another line of research, investigated algorithms, more efficient than contemporary ones, to generate task execution sequences that guarantee that at least a given number of activated jobs will be executed out of every set composed by a predetermined number of contiguous activations. This algorithm may, in the future, be applied to the generation of message transmission patterns in the above-mentioned techniques for the efficient use of network resources. The proposed task generation algorithm is better than its predecessors in the sense that it is capable of scheduling systems that cannot be scheduled by its predecessor algorithms. The Thesis also presents a mechanism that allows to perform multi-path routing in wireless sensor networks, while ensuring that no value will be counted in duplicate. Thereby, this technique improves the performance of wireless sensor networks, rendering them more suitable for control applications. As mentioned before, this Thesis is centered around techniques for the improvement of performance of distributed control systems in which several elements are connected through a fieldbus that may be subject to packet drops. The first three approaches are directly related to this topic, with the first two approaching the problem from an architectural standpoint, whereas the third one does so from more theoretical grounds. The fourth approach ensures that the approaches to this and similar problems that can be found in the literature that try to achieve goals similar to objectives of this Thesis, can do so without causing other problems that may invalidate the solutions in question. Then, the thesis presents an approach to the problem dealt with in it, which is centered in the efficient generation of the transmission patterns that are used in the aforementioned approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Network virtualisation is seen as a promising approach to overcome the so-called “Internet impasse” and bring innovation back into the Internet, by allowing easier migration towards novel networking approaches as well as the coexistence of complementary network architectures on a shared infrastructure in a commercial context. Recently, the interest from the operators and mainstream industry in network virtualisation has grown quite significantly, as the potential benefits of virtualisation became clearer, both from an economical and an operational point of view. In the beginning, the concept has been mainly a research topic and has been materialized in small-scale testbeds and research network environments. This PhD Thesis aims to provide the network operator with a set of mechanisms and algorithms capable of managing and controlling virtual networks. To this end, we propose a framework that aims to allocate, monitor and control virtual resources in a centralized and efficient manner. In order to analyse the performance of the framework, we performed the implementation and evaluation on a small-scale testbed. To enable the operator to make an efficient allocation, in real-time, and on-demand, of virtual networks onto the substrate network, it is proposed a heuristic algorithm to perform the virtual network mapping. For the network operator to obtain the highest profit of the physical network, it is also proposed a mathematical formulation that aims to maximize the number of allocated virtual networks onto the physical network. Since the power consumption of the physical network is very significant in the operating costs, it is important to make the allocation of virtual networks in fewer physical resources and onto physical resources already active. To address this challenge, we propose a mathematical formulation that aims to minimize the energy consumption of the physical network without affecting the efficiency of the allocation of virtual networks. To minimize fragmentation of the physical network while increasing the revenue of the operator, it is extended the initial formulation to contemplate the re-optimization of previously mapped virtual networks, so that the operator has a better use of its physical infrastructure. It is also necessary to address the migration of virtual networks, either for reasons of load balancing or for reasons of imminent failure of physical resources, without affecting the proper functioning of the virtual network. To this end, we propose a method based on cloning techniques to perform the migration of virtual networks across the physical infrastructure, transparently, and without affecting the virtual network. In order to assess the resilience of virtual networks to physical network failures, while obtaining the optimal solution for the migration of virtual networks in case of imminent failure of physical resources, the mathematical formulation is extended to minimize the number of nodes migrated and the relocation of virtual links. In comparison with our optimization proposals, we found out that existing heuristics for mapping virtual networks have a poor performance. We also found that it is possible to minimize the energy consumption without penalizing the efficient allocation. By applying the re-optimization on the virtual networks, it has been shown that it is possible to obtain more free resources as well as having the physical resources better balanced. Finally, it was shown that virtual networks are quite resilient to failures on the physical network.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Over the last decade, the most widespread approaches for traditional management were based on the Simple Network Management Protocol (SNMP) or Common Management Information Protocol (CMIP). However, they both have several problems in terms of scalability, due to their centralization characteristics. Although the distributed management approaches exhibit better performance in terms of scalability, they still underperform regarding communication costs, autonomy, extensibility, exibility, robustness, and cooperation between network nodes. The cooperation between network nodes normally requires excessive overheads for synchronization and dissemination of management information in the network. For emerging dynamic and large-scale networking environments, as envisioned in Next Generation Networks (NGNs), exponential growth in the number of network devices and mobile communications and application demands is expected. Thus, a high degree of management automation is an important requirement, along with new mechanisms that promote it optimally and e ciently, taking into account the need for high cooperation between the nodes. Current approaches for self and autonomic management allow the network administrator to manage large areas, performing fast reaction and e ciently facing unexpected problems. The management functionalities should be delegated to a self-organized plane operating within the network, that decrease the network complexity and the control information ow, as opposed to centralized or external servers. This Thesis aims to propose and develop a communication framework for distributed network management which integrates a set of mechanisms for initial communication, exchange of management information, network (re) organization and data dissemination, attempting to meet the autonomic and distributed management requirements posed by NGNs. The mechanisms are lightweight and portable, and they can operate in di erent hardware architectures and include all the requirements to maintain the basis for an e cient communication between nodes in order to ensure autonomic network management. Moreover, those mechanisms were explored in diverse network conditions and events, such as device and link errors, di erent tra c/network loads and requirements. The results obtained through simulation and real experimentation show that the proposed mechanisms provide a lower convergence time, smaller overhead impact in the network, faster dissemination of management information, increase stability and quality of the nodes associations, and enable the support for e cient data information delivery in comparison to the base mechanisms analyzed. Finally, all mechanisms for communication between nodes proposed in this Thesis, that support and distribute the management information and network control functionalities, were devised and developed to operate in completely decentralized scenarios.