436 resultados para TRÁFEGO ÁEREO


Relevância:

10.00% 10.00%

Publicador:

Resumo:

As redes atuais de telecomunicações utilizam tecnologias de comutação de pacotes para integração de voz, dados, imagens e outros serviços. O tráfego nessas redes costuma ser feito por meio de tecnologias como o MPLS-TP e com regras heurísticas para a determinação dos melhores caminhos. O uso de boas regras afeta diretamente o desempenho e a segurança da operação. Este trabalho propõe o uso de simulação de baixo custo para prever o comportamento e avaliar regras de escolha de caminhos. Para isso, este trabalho avalia três métodos de seleção de caminhos de LSPs, combinados com duas heurísticas de recuperação, usados em redes MPLS-TP em malha com mecanismos de proteção em malha compartilhada. Os resultados das simulações medem o impacto dos métodos e heurísticas utilizados, demonstrando o quanto uma melhor seleção de caminhos pode contribuir para a redução do uso dos recursos da rede e do número máximo de LSPs afetados em caso de falhas na rede. Os resultados deste trabalho, bem como a técnica de análise proposta, almejam ser uma contribuição para a padronização de regras de seleção de LSPs em redes heterogêneas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese propõe um modelo de regeneração de energia metroviária, baseado no controle de paradas e partidas do trem ao longo de sua viagem, com o aproveitamento da energia proveniente da frenagem regenerativa no sistema de tração. O objetivo é otimizar o consumo de energia, promover maior eficiência, na perspectiva de uma gestão sustentável. Aplicando o Algoritmo Genético (GA) para obter a melhor configuração de tráfego dos trens, a pesquisa desenvolve e testa o Algoritmo de Controle de Tração para Regeneração de Energia Metroviária (ACTREM), usando a Linguagem de programação C++. Para analisar o desempenho do algoritmo de controle ACTREM no aumento da eficiência energética, foram realizadas quinze simulações da aplicação do ACTREM na linha 4 - Amarela do metrô da cidade de São Paulo. Essas simulações demonstraram a eficiência do ACTREM para gerar, automaticamente, os diagramas horários otimizados para uma economia de energia nos sistemas metroviários, levando em consideração as restrições operacionais do sistema, como capacidade máxima de cada trem, tempo total de espera, tempo total de viagem e intervalo entre trens. Os resultados mostram que o algoritmo proposto pode economizar 9,5% da energia e não provocar impactos relevantes na capacidade de transporte de passageiros do sistema. Ainda sugerem possíveis continuidades de estudos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O paradigma das redes em chip (NoCs) surgiu a fim de permitir alto grau de integração entre vários núcleos de sistemas em chip (SoCs), cuja comunicação é tradicionalmente baseada em barramentos. As NoCs são definidas como uma estrutura de switches e canais ponto a ponto que interconectam núcleos de propriedades intelectuais (IPs) de um SoC, provendo uma plataforma de comunicação entre os mesmos. As redes em chip sem fio (WiNoCs) são uma abordagem evolucionária do conceito de rede em chip (NoC), a qual possibilita a adoção dos mecanismos de roteamento das NoCs com o uso de tecnologias sem fio, propondo a otimização dos fluxos de tráfego, a redução de conectores e a atuação em conjunto com as NoCs tradicionais, reduzindo a carga nos barramentos. O uso do roteamento dinâmico dentro das redes em chip sem fio permite o desligamento seletivo de partes do hardware, o que reduz a energia consumida. Contudo, a escolha de onde empregar um link sem fio em uma NoC é uma tarefa complexa, dado que os nós são pontes de tráfego os quais não podem ser desligados sem potencialmente quebrar uma rota preestabelecida. Além de fornecer uma visão sobre as arquiteturas de NoCs e do estado da arte do paradigma emergente de WiNoC, este trabalho também propõe um método de avaliação baseado no já consolidado simulador ns-2, cujo objetivo é testar cenários híbridos de NoC e WiNoC. A partir desta abordagem é possível avaliar diferentes parâmetros das WiNoCs associados a aspectos de roteamento, aplicação e número de nós envolvidos em redes hierárquicas. Por meio da análise de tais simulações também é possível investigar qual estratégia de roteamento é mais recomendada para um determinado cenário de utilização, o que é relevante ao se escolher a disposição espacial dos nós em uma NoC. Os experimentos realizados são o estudo da dinâmica de funcionamento dos protocolos ad hoc de roteamento sem fio em uma topologia hierárquica de WiNoC, seguido da análise de tamanho da rede e dos padrões de tráfego na WiNoC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas administrações rodoviárias as questões orçamentais sofreram alguma pressão nos últimos anos devido, essencialmente, à crise económica instalada em Portugal. Por causa disso, os recursos para a construção de novas estradas diminuiu substancialmente, levando a que as verbas disponíveis para a conservação e reabilitação de estradas já existentes tenham sido muito reduzidas. Para que seja possível manter os pavimentos já existentes num estado que forneça conforto e segurança aos utilizadores, compatível com as disponibilidades orçamentais, é necessária a criação de Sistemas de Gestão de Pavimentos (SGP). Com este tipo de sistemas consegue monitorizar-se de forma mais adequada as redes rodoviárias, uma vez que pode determinar-se quais os trechos das redes a intervencionar em primeiro lugar, com recurso a Sistemas de Avaliação de Qualidade e Métodos de Apoio à Decisão. Atuando de maneira preventiva, impede-se que as degradações dos pavimentos avancem muito, reduzindo, assim, os custos totais associados à utilização das vias e às ações de conservação. Nesta dissertação é apresentada uma metodologia simples de apoiar a resolução dos problemas relacionados com a gestão da conservação dos pavimentos das redes rodoviárias dos pequenos municípios, através da realização de uma inspeção visual dos pavimentos. O levantamento da informação permite determinar os índices de qualidade dos mesmos, através do método da AASTHO, e estimar, de forma aproximada, a evolução do estado dos pavimentos num horizonte até 10 anos. A utilização de uma metodologia simples de apoio à decisão, ajuda a decidir quando e de que forma intervir durante o período de análise, de forma a ser possível prever os custos de intervenção e a sua atribuição à rede ao longo do período de análise. Aplicou-se a metodologia que se apresenta a um caso de estudo, referente a um itinerário com cerca de 11 km de extensão, da rede rodoviária da cidade de Coimbra, de modo a demonstrar a aplicabilidade prática da metodologia, mesmo quando se dispõe de poucos recursos. Para a previsão da evolução das patologias, utilizou-se o modelo determinístico da AASTHO, para o caso de trechos com tráfego de pesados significativo, e cadeias de Markov, um modelo probabilístico, para os trechos sem tráfego de pesados com significado. O caso prático possibilitou a realização de algumas análises de sensibilidade, considerando a variação de vários dos parâmetros envolvidos na avaliação da qualidade, na previsão do comportamento dos pavimentos, e na análise de custos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o decorrer dos anos a sinistralidade rodoviária tem vindo a decrescer. Porém é necessário continuar a apostar na melhoria dos indicadores. O trabalho inicia-se com uma revisão bibliográfica de enquadramento, de modo a evidenciar os aspetos relacionados com a avaliação da segurança rodoviária e as eventuais medidas mitigadoras. Determinaram-se alguns indicadores que foram utilizados para medir a sinistralidade rodoviária em interseções em meio urbano, tendo-se como estudo de caso a rede da cidade de Coimbra, de 2010 a 2012. Para isso, recorreu-se ao ArcGIS 10.0 que é um Sistema de Informação Geográfica (SIG), utilizando a base de dados facultada pela Autoridade Nacional de Segurança Rodoviária (ANSR), complementada com informação dos acidentes recolhidos pela PSP de Coimbra. Consideraram-se na análise as vias com 4 ou mais acidentes em pelo menos um ano. Após georreferenciação dos acidentes rodoviários, o SIG permitiu visualizar a sua distribuição na rede, bem como associar a cada um deles o esquema do acidente disponibilizado pela Polícia de Segurança Pública. Os procedimentos envolvidos nas análises dizem respeito ao Índice de Gravidade (IG) e ao Valor Hierárquico do Local (VHL). Por se ter verificado que o VHL traduz melhor o desempenho em termos de sinistralidade em meio urbano, foi este o parâmetro utilizado para identificar as interseções sobre as quais deveria incidir a atenção da entidade gestora da rede. O VHL é determinado com base no número de ocorrências, na gravidade dos acidentes e no volume horário de tráfego, tendo-se considerado a informação de sinistralidade de duas formas distintas: dados de forma agregada no triénio; e dados separados para cada um dos anos. De forma a comparar de forma simples o desempenho das interseções, fez-se a normalização da variável VHL de modo a ser possível assinalar as interseções com níveis de desempenho de 1, 2, 3, 4 ou 5. Nesta escala, 1 corresponde ao melhor desempenho e 5 refere-se ao pior desempenho. As interseções identificadas com o nível 5 e 4 devem ter uma atenção privilegiada por parte da entidade gestora por serem as que revelam pior desempenho. A metodologia utilizada pode ser aplicada a redes viárias de aglomerados urbanos desde que se disponha de dados de acidentes em três anos consecutivos e seja possível fazer a sua georeferenciação, sendo também necessários dados de volumes horários de tráfego, os quais podem ser obtidos por contagens em vários pontos da rede.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Anualmente 20 a 50 milhões de pessoas sofrem ferimentos em acidentes rodoviários, morrendo 1,24 milhões de pessoas nas estradas de todo o Mundo. A aplicação de medidas para diminuir estes números tornou-se urgente. Na União Europeia foi proposto o objetivo de reduzir 50% da sinistralidade de 2001 até 2010. Em Portugal apontou-se como objetivo a redução de 31,9% de vítimas mortais de 2006 a 2015. Os resultados revelaram que os valores da sinistralidade não ultrapassaram uma redução de 43% na Europa, mas em Portugal estima-se que em 2013 já se tenha alcançado o objetivo previsto para 2015. Em meio urbano, os dados da União Europeia indicam uma redução das vítimas mortais, contudo verifica-se que Portugal se posiciona entre os países com piores valores. Existe, portanto, uma clara necessidade de estabelecer ferramentas que permitam a atuação das entidades gestoras, no sentido de reduzir a sinistralidade ao nível da rede rodoviária urbana. Saber onde ocorreram os acidentes é o início da solução para minimizar feridos e vítimas mortais nas vias urbanas. A aplicação de métodos que permitam a criação de indicadores de sinistralidade associados a um Sistema de Informação Geográfica, permite o conhecimento das vias rodoviárias com necessidades mais urgentes de intervenção de forma gráfica e fácil de interpretar, mesmo por não especialistas. No âmbito deste trabalho, associou-se a base de dados de acidentes a um Sistema de Informação Geográfica para efetuar o processo de georreferenciação e, assim, ser possível conhecer a localização dos trechos da rede urbana mais problemáticos. O conhecimento do tráfego e do perfil transversal das vias urbanas permitiu a definição de uma hierarquização viária. Além disso, utilizou-se esta informação para, de uma forma simplificada, extrapolar os valores de tráfego recolhidos em postos de contagem para as restantes vias onde não existia essa informação. A base de dados de acidentes georreferenciados e o tráfego considerado nas vias permitiram a aplicação do método que se propõe para a análise da sinistralidade, tendo-se utilizado para isso o indicador VHL – valor hierárquico do local. Por fim, foram analisados os trechos fora de interseções que obtiveram piores níveis de segurança, utilizando o indicador de sinistralidade. A metodologia de análise permitiu avaliar os trechos com acidentes, quer considerando os dados de sinistralidade de forma agregada no triénio de análise, quer utilizando-os separadamente para cada um dos anos. Chegou-se assim a uma análise dos acidentes ocorridos em cada trecho, de modo a servir de base para estudos futuros que deverão ser realizados para mitigar os acidentes rodoviários.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A implementação de programas de LTPP – Long-Term Pavement Performance (avaliação do desempenho de pavimentos a longo prazo), ao criar um registo histórico sobre as características e a evolução do estado dos pavimentos da rede, revela-se uma ferramenta de valor acrescido no auxílio à tomada de decisões, no âmbito da conservação e da reabilitação de pavimentos, por parte das administrações das infraestruturas rodoviárias. O LTPP americano, dentre os existentes no mundo, é o projeto pioneiro e um dos que tem a maior quantidade de informação armazenada. Por isso, foi o escolhido no âmbito desta dissertação para estudar a evolução do estado dos pavimentos em várias secções classificadas no programa como SPS-5, incluídas no estudo de reabilitação de pavimentos betuminosos. A avaliação efetuada considera cerca de 15 anos de registos de dados, na Califórnia, no Texas e no Mississippi. Após uma breve apresentação de vários projetos LTPP existentes no mundo, descreve-se o modo como são recolhidos e estruturados os dados no LTPP americano, referindo os módulos, as tabelas e os campos considerados para estudo que se faz nesta dissertação. Os estados americanos escolhidos apresentam características climáticas que não reproduzem de forma muito próxima o que acontece em Portugal. Mesmo assim, procurou estabelecer-se um paralelo entre aquelas zonas, com base na temperatura do ar e na precipitação, de modo a poder inferir, de forma aproximada, tendências de evolução do estado dos pavimentos para Portugal Continental. A correspondência climática entre os estados americanos e as regiões portuguesas, resultou nos pares Califórnia/Beja, Texas/Lisboa e Mississippi/Porto. No que se refere ao desenvolvimento de patologias nos pavimentos, analisou-se a evolução do fendilhamento longitudinal, transversal, em bloco (ou malha) e por fadiga (ou pele de crocodilo), da desagregação superficial, do Índice de Irregularidade Internacional (IRI) e das rodeiras. O fendilhamento em bloco (ou malha) e a desagregação superficial não foram objeto de estudos estatísticos para determinação de modelos de previsão. A evolução do estado dos pavimentos, traduzida por indicadores relacionados com as patologias analisadas, foi apreciada em função de diversas variáveis associadas às técnicas de reabilitação, tais como a preparação da superfície de trabalho (realização de atividades de fresagem antes da nova camada), a espessura da camada de reforço (50 ou 125 mm) e o tipo de mistura utilizada (nova ou contendo cerca de 30% de material reciclado). Para as situações em que os dados existentes eram coerentes e em quantidade suficiente, apresentam-se análises de regressão multivariada, de modo a prever a evolução no tempo do estado dos pavimentos, tendo em conta um conjunto de variáveis explicativas relacionadas com as técnicas de reabilitação aplicadas e com o tráfego que solicitou os pavimentos. A análise agregada dos dados para cada um dos estados permitiu concluir que a preparação da superfície por fresagem, o aumento da espessura do reforço, e a utilização de misturas betuminosas novas ou com material reciclado, interferem na evolução das degradações. A influência daqueles fatores é variável em função dos diferentes tipos de patologias em análise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mais do que um projeto de mestrado sobre a capacidade de diagnosticar de antemão contusões resultantes de acidentes rodoviários em crianças a viajar em cadeiras automóveis, a presente tese visa documentar todo o processo projetual desenvolvido para que tal se possa tornar possível. Para tal foram tidas em conta não apenas questões meramente estéticas, mas também um desenvolvimento tecnológico para possibilitar o cumprimento das diversas premissas pré-estabelecidas como objetivo. O problema que este projeto visa colmatar advém do avanço da sociedade e do meio cada vez mais tecnológico, uma vez que com o passar do tempo os casos de contusões são cada vez mais recorrentes. Estes são, em grande parte, devido a incidentes de tráfego, e resultam em lesões potencialmente graves, em especial no que toca às crianças envolvidas. Nestes casos, o diagnóstico é complexo, necessitando de uma diversidade considerável de exames médicos e consequentemente um tempo prolongado de espera, mas também de manifestação de sintomas. Seria assim importante a existência de um dispositivo capaz de prever consequências sérias após um acidente. Deste modo, resulta desta tese um dispositivo capaz de identificar impactos dos quais poderão resultar contusões, com um mecanismo de operação simples e robusto, de fácil e intuitiva colocação e leitura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the growing demand of data traffic in the networks of third generation (3G), the mobile operators have attempted to focus resources on infrastructure in places where it identifies a greater need. The channeling investments aim to maintain the quality of service especially in dense urban areas. WCDMA - HSPA parameters Rx Power, RSCP (Received Signal Code Power), Ec/Io (Energy per chip/Interference) and transmission rate (throughput) at the physical layer are analyzed. In this work the prediction of time series on HSPA network is performed. The collection of values of the parameters was performed on a fully operational network through a drive test in Natal - RN, a capital city of Brazil northeastern. The models used for prediction of time series were the Simple Exponential Smoothing, Holt, Holt Winters Additive and Holt Winters Multiplicative. The objective of the predictions of the series is to check which model will generate the best predictions of network parameters WCDMA - HSPA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The spread of wireless networks and growing proliferation of mobile devices require the development of mobility control mechanisms to support the different demands of traffic in different network conditions. A major obstacle to developing this kind of technology is the complexity involved in handling all the information about the large number of Moving Objects (MO), as well as the entire signaling overhead required to manage these procedures in the network. Despite several initiatives have been proposed by the scientific community to address this issue they have not proved to be effective since they depend on the particular request of the MO that is responsible for triggering the mobility process. Moreover, they are often only guided by wireless medium statistics, such as Received Signal Strength Indicator (RSSI) of the candidate Point of Attachment (PoA). Thus, this work seeks to develop, evaluate and validate a sophisticated communication infrastructure for Wireless Networking for Moving Objects (WiNeMO) systems by making use of the flexibility provided by the Software-Defined Networking (SDN) paradigm, where network functions are easily and efficiently deployed by integrating OpenFlow and IEEE 802.21 standards. For purposes of benchmarking, the analysis was conducted in the control and data planes aspects, which demonstrate that the proposal significantly outperforms typical IPbased SDN and QoS-enabled capabilities, by allowing the network to handle the multimedia traffic with optimal Quality of Service (QoS) transport and acceptable Quality of Experience (QoE) over time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The increasing demand for Internet data traffic in wireless broadband access networks requires both the development of efficient, novel wireless broadband access technologies and the allocation of new spectrum bands for that purpose. The introduction of a great number of small cells in cellular networks allied to the complimentary adoption of Wireless Local Area Network (WLAN) technologies in unlicensed spectrum is one of the most promising concepts to attend this demand. One alternative is the aggregation of Industrial, Science and Medical (ISM) unlicensed spectrum to licensed bands, using wireless networks defined by Institute of Electrical and Electronics Engineers (IEEE) and Third Generation Partnership Project (3GPP). While IEEE 802.11 (Wi-Fi) networks are aggregated to Long Term Evolution (LTE) small cells via LTE / WLAN Aggregation (LWA), in proposals like Unlicensed LTE (LTE-U) and LWA the LTE air interface itself is used for transmission on the unlicensed band. Wi-Fi technology is widespread and operates in the same 5 GHz ISM spectrum bands as the LTE proposals, which may bring performance decrease due to the coexistence of both technologies in the same spectrum bands. Besides, there is the need to improve Wi-Fi operation to support scenarios with a large number of neighbor Overlapping Basic Subscriber Set (OBSS) networks, with a large number of Wi-Fi nodes (i.e. dense deployments). It is long known that the overall Wi-Fi performance falls sharply with the increase of Wi-Fi nodes sharing the channel, therefore there is the need for introducing mechanisms to increase its spectral efficiency. This work is dedicated to the study of coexistence between different wireless broadband access systems operating in the same unlicensed spectrum bands, and how to solve the coexistence problems via distributed coordination mechanisms. The problem of coexistence between different networks (i.e. LTE and Wi-Fi) and the problem of coexistence between different networks of the same technology (i.e. multiple Wi-Fi OBSSs) is analyzed both qualitatively and quantitatively via system-level simulations, and the main issues to be faced are identified from these results. From that, distributed coordination mechanisms are proposed and evaluated via system-level simulations, both for the inter-technology coexistence problem and intra-technology coexistence problem. Results indicate that the proposed solutions provide significant gains when compare to the situation without distributed coordination.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The substantial increase in the number of applications offered through the computer networks, as well as in the volume of traffic forwarded through the network, have hampered to assure adequate service level to users. The Quality of Service (QoS) offer, honoring specified parameters in Service Level Agreements (SLA), established between the service providers and their clients, composes a traditional and extensive computer networks’ research area. Several schemes proposals for the provision of QoS were presented in the last three decades, but the acting scope of these proposals is always limited due to some factors, including the limited development of the network hardware and software, generally belonging to a single manufacturer. The advent of Software Defined Networking (SDN), along with the maturation of its main materialization, the OpenFlow protocol, allowed the decoupling between network hardware and software, through an architecture which provides a control plane and a data plane. This eases the computer networks scenario, allowing that new abstractions are applied in the hardware composing the data plane, through the development of new software pieces which are executed in the control plane. This dissertation investigates the QoS offer through the use and extension of the SDN architecture. Based on the proposal of two new modules, one to perform the data plane monitoring, SDNMon, and the second, MP-ROUTING, developed to determine the use of multiple paths in the forwarding of data referring to a flow, we demonstrated in this work that some QoS metrics specified in the SLAs, such as bandwidth, can be honored. Both modules were implemented and evaluated through a prototype. The evaluation results referring to several aspects of both proposed modules are presented in this dissertation, showing the obtained accuracy of the monitoring module SDNMon and the QoS gains due to the utilization of multiple paths defined by the MP-Routing, when forwarding data flow through the SDN.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Current and future applications pose new requirements that Internet architecture is not able to satisfy, like Mobility, Multicast, Multihoming, Bandwidth Guarantee and so on. The Internet architecture has some limitations which do not allow all future requirements to be covered. New architectures were proposed considering these requirements when a communication is established. ETArch (Entity Title Architecture) is a new Internet architecture, clean slate, able to use application’s requirements on each communication, and flexible to work with several layers. The Routing has an important role on Internet, because it decides the best way to forward primitives through the network. In Future Internet, all requirements depend on the routing. Routing is responsible for deciding the best path and, in the future, a better route can consider Mobility aspects or Energy Consumption, for instance. In the dawn of ETArch, the Routing has not been defined. This work provides intra and inter-domain routing algorithms to be used in the ETArch. It is considered that the route should be defined completely before the data start to traffic, to ensure that the requirements are met. In the Internet, the Routing has two distinct functions: (i) run specific algorithms to define the best route; and (ii) to forward data primitives to the correct link. In traditional Internet architecture, the two Routing functions are performed in all routers everytime that a packet arrives. This work allows that the complete route is defined before the communication starts, like in the telecommunication systems. This work determined the Routing for ETArch and experiments were performed to demonstrate the control plane routing viability. The initial setup before a communication takes longer, then only forwarding of primitives is performed, saving processing time.