37 resultados para Engenharia Inversa

em Repositório Institucional da Universidade de Aveiro - Portugal


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente investigação insere-se no domínio científico da Didáctica, em particular no da Didáctica da Física no Ensino Superior. Pretende-se, com este trabalho, contribuir para o desenvolvimento do conhecimento Didáctico, nomeadamente sobre o ensino e a aprendizagem da Física no Ensino Superior e, ainda, sobre o trabalho colaborativo entre investigadores em Didáctica e professores da área das Ciências e Engenharias do Ensino Superior. O estudo empírico desenvolvido neste trabalho é constituído por duas partes, designadas por estudo A e estudo B. No estudo A analisa-se o impacto da implementação, em sala de aula, de estratégias de aprendizagem activa num contexto colaborativo entre investigadora e professora. Fá-lo através de um percurso metodológico de investigação-acção, na qual a investigadora actua como consultora. Utilizaram-se diferentes fontes e instrumentos na recolha de informação, nomeadamente notas de campo da investigadora, questionários e entrevistas a estudantes e entrevista à professora colaboradora. Foram implementadas estratégias identificadas na literatura como promotoras de aprendizagem activa dos estudantes, nomeadamente perguntas conceptuais; folhas de dúvidas; feedback; trabalho de grupo com e sem rotação de tarefas; trabalhos para casa e apresentação oral. Os resultados obtidos evidenciam que os estudantes sentiram interesse pela unidade curricular, pois compreenderam a sua utilidade no âmbito do curso que frequentavam, apreciaram positivamente as estratégias implementadas e, segundo a opinião deles, estas contribuíram para a sua aprendizagem. No estudo B procurou-se compreender a colaboração entre investigadores em Didáctica e professores do Ensino Superior, no contexto da Universidade de Aveiro. Este estudo evidenciou que é possível implementar estratégias inovadoras de ensino através de processos de colaboração entre investigadores em Didáctica e professores. Este estudo, de carácter exploratório, foi realizado através de entrevistas aos investigadores e aos professores que com eles colaboraram, procurando melhorar a qualidade das suas práticas de ensino. Através deste estudo chegou-se à conceptualização de uma proposta de Colaboração Disciplinar, uma colaboração entre investigadores em Didáctica e professores do Ensino Superior, em que os investigadores têm formação base nas unidades curriculares onde irão intervir. Esta proposta procura potenciar uma forma de trabalhar problemas complexos, como por exemplo o processo de ensino e aprendizagem, o desenvolvimento profissional dos professores, a articulação entre a investigação em Didáctica e a prática. As principais vantagens identificadas na Colaboração Disciplinar são: a proximidade disciplinar entre o investigador e o professor; a eficácia nas sugestões proporcionadas; o aumento da segurança do professor na implementação das sugestões; o desenvolvimento profissional contextualizado; a aproximação da investigação à prática. Os contributos deste estudo colocam-se a três níveis: ao nível pessoal e profissional da investigadora e da professora colaboradora; ao nível do desenvolvimento de conhecimento na referida área (no caso do primeiro estudo empírico desenvolvido), na medida em que apesar da especificidade do contexto onde o estudo ocorreu – na unidade curricular Elementos de Física do primeiro ano, primeiro semestre de diferentes cursos de Engenharia da Universidade de Aveiro, nos anos lectivos de 2007/08 e 2008/09 – considera-se que este trouxe ensinamentos que, adaptados a outros contextos, podem influenciar outros estudos e práticas; e ao nível do desenvolvimento de conhecimento sobre como dinamizar e potenciar colaborações entre investigadores da área da Didáctica e professores do Ensino Superior.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduzimos um cálculo das variações fraccional nas escalas temporais ℤ e (hℤ)!. Estabelecemos a primeira e a segunda condição necessária de optimalidade. São dados alguns exemplos numéricos que ilustram o uso quer da nova condição de Euler–Lagrange quer da nova condição do tipo de Legendre. Introduzimos também novas definições de derivada fraccional e de integral fraccional numa escala temporal com recurso à transformada inversa generalizada de Laplace.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O consumo de energia a nível mundial aumenta a cada dia, de forma inversa aos recursos fósseis que decrescem de dia para dia. O sector dos transportes é o maior consumidor deste recurso. Face ao actual cenário urge encontrar uma solução renovável e sustentável que permita não só, diminuir a nossa dependência de combustíveis fósseis mas fundamentalmente promover a sua substituição por energias de fontes renováveis. O biodiesel apresenta-se na vanguarda das alternativas aos combustiveis derivados do petróleo, para o sector dos transportes, sendo considerado uma importante opção a curto prazo, uma vez que o seu preço pode ser competitivo com o diesel convencional, e para a sua utilização o motor de combustão não necessita de alterações. O biodiesel é uma mistura líquida, não tóxica, biodegradável de ésteres de ácidos gordos, sem teor de enxofre ou compostos aromáticos, apresenta boa lubricidade, alto número de cetano, e origina emissões gasosas mais limpas. O presente trabalho contribui para um melhor conhecimento da dependência das propriedades termofisicas do biodiesel com a sua composição. A publicação de novos dados permitirá o desenvolvimento de modelos mais fiáveis na previsão do comportamento do biodiesel. As propriedades densidade e viscosidade são o espelho da composição do biodiesel, uma vez que dependem directamente da matéria prima que lhe deu origem, mais do que do processo de produção. Neste trabalho os dados medidos de densidade e viscosidade de biodiesel foram testados com vários modelos e inclusivamente foram propostos novos modelos ajustados para esta família de compostos. Os dados medidos abrangem uma ampla gama de temperaturas e no caso da densidade também foram medidos dados a alta pressão de biodiesel e de alguns ésteres metilico puros. Neste trabalho também são apresentados dados experimentais para o equilíbrio de fases sólido-liquído de biodiesel e equlibrio de fases líquidolíquido de alguns sistemas importantes para a produção de biodiesel. Ambos os tipos de equilíbrio foram descritos por modelos desenvolvidos no nosso laboratório. Uma importância especial é dado aqui a propriedades que dependem do perfil de ácidos gordos da matéria-prima além de densidade e viscosidade; o índice de iodo e temperature limite de filtrabalidade são aqui avaliados com base nas considerações das normas. Os ácidos gordos livres são um sub-produto de refinação de óleo alimentar, que são removidos na desodoração, no processo de purificação do óleo. A catálise enzimática é aqui abordada como alternativa para a conversão destes ácidos gordos livres em biodiesel. Estudou-se a capacidade da lipase da Candida antartica (Novozym 435) para promover a esterificação de ácidos gordos livres com metanol ou etanol, utilizando metodologia de superfície de resposta com planeamento experimental. Avaliou-se a influência de diversas variáveis no rendimento da reacção.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objeto principal desta tese é o estudo de algoritmos de processamento e representação automáticos de dados, em particular de informação obtida por sensores montados a bordo de veículos (2D e 3D), com aplicação em contexto de sistemas de apoio à condução. O trabalho foca alguns dos problemas que, quer os sistemas de condução automática (AD), quer os sistemas avançados de apoio à condução (ADAS), enfrentam hoje em dia. O documento é composto por duas partes. A primeira descreve o projeto, construção e desenvolvimento de três protótipos robóticos, incluindo pormenores associados aos sensores montados a bordo dos robôs, algoritmos e arquitecturas de software. Estes robôs foram utilizados como plataformas de ensaios para testar e validar as técnicas propostas. Para além disso, participaram em várias competições de condução autónoma tendo obtido muito bons resultados. A segunda parte deste documento apresenta vários algoritmos empregues na geração de representações intermédias de dados sensoriais. Estes podem ser utilizados para melhorar técnicas já existentes de reconhecimento de padrões, deteção ou navegação, e por este meio contribuir para futuras aplicações no âmbito dos AD ou ADAS. Dado que os veículos autónomos contêm uma grande quantidade de sensores de diferentes naturezas, representações intermédias são particularmente adequadas, pois podem lidar com problemas relacionados com as diversas naturezas dos dados (2D, 3D, fotométrica, etc.), com o carácter assíncrono dos dados (multiplos sensores a enviar dados a diferentes frequências), ou com o alinhamento dos dados (problemas de calibração, diferentes sensores a disponibilizar diferentes medições para um mesmo objeto). Neste âmbito, são propostas novas técnicas para a computação de uma representação multi-câmara multi-modal de transformação de perspectiva inversa, para a execução de correcção de côr entre imagens de forma a obter mosaicos de qualidade, ou para a geração de uma representação de cena baseada em primitivas poligonais, capaz de lidar com grandes quantidades de dados 3D e 2D, tendo inclusivamente a capacidade de refinar a representação à medida que novos dados sensoriais são recebidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis focuses on digital equalization of nonlinear fiber impairments for coherent optical transmission systems. Building from well-known physical models of signal propagation in single-mode optical fibers, novel nonlinear equalization techniques are proposed, numerically assessed and experimentally demonstrated. The structure of the proposed algorithms is strongly driven by the optimization of the performance versus complexity tradeoff, envisioning the near-future practical application in commercial real-time transceivers. The work is initially focused on the mitigation of intra-channel nonlinear impairments relying on the concept of digital backpropagation (DBP) associated with Volterra-based filtering. After a comprehensive analysis of the third-order Volterra kernel, a set of critical simplifications are identified, culminating in the development of reduced complexity nonlinear equalization algorithms formulated both in time and frequency domains. The implementation complexity of the proposed techniques is analytically described in terms of computational effort and processing latency, by determining the number of real multiplications per processed sample and the number of serial multiplications, respectively. The equalization performance is numerically and experimentally assessed through bit error rate (BER) measurements. Finally, the problem of inter-channel nonlinear compensation is addressed within the context of 400 Gb/s (400G) superchannels for long-haul and ultra-long-haul transmission. Different superchannel configurations and nonlinear equalization strategies are experimentally assessed, demonstrating that inter-subcarrier nonlinear equalization can provide an enhanced signal reach while requiring only marginal added complexity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo teve como objectivo analisar o desempenho de alunos de primeiro ano dos cursos de Engenharia e de Ecoturismo da Escola Superior Agrária (ESAC) do Instituto Politécnico de Coimbra (IPC) no que respeita à realização de uma síntese da informação escrita a partir de várias fontes. O estudo compreendeu duas partes, constituídas em dois estudos de caso: no primeiro, realizado no ano lectivo de 2003/2004, participaram 123 alunos; no segundo, realizado no ano lectivo de 2006/2007, participaram 60 alunos, constituindo estes a totalidade de alunos de primeiro ano que estudaram a língua nacional sob as orientações do novo “Programa de Língua Portuguesa” vigente no Ensino Secundário a partir de 2003. Em ambos os estudos de caso, procurou-se conhecer o que pensavam os alunos sobre a sua relação com a escrita em contexto escolar e sobre os seus procedimentos e dificuldades relativos à selecção e síntese da informação. Foram analisados os seus procedimentos preliminares à produção de um texto a partir de várias fontes através de eventuais sublinhados, apontamentos e rascunhos e, em seguida, através do trabalho de revisão e qualidade do texto final, que pressupunha o domínio ao nível da explicitação do conhecimento. A análise comparativa a partir dos estudos e os resultados finais revelaram dificuldades de selecção, organização e conexão da informação, bem como dificuldades relativas a uma construção discursiva própria a partir da situação de comunicação proposta, tanto ao nível da superfície do texto quanto ao nível da sua estrutura profunda. Assim, considerando que os participantes no estudo apresentaram dificuldades ao nível da explicitação do conhecimento, considerando a pouca ou nenhuma abordagem do assunto no Ensino Secundário em Portugal, considerando ainda que, em contexto académico, a competência de escrita a partir de várias fontes com vista à explicitação do conhecimento é uma condição básica e necessária para uma escrita de transformação do conhecimento e consequente literacia crítica, torna-se imperativo reflectir sobre o problema para buscar soluções. A inclusão de uma disciplina no primeiro ano do Ensino Superior (cujos conteúdos básicos são aqui sugeridos) - que contemple o ensino explícito da escrita para o desenvolvimento das competências de explicitação e transformação do conhecimento - poderá ser uma interessante solução para promover a melhoria do desempenho escritural dos alunos na difícil transição do Ensino Secundário para o Superior, tornando-os mais auto-confiantes, afastando-os da prática do plágio e contribuindo para o seu sucesso escolar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese surge no contexto de sistemas e serviços web. O objectivo é propor uma solução para o problema da integração de informação de diversas fontes, numa plataforma web única, personalizável e adaptável ao utilizador. Nos casos de empresas ou organizações que tenham para diferentes tarefas, diferentes sistemas de informação independentes, o problema da integração de informação surge com a necessidade de integração destes numa única interface disponibilizada aos seus utilizadores. A integração de serviços numa mesma interface pressupõe que haja comunicação entre um sistema central (que fornece a interface) e os diversos sistemas existentes (que detêm a totalidade – ou parte – da informação a apresentar). Assim, será necessário garantir a identidade do utilizador a cada um dos serviços apresentados, bem como assegurar que cada utilizador tem à sua disposição de forma centralizada, apenas e só a informação e operações a que realmente tem acesso em cada um dos sistemas. Trata-se de uma plataforma que pretende por um lado, fornecer a informação correcta e orientada ao utilizador e, por outro lado, garantir que a organização que suporta o sistema consegue informar e interagir com os seus utilizadores de forma mais eficaz. O cenário adoptado é a Universidade de Aveiro. Esta pretende disponibilizar uma plataforma electrónica, onde os diferentes interlocutores (alunos, docentes, funcionários, ex-alunos, etc.) possam ter acesso a informação dirigida e orientada aos seus interesses e funções na Universidade. De modo a que cada utilizador seja realmente visto como um utilizador único, serão estudados e comparados serviços de modelação de utilizador e perfis de utilizador. Será proposto um serviço de modelação de utilizador e uma lógica de criação de perfis de utilizador, distintos do existente no estado de arte. Esta lógica conjuga a personalização da interface por parte do utilizador, com a gestão de operações e definição de políticas de segurança por parte da organização, de forma independente relativamente ao sistema de informação subjacente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os Sinais de Espalhamento de Espectro de Sequência Directa exibem propriedades cicloestacionárias que implicam redundância entre componentes de frequência espaçadas por múltiplos da taxa de símbolo. Nesta tese, é apresentado um cancelador de interferência multiutilizador (Cancelador por translação na frequência - FSC) que tira partido desta propriedade. Este cancelador linear opera no domínio da frequência no sinal espalhado de tal forma que minimiza a interferência e ruído na saída (Critério do Mínimo Erro Quadrado Médio). Além de testado para o caso de antena única, são avaliadas as performances das configurações de antenas múltiplas para o caso de beamforming e canais espacialmente descorrelacionados considerando sistemas síncronos e sistemas com desalinhamento no tempo dos perfis de canais (ambos UMTS-TDD). Essas configurações divergiam na ordem da combinação temporal, combinação espacial e detecção multiutilizador. As configurações FSC foram avaliadas quando concatenadas com o PIC-2D. Os resultados das simulações mostram consideráveis melhorias nos resultados relativamente ao RAKE-2D convencional e PIC-2D. Foi atingida performance próximo ao RAKE de utilizador único quando o FSC foi avaliado concatenado com PIC-2D em quase todas as configurações. Todas as configurações foram avaliadas com modulação QPSK, 8-PSK e 16-QAM. Foi introduzida codificação Turbo e identificou-se as situações da vantagem de utilização do FSC antes do PIC-2D. As modulações 8-PSK e 16-QAM foram igualmente testadas com codificação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de sistemas computacionais é um processo complexo, com múltiplas etapas, que requer uma análise profunda do problema, levando em consideração as limitações e os requisitos aplicáveis. Tal tarefa envolve a exploração de técnicas alternativas e de algoritmos computacionais para optimizar o sistema e satisfazer os requisitos estabelecidos. Neste contexto, uma das mais importantes etapas é a análise e implementação de algoritmos computacionais. Enormes avanços tecnológicos no âmbito das FPGAs (Field-Programmable Gate Arrays) tornaram possível o desenvolvimento de sistemas de engenharia extremamente complexos. Contudo, o número de transístores disponíveis por chip está a crescer mais rapidamente do que a capacidade que temos para desenvolver sistemas que tirem proveito desse crescimento. Esta limitação já bem conhecida, antes de se revelar com FPGAs, já se verificava com ASICs (Application-Specific Integrated Circuits) e tem vindo a aumentar continuamente. O desenvolvimento de sistemas com base em FPGAs de alta capacidade envolve uma grande variedade de ferramentas, incluindo métodos para a implementação eficiente de algoritmos computacionais. Esta tese pretende proporcionar uma contribuição nesta área, tirando partido da reutilização, do aumento do nível de abstracção e de especificações algorítmicas mais automatizadas e claras. Mais especificamente, é apresentado um estudo que foi levado a cabo no sentido de obter critérios relativos à implementação em hardware de algoritmos recursivos versus iterativos. Depois de serem apresentadas algumas das estratégias para implementar recursividade em hardware mais significativas, descreve-se, em pormenor, um conjunto de algoritmos para resolver problemas de pesquisa combinatória (considerados enquanto exemplos de aplicação). Versões recursivas e iterativas destes algoritmos foram implementados e testados em FPGA. Com base nos resultados obtidos, é feita uma cuidada análise comparativa. Novas ferramentas e técnicas de investigação que foram desenvolvidas no âmbito desta tese são também discutidas e demonstradas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese insere-se na área da simulação de circuitos de RF e microondas, e visa o estudo de ferramentas computacionais inovadoras que consigam simular, de forma eficiente, circuitos não lineares e muito heterogéneos, contendo uma estrutura combinada de blocos analógicos de RF e de banda base e blocos digitais, a operar em múltiplas escalas de tempo. Os métodos numéricos propostos nesta tese baseiam-se em estratégias multi-dimensionais, as quais usam múltiplas variáveis temporais definidas em domínios de tempo deformados e não deformados, para lidar, de forma eficaz, com as disparidades existentes entre as diversas escalas de tempo. De modo a poder tirar proveito dos diferentes ritmos de evolução temporal existentes entre correntes e tensões com variação muito rápida (variáveis de estado activas) e correntes e tensões com variação lenta (variáveis de estado latentes), são utilizadas algumas técnicas numéricas avançadas para operar dentro dos espaços multi-dimensionais, como, por exemplo, os algoritmos multi-ritmo de Runge-Kutta, ou o método das linhas. São também apresentadas algumas estratégias de partição dos circuitos, as quais permitem dividir um circuito em sub-circuitos de uma forma completamente automática, em função dos ritmos de evolução das suas variáveis de estado. Para problemas acentuadamente não lineares, são propostos vários métodos inovadores de simulação a operar estritamente no domínio do tempo. Para problemas com não linearidades moderadas é proposto um novo método híbrido frequência-tempo, baseado numa combinação entre a integração passo a passo unidimensional e o método seguidor de envolvente com balanço harmónico. O desempenho dos métodos é testado na simulação de alguns exemplos ilustrativos, com resultados bastante promissores. Uma análise comparativa entre os métodos agora propostos e os métodos actualmente existentes para simulação RF, revela ganhos consideráveis em termos de rapidez de computação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na última década tem-se assistido a um crescimento exponencial das redes de comunicações sem fios, nomeadamente no que se refere a taxa de penetração do serviço prestado e na implementação de novas infra-estruturas em todo o globo. É ponto assente neste momento que esta tendência irá não só continuar como se fortalecer devido à convergência que é esperada entre as redes móveis sem fio e a disponibilização de serviços de banda larga para a rede Internet fixa, numa evolução para um paradigma de uma arquitectura integrada e baseada em serviços e aplicações IP. Por este motivo, as comunicações móveis sem fios irão ter um papel fundamental no desenvolvimento da sociedade de informação a médio e longo prazos. A estratégia seguida no projecto e implementação das redes móveis celulares da actual geração (2G e 3G) foi a da estratificação da sua arquitectura protocolar numa estrutura modular em camadas estanques, onde cada camada do modelo é responsável pela implementação de um conjunto de funcionalidades. Neste modelo a comunicação dá-se apenas entre camadas adjacentes através de primitivas de comunicação pré-estabelecidas. Este modelo de arquitectura resulta numa mais fácil implementação e introdução de novas funcionalidades na rede. Entretanto, o facto das camadas inferiores do modelo protocolar não utilizarem informação disponibilizada pelas camadas superiores, e vice-versa acarreta uma degradação no desempenho do sistema. Este paradigma é particularmente importante quando sistemas de antenas múltiplas são implementados (sistemas MIMO). Sistemas de antenas múltiplas introduzem um grau adicional de liberdade no que respeita a atribuição de recursos rádio: o domínio espacial. Contrariamente a atribuição de recursos no domínio do tempo e da frequência, no domínio espacial os recursos rádio mapeados no domínio espacial não podem ser assumidos como sendo completamente ortogonais, devido a interferência resultante do facto de vários terminais transmitirem no mesmo canal e/ou slots temporais mas em feixes espaciais diferentes. Sendo assim, a disponibilidade de informação relativa ao estado dos recursos rádio às camadas superiores do modelo protocolar é de fundamental importância na satisfação dos critérios de qualidade de serviço exigidos. Uma forma eficiente de gestão dos recursos rádio exige a implementação de algoritmos de agendamento de pacotes de baixo grau de complexidade, que definem os níveis de prioridade no acesso a esses recursos por base dos utilizadores com base na informação disponibilizada quer pelas camadas inferiores quer pelas camadas superiores do modelo. Este novo paradigma de comunicação, designado por cross-layer resulta na maximização da capacidade de transporte de dados por parte do canal rádio móvel, bem como a satisfação dos requisitos de qualidade de serviço derivados a partir da camada de aplicação do modelo. Na sua elaboração, procurou-se que o standard IEEE 802.16e, conhecido por Mobile WiMAX respeitasse as especificações associadas aos sistemas móveis celulares de quarta geração. A arquitectura escalonável, o baixo custo de implementação e as elevadas taxas de transmissão de dados resultam num processo de multiplexagem de dados e valores baixos no atraso decorrente da transmissão de pacotes, os quais são atributos fundamentais para a disponibilização de serviços de banda larga. Da mesma forma a comunicação orientada à comutação de pacotes, inenente na camada de acesso ao meio, é totalmente compatível com as exigências em termos da qualidade de serviço dessas aplicações. Sendo assim, o Mobile WiMAX parece satisfazer os requisitos exigentes das redes móveis de quarta geração. Nesta tese procede-se à investigação, projecto e implementação de algoritmos de encaminhamento de pacotes tendo em vista a eficiente gestão do conjunto de recursos rádio nos domínios do tempo, frequência e espacial das redes móveis celulares, tendo como caso prático as redes móveis celulares suportadas no standard IEEE802.16e. Os algoritmos propostos combinam métricas provenientes da camada física bem como os requisitos de qualidade de serviço das camadas superiores, de acordo com a arquitectura de redes baseadas no paradigma do cross-layer. O desempenho desses algoritmos é analisado a partir de simulações efectuadas por um simulador de sistema, numa plataforma que implementa as camadas física e de acesso ao meio do standard IEEE802.16e.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evolução observada nas redes de comunicações durante a última década traduziu-se na diversificação de serviços que utilizam a rede, no aumento das taxas de transferência e na massificação da utilização de serviços de acesso à Internet e de comunicações celulares. Durante esta década, várias organizações, das quais se destacam os operadores de telecomunicações, têm dedicado consideráveis esforços no sentido de definir e normalizar arquitecturas de redes de próxima geração. A principal característica deste tipo de rede reside no facto de possuir uma arquitectura modular capaz de fornecer serviços multimédia a clientes de uma rede de acesso com características tecnológicas heterogéneas. Os trabalhos de normalização das arquitecturas de rede NGN têm-se limitado, até ao momento, a especificar detalhes relativos ao funcionamento da rede não tendo ainda sido definida a arquitectura de gestão. Em termos de tecnologias de gestão de redes, foram propostos nas últimas duas décadas novos paradigmas de gestão, novos modelos de dados, novos protocolos de transporte e várias linguagens de definição de informação de gestão. Os modelos de dados têm vindo a ser enriquecidos, os protocolos são mais flexíveis e poderosos, as soluções de gestão oferecem interoperabilidade acrescida e as linguagens permitem definir formatos de configuração mais ricos. Simultaneamente tem crescido a complexidade das soluções de gestão, aumentado a sobrecarga causada pelo aumento de complexidade nos equipamentos bem como nas plataformas computacionais que suportam os sistemas de gestão. O presente trabalho propõe uma solução de gestão para redes NGN capaz de gerir os recursos de rede garantindo Qualidade de Serviço. A solução de gestão proposta inclui uma plataforma de execução de políticas que utiliza os eventos ocorridos na rede para empreender acções de configuração, autonomizando o processo de gestão. Inclui uma avaliação da complexidade de várias tecnologias de gestão estudando a sobrecarga causada pela tecnologia tanto no processo de gestão como na operação da rede. É ainda estudada a escalabilidade das várias tecnologias e analisado o seu comportamento num cenário da rede de um operador de telecomunicações. O trabalho propõe ainda uma metodologia de configuração integrada dos elementos de gestão, através de uma interface de configuração amigável para o administrador do sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese aborda o problema de optimização de recursos de rede, na entrega de Serviços de Comunicação em Grupo, em Redes de Próxima Geração que suportem tecnologias de difusão. De acordo com esta problemática, são feitas propostas que levam em atenção a evolução espectável das redes 3G em Redes Heterogéneas de Próxima Geração que incluam tecnologias de difusão tais como o DVB. A optimização de recursos em Comunicações em Grupo é apresentada como um desafio vertical que deve cruzar diversas camadas. As optimizações aqui propostas cobrem tanto a interface entre Aplicação e a Plataforma de Serviços para a disponibilização de serviços de comunicação em grupo, como as abstracções e mapeamentos feitos na interface entre a Rede Central e a Rede de Acesso Rádio. As optimizações propostas nesta tese, assumem que o caminho evolutivo na direcção de uma Rede de Próxima Geração é feito através do IP. Em primeiro lugar são endereçadas as optimizações entre a Aplicação e a Plataforma de Serviços que já podem ser integradas nas redes 3G existentes. Estas optimizações podem potenciar o desenvolvimento de novas e inovadoras aplicações, que através do uso de mecanismos de distribuição em difusão podem fazer um uso mais eficiente dos recursos de rede. De seguida são apresentadas optimizações ao nível da interface entre a Rede Central e a Rede de Acesso Rádio que abordam a heterogeneidade das redes futuras assim como a necessidade de suportar tecnologias de difusão. É ainda considerada a possibilidade de aumentar a qualidade de serviço de serviços de difusão através do mapeamento do IP multicast em portadoras unidireccionais. Por forma a validar todas estas optimizações, vários protótipos foram desenvolvidos com base num router avançado para redes de acesso de próxima geração. As funcionalidades e arquitectura de software desse router são também aqui apresentadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O projecto de sequenciação do genoma humano veio abrir caminho para o surgimento de novas áreas transdisciplinares de investigação, como a biologia computacional, a bioinformática e a bioestatística. Um dos resultados emergentes desde advento foi a tecnologia de DNA microarrays, que permite o estudo do perfil da expressão de milhares de genes, quando sujeitos a perturbações externas. Apesar de ser uma tecnologia relativamente consolidada, continua a apresentar um conjunto vasto de desafios, nomeadamente do ponto de vista computacional e dos sistemas de informação. São exemplos a optimização dos procedimentos de tratamento de dados bem como o desenvolvimento de metodologias de interpretação semi-automática dos resultados. O principal objectivo deste trabalho consistiu em explorar novas soluções técnicas para agilizar os procedimentos de armazenamento, partilha e análise de dados de experiências de microarrays. Com esta finalidade, realizou-se uma análise de requisitos associados às principais etapas da execução de uma experiência, tendo sido identificados os principais défices, propostas estratégias de melhoramento e apresentadas novas soluções. Ao nível da gestão de dados laboratoriais, é proposto um LIMS (Laboratory Information Management System) que possibilita a gestão de todos os dados gerados e dos procedimentos realizados. Este sistema integra ainda uma solução que permite a partilha de experiências, de forma a promover a participação colaborativa de vários investigadores num mesmo projecto, mesmo usando LIMS distintos. No contexto da análise de dados, é apresentado um modelo que facilita a integração de algoritmos de processamento e de análise de experiências no sistema desenvolvido. Por fim, é proposta uma solução para facilitar a interpretação biológica de um conjunto de genes diferencialmente expressos, através de ferramentas que integram informação existente em diversas bases de dados biomédicas.