985 resultados para Turboalbero MatLab Simulink modello dinamico mappe prestazionali turbina Allison
Resumo:
A introdução desta tese começa por realizar um enquadramento do projecto em mão, apresentando a central de energia das ondas em que se encontram os componentes em fibra de vidro a projectar. Esta central usa o princípio de variação de coluna de água, e encontra-se localizada na ilha do Pico, Açores. São de seguida apresentados os objectivos deste trabalho, que consistem na selecção de materiais de fabrico dos componentes, desenvolvimento de uma metodologia para projectar juntas aparafusadas em materiais compósitos, dimensionamento e comparação de duas juntas concorrentes em materiais compósitos: junta solicitada à tracção e junta solicitada ao corte, validação da análise e estudo das causas dos vários tipos de falha destas juntas. A parte I deste trabalho é o resultado da pesquisa bibliográfica efectuada para levar a cabo os objectivos definidos. Assim, começa por se fazer uma descrição dos materiais e processos de fabrico que mais se adequam ao presente projecto, nomeadamente fibra de vidro, resinas, tecidos, impregnação manual, RTM e infusão por vácuo. Daqui resultou que os materiais mais adequados para esta aplicação são fibra de vidro do tipo E e resina polyester devido ao seu baixo custo e larga utilização em aplicações estruturais marinhas. O processo de fabrico mais eficiente é a infusão por vácuo devido á sua vocação para pequenas séries de produção, a poupança que permite em termos de mão-de-obra, a complacência com normas de emissão de voláteis e as boas propriedades das partes produzidas. No capítulo II da parte I são discutidos os tópicos relacionados com juntas em materiais compósitos. Da pesquisa levada a cabo conclui-se que as grandes vantagens das juntas aparafusadas são a sua facilidade de montagem e desmontagem, facilidade de inspecção e capacidade de ligar quaisquer tipos de materiais. Quanto à furação de compósitos é importante referir a necessidade de utilizar ferramentas resistentes e parâmetros de maquinação que minimizem o dano infligido aos laminados. Isto é possível através da selecção de ferramentas com passos baixos que reduzam igualmente a dimensão do seu centro estático responsável pela força axial exercida sobre o laminado - principal factor causador de dano. Devem-se igualmente utilizar baixas velocidades de avanço e elevadas velocidades de rotação. É importante salientar a importância da realização de pré-furação, de utilização de um prato de suporte na superfície de saída do laminado e a existência de ferramentas especialmente concebidas para a furação de compósitos. Para detectar e quantificar o dano existente num furo destacam-se os métodos de inspecção ultrasónica e a radiografia. Quanto aos parâmetros que influenciaram o comportamento de juntas aparafusadas destacam-se os rácios largura/diâmetro, distância ao bordo/diâmetro, espessura/diâmetro, pré-tensão, fricção, sequência de empilhamento e respectivas proporções, dimensão das anilhas e folga entre o parafuso e o furo. A pesquisa efectuada visando metodologias de projecto fiáveis ditou a necessidade de utilizar métodos que permitiram determinar o parafuso mais carregado de uma junta, efectuar o cálculo de tensões no mesmo, e ainda métodos que permitam determinar a primeira falha que ocorre no laminado bem como a falha final no mesmo. O capítulo III da primeira parte descreve os métodos de análise de tensões necessários para as metodologias de projecto utilizadas. Aqui é apresentada a teoria clássica da laminação, um método para determinação do parafuso mais carregado, um método analítico baseado na teoria da elasticidade anisotrópica de um corpo e o método dos elementos finitos. O método para determinar o parafuso mais carregado - análise global - consiste num modelo bidimensional de elementos finitos em que 2 laminados coincidentes são modelados com elementos lineares de casca com 4 nós, sendo a extremidade de um laminado restringida em todos os graus de liberdade e a extremidade oposta do segundo laminado carregada com a carga pretendida. Os laminados são ligados através de elementos mola que simulam os parafusos, sendo a sua constante de rigidez previamente calculada para este fim. O método analítico modela o contacto assumindo uma distribuição de pressão cosinoidal ao longo de metade do furo, e é válido para laminados simétricos e quasi-isotrópicos. O método dos elementos finitos é o que mais factores permite ter em conta, sendo os modelos tridimensionais com um elemento por camada os que melhor modelam o estado de tensões experienciado por uma junta aparafusada em materiais compósitos. O tópico de análise de falha é abordado no capítulo 4 da primeira parte. Aqui são apresentados os resultados do world wide failure exercice que compara vários critérios de falha existentes até 2004, fazendo-se referência a desenvolvimentos recentes que têm ocorrido nesta área. O critério de Puck surge como aquele que permite previsões de falha mais exactas. O critério de falha de Hashin 3D foi o escolhido para o presente trabalho, devido à sua facilidade de implementação num modelo de elementos finitos, à sua capacidade para detectar modos de falha subcríticos e à sua utilização em trabalhos anteriores que apresentaram previsões de falha muito próximas dos dados experimentais. Também neste capítulo se apresentaram os vários tipos de falha de uma junta aparafusada em materiais compósitos, apresentando as causas de cada uma. Por fim, na última secção, apresenta-se o método de dano progressivo que se desenvolveu para prever a primeira falha final do laminado. Este é muito interessante tendo permitido previsões de falha muito próximas dos resultados experimentais em trabalhos anteriores. Este método é iterativo e encontra-se dividido em 3 passos: Análise de tensões, análise de falha utilizando o critério de Hashin 3D e degradação de propriedades, de acordo com o tipo de falha detectada. Para além dos passos referidos, existe ainda um quarto responsável pelo fim da análise que consiste na aferição da existência ou não de falha final e respectivo tipo de falha (por pressão de contacto, por tensão ou por esforços de corte). No capítulo V da primeira parte é apresentado o resultado de uma pesquisa das normas de teste necessárias para obter as propriedades dos materiais requeridas para a aplicação dos métodos descritos neste trabalho. A parte II deste trabalho consiste na aplicação dos métodos apresentados na parte I ao caso concreto em estudo. Os softwares Microsoft Excel, Matlab e ANSYS foram utilizados para este fim. A junta começa por ser dimensionada estimando a espessura necessária do componente e o número e características dos parafusos. De seguida foi feita uma análise global à flange em estudo determinando a força suportada pelo parafuso mais carregado. Após esta análise desenvolveu-se um modelo tridimensional de elementos finitos da zona em que se encontra o parafuso mais carregado, utilizando elementos sólidos lineares e isoparamétricos de 8 nós e uma malha gerada pelo método directo. Aplicou-se a este modelo o algoritmo de dano progressivo descrito na primeira parte. Começou por se incluir explicitamente o parafuso, anilhas, pré-tensão e a modelação dos vários contactos com fricção posteriormente simplificado o modelo restringindo radialmente os nós da porção carregada do furo, excluindo os factores mencionados inicialmente. Procurou-se validar o modelo utilizando o método de cálculo de tensões descrito na primeira parte, desenvolvendo um programa em Matlab para o efeito. Tal não foi possível tendo-se incluído a tentativa realizada em anexo. Para efeitos de dimensionamento, desenvolveu-se um modelo de elementos finitos de duas dimensões da junta em causa, utilizando elementos de casca lineares de quatro nós isoparamétricos com uma espessura unitária. Através da análise de tensões efectuada com este modelo, e utilizando um método combinado programado em linguagem paramétrica, foi possível dimensionar as duas juntas concorrentes pretendidas. Este método combinado consistiu no cálculo de tensões em pontos localizados sobre uma curva característica e utilização de um critério de falha quadrático para cálculo da espessura necessária para a junta. O dimensionamento ditou que a junta solicitada à tensão necessita de pelo menos 127% das camadas e do custo de uma junta solicitada ao corte equivalente.
Resumo:
Este trabalho é um contributo para o desenvolvimento de sistemas de conversão de energia eólica em energia eléctrica em equipamentos comercialmente disponíveis. Com base na recolha de dados meteorológicos, foi caracterizada a disponibilidade da energia eólica num local de instalação de um sistema de geração de energia eléctrica. A exploração dos recursos eólicos pode ser caracterizada por intermédio de geradores eléctricos accionados por turbinas de eixo vertical ou de eixo horizontal. O sistema de geração projectado utiliza como gerador eléctrico a máquina assíncrona de rotor em curto-circuito accionada por uma turbina de eixo vertical do tipo Savonius. No que respeita a conversão electromecânica de energia, para realizar a excitação do gerador de indução e o controlo da potência entregue à rede, foi utilizado um conversor electrónico industrial do tipo regenerativo dedicado a accionamentos de velocidade variável. A estratégia de controlo utilizada, nos modelos desenvolvidos para simulação do sistema de geração proposto, utiliza a técnica de controlo vectorial de orientação de campo para realizar o controlo do binário do gerador de indução, colocando-o em modo de frenagem, através do qual é recolhida energia eléctrica. Tendo em vista a comprovação experimental do desempenho do sistema proposto, foi realizado em laboratório um protótipo. Neste protótipo a turbina Savonius é simulada por um accionamento mecânico constituído por um conjunto variador de velocidade - máquina síncrona de magnetos permanentes. O controlo do sistema é feito por intermédio de um processador digital de sinal (DSP). O DSP impõe a dinâmica desejada para turbina ao seu simulador electromecânico, faz o tratamento dos dados adquiridos no sistema gerador, implementa o seu controlo e estabelece a interface humano-máquina. O modelo teórico proposto para o sistema de geração e a estratégia de controlo adoptada são validados por comparação entre resultados de simulação numérica e os correspondentes resultados experimentais.
Resumo:
Num mercado de electricidade competitivo onde existe um ambiente de incerteza, as empresas de geração adoptam estratégias que visam a maximização do lucro, e a minimização do risco. Neste contexto, é de extrema importância para desenvolver uma estratégia adequada de gestão de risco ter em conta as diferentes opções de negociação de energia num mercado liberalizado, de forma a suportar a tomada de decisões na gestão de risco. O presente trabalho apresenta um modelo que avalia a melhor estratégia de um produtor de energia eléctrica que comercializa num mercado competitivo, onde existem dois mercados possíveis para a transacção de energia: o mercado organizado (bolsa) e o mercado de contratos bilaterais. O produtor tenta maximizar seus lucros e minimizar os riscos correspondentes, seleccionando o melhor equilíbrio entre os dois mercados possíveis (bolsa e bilateral). O mercado de contratos bilaterais visa gerir adequadamente os riscos inerentes à operação de mercados no curto prazo (mercado organizado) e dar o vendedor / comprador uma capacidade real de escolher o fornecedor com que quer negociar. O modelo apresentado neste trabalho faz uma caracterização explícita do risco no que diz respeito ao agente de mercado na questão da sua atitude face ao risco, medido pelo Value at Risk (VaR), descrito neste trabalho por Lucro-em-Risco (PAR). O preço e os factores de risco de volume são caracterizados por um valor médio e um desvio padrão, e são modelizados por distribuições normais. Os resultados numéricos são obtidos utilizando a simulação de Monte Carlo implementado em Matlab, e que é aplicado a um produtor que mantém uma carteira diversificada de tecnologias de geração, para um horizonte temporal de um ano. Esta dissertação está organizada da seguinte forma: o capítulo 1, 2 e 3 descrevem o estado-da-arte relacionado com a gestão de risco na comercialização de energia eléctrica. O capítulo 4 descreve o modelo desenvolvido e implementado, onde é também apresentado um estudo de caso com uma aplicação do modelo para avaliar o risco de negociação de um produtor. No capítulo 5 são apresentadas as principais conclusões.
Resumo:
O objectivo deste trabalho consiste em avaliar os benefícios das Self Organizing Networks (SON), no que concerne ao planeamento e optimização de redes Long Term Evolution (LTE), não só através do seu estudo, como também através do desenvolvimento e teste de algoritmos, que permitem avaliar o funcionamento de algumas das suas principais funções. O estudo efectuado sobre as SON permitiu identificar um conjunto de funções, tais como a atribuição automática de Physical Cell Id (PCI), o Automatic Neighbour Relation (ANR) e a optimização automática de parâmetros de handover, que permitem facilitar ou mesmo substituir algumas das tarefas mais comuns em planeamento e optimização de redes móveis celulares, em particular, redes LTE. Recorrendo a um simulador LTE destinado à investigação académica, em código aberto e desenvolvido em Matlab®, foi desenvolvido um conjunto de algoritmos que permitiram a implementação das funções em questão. Para além das funções implementadas, foram também introduzidas alterações que conferem a este simulador a capacidade de representar e simular redes reais, permitindo uma análise mais coerente dos algoritmos desenvolvidos. Os resultados obtidos, para além de evidenciarem claramente o benefício dos algoritmos desenvolvidos, foram ainda comparados com os obtidos pela ferramenta profissional de planeamento e optimização Atoll®, tendo-se verificado a franca proximidade de desempenho em algumas das funções. Finalmente, foi desenvolvida uma interface gráfica que permite o desenho, configuração e simulação de cenários, bem como a análise de resultados.
Resumo:
O pinheiro tem um papel importante na ecologia e economia nacional. O Pinheiro sofre de uma praga severa, denominada por doença da murchidão dos pinheiros, causada pelo nemátodo da madeira do pinheiro (NMP). Apresenta-se como um verme microscópico, invertebrado, medindo menos de 1,5 mm de comprimento. O contágio entre árvores deve-se a vectores biologicamente conhecidos por longicórneo e capricórnio do pinheiro. Os produtores de madeira de pinho são desta forma obrigados a efectuar tratamentos térmicos (HT), de eliminação do NMP e dos seus vectores para que a exportação da madeira serrada cumpra com a norma NP 4487. De modo a manter a competitividade internacional das empresas nacionais, o impacto dos custos do HT deve ser minimizado. O objectivo desta dissertação é efectuar o estudo técnico-económico da implementação de um sistema de cogeração capaz produzir calor para efectuar o tratamento ao NMP e simultaneamente energia eléctrica para vender à rede pública. As receitas da venda de energia eléctrica poderão contribuir para a minimização dos custos do HT. Tendo em conta que os resíduos das serrações de madeira podem ser usados como combustível consideraram-se para avaliação duas tecnologias de cogeração, um sistema de turbina a vapor clássico (ciclo Rankine) e um sistema Organic Rankine Cycle (ORC), permitindo ambas a queima dos resíduos das serrações de madeira. No que diz respeito à avaliação económica, foi desenvolvido um simulador de tecnologia/modalidade de remuneração que efectua cálculos consoante as necessidades térmicas de cada produtor, a potência eléctrica a instalar e indicadores económicos, VAL, TIR e PAYBACK da instalação do sistema de cogeração. O simulador desenvolvido aplica a nova legislação que enquadra o sistema jurídico e remuneratório da cogeração (DL 23/2010), na qual se consideram duas modalidades, geral e especial. A metodologia desenvolvida foi aplicada num caso real de uma serração de madeira e os principais resultados mostram que as soluções apresentadas, turbina a vapor e sistema ORC, não apresentam viabilidade económica. Através da análise de sensibilidade, conclui-se que um dos factores que mais influência a viabilidade económica do projecto é o tempo de funcionamento reduzido. Sendo uma das soluções apresentada a criação de uma central de cogeração para vários produtores de madeira. Uma possível solução para o problema do reduzido tempo de utilização seria o fornecimento do serviço de tratamentos térmicos a outros produtores de paletes de madeira que não possuem estufa própria.
Resumo:
Mestrado em Radiações Aplicadas às Tecnologias da Saúde.
Resumo:
Com este trabalho mostra-se a importância da utilização integrada de modelos numéricos e de resultados da observação do comportamento dinâmico de barragens com vista ao controlo da segurança de sistemas barragem-fundação-albufeira. Neste trabalho utilizou-se o MATLAB para desenvolver um programa de elementos finitos 3D (DySSA 1.0, “Dynamic State Space Analysis”) para análise do comportamento dinâmico de sistemas barragem-fundação-albufeira considerando uma formulação em deslocamentos com a albufeira discretizada em elementos finitos com módulo de distorção nulo. Utiliza-se uma formulação no espaço de estados o que permite considerar amortecimento não proporcional à massa e à rigidez e conduz a modos de vibração complexos. Apresentam-se os fundamentos do método dos elementos finitos na perspetiva da sua implementação computacional para análise dinâmica de estruturas, e apresenta-se sumariamente o programa DySSA 1.0, o qual permite a análise estática e dinâmica de estruturas utilizando elementos finitos tridimensionais isoparamétricos do segundo grau (tipo cubo com 20 pontos nodais), e correspondentes elementos de junta (com 16 pontos nodais, 8 por cada face). O programa foi testado com base na análise dinâmica de uma parede em consola submetida à pressão hidrodinâmica. Os resultados numéricos foram comparados com soluções analíticas e com resultados experimentais obtidos no laboratório de estruturas do ISEL. Descrevem-se os fundamentos da análise dinâmica de estruturas no domínio do tempo, e referem-se os princípios em que se baseiam as metodologias de identificação modal no domínio da frequência. Analisa-se o comportamento dinâmico da barragem do Cabril em termos de frequências naturais e configurações modais, utilizando um modelo 3D representativo do sistema. Os resultados deste modelo numérico são comparados com resultados experimentais obtidos com base no sistema de monitorização dinâmica em contínuo, que foi instalado pelo LNEC em 2008.
Resumo:
Ao longo deste trabalho é apresentada a caracterização optoelectrónica de uma estrutura semicondutora empilhada de fotodíodos PIN (Positive-Intrinsic-Negative), baseados em silício amorfo hidrogenado (a-Si:H - Hydrogenated Amorphous Silicon) e siliceto de carbono amorfo hi-drogenado (a-SiC:H - Hydrogenated Amorphous Silicon Carbide), em que ambos funcionam como filtros ópticos na zona visível do espectro electromagnético e cuja sensibilidade espectral na região do visível é modulada pelo sinal de tensão eléctrico aplicado e pela presença de polarização óptica adicional (radiação de fundo). Pretende-se utilizar a característica de sensor de cor destes dispositivos semicondutores para realizar a demultiplexagem de sinais ópticos e desenvolver um algoritmo que permita fazer o reco-nhecimento autónomo do sinal transmitido em cada canal, tendo em vista a utilização de vários ca-nais para a transmissão de sinais a curta distância. A transmissão destes sinais deverá ser suportada no meio de transmissão fibra óptica, que constituirá uma importante mais-valia na optimização do sistema WDM (Wavelength Division Mul-tiplexing), permitindo optimizar a transmissão de sinais. Pelas suas capacidades intrínsecas, as fi-bras ópticas de plástico (POF - Plastic Optical Fibers) são uma solução adequada para a transmis-são de sinais no domínio visível do espectro electromagnético a curtas distâncias. Foi realizada uma sucinta caracterização optoelectrónica da estrutura semicondutora sob diferentes condições de iluminação, variando o comprimento de onda e a iluminação de fundo que influencia a resposta espectral do dispositivo semicondutor, variando as cores dos fundos inciden-tes, variando o lado incidente do fundo sobre a estrutura semicondutora, variando a intensidade des-ses mesmos fundos incidentes e também variando a frequência do sinal de dados. Para a transmissão dos sinais de dados foram utilizados três dispositivos LED (Light-Emitting Diode) com as cores vermelho (626nm), verde (525nm) e azul (470nm) a emitir os respec-tivos sinais de dados sobre a estrutura semicondutora e onde foram aplicadas diversas configurações de radiação de fundo incidente, variando as cores dos fundos incidentes, variando o lado incidente do fundo sobre a estrutura semicondutora e variando também a intensidade desses mesmos fundos incidentes. Com base nos resultados obtidos ao longo deste trabalho, foi possível aferir sobre a influên-cia da presença da radiação de fundo aplicada ao dispositivo, usando diferentes sequências de dados transmitidos nos vários canais. Sob polarização inversa, e com a aplicação de um fundo incidente no lado frontal da estrutura semicondutora os valores de fotocorrente gerada são amplificados face aos valores no escuro, sendo que os valores mais altos foram encontrados com a aplicação do fundo de cor violeta, contribuindo para tal, o facto do sinal do canal vermelho e canal verde serem bastan-te amplificados com a aplicação deste fundo. Por outro lado, com a aplicação dos fundos incidentes no lado posterior da estrutura semi-condutora, o sinal gerado não é amplificado com nenhuma cor, no entanto, a aplicação do fundo de cor azul proporciona a distinção do sinal proveniente do canal azul e do canal vermelho, sendo que quando está presente um sinal do canal vermelho, o sinal é fortemente atenuado e com a presença do sinal do canal azul o sinal gerado aproxima-se mais do valor de fotocorrente gerada com a estru-tura no escuro. O algoritmo implementado ao longo deste trabalho, permite efectuar o reconhecimento au-tónomo da informação transmitida por cada canal através da leitura do sinal da fotocorrente forne-cida pelo dispositivo quando sujeito a uma radiação de fundo incidente violeta no lado frontal e uma radiação de fundo incidente azul no lado posterior. Este algoritmo para a descodificação dos sinais WDM utiliza uma aplicação gráfica desenvolvida em Matlab que com base em cálculos e compara-ções de sinal permite determinar a sequência de sinal dos três canais ópticos incidentes. O trabalho proposto nesta tese é um módulo que se enquadra no desenvolvimento de um sistema integrado de comunicação óptica a curta distância, que tem sido alvo de estudo e que resulta das conclusões de trabalhos anteriores, em que este dispositivo e outros de configuração idêntica foram analisados, de forma a explorar a sua utilização na implementação da tecnologia WDM den-tro do domínio do espectro visível e utilizando as POF como meio de transmissão.
Resumo:
O objectivo deste trabalho consiste na construção de um protótipo de um aparelho para medir a componente real e imaginária da impedância de dispositivos em RF. Inicialmente é efectuado um estudo do significado de impedância e de outros conceitos a ela associados. Assim como dos vários métodos existentes para a sua medição. Com base nesse estudo é adoptado um tipo de medidor para implementação. Após a implementação do protótipo são efectuados testes de modo a caracterizar o desempenho do mesmo. O protótipo possui um microcontrolador que permite gerir os vários módulos que o compõem e é também o responsável pela comunicação com o utilizador a nível local e com um PC ou terminal remoto. Os dados das medições são enviados para o PC através de uma ligação série para posterior tratamento dos mesmos através de software desenvolvido em ambiente Matlab. Pretende-se também demonstrar que é possível actualmente construir um aparelho de custo moderado mas cujas prestações, em certas aplicações, são adequadas, evitando assim a necessidade de utilizar outros aparelhos de laboratório, normalmente utilizados para este fim, cujo custo é cem vezes superior.
Resumo:
This paper presents a methodology to address reactive power compensation using Evolutionary Particle Swarm Optimization (EPSO) technique programmed in the MATLAB environment. The main objective is to find the best operation point minimizing power losses with reactive power compensation, subjected to all operational constraints, namely full AC power flow equations, active and reactive power generation constraints. The methodology has been tested with the IEEE 14 bus test system demonstrating the ability and effectiveness of the proposed approach to handle the reactive power compensation problem.
Resumo:
This paper presents a Unit Commitment model with reactive power compensation that has been solved by Genetic Algorithm (GA) optimization techniques. The GA has been developed a computational tools programmed/coded in MATLAB. The main objective is to find the best generations scheduling whose active power losses are minimal and the reactive power to be compensated, subjected to the power system technical constraints. Those are: full AC power flow equations, active and reactive power generation constraints. All constraints that have been represented in the objective function are weighted with a penalty factors. The IEEE 14-bus system has been used as test case to demonstrate the effectiveness of the proposed algorithm. Results and conclusions are dully drawn.
Resumo:
Distributed generation unlike centralized electrical generation aims to generate electrical energy on small scale as near as possible to load centers, interchanging electric power with the network. This work presents a probabilistic methodology conceived to assist the electric system planning engineers in the selection of the distributed generation location, taking into account the hourly load changes or the daily load cycle. The hourly load centers, for each of the different hourly load scenarios, are calculated deterministically. These location points, properly weighted according to their load magnitude, are used to calculate the best fit probability distribution. This distribution is used to determine the maximum likelihood perimeter of the area where each source distributed generation point should preferably be located by the planning engineers. This takes into account, for example, the availability and the cost of the land lots, which are factors of special relevance in urban areas, as well as several obstacles important for the final selection of the candidates of the distributed generation points. The proposed methodology has been applied to a real case, assuming three different bivariate probability distributions: the Gaussian distribution, a bivariate version of Freund’s exponential distribution and the Weibull probability distribution. The methodology algorithm has been programmed in MATLAB. Results are presented and discussed for the application of the methodology to a realistic case and demonstrate the ability of the proposed methodology for efficiently handling the determination of the best location of the distributed generation and their corresponding distribution networks.
Resumo:
Mathematical Program with Complementarity Constraints (MPCC) finds many applications in fields such as engineering design, economic equilibrium and mathematical programming theory itself. A queueing system model resulting from a single signalized intersection regulated by pre-timed control in traffic network is considered. The model is formulated as an MPCC problem. A MATLAB implementation based on an hyperbolic penalty function is used to solve this practical problem, computing the total average waiting time of the vehicles in all queues and the green split allocation. The problem was codified in AMPL.
Resumo:
Mathematical Program with Complementarity Constraints (MPCC) finds applica- tion in many fields. As the complementarity constraints fail the standard Linear In- dependence Constraint Qualification (LICQ) or the Mangasarian-Fromovitz constraint qualification (MFCQ), at any feasible point, the nonlinear programming theory may not be directly applied to MPCC. However, the MPCC can be reformulated as NLP problem and solved by nonlinear programming techniques. One of them, the Inexact Restoration (IR) approach, performs two independent phases in each iteration - the feasibility and the optimality phases. This work presents two versions of an IR algorithm to solve MPCC. In the feasibility phase two strategies were implemented, depending on the constraints features. One gives more importance to the complementarity constraints, while the other considers the priority of equality and inequality constraints neglecting the complementarity ones. The optimality phase uses the same approach for both algorithm versions. The algorithms were implemented in MATLAB and the test problems are from MACMPEC collection.
Resumo:
In this work we solve Mathematical Programs with Complementarity Constraints using the hyperbolic smoothing strategy. Under this approach, the complementarity condition is relaxed through the use of the hyperbolic smoothing function, involving a positive parameter that can be decreased to zero. An iterative algorithm is implemented in MATLAB language and a set of AMPL problems from MacMPEC database were tested.