124 resultados para OTIMIZAÇÃO
Resumo:
A Computação Evolutiva enquadra-se na área da Inteligência Artificial e é um ramo das ciências da computação que tem vindo a ser aplicado na resolução de problemas em diversas áreas da Engenharia. Este trabalho apresenta o estado da arte da Computação Evolutiva, assim como algumas das suas aplicações no ramo da eletrónica, denominada Eletrónica Evolutiva (ou Hardware Evolutivo), enfatizando a síntese de circuitos digitais combinatórios. Em primeiro lugar apresenta-se a Inteligência Artificial, passando à Computação Evolutiva, nas suas principais vertentes: os Algoritmos Evolutivos baseados no processo da evolução das espécies de Charles Darwin e a Inteligência dos Enxames baseada no comportamento coletivo de alguns animais. No que diz respeito aos Algoritmos Evolutivos, descrevem-se as estratégias evolutivas, a programação genética, a programação evolutiva e com maior ênfase, os Algoritmos Genéticos. Em relação à Inteligência dos Enxames, descreve-se a otimização por colônia de formigas e a otimização por enxame de partículas. Em simultâneo realizou-se também um estudo da Eletrónica Evolutiva, explicando sucintamente algumas das áreas de aplicação, entre elas: a robótica, as FPGA, o roteamento de placas de circuito impresso, a síntese de circuitos digitais e analógicos, as telecomunicações e os controladores. A título de concretizar o estudo efetuado, apresenta-se um caso de estudo da aplicação dos algoritmos genéticos na síntese de circuitos digitais combinatórios, com base na análise e comparação de três referências de autores distintos. Com este estudo foi possível comparar, não só os resultados obtidos por cada um dos autores, mas também a forma como os algoritmos genéticos foram implementados, nomeadamente no que diz respeito aos parâmetros, operadores genéticos utilizados, função de avaliação, implementação em hardware e tipo de codificação do circuito.
Resumo:
Atualmente, o álcool tem um papel importante na saúde pública e surge como um dos principais problemas sociais no mundo, dado que é a droga mais viciante aceite em encontros sociais. Provavelmente, por essa razão, os riscos do consumo abusivo do álcool são subestimados pelos jovens, mulheres grávidas e idosos. O álcool, quando ingerido em altas proporções, pode afetar todos os órgãos e desencadear inúmeras doenças, tais como a doença cardíaca coronariana, doença neurodegenerativa, as doenças crónicas e câncer. O álcool afeta ainda o estado psicológico, induzindo a violência, o estado antissocial e situações de risco de comportamentos. Por estas razões, o álcool tornou-se um foco principal da investigação, avaliando os seus efeitos sobre o corpo humano. Nesta pesquisa, foram suscitadas amostras de sangue de um grupo de pacientes em tratamento psicológico e/ou farmacêutico que serão analisadas com quatro métodos: Teste de Radicais Livres do Oxigénio (FORT), Defesa contra Radicais Livres do Oxigénio (FORD), cromatografia gasosa (GC) e cromatografia líquida de alta pressão (HPLC). Ambos os métodos FORT e FORD avaliam o stress oxidativo pela quantificação de radicais livres e a capacidade de antioxidantes em eliminar esses radicais livres, respetivamente. O stress oxidativo é o efeito do excesso de consumo de álcool, que é reduzido pela capacidade de ação dos antioxidantes. A boa reprodutibilidade, precisão e exatidão de ambos os métodos indicam que estes podem ser aplicados em rápidos diagnósticos. Para o método FORT e considerando o início do tratamento, os pacientes alcoólicos apresentaram uma média de 3,59±1.01mmol/LH2O2 e o grupo de controlo uma média de 1,42±0.53mmol/LH2O2, o que mostra uma diferença significativa entre os dois grupos (P=0,0006). Para o método FORD, pacientes alcoólicos apresentam uma média de 1,07±0.53mmol/LH2O2 e o grupo de controlo, uma média de 2,81±0.46mmol/LH2O2, mostrando também uma média significativa (P=0,0075). Após 15 dias de tratamento observou-se que há uma diferença entre os dois grupos de pacientes alcoólicos, mas não há nenhum melhoramento em relação ao grupo de pacientes em tratamento. No método FORT os grupos mostram uma diferença significativa (P=0,0073), tendo os pacientes sem tratamento farmacêutico melhores resultados (2.37±0.44mmol/LH2O2) do que os pacientes com tratamento (3.72±1,04mmol/LH2O2). O oposto ocorre no método FORD, os pacientes em tratamento farmacêutico presentam melhores resultados (1.16±0.65mmol/LH2O2) do que o outro grupo (0.75±0.22mmol/LH2O2), não sendo, no entanto, uma diferença significativa entre os dois grupos (P=0.16). Os resultados obtidos para a concentração de MDA pelo método de HPLC mostraram que o grupo de controlo tem valores mais baixos do que os pacientes alcoólicos, embora a diferença não seja muito significativa (P = 0,084), mas é ainda elevada. Além disso, os dois grupos de pacientes não apresentaram uma diferença significativa entre os seus resultados no início (P=0,77) e no fim (P=0,79) do tratamento. De acrescentar ainda que, os resultados da concentração de álcool no sangue determinados pelo método de CG mostraram que só alguns pacientes sem tratamento consumiram álcool durante o período de tratamento, o que influencia negativamente a conclusão sobre o efeito do tratamento. Contudo, outros fatores externos podem ainda influenciar os resultados finais, tais como o estado nutricional e estado psicológico dos pacientes, se o paciente continua a beber durante o tempo de tratamento ou até mesmo se o paciente é exposto a outros tipos de substâncias nocivas. Existe ainda a possibilidade de o tempo de aplicação do tratamento não ser suficiente para apresentar um efeito positivo em relação ao stress oxidativo e este é um outro fator que contribui para a impossibilidade de confirmar sobre o efeito, quer seja positivo ou negativo, do tratamento antioxidante.
Resumo:
O âmbito deste trabalho envolve o teste do modelo BIM numa obra em construção pela Mota-Engil – Engenharia, na extração experimental de peças desenhadas de preparação e apoio à execução de obra. No capítulo 1 deste relatório são definidos o âmbito e os objetivos deste trabalho, é feito um enquadramento histórico do tema e abordados conceitos e atividades da preparação de obra, na sua forma tradicional. O estado do conhecimento da preparação de obras e mais em concreto da tecnologia BIM a nível nacional e internacional é abordado no capítulo 2. Nesse sentido procura-se definir os conceitos principais inerentes a esta nova metodologia, que passa por identificar e caraterizar a tecnologia envolvida e o seu nível de desenvolvimento. Com suporte em casos práticos de preparação de obra na sua forma tradicional, identificados e desenvolvidos no capítulo 3, foi compilado um processo tipo de peças desenhadas de suporte identificadas e caracterizadas no capítulo 4, frequentes e comuns à execução de diversos tipos de obras de edifícios. Assente na compilação baseada em casos práticos e no estudo do projeto de execução da empreitada que sustenta o presente trabalho, com base no qual o modelo BIM foi concebido, identificou-se um conjunto de peças desenhadas de preparação e apoio à execução dos trabalhos, em 2D, a extrair do modelo. No capítulo 5, é feita uma descrição do modo como foi estudado o projeto da obra, com evidência para os fatores mais relevantes, especificando os desenhos a extrair. Suportada pelo programa de modelação ArchiCAD, a extração do conjunto de desenhos identificados anteriormente foi conseguida com recurso às funcionalidades disponíveis no software, que permite a criação de desenhos 2D atualizáveis ou não automaticamente a partir do modelo. Qualquer alteração introduzida no modelo virtual é automaticamente atualizada nos desenhos bidimensionais, caso o utilizador assim o pretenda. Ao longo desse trabalho foram detetados e analisados os condicionalismos inerentes ao processo de extração, referidos no capítulo 6, para estabelecimento de regras de modelação padrão a adotar em futuras empreitadas, que possam simplificar a obtenção dos elementos desenhados de preparação necessários à sua execução. No ponto 6.3 são identificadas melhorias a introduzir no modelo. Em conclusão no capítulo 7 são abordadas especificidades do setor da construção que sustentam e evidenciam cada vez mais a necessidade de utilizar as novas tecnologias com vista à adoção de práticas e ferramentas padrão de apoio à execução de obras. Sendo a tecnologia BIM, transversal a todo o setor, a sua utilização com regras padrão na conceção dos modelos e na extração de dados, potencia a otimização dos custos, do tempo, dos recursos e da qualidade final de um empreendimento, ao longo de todo o seu ciclo de vida, para além de apoiar com elevada fiabilidade as tomadas de decisão ao longo desse período. A tecnologia BIM, possibilita a antevisão do edifício a construir com um elevado grau de pormenor, com todas as vantagens que daí advêm.
Resumo:
O consumo de energia de forma irracional acarreta desvantagens a nível económico para o consumidor e problemas ambientais para toda a sociedade, como a escassez de recursos naturais e o aumento da poluição. Neste contexto, a otimização energética na indústria, e em particular no setor das borrachas, é indispensável de forma a utilizar racionalmente a energia e assim contribuir para a viabilidade das empresas. Este trabalho, efetuado na Flexocol - Fábrica de Artefactos de Borracha, Lda., teve como principal objetivo efetuar um levantamento energético à unidade fabril e propor alternativas que permitissem a redução do consumo de energia elétrica. Foi ainda realizado um estudo sobre a possibilidade de substituir o n-hexano, solvente utilizado na limpeza dos moldes, por um solvente mais adequado. O levantamento energético efetuado permitiu identificar o consumo das utilidades existentes na Flexocol. Esta empresa consome gasóleo e energia elétrica, sendo esta última, a forma de energia mais consumida correspondendo a 96%. O consumo global de energia é cerca 151 tep anuais, inferior a 500 tep/ano, ou seja é considerada uma empresa não consumidora intensiva de energia. Com base neste levantamento determinou-se os indicadores de consumo específico de energia e da intensidade carbónica, 2,73 tep/ ton e 1684,5 kg CO2/tep. A análise do consumo de energia elétrica dos diferentes equipamentos permitiu verificar que o setor que mais consome energia elétrica é a Vulcanização com 45,8%, seguido do setor da Mistura e Serralharia com 27,5% e 26,7%, respetivamente. O sistema de iluminação nos vários setores foi também alvo de estudo e permitiu identificar a Vulcanização como o setor com mais consumo e o da Mistura como o que menos consome. O estudo das variáveis anteriormente referidas permitiu apresentar algumas propostas de melhoria. Uma das propostas analisada foi implementação de condensadores no quadro parcial de forma a diminuir a energia reativa. Com esta medida prevê-se uma poupança de 5631 €/ano e um retorno de investimento de 0,045 anos. Foi também analisada relativamente à iluminação a possibilidade de instalação de balastros eletrónicos que conduziria a uma poupança na energia elétrica de cerca 7072 kWh/ano, mas com um retorno de investimento desfavorável. Por último estudou-se o solvente alternativo ao n-hexano. A acetona foi o solvente proposto uma vez que tem as propriedades indicadas para o fim a que se destina.
Resumo:
The integration of wind power in eletricity generation brings new challenges to unit commitment due to the random nature of wind speed. For this particular optimisation problem, wind uncertainty has been handled in practice by means of conservative stochastic scenario-based optimisation models, or through additional operating reserve settings. However, generation companies may have different attitudes towards operating costs, load curtailment, or waste of wind energy, when considering the risk caused by wind power variability. Therefore, alternative and possibly more adequate approaches should be explored. This work is divided in two main parts. Firstly we survey the main formulations presented in the literature for the integration of wind power in the unit commitment problem (UCP) and present an alternative model for the wind-thermal unit commitment. We make use of the utility theory concepts to develop a multi-criteria stochastic model. The objectives considered are the minimisation of costs, load curtailment and waste of wind energy. Those are represented by individual utility functions and aggregated in a single additive utility function. This last function is adequately linearised leading to a mixed-integer linear program (MILP) model that can be tackled by general-purpose solvers in order to find the most preferred solution. In the second part we discuss the integration of pumped-storage hydro (PSH) units in the UCP with large wind penetration. Those units can provide extra flexibility by using wind energy to pump and store water in the form of potential energy that can be generated after during peak load periods. PSH units are added to the first model, yielding a MILP model with wind-hydro-thermal coordination. Results showed that the proposed methodology is able to reflect the risk profiles of decision makers for both models. By including PSH units, the results are significantly improved.
Resumo:
A globalização, nas suas diversas dimensões, está a tornar o mundo cada vez mais pequeno, alterando as nossas vidas e transformando a forma como as empresas fazem negócios. Estamos cada vez mais expostos aos traços e práticas das outras culturas à medida que a tecnologia diminui os custos da comunicação global e das viagens. A globalização está a obrigar as empresas a serem mais competitivas ao mesmo tempo que os países reduzem as barreiras ao comércio internacional e ao investimento estrangeiro. A competitividade das empresas obriga-as a serem mais eficientes e eficazes, logo a pensarem os seus processos internos de forma a procurarem a sua otimização e melhorarem a sua produtividade, com a notória consequência na satisfação do cliente. Para a satisfação do cliente é necessário que as operações dentro do sistema de distribuição, nomeadamente as realizadas no armazém, sejam otimizadas. Esta otimização é atingida quando as encomendas dos clientes estiverem completas e prontas a serem despachadas em tempo útil e todos os processos necessários para o efeito tenham ocorrido no menor espaço de tempo possível e com o mínimo de recursos. O planeamento das operações no armazém tem de determinar o tempo e a ordem das operações bem como os recursos necessários de forma a não acontecerem congestionamentos. A Caetano Parts, uma empresa de revenda de peças de substituição automóvel, identificou um congestionamento na localização de peças que chegavam pela primeira vez ao seu armazém, o que suscitou a necessidade do desenvolvimento de uma ferramenta que permitisse proceder à localização destas peças de uma forma mais expedita, permitindo ganhos significativos de tempo na arrumação das peças e consequentemente no tempo gasto na sua procura/separação e posterior envio para os clientes. A ferramenta desenvolvida consiste num programa em Visual Basic for Applications (VBA) cuja conceção, desenvolvimento e descrição das funcionalidades serão abordados ao longo do trabalho. Os testes realizados ao longo do desenvolvimento validaram o correto funcionamento da ferramenta.
Resumo:
Este trabalho teve como principal objetivo o estudo da simulação da unidade de destilação atmosférica e a vácuo da fábrica de óleos base da Petrogal, permitindo verificar que, uma vez conseguido um modelo num programa de simulação que traduz o comportamento real de um dado processo, é possível sem riscos operacionais avaliar o efeito da alteração das condições normais de funcionamento desse processo. O trabalho foi orientado pelo Eng.º Carlos Reis, no que diz respeito à empresa, e pelo Prof. Dr. Luís Silva, pelo ISEP. O trabalho foi dividido em duas partes, sendo a primeira direcionada à obtenção do novo crude a partir de dois crudes pesados e caracterização dessa mistura. Já a segunda parte reside na refinação deste novo crude através da plataforma Aspen Plus para obtenção do resíduo de vácuo, para posterior processamento na coluna de discos rotativos usando um método de separação por extração liquido-liquido. Estudaram-se as propriedades físicas dos fluidos e verificou-se que na destilação atmosférica as curvas de destilação encontram-se muito próximas comparativamente com os resultados obtidos pela empresa, enquanto na destilação a vácuo os valores encontram-se mais afastados, apresentando uma variação de 30ºC a 100ºC em relação aos valores obtidos pelo Petro-Sim. Com a finalidade de cumprir um dos objetivos em falta, irão ser realizadas futuramente simulações no extrator de discos rotativos para otimização do processo para crudes pesados, sendo os resultados facultados, posteriormente, à Petrogal. Durante a realização do trabalho foi atingido um modelo real representativo da unidade de destilação atmosférica e a vácuo da Petrogal, podendo obter-se resultados para qualquer tipo de crude, fazendo apenas variar o assay da corrente de alimentação.
Resumo:
O presente trabalho tem como objetivo a otimização da etapa de fermentação dos açúcares obtidos a partir da drêche cervejeira para produção do bioetanol através da utilização das leveduras Pichia stipitis NCYC 1541 e Kluyveromyces marxianus NCYC 2791 como agentes fermentativos. O meio de cultura usado para manter as culturas destas leveduras foi Yeast Extract Peptone Dextrose (YEPD). O principal propósito deste trabalho foi o de encontrar alternativas aos combustíveis fósseis, pautando-se por soluções inofensivas para o meio ambiente e sustentáveis. Assim, o trabalho está dividido em quatro etapas: 1) caraterização química e biológica da drêche; 2) pré-tratamento ácido e hidrólise enzimática para primeiramente quebrar as moléculas de lenhina que envolvem os polímeros de celulose e hemicelulose e em seguida romper as ligações poliméricas destas macromoléculas por ação enzimática e transforma-las em açúcares simples, respetivamente, obtendo-se então a glucose, a maltose, a xilose e a arabinose; e, por último, 3) otimização da etapa de fermentação da glucose, maltose e das pentoses que constitui a condição essencial para se chegar à síntese do bioetanol de um modo eficiente e sustentável e 4) a recuperação do bioetanol produzido por destilação fracionada. A quantificação dos açúcares libertados no processo foi feita recorrendo a análises por cromatografia líquida de alta eficiência (HPLC). Neste estudo foram identificados e quantificados cinco açúcares: Arabinose, Glucose, Maltose, Ribose e Xilose. Na etapa de pré-tratamento e hidrólise enzimática foram usados os ácidos clorídrico (HCl) e nítrico (HNO3) com a concentração de 1% (m/m), e as enzimas Glucanex 100g e Ultraflo L. Foram testadas seis condições de pré-tratamento e hidrólise enzimática, alterando os parâmetros tempo de contacto e razão enzimas/massa de drêche, respetivamente, e mantendo a temperatura (50 ºC), velocidade de agitação (75 rpm) e concentração dos ácidos (1% (m/m)). No processamento de 25 g de drêche seca com 0,5 g de Glucanex, 0,5 mL de Ultraflo e um tempo de reação de 60 minutos para as enzimas foi obtida uma eficiência de 15%, em hidrolisado com 6% da celulose. Realizou-se a fermentação do hidrolisado resultante do pré-tratamento ácido e hidrólise enzimática de drêche cervejeira e de meios sintéticos preparados com os açúcares puros, usando as duas estirpes selecionadas para este estudo: Pichia stipitis NCYC 1541 e Kluyveromyces marxianus NYCY 2791. As eficiências de fermentação dos açúcares nos meios sintéticos foram superiores a 80% para ambas as leveduras. No entanto, as eficiências de fermentação do hidrolisado da drêche foram de 45,10% pela Pichia stipitis e de 36,58 para Kluyveromyces marxianus, para um tempo de fermentação de 72 horas e à temperatura de 30 °C. O rendimento teórico em álcool no hidrolisado da drêche é de 0,27 g/g, três vezes maior do que o real (0,0856 g/g), para Pichia stipitis e de 0,19 g/g seis vezes maior do que o real (0,0308 g/g), para a Kluyveromyces marxianus.
Resumo:
A indústria de semicondutores é um sector em permanente evolução tecnológica. A tendência de miniaturização e de otimização do espaço, a necessidade de produzir circuitos cada vez mais complexos, a tendência para o incremento do número de camadas em cada circuito integrado, são as condições necessárias para que a evolução tecnológica nesta área seja uma constante. Os processos ligados à produção de semicondutores estão também em permanente evolução, dada a pressão efetuada pelas necessidades acima expostas. Os equipamentos necessitam de uma crescente precisão, a qual tem que ser acompanhada de procedimentos rigorosos para que a qualidade atingida tenha sempre o patamar desejado. No entanto, a constante evolução nem sempre permite um adequado levantamento de todas as causas que estão na origem de alguns problemas detetados na fabricação de semicondutores. Este trabalho teve por objetivo efetuar um levantamento dos processos ligados ao fabrico de semicondutores a partir de uma pastilha de silício (wafer) previamente realizada, identificando para cada processo os possíveis defeitos introduzidos pelo mesmo, procurando inventariar as causas possíveis que possam estar na origem desse defeito e realizar procedimentos que permitam criar regras e procedimentos perfeitamente estabelecidos que permitam aprender com os erros e evitar que os mesmos problemas se possam vir a repetir em situações análogas em outros produtos de uma mesma família.
Resumo:
O veículo guiado automaticamente (AGV) adquirido pelo Departamento de Engenharia Mecânica (DEM) tem vindo a ficar obsoleto devido ao hardware, que nos dias de hoje começa a dar sinais de falhas bem como falta de peças de substituição, e ao software, sendo o PLC (Programmable Logic Controller) usado muito limitado quanto às suas funções de controlo, ficando as principais tarefas de controlo do AGV a cargo de placas eletrónicas de controlo. Para promover o controlo autónomo do AGV, foi decidido retirar toda a parte de hardware que detinha o controlo do mesmo e passou a ser um novo PLC, com maior capacidade de processamento, a executar todo o tipo de controlo necessário ao funcionamento do mesmo. O hardware considerado apenas incluí, de forma resumida, os motores responsáveis pelo movimento e direção, placa de controlo de potência dos motores, placa de interface entre as saídas digitais do PLC e as entradas da placa de controlo de potência dos motores e os demais sensores necessários à deteção de obstáculos, fins de curso da direção, sensores dos postos de trabalho e avisadores de emergência. Todo o controlo de movimento e direção bem como a seleção das ações a executar passou a ficar a cargo do software programado no PLC assim como a interação entre o sistema de supervisão instalado num posto de controlo e o PLC através de comunicação via rádio. O uso do PLC permitiu a flexibilidade de mudar facilmente a forma como as saídas digitais são usadas, ao contrário de um circuito eletrónico que necessita de uma completa remodelação, tempo de testes e implementação para efetuar a mesma função. O uso de um microcontrolador seria igualmente viável para a aplicação em causa, no entanto o uso do PLC tem a vantagem de ser robusto, mais rápido na velocidade de processamento, existência de software de interface de programação bastante intuitivo e de livre acesso, facilidade de alterar a programação localmente ou remotamente, via rádio, acesso a vários protocolos de comunicação robustos como Modbus, Canbus, Profinet, Modnet, etc., e acesso integrado de uma consola gráfica totalmente programável. iv É ainda possível a sua expansão com adição de módulos de entradas e saídas digitais e/ou analógicas permitindo expandir largamente o uso do AGV para outros fins. A solução está a ser amplamente testada e validada no Laboratório de Automação (LabA) do Departamento de Engenharia Mecânica do ISEP (Instituto Superior de Engenharia do Porto), permitindo a otimização dos sistemas de controlo de direção bem como a interatividade entre o PLC e o programa de interface/supervisão do posto de trabalho.
Resumo:
O objetivo deste trabalho consistiu em projetar, construir e testar um protótipo em laboratório de uma fonte de alimentação de alta tensão que permita descargas elétricas {estáveis e de dimensões reduzidas}, de modo a que possa ser utilizada, dada a sua essencialidade, na fabricação de redes de período longo (LPG) em fibra ótica nos chamados turning points. Estes são pontos de elevada sensibilidade, fundamentais no desenvolvimento tecnológico de sensores em fibra ótica, em particular, de sensores refractométricos. O protótipo da fonte de alimentação é composto por um regulador do tipo BUCK, um inversor para alimentação do transformador de alta tensão, o circuito de realimentação e controlo PWM e um microcontrolador para o comando da fonte. Posteriormente procedeu-se à otimização dos parâmetros de descarga, o que conduziu a fabricação de redes de período longo com períodos inferiores a 150 micrómetros. Este é um resultado sem paralelo a nível internacional no que concerne ao uso da técnica do arco elétrico.
Resumo:
Na sociedade atual, a preocupação com o ambiente, por um lado, e com o conforto e a segurança, por outro, faz com que a sustentabilidade energética se assuma como uma forma de intervenção adequada às exigências de qualidade de vida e à eficiência no âmbito da economia. Nesta conformidade, é incontornável a mais-valia do Smart Panel, um quadro elétrico inteligente criado com vista à consecução daqueles desideratos, o que motivou o tema do presente trabalho. Assim, pretende-se demonstrar as potencialidades do Smart Panel, um novo conceito de quadro elétrico que visa a otimização da sua funcionalidade na gestão dinâmica e pragmática das instalações elétricas, nomeadamente no que respeita ao controlo, monitorização e atuação sobre os dispositivos, quer in loco quer, sobretudo, à distância. Para a consecução deste objetivo, concorrem outros que o potenciam, designadamente a compreensão do funcionamento do quadro elétrico (QE) tradicional, a comparação deste com o Smart Panel e a demonstração das vantagens da utilização desta nova tecnologia. A grande finalidade do trabalho desenvolvido é, por um lado, colocar a formação académica ao serviço de um bom desempenho profissional futuro, por outro ir ao encontro da tendência tecnológica inerente às necessidades que o homem, hoje, tem de controlar. Deste modo, num primeiro momento, é feita uma abordagem geral ao quadro eléctrico tradicional a fim de ser compreendido o seu funcionamento, aplicações e potencialidades. Para tanto, a explanação inclui a apresentação de conceitos teóricos subjacentes à conceção, produção e montagem do QE. São explicitados os diversos componentes que o integram e funções que desempenham, bem como as interações que estabelecem entre si e os normativos a que devem obedecer, para conformidade. Houve a preocupação de incluir imagens coadjuvantes das explicações, descrições e procedimentos técnicos. No terceiro capítulo é abordada a tecnologia Smart Panel, introduzindo o conceito e objetivos que lhe subjazem. Explicita-se o modo de funcionamento deste sistema que agrupa proteção, supervisão, controlo, armazenamento e manutenção preventiva, e demonstra-se de que forma a capacidade de leitura de dados, de comunicação e de comando do quadro elétrico à distância se afigura uma revolução tecnológica facilitadora do cumprimento das necessidades de segurança, conforto e economia da vida moderna. Os capítulos quarto, quinto e sexto versam uma componente prática do trabalho. No capítulo quarto é explanado um suporte formativo e posterior demonstração do kit de ensaio, que servirá de apoio à apresentação da tecnologia Smart Panel aos clientes. Além deste suporte de formação, no quinto capítulo é elaborada uma lista de procedimentos de verificação a serem executados aos componentes de comunicação que integram o Smart Panel, para fornecimento ao quadrista. Por fim, no sexto capítulo incluem-se dois casos de estudo: o estudo A centra-se na aplicação da tecnologia Smart Panel ao projeto de um QE tradicional, que implica fazer o levantamento de toda a aparelhagem existente e, de seguida, proceder à transposição para a tecnologia Smart Panel por forma a cumprir os requisitos estabelecidos pelo cliente. O estudo de caso B consiste na elaboração de um projeto de um quadro eléctrico com a tecnologia Smart Panel em função de determinados requisitos e necessidades do cliente, por forma a garantir as funções desejadas.
Resumo:
A liberalização dos mercados de energia elétrica e a crescente integração dos recursos energéticos distribuídos nas redes de distribuição, nomeadamente as unidades de produção distribuída, os sistemas de controlo de cargas através dos programas de demand response, os sistemas de armazenamento e os veículos elétricos, representaram uma evolução no paradigma de operação e gestão dos sistemas elétricos. Este novo paradigma de operação impõe o desenvolvimento de novas metodologias de gestão e controlo que permitam a integração de todas as novas tecnologias de forma eficiente e sustentável. O principal contributo deste trabalho reside no desenvolvimento de metodologias para a gestão de recursos energéticos no contexto de redes inteligentes, que contemplam três horizontes temporais distintos (24 horas, 1 hora e 5 minutos). As metodologias consideram os escalonamentos anteriores assim como as previsões atualizadas de forma a melhorar o desempenho total do sistema e consequentemente aumentar a rentabilidade dos agentes agregadores. As metodologias propostas foram integradas numa ferramenta de simulação, que servirá de apoio à decisão de uma entidade agregadora designada por virtual power player. Ao nível das metodologias desenvolvidas são propostos três algoritmos de gestão distintos, nomeadamente para a segunda (1 hora) e terceira fase (5 minutos) da ferramenta de gestão, diferenciados pela influência que os períodos antecedentes e seguintes têm no período em escalonamento. Outro aspeto relevante apresentado neste documento é o teste e a validação dos modelos propostos numa plataforma de simulação comercial. Para além das metodologias propostas, a aplicação permitiu validar os modelos dos equipamentos considerados, nomeadamente, ao nível das redes de distribuição e dos recursos energéticos distribuidos. Nesta dissertação são apresentados três casos de estudos, cada um com diferentes cenários referentes a cenários de operação futuros. Estes casos de estudos são importantes para verificar a viabilidade da implementação das metodologias e algoritmos propostos. Adicionalmente são apresentadas comparações das metodologias propostas relativamente aos resultados obtidos, complexidade de gestão em ambiente de simulação para as diferentes fases da ferramenta proposta e os benefícios e inconvenientes no uso da ferramenta proposta.
Resumo:
No presente trabalho apresentam-se estudos desenvolvidos com o objetivo de análise, conceção e dimensionamento de sistemas de escoramentos metálicos modulares e reaproveitáveis a usar como alternativa técnica e económica em estruturas de contenção periférica. O sistema concebido aplicouse a um caso concreto de uma escavação urbana executada no centro de Luanda, Angola. O projeto começou a ser estudado tendo em conta os estudos geológicos e geotécnicos do terreno em causa, e posteriormente foi estudada a solução construtiva elaborada. Feito o estudo sobre a obra que se realizou com uma parede moldada e ancoragens pré-esforçadas, foi possível, a partir dai, elaborar estudos com outro tipo de sistemas de apoio. Assim, realizaram-se estudos para sistemas de apoio com escoramento linear; colunas metálicas e por uma treliça. Posteriormente, de forma a completar, complementar e poder comparar toda a pesquisa, foram efetuados mais quatro estudos, sendo os sistemas de apoio constituídos por colunas metálicas e/ou tubos circulares ou retangulares em forma elíptica no terreno do projeto e num terreno em forma de quadrado perfeito. Através dos vários estudos foi possível comparar os resultados e perceber qual será a melhor forma de otimização para futuras obras. Foi gerado um método de escoramento, que é possível ser utilizado tendo em conta as particularidades de cada obra, constituído por perfis metálicos com dimensões standard formando elipses ou círculos, conforme a forma do terreno. De maneira a finalizar este projeto foram estudados vários tipos de ligações, quer entre perfis, quer para os perfis e a parede, como também os perfis e os apoios verticais, caso sejam necessários. Como conclusão, e de forma expedita foi analisado o custo direto que apenas abrange a quantidade de aço utilizada para cada tipo de apoio dimensionado, comparando a escavação do projeto em causa com a escavação quadrada.
Resumo:
Os sistemas de monitorização de estruturas fornecem diversas vantagens, não só no que diz respeito à durabilidade da obra, ao aumento da segurança e do conhecimento relativamente ao comportamento das estruturas ao longo do tempo, à otimização do aspeto estrutural, bem como aos aspetos económicos do processo de construção e manutenção. A monitorização deve realizar-se durante a fase de construção e/ou de exploração da obra para permitir o registo integral do seu comportamento no meio externo. Deve efetuar-se de forma contínua e automática, executando intervenções de rotina para que se possa detetar precocemente sinais de alterações, respetivamente à segurança, integridade e desempenho funcional. Assim se poderá manter a estrutura dentro de parâmetros aceitáveis de segurança. Assim, na presente dissertação será concebido um demonstrador experimental, para ser estudado em laboratório, no qual será implementado um sistema de monitorização contínuo e automático. Sobre este demonstrador será feita uma análise de diferentes grandezas em medição, tais como: deslocamentos, extensões, temperatura, rotações e acelerações. Com carácter inovador, pretende-se ainda incluir neste modelo em sintonia de medição de coordenadas GNSS com o qual se torna possível medir deslocamentos absolutos. Os resultados experimentais alcançados serão analisados e comparados com modelos numéricos. Conferem-se os resultados experimentais de natureza estática e dinâmica, com os resultados numéricos de dois modelos de elementos finitos: um de barras e outro de casca. Realizaram-se diferentes abordagens tendo em conta as características identificadas por via experimental e calculadas nos modelos numéricos para melhor ajuste e calibração dos modelos numéricos Por fim, recorre-se a algoritmos de processamento e tratamento do respetivo sinal com aplicação de filtros, que revelam melhorar com rigor o sinal, de forma a potenciar as técnicas de fusão multisensor. Pretende-se integrar o sinal GNSS com os demais sensores presentes no sistema de monitorização. As técnicas de fusão multisensor visam melhor o desempenho deste potencial sistema de medição, demonstrando as suas valências no domínio da monitorização estrutural.