1000 resultados para Sistemas eléctricos inteligentes
Resumo:
La obtención de energía a partir de la fusión nuclear por confinamiento magnético del plasma, es uno de los principales objetivos dentro de la comunidad científica dedicada a la energía nuclear. Desde la construcción del primer dispositivo de fusión, hasta la actualidad, se han llevado a cabo multitud de experimentos, que hoy en día, gran parte de ellos dan soporte al proyecto International Thermonuclear Experimental Reactor (ITER). El principal problema al que se enfrenta ITER, se basa en la monitorización y el control del plasma. Gracias a las nuevas tecnologías, los sistemas de instrumentación y control permiten acercarse más a la solución del problema, pero a su vez, es más complicado estandarizar los sistemas de adquisición de datos que se usan, no solo en ITER, sino en otros proyectos de igual complejidad. Desarrollar nuevas implementaciones hardware y software bajo los requisitos de los diagnósticos definidos por los científicos, supone una gran inversión de tiempo, retrasando la ejecución de nuevos experimentos. Por ello, la solución que plantea esta tesis, consiste en la definición de una metodología de diseño que permite implementar sistemas de adquisición de datos inteligentes y su fácil integración en entornos de fusión para la implementación de diagnósticos. Esta metodología requiere del uso de los dispositivos Reconfigurable Input/Output (RIO) y Flexible RIO (FlexRIO), que son sistemas embebidos basados en tecnología Field-Programmable Gate Array (FPGA). Para completar la metodología de diseño, estos dispositivos van a ser soportados por un software basado en EPICS Device Support utilizando la tecnología EPICS software asynDriver. Esta metodología se ha evaluado implementando prototipos para los controladores rápidos de planta de ITER, tanto para casos prácticos de ámbito general como adquisición de datos e imágenes, como para casos concretos como el diagnóstico del fission chamber, implementando pre-procesado en tiempo real. Además de casos prácticos, esta metodología se ha utilizado para implementar casos reales, como el Ion Source Hydrogen Positive (ISHP), desarrollada por el European Spallation Source (ESS Bilbao) y la Universidad del País Vasco. Finalmente, atendiendo a las necesidades que los experimentos en los entornos de fusión requieren, se ha diseñado un mecanismo mediante el cual los sistemas de adquisición de datos, que pueden ser implementados mediante la metodología de diseño propuesta, pueden integrar un reloj hardware capaz de sincronizarse con el protocolo IEEE1588-V2, permitiendo a estos, obtener los TimeStamps de las muestras adquiridas con una exactitud y precisión de decenas de nanosegundos y realizar streaming de datos con TimeStamps. ABSTRACT Fusion energy reaching by means of nuclear fusion plasma confinement is one of the main goals inside nuclear energy scientific community. Since the first fusion device was built, many experiments have been carried out and now, most of them give support to the International Thermonuclear Experimental Reactor (ITER) project. The main difficulty that ITER has to overcome is the plasma monitoring and control. Due to new technologies, the instrumentation and control systems allow an approaching to the solution, but in turn, the standardization of the used data acquisition systems, not only in ITER but also in other similar projects, is more complex. To develop new hardware and software implementations under scientific diagnostics requirements, entail time costs, delaying new experiments execution. Thus, this thesis presents a solution that consists in a design methodology definition, that permits the implementation of intelligent data acquisition systems and their easy integration into fusion environments for diagnostic purposes. This methodology requires the use of Reconfigurable Input/Output (RIO) and Flexible RIO (FlexRIO) devices, based on Field-Programmable Gate Array (FPGA) embedded technology. In order to complete the design methodology, these devices are going to be supported by an EPICS Device Support software, using asynDriver technology. This methodology has been evaluated implementing ITER PXIe fast controllers prototypes, as well as data and image acquisition, so as for concrete solutions like the fission chamber diagnostic use case, using real time preprocessing. Besides of these prototypes solutions, this methodology has been applied for the implementation of real experiments like the Ion Source Hydrogen Positive (ISHP), developed by the European Spallation Source and the Basque country University. Finally, a hardware mechanism has been designed to integrate a hardware clock into RIO/FlexRIO devices, to get synchronization with the IEEE1588-V2 precision time protocol. This implementation permits to data acquisition systems implemented under the defined methodology, to timestamp all data acquired with nanoseconds accuracy, permitting high throughput timestamped data streaming.
Resumo:
Los sistemas de adquisición de datos utilizados en los diagnósticos de los dispositivos de fusión termonuclear se enfrentan a importantes retos planteados en los dispositivos de pulso largo. Incluso en los dispositivos de pulso corto, en los que se analizan los datos después de la descarga, existen aún una gran cantidad de datos sin analizar, lo cual supone que queda una gran cantidad de conocimiento por descubrir dentro de las bases de datos existentes. En la última década, la comunidad de fusión ha realizado un gran esfuerzo para mejorar los métodos de análisis off‐line para mejorar este problema, pero no se ha conseguido resolver completamente, debido a que algunos de estos métodos han de resolverse en tiempo real. Este paradigma lleva a establecer que los dispositivos de pulso largo deberán incluir dispositivos de adquisición de datos con capacidades de procesamiento local, capaces de ejecutar avanzados algoritmos de análisis. Los trabajos de investigación realizados en esta tesis tienen como objetivo determinar si es posible incrementar la capacidad local de procesamiento en tiempo real de dichos sistemas mediante el uso de GPUs. Para ello durante el trascurso del periodo de experimentación realizado se han evaluado distintas propuestas a través de casos de uso reales elaborados para algunos de los dispositivos de fusión más representativos como ITER, JET y TCV. Las conclusiones y experiencias obtenidas en dicha fase han permitido proponer un modelo y una metodología de desarrollo para incluir esta tecnología en los sistemas de adquisición para diagnósticos de distinta naturaleza. El modelo define no sólo la arquitectura hardware óptima para realizar dicha integración, sino también la incorporación de este nuevo recurso de procesamiento en los Sistemas de Control de Supervisión y Adquisición de Datos (SCADA) utilizados en la comunidad de fusión (EPICS), proporcionando una solución completa. La propuesta se complementa con la definición de una metodología que resuelve las debilidades detectadas, y permite trazar un camino de integración de la solución en los estándares hardware y software existentes. La evaluación final se ha realizado mediante el desarrollo de un caso de uso representativo de los diagnósticos que necesitan adquisición y procesado de imágenes en el contexto del dispositivo internacional ITER, y ha sido testeada con éxito en sus instalaciones. La solución propuesta en este trabajo ha sido incluida por la ITER IO en su catálogo de soluciones estándar para el desarrollo de sus futuros diagnósticos. Por otra parte, como resultado y fruto de la investigación de esta tesis, cabe destacar el acuerdo llevado a cabo con la empresa National Instruments en términos de transferencia tecnológica, lo que va a permitir la actualización de los sistemas de adquisición utilizados en los dispositivos de fusión. ABSTRACT Data acquisition systems used in the diagnostics of thermonuclear fusion devices face important challenges due to the change in the data acquisition paradigm needed for long pulse operation. Even in shot pulse devices, where data is mainly analyzed after the discharge has finished , there is still a large amount of data that has not been analyzed, therefore producing a lot of buried knowledge that still lies undiscovered in the data bases holding the vast amount of data that has been generated. There has been a strong effort in the fusion community in the last decade to improve the offline analysis methods to overcome this problem, but it has proved to be insufficient unless some of these mechanisms can be run in real time. In long pulse devices this new paradigm, where data acquisition devices include local processing capabilities to be able to run advanced data analysis algorithms, will be a must. The research works done in this thesis aim to determining whether it is possible to increase local capacity for real‐time processing of such systems by using GPUs. For that, during the experimentation period, various proposals have been evaluated through use cases developed for several of the most representative fusion devices, ITER, JET and TCV. Conclusions and experiences obtained have allowed to propose a model, and a development methodology, to include this technology in systems for diagnostics of different nature. The model defines not only the optimal hardware architecture for achieving this integration, but also the incorporation of this new processing resource in one of the Systems of Supervision Control and Data Acquisition (SCADA) systems more relevant at the moment in the fusion community (EPICS), providing a complete solution. The final evaluation has been performed through a use case developed for a generic diagnostic requiring image acquisition and processing for the international ITER device, and has been successfully tested in their premises. The solution proposed in this thesis has been included by the ITER IO in his catalog of standard solutions for the development of their future diagnostics. This has been possible thanks to the technologic transfer agreement signed with xi National Instruments which has permitted us to modify and update one of their core software products targeted for the acquisition systems used in these devices.
Resumo:
Os smart grids representam a nova geração dos sistemas elétricos de potência, combinando avanços em computação, sistemas de comunicação, processos distribuídos e inteligência artificial para prover novas funcionalidades quanto ao acompanhamento em tempo real da demanda e do consumo de energia elétrica, gerenciamento em larga escala de geradores distribuídos, entre outras, a partir de um sistema de controle distribuído sobre a rede elétrica. Esta estrutura modifica profundamente a maneira como se realiza o planejamento e a operação de sistemas elétricos nos dias de hoje, em especial os de distribuição, e há interessantes possibilidades de pesquisa e desenvolvimento possibilitada pela busca da implementação destas funcionalidades. Com esse cenário em vista, o presente trabalho utiliza uma abordagem baseada no uso de sistemas multiagentes para simular esse tipo de sistema de distribuição de energia elétrica, considerando opções de controle distintas. A utilização da tecnologia de sistemas multiagentes para a simulação é baseada na conceituação de smart grids como um sistema distribuído, algo também realizado nesse trabalho. Para validar a proposta, foram simuladas três funcionalidades esperadas dessas redes elétricas: classificação de cargas não-lineares; gerenciamento de perfil de tensão; e reconfiguração topológica com a finalidade de reduzir as perdas elétricas. Todas as modelagens e desenvolvimentos destes estudos estão aqui relatados. Por fim, o trabalho se propõe a identificar os sistemas multiagentes como uma tecnologia a ser empregada tanto para a pesquisa, quanto para implementação dessas redes elétricas.
Resumo:
La evolución tecnológica afecta a todas las parcelas de actividad humana. Entre los aspectos más sensibles a esta evolución se encuentran la enseñanza y el aprendizaje tanto por su impacto en las competencias profesionales como por su uso para mejorar la calidad y relevancia de la docencia. Los profesores deben asumir un papel director ante esta situación que con el tiempo gana en protagonismo, siendo fundamental abordar la adaptación al cambio metodológico que supone la emergencia de la docencia on-line y la cada vez mayor presencia de los MOOC (acrónimo en inglés de massive open online course). En este trabajo se analiza la docencia on-line de materias de Inteligencia Artificial (IA), utilizando el paradigma de los MOOC como referencia. A tal fin, se revisan las características de los MOOC, sus aspectos metodológicos y sistemas de evaluación. Se particulariza el estudio de los MOOC en IA comparándolos con el enfoque de carácter presencial de la asignatura Sistemas Inteligentes. El objetivo de este trabajo es determinar los aspectos que deberían reenfocarse en esta materia bajo el paradigma MOOC. Deseamos destacar el soporte de la “Red de Investigación en Sistemas Inteligentes. Revisión de objetivos y contenidos de IA en el grado de Ingeniería Informática dentro del EESS” Código de Red ICE: 3300.
Resumo:
Esta memoria corresponde al trabajo desarrollado durante el curso 2013-2014 por los componentes de la “Red de Investigación en Sistemas Inteligentes. Evaluación continua mediante controles utilizando Moodle”. Código de Red ICE: 3021. En la asignatura Sistemas Inteligentes del grado en Ingeniería Informática, durante el curso 2013-14, se planteó a los estudiantes un sistema de evaluación continua de la parte teórica consistente en la realización de controles on-line utilizando cuestionarios Moodle. En las normas de evaluación de la asignatura, los controles acumulaban toda la materia impartida hasta la fecha y su peso creciente de cara a la obtención de la nota final. Teníamos especial interés en determinar si el sistema resultaba estimulante para los estudiantes debido a considerar que este aspecto es fundamental en el proceso de aprendizaje. La memoria se organiza de la siguiente forma: se inicia analizando la viabilidad de la evaluación continua y su interés pedagógico en nuestro contexto, seguidamente se presenta la metodología empleada, las características de los cuestionarios Moodle, se aportan los estudios que nos han permitido validar nuestra propuesta, las conclusiones y las recomendaciones que permitirán mejorar los procesos y resultados en el futuro.
Resumo:
El mercado eléctrico ha evolucionado en Colombia desde 1995, fortaleciéndose institucionalmente, dinamizando su desarrollo, y enfrentando grandes desafíos. Los sistemas de administración, que soportan el funcionamiento del mercado, han evolucionado a la par, aunque algunos se encuentran aislados entre sí o han sido desarrollados en plataformas diferentes, lo que dificulta la sostenibilidad y el mantenimiento, y reducen la facilidad de incorporar cambios. Al referenciarse con otros mercados en el mundo, se observa gran dinámica en la incorporación de tecnologías en información y comunicaciones, avances regulatorios o requerimientos de clientes. Se requiere una renovación tecnológica que conserve el conocimiento adquirido, y permita incorporar fácilmente las tendencias del mercado. Este artículo presenta los resultados de la propuesta metodológica para la renovación tecnológica enmarcada en el proyecto Colciencias CNBT 833559938649 de investigación tecnológica, Sistema para la administración del mercado de energía eléctrica en Colombia, Fase I.
Resumo:
Um dos principais problemas que estação de Tratamento de Água do Monte Novo tem vindo a apresentar é o aparecimento de teores em manganês na água tratada, que por vezes ultrapassam o valor paramétrico estabelecido no Decreto-Lei 306/07, 27 de Agosto (50 g dm-3). Este trabalho permitiu relacionar resultados de várias determinações analíticas efectuadas no laboratório da empresa Águas do Centro Alentejo e, através deles construir modelos fundamentados em técnicas e Descoberta de Conhecimento em Base de Dados que permitiram responder ao problema identificado. Foi ainda possível estabelecer a época do ano em que é mais provável o aparecimento de teores elevados manganês na água tratada. Além disso, mostrou-se que a tomada de água desempenha um papel relevante no aparecimento deste metal na água tratada. Os modelos desenvolvidos permitiram também estabelecer as condições em que é provável o aparecimento de turvação na cisterna de água tratada. Estas estão relacionadas com o pH, o teor em manganês e o teor em ferro. Foi ainda realçada a importância da correcção do pH na fase final do processo de tratamento. Por um lado, o pH deve ser suficientemente elevado para garantir uma água incrustante e, por outro, deve ser baixo para evitar problemas de turvação na cisterna da água tratada. ABSTRACT; The present study took place in the water treatment plant of Monte Novo. This study aimed for solutions to the problem of high values of manganese concentration in the treated water, in some periods of the year. The present work reports models for manganese concentration and for turbidity using Knowledge Discovery Techniques in Data Bases.
Resumo:
O presente trabalho realizou-se na Refinaria de Sines e teve como principal objectivo a utilização de ferramentas oriundas da Área Científica da Inteligência Artificial no desenvolvimento de modelos de previsão da classificação da Água Residual Industrial de acordo com a Legislação em vigor, com vista à minimização dos impactes ambientais e das tarifas aplicadas pela Concessionária (Águas de Santo André) à Refinaria. Actualmente a avaliação da qualidade do efluente é realizada através de métodos analíticos após colheita de uma amostra do efluente final. Esta abordagem é muito restritiva já que não permite actuar sobre o efluente em questão pois apenas pode evitar que, no futuro, uma mistura semelhante volte a ser refinada. Devido a estas limitações, o desenvolvimento de modelos de previsão baseados em Data Mining mostrou ser uma alternativa para uma questão pró-activa da qualidade dos efluentes que pode contribuir decisivamente para o cumprimento das metas definidas pela Empresa. No decurso do trabalho, foram desenvolvidos dois modelos de previsão da qualidade do efluente industrial com desempenhos muito semelhantes. Um deles utiliza a composição das misturas processadas e o outro, utiliza informações relativas ao crude predominante na mistura. ABSTRACT; This study has taken place at the Sines Refinery and its main objective is the use of Artificial Intelligence tools for the development of predictive models to classify industrial residual waters according with the Portuguese Law, based on the characteristics of the mixtures of crude oil that arrive into the Refinery to be processed, to minimize the Environmental impacts and the application of taxes. Currently, the evaluation of the quality of effluent is performed by analytical methods after harvesting a sample of the final effluent. This approach is very restrictive since it does not act on the intended effluent; it can only avoid that in the future a similar mixture is refined. Duet these limitations, the development of forecasting models based on Data Mining has proved to be an alternative on the important issue which is the quality of effluent, which may contribute to the achievement of targets set by the Company. During this study, two models were developed to predict the quality of industrial effluents with very similar performances. One uses the composition of processed mixtures and the other uses information regarding the predominant oil in the mixture.
Resumo:
A nanotecnologia é uma ciência multidisciplinar que consiste na otimização das propriedades da matéria permitindo assim o desenvolvimento de sistemas com um tamanho manométrico. A aplicação da nanotecnologia na medicina surge como um campo de pesquisa que esta a gerar um grande interesse, principalmente em sistemas de libertação controlada de fármacos. A nanotecnologia, e a sua aplicação na área da nanomedicina, em particular em drug delivery systems, tem sido alvo de um desenvolvimento acentuado. A administração de fármacos ocorre sobretudo por via oral ou por injeção direta no organismo. O percurso destes fármacos desde do local de entrada no organismo até ao tecido-alvo obriga que estes entrem em contato com os outros tecidos podendo interagir com eles. Deste modo, esta interação química pode produzir efeitos indesejáveis no organismo e reduzir a capacidade de ação do fármaco. Tem-se verificado, nas últimas décadas, um grande desenvolvimento de sistemas que contornam estes problemas, tais como a quantidade e o período de administração do fármaco bem como o seu local de libertação e atuação específicos. Este estudo surge com esta necessidade de se desenvolver sistemas de libertação controlada de fármacos. O objetivo destes sistemas inteligentes é controlar a libertação de fármacos por um dado período de tempo, a dose, a diminuição da toxidade, o aumento da permanência em circulação e o aumento da eficácia terapêutica através da libertação progressiva e controlada do fármaco por administrações menos frequentes. Além de todas estas vantagens, a administração destes sistemas possibilita a libertação dos fármacos em locais específicos, tais como em tumores e, assim, minimizar os efeitos colaterais indesejados dos fármacos em outros tecidos. O presente trabalho visa o desenvolvimento de novos biomateriais utilizando nanopartículas mesoporosas de sílica (MSN) e nanopartículas (NPs) metálicas de ouro para a aplicação a sistemas de libertação controlada de fármacos. Para isto, estudou-se a libertação de doxorrubicina (DOX) encapsulada em NPs e nanocápsulas mesoporosas de sílica tanto em solução como em superfícies como em vidro. Os resultados obtidos mostraram que as NPs apresentam uma grande capacidade de encapsulação com 36 ng DOX/mg partícula. O tempo de libertação em superfície (vidro) foi estimado em 50 horas enquanto que em solução obteve-se um período inferior a 10 horas. Em relação as NPs de ouro pode-se observar como estas promovem a libertação do fármaco ao serem irradiadas mediante um laser. Deste modo, estas NPs podem ser úteis para sistemas de libertação controlada de fármacos e para várias aplicações na nanomedicina.
Resumo:
Ao longo deste trabalho será apresentada uma solução para sistemas de informação empresarial no domínio da Qualidade. Desenvolvida num ambiente real com recurso a plataforma .NET, a sua eficácia foi posta à prova em várias implementações. Várias organizações necessitam de implementar processos baseados num documento único, que deve conter o registo de toda a informação, mas que exige a intervenção de diferentes colaboradores. Esta necessidade varia muito entre organizações. Para dar resposta a este problema foi desenvolvido um sistema, denominado de Documentos Inteligentes, que, através de várias ferramentas, permite configurar processos, sem recorrer a codificação, baseados no registo de informação, workflow, controlo de acessos e alertas. É justamente a descrição dos vários componentes tecnológicos utilizados para dar resposta aos problemas, que se irá efectuar neste trabalho. Em termos de desenvolvimento de software foram abordados conceitos práticos de engenharia de domínio, RAD, arquitecturas por camadas, abstracção e workflow que possibilitaram uma maior flexibilidade do sistema desenvolvido e que conduz, simultaneamente, a uma rápida implementação de soluções de software baseadas nesta área.
Resumo:
Dissertação para obtenção do grau de Mestre em Engenharia Civil na Área de Especialização de Vias de Comunicação e Transportes
Resumo:
Desde o seu aparecimento, a Internet teve um desenvolvimento e uma taxa de crescimento quase exponencial. Os mercados de comércio electrónico têm vindo a acompanhar esta tendência de crescimento, tornando-se cada vez mais comuns e populares entre comerciantes ou compradores/vendedores de ocasião. A par deste crescimento também foi aumentando a complexidade e sofisticação dos sistemas responsáveis por promover os diferentes mercados. No seguimento desta evolução surgiram os Agentes Inteligentes devido à sua capacidade de encontrar e escolher, de uma forma relativamente eficiente, o melhor negócio, tendo por base as propostas e restrições existentes. Desde a primeira aplicação dos Agentes Inteligentes aos mercados de comércio electrónico que os investigadores desta área, têm tentado sempre auto-superar-se arranjando modelos de Agentes Inteligentes melhores e mais eficientes. Uma das técnicas usadas, para a tentativa de obtenção deste objectivo, é a transferência dos comportamentos Humanos, no que toca a negociação e decisão, para estes mesmos Agentes Inteligentes. O objectivo desta dissertação é averiguar se os Modelos de Avaliação de Credibilidade e Reputação são uma adição útil ao processo de negociação dos Agente Inteligentes. O objectivo geral dos modelos deste tipo é minimizar as situações de fraude ou incumprimento sistemático dos acordos realizados aquando do processo de negociação. Neste contexto, foi proposto um Modelo de Avaliação de Credibilidade e Reputação aplicável aos mercados de comércio electrónico actuais e que consigam dar uma resposta adequada o seu elevado nível de exigência. Além deste modelo proposto também foi desenvolvido um simulador Multi-Agente com a capacidade de simular vários cenários e permitir, desta forma, comprovar a aplicabilidade do modelo proposto. Por último, foram realizadas várias experiências sobre o simulador desenvolvido, de forma a ser possível retirar algumas conclusões para o presente trabalho. Sendo a conclusão mais importante a verificação/validação de que a utilização de mecanismos de credibilidade e reputação são uma mais-valia para os mercado de comércio electrónico.
Resumo:
Este trabalho de pesquisa e desenvolvimento tem como fundamento principal o Conceito de Controlo por Lógica Difusa. Utilizando as ferramentas do software Matlab, foi possível desenvolver um controlador com base na inferência difusa que permitisse controlar qualquer tipo de sistema físico real, independentemente das suas características. O Controlo Lógico Difuso, do inglês “Fuzzy Control”, é um tipo de controlo muito particular, pois permite o uso simultâneo de dados numéricos com variáveis linguísticas que tem por base o conhecimento heurístico dos sistemas a controlar. Desta forma, consegue-se quantificar, por exemplo, se um copo está “meio cheio” ou “meio vazio”, se uma pessoa é “alta” ou “baixa”, se está “frio” ou “muito frio”. O controlo PID é, sem dúvida alguma, o controlador mais amplamente utilizado no controlo de sistemas. Devido à sua simplicidade de construção, aos reduzidos custos de aplicação e manutenção e aos resultados que se obtêm, este controlador torna-se a primeira opção quando se pretende implementar uma malha de controlo num determinado sistema. Caracterizado por três parâmetros de ajuste, a saber componente proporcional, integral e derivativa, as três em conjunto permitem uma sintonia eficaz de qualquer tipo de sistema. De forma a automatizar o processo de sintonia de controladores e, aproveitando o que melhor oferece o Controlo Difuso e o Controlo PID, agrupou-se os dois controladores, onde em conjunto, como poderemos constatar mais adiante, foram obtidos resultados que vão de encontro com os objectivos traçados. Com o auxílio do simulink do Matlab, foi desenvolvido o diagrama de blocos do sistema de controlo, onde o controlador difuso tem a tarefa de supervisionar a resposta do controlador PID, corrigindo-a ao longo do tempo de simulação. O controlador desenvolvido é denominado por Controlador FuzzyPID. Durante o desenvolvimento prático do trabalho, foi simulada a resposta de diversos sistemas à entrada em degrau unitário. Os sistemas estudados são na sua maioria sistemas físicos reais, que representam sistemas mecânicos, térmicos, pneumáticos, eléctricos, etc., e que podem ser facilmente descritos por funções de transferência de primeira, segunda e de ordem superior, com e sem atraso.
Resumo:
Os impactos ambientais e económicos dos combustíveis fósseis têm uma forte proveniência do sector dos transportes. Este facto tem motivado, nas últimas décadas um aumento do desenvolvimento dos veículos eléctricos, principalmente, das soluções híbridas. Tais desenvolvimentos resultam da integração de diversos domínios da engenharia, sendo de destacar os novos materiais e concepções de motores eléctricos, a electrónica de potência, os sistemas de controlo e os sistemas de armazenamento de energia. Neste artigo procura‐se apresentar as principais características dos sistemas de propulsão eléctrica actuais. Começa‐se fazer uma comparação entre os veículos eléctricos e os convencionais, baseados nos motores térmicos de combustão interna. Pela sua importância, é feita uma referência sucinta aos sistemas de armazenamento de energia. São comparadas as características da propulsão eléctrica e térmica, sob a perspectiva das exigências dos sistemas de tracção. São referidos os principais tipos de sistemas de propulsão eléctrica (motor, conversor e controlador), vantagens e desvantagens relativas. Por último, uma abordagem acerca das tendências futuras dos veículos eléctricos.
Resumo:
Durante milhares de anos o fogo foi considerado um fenómeno da natureza, sendo olhado como um mistério, provocando medo, superstição e adoração. O domínio do fogo por parte do homem permitiu a utilização do mesmo para aquecimento, cozinhar e mesmo para sua protecção. Contudo, o fogo, grande elemento de evolução do homem, é também, em potencial, um dos seus maiores inimigos. Muitos são os fogos florestais e urbanos, que ocorrem diariamente, provocando mortes e avultados prejuízos materiais. As causas principais dos incêndios são a deficiência nas canalizações eléctricas, a má utilização de equipamentos eléctricos, nomeadamente ferros, fogões, fornos e aquecedores eléctricos, bem como a negligência na utilização do fogo. Os Sistemas Automáticos de Detecção de Incêndio (SADI) são hoje encarados como fazendo (quase) obrigatoriamente parte dos sistemas aplicados no sector da habitação, serviços, comércio e indústria.