17 resultados para Process control - Statistical methods

em Instituto Politécnico do Porto, Portugal


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Beyond the classical statistical approaches (determination of basic statistics, regression analysis, ANOVA, etc.) a new set of applications of different statistical techniques has increasingly gained relevance in the analysis, processing and interpretation of data concerning the characteristics of forest soils. This is possible to be seen in some of the recent publications in the context of Multivariate Statistics. These new methods require additional care that is not always included or refered in some approaches. In the particular case of geostatistical data applications it is necessary, besides to geo-reference all the data acquisition, to collect the samples in regular grids and in sufficient quantity so that the variograms can reflect the spatial distribution of soil properties in a representative manner. In the case of the great majority of Multivariate Statistics techniques (Principal Component Analysis, Correspondence Analysis, Cluster Analysis, etc.) despite the fact they do not require in most cases the assumption of normal distribution, they however need a proper and rigorous strategy for its utilization. In this work, some reflections about these methodologies and, in particular, about the main constraints that often occur during the information collecting process and about the various linking possibilities of these different techniques will be presented. At the end, illustrations of some particular cases of the applications of these statistical methods will also be presented.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nos últimos anos a indústria de semicondutores, nomeadamente a produção de memórias, tem sofrido uma grande evolução. A necessidade de baixar custos de produção, assim como de produzir sistemas mais complexos e com maior capacidade, levou à criação da tecnologia WLP (Wafer Level Packaging). Esta tecnologia permite a produção de sistemas mais pequenos, simplificar o fluxo do processo e providenciar uma redução significativa do custo final do produto. A WLP é uma tecnologia de encapsulamento de circuitos integrados quando ainda fazem parte de wafers (bolachas de silício), em contraste com o método tradicional em que os sistemas são individualizados previamente antes de serem encapsulados. Com o desenvolvimento desta tecnologia, surgiu a necessidade de melhor compreender o comportamento mecânico do mold compound (MC - polímero encapsulante) mais especificamente do warpage (empeno) de wafers moldadas. O warpage é uma característica deste produto e deve-se à diferença do coeficiente de expansão térmica entre o silício e o mold compound. Este problema é observável no produto através do arqueamento das wafers moldadas. O warpage de wafers moldadas tem grande impacto na manufatura. Dependendo da quantidade e orientação do warpage, o transporte, manipulação, bem como, a processamento das wafers podem tornar-se complicados ou mesmo impossíveis, o que se traduz numa redução de volume de produção e diminuição da qualidade do produto. Esta dissertação foi desenvolvida na Nanium S.A., empresa portuguesa líder mundial na tecnologia de WLP em wafers de 300mm e aborda a utilização da metodologia Taguchi, no estudo da variabilidade do processo de debond para o produto X. A escolha do processo e produto baseou-se numa análise estatística da variação e do impacto do warpage ao longo doprocesso produtivo. A metodologia Taguchi é uma metodologia de controlo de qualidade e permite uma aproximação sistemática num dado processo, combinando gráficos de controlo, controlo do processo/produto, e desenho do processo para alcançar um processo robusto. Os resultados deste método e a sua correta implementação permitem obter poupanças significativas nos processos com um impacto financeiro significativo. A realização deste projeto permitiu estudar e quantificar o warpage ao longo da linha de produção e minorar o impacto desta característica no processo de debond. Este projecto permitiu ainda a discussão e o alinhamento entre as diferentes áreas de produção no que toca ao controlo e a melhoria de processos. Conseguiu–se demonstrar que o método Taguchi é um método eficiente no que toca ao estudo da variabilidade de um processo e otimização de parâmetros. A sua aplicação ao processo de debond permitiu melhorar ou a fiabilidade do processo em termos de garantia da qualidade do produto, como ao nível do aumento de produção.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação apresenta um estudo da capacidade do processo inserido uma empresa de panificação. Antes de iniciar o estudo propriamente dito, foi realizada uma calibração à balança na qual este estudo seria realizado. Os índices de capacidade do processo têm como principal finalidade verificar se a média e a variabilidade do processo estão em concordância com o alvo e os limites de especificação. Esta verificação permite o ajustamento do processo de maneira a reduzir a produção de produtos defeituosos. Neste trabalho foram utilizados os índices de capacidade considerando que as condições são ideais, isto é, quando existe normalidade nas amostras. Quando as condições não são ideais, como foi verificado, foram utilizadas técnicas para o cálculo dos índices de capacidade para este tipo de situações. A aplicação da metodologia de análise da capacidade do processo foi realizada com sucesso com recurso a amostras retiradas numa balança calibrada para o efeito.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The availability of small inexpensive sensor elements enables the employment of large wired or wireless sensor networks for feeding control systems. Unfortunately, the need to transmit a large number of sensor measurements over a network negatively affects the timing parameters of the control loop. This paper presents a solution to this problem by representing sensor measurements with an approximate representation-an interpolation of sensor measurements as a function of space coordinates. A priority-based medium access control (MAC) protocol is used to select the sensor messages with high information content. Thus, the information from a large number of sensor measurements is conveyed within a few messages. This approach greatly reduces the time for obtaining a snapshot of the environment state and therefore supports the real-time requirements of feedback control loops.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ammonia is an important gas in many power plants and industrial processes so its detection is of extreme importance in environmental monitoring and process control due to its high toxicity. Ammonia’s threshold limit is 25 ppm and the exposure time limit is 8 h, however exposure to 35 ppm is only secure for 10 min. In this work a brief introduction to ammonia aspects are presented, like its physical and chemical properties, the dangers in its manipulation, its ways of production and its sources. The application areas in which ammonia gas detection is important and needed are also referred: environmental gas analysis (e.g. intense farming), automotive-, chemical- and medical industries. In order to monitor ammonia gas in these different areas there are some requirements that must be attended. These requirements determine the choice of sensor and, therefore, several types of sensors with different characteristics were developed, like metal oxides, surface acoustic wave-, catalytic-, and optical sensors, indirect gas analyzers, and conducting polymers. All the sensors types are described, but more attention will be given to polyaniline (PANI), particularly to its characteristics, syntheses, chemical doping processes, deposition methods, transduction modes, and its adhesion to inorganic materials. Besides this, short descriptions of PANI nanostructures, the use of electrospinning in the formation of nanofibers/microfibers, and graphene and its characteristics are included. The created sensor is an instrument that tries to achieve a goal of the medical community in the control of the breath’s ammonia levels being an easy and non-invasive method for diagnostic of kidney malfunction and/or gastric ulcers. For that the device should be capable to detect different levels of ammonia gas concentrations. So, in the present work an ammonia gas sensor was developed using a conductive polymer composite which was immobilized on a carbon transducer surface. The experiments were targeted to ammonia measurements at ppb level. Ammonia gas measurements were carried out in the concentration range from 1 ppb to 500 ppb. A commercial substrate was used; screen-printed carbon electrodes. After adequate surface pre-treatment of the substrate, its electrodes were covered by a nanofibrous polymeric composite. The conducting polyaniline doped with sulfuric acid (H2SO4) was blended with reduced graphene oxide (RGO) obtained by wet chemical synthesis. This composite formed the basis for the formation of nanofibers by electrospinning. Nanofibers will increase the sensitivity of the sensing material. The electrospun PANI-RGO fibers were placed on the substrate and then dried at ambient temperature. Amperometric measurements were performed at different ammonia gas concentrations (1 to 500 ppb). The I-V characteristics were registered and some interfering gases were studied (NO2, ethanol, and acetone). The gas samples were prepared in a custom setup and were diluted with dry nitrogen gas. Electrospun nanofibers of PANI-RGO composite demonstrated an enhancement in NH3 gas detection when comparing with only electrospun PANI nanofibers. Was visible higher range of resistance at concentrations from 1 to 500 ppb. It was also observed that the sensor had stable, reproducible and recoverable properties. Moreover, it had better response and recovery times. The new sensing material of the developed sensor demonstrated to be a good candidate for ammonia gas determination.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho, elaborado entre Fevereiro e Julho de 2011, pretendeu analisar o impacto de algumas estratégias de optimização, adoptadas no âmbito da gestão de processo. As soluções estudadas tiveram como objectivo fazer face a alguns problemas de funcionamento da estação de tratamento de águas residuais (ETAR) de Crestuma, com recurso aos meios existentes. Para esse efeito foi realizada uma análise ao histórico dos registos de exploração referentes ao período de Janeiro de 2008 a Julho de 2011, pois foi considerado que este seria o período necessário para a análise e apuramento de resultados conclusivos. A ETAR fica situada na freguesia de Crestuma, actualmente com 2619 habitantes, localizada na confluência do regato de Vessadas com o rio Douro. Destina-se a tratar as águas residuais provenientes do sistema de drenagem de três localidades, S. Fioso, S. Picoto e S. Vessada, contribuindo para a despoluição do rio Douro. Genericamente, a ETAR tem apresentado um desempenho bastante satisfatório, respeitando os valores limites de emissão previstos na legislação actual (Decreto-Lei 152/97). A permanência de grandes quantidades de lama no processo, associada a uma elevada idade das lamas, está na origem da sua má sedimentabilidade, dificultando, por sua vez, a sua remoção do sistema. Com objectivo de se conseguir remover as lamas biológicas de uma forma mais eficiente, foi adoptada uma estratégia que compreendeu duas etapas. Com a finalidade de melhorar a sedimentabilidade, numa primeira etapa foi introduzido no processo um produto biológico, composto essencialmente por fungos, comercialmente conhecido por Optibiom 7450L. Com vista a obter-se uma maior eficiência na desidratação das lamas, a segunda etapa consistiu na substituição do polímero usado na lama espessada, por outro, de composição diferente, comercialmente conhecido por Easy 6040. Com as alterações introduzidas, foi possível obter um melhor controlo do processo e convergir para parâmetros de funcionamento mais próximos dos valores referidos na bibliografia. As alterações mais relevantes foram verificadas nos valores de sólidos suspensos totais (SST) no reactor biológico e na recirculação, tendo-se obtido valores médios de 3846 e 9716 mg/L, respectivamente (correspondendo a valores anteriores ao tratamento de 5301 e 7430 mg/L). Assim, a razão entre as concentrações de SST na corrente de recirculação e no reactor biológico passou de 1,4 para 2,6. A idade das lamas diminuiu de 42 para 36 dias com a adição do polímero Easy 6040 e o índice volumétrico de lamas apresentou uma redução, de 134 mL/g para 100 mL/g, o que se traduziu numa melhor sedimentabilidade das lamas. Desta forma, obteve-se uma diminuição de 33,3% no volume de lama produzida por m3 de afluente tratado, bem como uma redução de 27% no número de horas de funcionamento da centrífuga e um decréscimo ligeiro no consumo global de energia da ETAR (0,89%). Conclui-se que as alterações introduzidas no processo, adição de um produto biológico composto por fungos (Optibiom 7450L) e substituição do polímero usado na lama espessada por outro de composição diferente (Easy 6040), conduziram a uma melhoria no funcionamento do tratamento biológico da ETAR de Crestuma.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This study aimed to characterize air pollution and the associated carcinogenic risks of polycyclic aromatic hydrocarbon (PAHs) at an urban site, to identify possible emission sources of PAHs using several statistical methodologies, and to analyze the influence of other air pollutants and meteorological variables on PAH concentrations.The air quality and meteorological data were collected in Oporto, the second largest city of Portugal. Eighteen PAHs (the 16 PAHs considered by United States Environment Protection Agency (USEPA) as priority pollutants, dibenzo[a,l]pyrene, and benzo[j]fluoranthene) were collected daily for 24 h in air (gas phase and in particles) during 40 consecutive days in November and December 2008 by constant low-flow samplers and using polytetrafluoroethylene (PTFE) membrane filters for particulate (PM10 and PM2.5 bound) PAHs and pre-cleaned polyurethane foam plugs for gaseous compounds. The other monitored air pollutants were SO2, PM10, NO2, CO, and O3; the meteorological variables were temperature, relative humidity, wind speed, total precipitation, and solar radiation. Benzo[a]pyrene reached a mean concentration of 2.02 ngm−3, surpassing the EU annual limit value. The target carcinogenic risks were equal than the health-based guideline level set by USEPA (10−6) at the studied site, with the cancer risks of eight PAHs reaching senior levels of 9.98×10−7 in PM10 and 1.06×10−6 in air. The applied statistical methods, correlation matrix, cluster analysis, and principal component analysis, were in agreement in the grouping of the PAHs. The groups were formed according to their chemical structure (number of rings), phase distribution, and emission sources. PAH diagnostic ratios were also calculated to evaluate the main emission sources. Diesel vehicular emissions were the major source of PAHs at the studied site. Besides that source, emissions from residential heating and oil refinery were identified to contribute to PAH levels at the respective area. Additionally, principal component regression indicated that SO2, NO2, PM10, CO, and solar radiation had positive correlation with PAHs concentrations, while O3, temperature, relative humidity, and wind speed were negatively correlated.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

WorldFIP is standardised as European Norm EN 50170 - General Purpose Field Communication System. Field communication systems (fieldbuses) started to be widely used as the communication support for distributed computer-controlled systems (DCCS), and are being used in all sorts of process control and manufacturing applications within different types of industries. There are several advantages in using fieldbuses as a replacement of for the traditional point-to-point links between sensors/actuators and computer-based control systems. Indeed they concern economical ones (cable savings) but, importantly, fieldbuses allow an increased decentralisation and distribution of the processing power over the field. Typically DCCS have real-time requirements that must be fulfilled. By this, we mean that process data must be transferred between network computing nodes within a maximum admissible time span. WorldFIP has very interesting mechanisms to schedule data transfers. It explicit distinguishes to types of traffic: periodic and aperiodic. In this paper we describe how WorldFIP handles these two types of traffic, and more importantly, we provide a comprehensive analysis for guaranteeing the real-time requirements of both types of traffic. A major contribution is made in the analysis of worst-case response time of aperiodic transfer requests.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fieldbus communication networks aim to interconnect sensors, actuators and controllers within process control applications. Therefore, they constitute the foundation upon which real-time distributed computer-controlled systems can be implemented. P-NET is a fieldbus communication standard, which uses a virtual token-passing medium-access-control mechanism. In this paper pre-run-time schedulability conditions for supporting real-time traffic with P-NET networks are established. Essentially, formulae to evaluate the upper bound of the end-to-end communication delay in P-NET messages are provided. Using this upper bound, a feasibility test is then provided to check the timing requirements for accessing remote process variables. This paper also shows how P-NET network segmentation can significantly reduce the end-to-end communication delays for messages with stringent timing requirements.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Field communication systems (fieldbuses) are widely used as the communication support for distributed computer-controlled systems (DCCS) within all sort of process control and manufacturing applications. There are several advantages in the use of fieldbuses as a replacement for the traditional point-to-point links between sensors/actuators and computer-based control systems, within which the most relevant is the decentralisation and distribution of the processing power over the field. A widely used fieldbus is the WorldFIP, which is normalised as European standard EN 50170. Using WorldFIP to support DCCS, an important issue is “how to guarantee the timing requirements of the real-time traffic?” WorldFIP has very interesting mechanisms to schedule data transfers, since it explicitly distinguishes periodic and aperiodic traffic. In this paper, we describe how WorldFIP handles these two types of traffic, and more importantly, we provide a comprehensive analysis on how to guarantee the timing requirements of the real-time traffic.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A significant number of process control and factory automation systems use PROFIBUS as the underlying fieldbus communication network. The process of properly setting up a PROFIBUS network is not a straightforward task. In fact, a number of network parameters must be set for guaranteeing the required levels of timeliness and dependability. Engineering PROFIBUS networks is even more subtle when the network includes various physical segments exhibiting heterogeneous specifications, such as bus speed or frame formats, just to mention a few. In this paper we provide underlying theory and a methodology to guarantee the proper operation of such type of heterogeneous PROFIBUS networks. We additionally show how the methodology can be applied to the practical case of PROFIBUS networks containing simultaneously DP (Decentralised Periphery) and PA (Process Automation) segments, two of the most used commercial-off-the-shelf (COTS) PROFIBUS solutions. The importance of the findings is however not limited to this case. The proposed methodology can be generalised to cover other heterogeneous infrastructures. Hybrid wired/wireless solutions are just an example for which an enormous eagerness exists.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O constante crescimento dos produtores em regime especial aliado à descentralização dos pontos injetores na rede, tem permitido uma redução da importação de energia mas também tem acarretado maiores problemas para a gestão da rede. Estes problemas estão relacionados com o facto da produção estar dependente das condições climatéricas, como é o caso dos produtores eólicos, hídricos e solares. A previsão da energia produzida em função da previsão das condições climatéricas tem sido alvo de atenção por parte da comunidade empresarial do setor, pelo facto de existir modelos razoáveis para a previsão das condições climatéricas a curto prazo, e até a longo prazo. Este trabalho trata, em concreto, do problema da previsão de produção em centrais mini-hídricas, apresentando duas propostas para essa previsão. Em ambas as propostas efetua-se inicialmente a previsão do caudal que chega à central, sendo esta depois convertida em potência que é injetada na rede. Para a previsão do caudal utilizaram-se dois métodos estatísticos: o método Holt-Winters e os modelos ARMAX. Os dois modelos de previsão propostos consideram um horizonte temporal de uma semana, com discretização horária, para uma central no norte de Portugal, designadamente a central de Penide. O trabalho também contempla um pequeno estudo da bibliografia existente tanto para a previsão da produção como de afluências de centrais hidroelétricas. Aborda, ainda, conceitos relacionados com as mini-hídricas e apresenta uma caraterização do parque de centrais mini-hídricas em Portugal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Por um lado vivemos numa sociedade cujos padrões de conforto são cada vez mais exigentes, por outro encontramo-nos numa era pautada por um certo declínio económico, social e também ambiental. Não se assumindo uma estratégia que limite ou diminua essas condições de conforto resta-nos atuar de forma a que os recursos utilizados para garantir esse mesmo conforto sejam utilizados da melhor forma possível. O setor dos edifícios é responsável por uma grande parcela de consumo de energia na sociedade atual, sendo que os sistemas de climatização que dele fazem parte, apresentam.se na maioria dos casos como os grandes consumidores de energia. Nesse sentido têm sido feitos esforços enormes no sentido de encontrar soluções que garantam a eficiência energética destes sistemas. O Variador Eletrónico de Velocidade apresenta-se como uma das soluções amplamente difundidas, na vertente do controle de processos e economia de energia. A sua aplicação em sistema de climatização é mais um desses casos. Nesse sentido, numa primeira parte é feito o estudo das características e funcionamento dos Variadores de Velocidade, Sistemas de Climatização e sua aplicação conjunta. Em seguida é realizada uma aplicação informática que pretende demonstrar a economia de energia garantida por aplicação de um Variador de Velocidade.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste documento descreve-se o projeto desenvolvido na unidade curricular de Tese e Dissertação durante o 2º ano do Mestrado de Engenharia Eletrotécnica e de Computadores no ramo de Automação e Sistemas, no Departamento de Engenharia Eletrotécnica (DEE) do Instituto Superior de Engenharia do Porto (ISEP). O projeto escolhido teve como base o uso da tecnologia das redes neuronais para implementação em sistemas de controlo. Foi necessário primeiro realizar um estudo desta tecnologia, perceber como esta surgiu e como é estruturada. Por último, abordar alguns casos de estudo onde as redes neuronais foram aplicadas com sucesso. Relativamente à implementação, foram consideradas diferentes estruturas de controlo, e entre estas escolhidas a do sistema de controlo estabilizador e sistema de referência adaptativo. No entanto, como o objetivo deste trabalho é o estudo de desempenho quando aplicadas as redes neuronais, não se utilizam apenas estas como controlador. A análise exposta neste trabalho trata de perceber em que medida é que a introdução das redes neuronais melhora o controlo de um processo. Assim sendo, os sistemas de controlo utilizados devem conter pelo menos uma rede neuronal e um controlador PID. Os testes de desempenho são aplicados no controlo de um motor DC, sendo realizados através do recurso ao software MATLAB. As simulações efetuadas têm diferentes configurações de modo a tirar conclusões o mais gerais possível. Assim, os sistemas de controlo são simulados para dois tipos de entrada diferentes, e com ou sem a adição de ruído no sensor. Por fim, é efetuada uma análise das respostas de cada sistema implementado e calculados os índices de desempenho das mesmas.