46 resultados para difusão Fickiana
Resumo:
Neste trabalho pretende-se introduzir os conceitos associados às redes neuronais e a sua aplicação no controlo de sistemas, neste caso na área da robótica autónoma. Foi utilizado um AGV de modo a testar experimentalmente um controlo através de uma rede neuronal artificial. A grande vantagem das redes neuronais artificiais é estas poderem ser ensinadas a funcionarem como se pretende. A partir desta caraterística foram efetuadas duas abordagens na implementação do AGV disponibilizado. A primeira abordagem ensinava a rede neuronal a funcionar como o controlo por lógica difusa que foi implementado no AGV aquando do seu desenvolvimento. A segunda abordagem foi ensinar a rede neuronal artificial a funcionar a partir de dados retirados de um controlo remoto simples implementado no AGV. Ambas as abordagens foram inicialmente implementadas e simuladas no MATLAB, antes de se efetuar a sua implementação no AGV. O MATLAB é utilizado para efetuar o treino das redes neuronais multicamada proactivas através do algoritmo de treino por retropropagação de Levenberg-Marquardt. A implementação de uma rede neuronal artificial na primeira abordagem foi implementada em três fases, MATLAB, posteriormente linguagem de programação C no computador e por fim, microcontrolador PIC no AGV, permitindo assim diferenciar o desenvolvimento destas técnicas em várias plataformas. Durante o desenvolvimento da segunda abordagem foi desenvolvido uma aplicação Android que permite monitorizar e controlar o AGV remotamente. Os resultados obtidos pela implementação da rede neuronal a partir do controlo difuso e do controlo remoto foram satisfatórios, pois o AGV percorria os percursos testados corretamente, em ambos os casos. Por fim concluiu-se que é viável a aplicação das redes neuronais no controlo de um AGV. Mais ainda, é possível utilizar o sistema desenvolvido para implementar e testar novas RNA.
Resumo:
Fuzzy logic controllers (FLC) are intelligent systems, based on heuristic knowledge, that have been largely applied in numerous areas of everyday life. They can be used to describe a linear or nonlinear system and are suitable when a real system is not known or too difficult to find their model. FLC provide a formal methodology for representing, manipulating and implementing a human heuristic knowledge on how to control a system. These controllers can be seen as artificial decision makers that operate in a closed-loop system, in real time. The main aim of this work was to develop a single optimal fuzzy controller, easily adaptable to a wide range of systems – simple to complex, linear to nonlinear – and able to control all these systems. Due to their efficiency in searching and finding optimal solution for high complexity problems, GAs were used to perform the FLC tuning by finding the best parameters to obtain the best responses. The work was performed using the MATLAB/SIMULINK software. This is a very useful tool that provides an easy way to test and analyse the FLC, the PID and the GAs in the same environment. Therefore, it was proposed a Fuzzy PID controller (FL-PID) type namely, the Fuzzy PD+I. For that, the controller was compared with the classical PID controller tuned with, the heuristic Ziegler-Nichols tuning method, the optimal Zhuang-Atherton tuning method and the GA method itself. The IAE, ISE, ITAE and ITSE criteria, used as the GA fitness functions, were applied to compare the controllers performance used in this work. Overall, and for most systems, the FL-PID results tuned with GAs were very satisfactory. Moreover, in some cases the results were substantially better than for the other PID controllers. The best system responses were obtained with the IAE and ITAE criteria used to tune the FL-PID and PID controllers.
Resumo:
Buildings account for 40% of total energy consumption in the European Union. The reduction of energy consumption in the buildings sector constitute an important measure needed to reduce the Union's energy dependency and greenhouse gas emissions. The Portuguese legislation incorporate this principles in order to regulate the energy performance of buildings. This energy performance should be accompanied by good conditions for the occupants of the buildings. According to EN 15251 (2007) the four factors that affect the occupant comfort in the buildings are: Indoor Air Quality (IAQ), thermal comfort, acoustics and lighting. Ventilation directly affects all except the lighting, so it is crucial to understand the performance of it. The ventilation efficiency concept therefore earn significance, because it is an attempt to quantify a parameter that can easily distinguish the different options for air diffusion in the spaces. The two indicators most internationally accepted are the Air Change Efficiency (ACE) and the Contaminant Removal Effectiveness (CRE). Nowadays with the developed of the Computational Fluid Dynamics (CFD) the behaviour of ventilation can be more easily predicted. Thirteen strategies of air diffusion were measured in a test chamber through the application of the tracer gas method, with the objective to validate the calculation by the MicroFlo module of the IES-VE software for this two indicators. The main conclusions from this work were: that the values of the numerical simulations are in agreement with experimental measurements; the value of the CRE is more dependent of the position of the contamination source, that the strategy used for the air diffusion; the ACE indicator is more appropriate for quantifying the quality of the air diffusion; the solutions to be adopted, to maximize the ventilation efficiency should be, the schemes that operate with low speeds of supply air and small differences between supply air temperature and the room temperature.
Resumo:
Modelação e simulação baseadas em agentes estão a ganhar cada vez mais importância e adeptos devido à sua flexibilidade e potencialidade em reproduzir comportamentos e estudar um sistema na perspetiva global ou das interações individuais. Neste trabalho, criou-se um sistema baseado em agentes e desenvolvido em Repast Simphony com o objectivo de analisar a difusão de um novo produto ou serviço através de uma rede de potenciais clientes, tentando compreender, assim, como ocorre e quanto tempo demora esta passagem de informação (inovação) com diversas topologias de rede, no contato direto entre pessoas. A simulação baseia-se no conceito da existencia de iniciadores, que são os primeiros consumidores a adotar um produto quando este chega ao mercado e os seguidores, que são os potenciais consumidores que, apesar de terem alguma predisposição para adotar um novo produto, normalmente só o fazem depois de terem sido sujeitos a algum tipo de influência. Com a aplicação criada, simularam-se diversas situações com a finalidade de obter e observar os resultados gerados a partir de definições iniciais diferentes. Com os resultados gerados pelas simulações foram criados gráficos representativos dos diversos cenários. A finalidade prática desta aplicação, poderá ser o seu uso em sala de aula para simulação de casos de estudo e utilização, em casos reais, como ferramenta de apoio à tomada de decisão, das empresas.
Resumo:
As organizações são entidades de natureza sistémica, composta, na sua maioria por várias pessoas que interagindo entre si, se propõem atingir objetivos comuns. Têm, frequentemente, de responder a alterações da envolvente externa através de processos de mudança organizacional, sendo fundamentalmente adaptativas, pois, para sobreviver, precisam de se reajustar continuamente às condições mutáveis do meio. O sucesso das organizações depende da sua capacidade de interação com o meio envolvente, ou seja, da sua capacidade de inovar e operar local ou globalmente, criando novas oportunidades de negócio que importa aproveitar. As tecnologias e os sistemas de informação e a forma como são utilizadas são fatores determinantes nesses processos de evolução e mudança. É necessário que a estratégia de TI esteja alinhada com os objetivos de negócio e que a sua utilização contribua para aumentos de produtividade e de eficiência no seu desempenho. Este trabalho descreve a análise, conceção, seleção e implementação de um Sistema de Informação na Portgás, S.A. baseado de um ERP - Enterprise Resource Planning, capaz de suportar a mudança organizacional e melhorar o desempenho global da organização. Promovendo numa primeira fase um crescimento exponencial do negócio e, de seguida, a adaptação da organização ao mercado concorrencial. O caso descreve o trabalho realizado pelo candidato e por equipas internas e externas, de levantamentos de requisitos gerais, técnicos e funcionais, desenvolvimento de um caderno de encargos, seleção, implementação e exploração de um ERP SAP. A apresentação e discussão do caso são enquadradas numa revisão de literatura sobre o papel das TI nos processos de mudança organizativa, alinhamento estratégico e vantagem competitiva das TI, contributo das TI para o aumento da produtividade, processos adoção e difusão das TI, fatores críticos de sucesso e BPM –Business Process Management
Resumo:
Trabalho de Projeto
Resumo:
Nesta dissertação pretendeu-se estudar a viabilidade do uso de eletrodiálise com membranas bipolares (BM) na recuperação de ácido clorídrico e de hidróxido de sódio a partir de um efluente industrial que contém 1.4 mol/L de cloreto de sódio. Estas membranas mostraram ser uma ferramenta eficiente para a produção de ácidos e bases a partir do respetivo sal. Foi feita uma seleção de diferentes membranas bipolares (Neosepta, Fumatech e PCA) e aniónicas (PC-SA e PC-ACID 60) na tentativa de encontrar a combinação mais adequada para o tratamento do efluente. Dependendo do critério, o melhor arranjo de membranas é o uso de PC-ACID 60 (membrana aniónica), PC-SK (membrana catiónica) e membranas bipolares do tipo Neosepta para maior pureza dos produtos; membranas bipolares Fumatech para maior eficiência de dessalinização e membranas bipolares PCA para um maior grau de dessalinização. Tecnologicamente foi possível obter uma dessalinização de 99.8% em quatro horas de funcionamento em modo batch com recirculação de todas as correntes. Independentemente da combinação usada é recomendável que o processo seja parado quando a densidade de corrente deixa de ser máxima, 781 A/m2. Assim é possível evitar o aumento de impurezas nos produtos, contra difusão, descida instantânea do pH e uma dessalinização pouco eficiente. A nível piloto o principal fornecedor de membranas e unidade de tratamento “stack” é a marca alemã PCA. Sendo assim realizaram-se ensaios de repetibilidade, contra difusão, avaliação económica e upscaling utilizando as membranas bipolares PCA. A nível económico estudou-se o uso de dois tipos de unidades de tratamento; EDQ 380 e EDQ 1600, para diferentes níveis de dessalinização (50, 75 e 80%). Tendo em conta a otimização económica, é recomendável uma dessalinização máxima de 80%, uma vez que a eficiência de processo a este ponto é de 40%. A aplicação do método com a unidade EDQ 1600 para uma dessalinização de 50% é a mais vantajosa economicamente, com custos de 16 €/m3 de efluente tratado ou 0,78 €/kg Cl- removido. O número de unidades necessárias é 4 posicionados em série.
Resumo:
Este trabalho pretende preencher uma lacuna no controlo difuso em todos os autómatos/controladores que usam a plataforma Codesys para a sua programação. Começando por um levantamento histórico e a respetiva compreensão do que é a lógica difusa até à análise do que existe no mercado nos dias de hoje. Será realizada uma abordagem do que é a plataforma Codesys e a utilização da norma IEC61131-3. Sendo efetuada também uma análise da norma IEC61131-7 que explica como deve ser realizado o controlo difuso em PLC. Para colmatar a lacuna existente foi desenvolvido um software tendo por base a plataforma Codesys e validado e testado com o software SoMachine da Schneider Electric. Esse software será devidamente descrito para ser entendido de uma forma fácil.
Resumo:
Apresenta-se nesta tese uma revisão da literatura sobre a modelação de semicondutores de potência baseada na física e posterior análise de desempenho de dois métodos estocásticos, Particle Swarm Optimizaton (PSO) e Simulated Annealing (SA), quando utilizado para identificação eficiente de parâmetros de modelos de dispositivos semicondutores de potência, baseado na física. O conhecimento dos valores destes parâmetros, para cada dispositivo, é fundamental para uma simulação precisa do comportamento dinâmico do semicondutor. Os parâmetros são extraídos passo-a-passo durante simulação transiente e desempenham um papel relevante. Uma outra abordagem interessante nesta tese relaciona-se com o facto de que nos últimos anos, os métodos de modelação para dispositivos de potência têm emergido, com alta precisão e baixo tempo de execução baseado na Equação de Difusão Ambipolar (EDA) para díodos de potência e implementação no MATLAB numa estratégia de optimização formal. A equação da EDA é resolvida numericamente sob várias condições de injeções e o modelo é desenvolvido e implementado como um subcircuito no simulador IsSpice. Larguras de camada de depleção, área total do dispositivo, nível de dopagem, entre outras, são alguns dos parâmetros extraídos do modelo. Extração de parâmetros é uma parte importante de desenvolvimento de modelo. O objectivo de extração de parâmetros e otimização é determinar tais valores de parâmetros de modelo de dispositivo que minimiza as diferenças entre um conjunto de características medidas e resultados obtidos pela simulação de modelo de dispositivo. Este processo de minimização é frequentemente chamado de ajuste de características de modelos para dados de medição. O algoritmo implementado, PSO é uma técnica de heurística de otimização promissora, eficiente e recentemente proposta por Kennedy e Eberhart, baseado no comportamento social. As técnicas propostas são encontradas para serem robustas e capazes de alcançar uma solução que é caracterizada para ser precisa e global. Comparada com algoritmo SA já realizada, o desempenho da técnica proposta tem sido testado utilizando dados experimentais para extrair parâmetros de dispositivos reais das características I-V medidas. Para validar o modelo, comparação entre resultados de modelo desenvolvido com um outro modelo já desenvolvido são apresentados.
Resumo:
Com o advento da invenção do modelo relacional em 1970 por E.F.Codd, a forma como a informação era gerida numa base de dados foi totalmente revolucionada. Migrou‐se de sistemas hierárquicos baseados em ficheiros para uma base de dados relacional com tabelas relações e registos que simplificou em muito a gestão da informação e levou muitas empresas a adotarem este modelo. O que E.F.Codd não previu foi o facto de que cada vez mais a informação que uma base de dados teria de armazenar fosse de proporções gigantescas, nem que as solicitações às bases de dados fossem da mesma ordem. Tudo isto veio a acontecer com a difusão da internet que veio ligar todas as pessoas de qualquer parte do mundo que tivessem um computador. Com o número de adesões à internet a crescer, o número de sites que nela eram criados também cresceu (e ainda cresce exponencialmente). Os motores de busca que antigamente indexavam alguns sites por dia, atualmente indexam uns milhões de sites por segundo e, mais recentemente as redes sociais também estão a lidar com quantidades gigantescas de informação. Tanto os motores de busca como as redes sociais chegaram à conclusão que uma base de dados relacional não chega para gerir a enorme quantidade de informação que ambos produzem e como tal, foi necessário encontrar uma solução. Essa solução é NoSQL e é o assunto que esta tese vai tratar. O presente documento visa definir e apresentar o problema que as bases de dados relacionais têm quando lidam com grandes volumes de dados, introduzir os limites do modelo relacional que só até há bem pouco tempo começaram a ser evidenciados com o surgimento de movimentos, como o BigData, com o crescente número de sites que surgem por dia e com o elevado número de utilizadores das redes sociais. Será também ilustrada a solução adotada até ao momento pelos grandes consumidores de dados de elevado volume, como o Google e o Facebook, enunciando as suas características vantagens, desvantagens e os demais conceitos ligados ao modelo NoSQL. A presente tese tenciona ainda demonstrar que o modelo NoSQL é uma realidade usada em algumas empresas e quais as principias mudanças a nível programático e as boas práticas delas resultantes que o modelo NoSQL traz. Por fim esta tese termina com a explicação de que NoSQL é uma forma de implementar a persistência de uma aplicação que se inclui no novo modelo de persistência da informação.
Resumo:
A evolução digital proporcionou às sociedades uma facilidade extraordinária de comunicação. Com o número crescente de computadores e o aumento de acessos à internet, surgiu uma nova forma de criminologia, que cresceu em paralelo com o número de utilizadores. Desta forma, tornou-se comum a criação e difusão de vírus informáticos pelos chamados hackers. Neste trabalho estudam-se modelos de transmissão de vírus informáticos, usando modelos epidemiológicos. Começa-se por fazer uma revisão dos modelos existentes na literatura, de seguida sugerem-se alterações a esses modelos de forma a conseguir uma melhor aproximação à dinâmica real de transmissão de vírus informáticos. As simulações numéricas dos modelos permitem-nos inferir de que uma forma de controlar a transmissão de vírus informáticos é a diminuição da taxa de infeção, isto é, da taxa de transmissão do vírus. No último capítulo enumeram-se as conclusões do trabalho efetuado e indicam-se direções de trabalho futuro.
Resumo:
Tese de Doutoramento em Didática e Formação
Resumo:
A levitação magnética tem sido um tema bastante investigado sobretudo devido à sua utilização em sistemas ferroviários de transportes. É o método ideal quando existe a necessidade em aplicações de restringir do contacto físico, ou a conveniência, em termos energéticos, de eliminar o atrito. O princípio de funcionamento é simples, um eletroíman cria uma força sobre um objeto ferromagnético que contraria a gravidade. Contudo um sistema de levitação por atração é instável e não linear, o que significa a necessidade de implementar um controlador para satisfazer as características de estabilidade desejadas. Ao longo deste projeto serão descritos os procedimentos teóricos e práticos que foram tomados na criação de um sistema de levitação eletromagnética. Desde a conceção física do sistema, como escolha do sensor, condicionamento de sinal ou construção do eletroíman, até aos procedimentos matemáticos que permitiram a modelação do sistema e criação de controladores. Os controladores clássicos, como o PID ou em avanço de fase, foram projetados através da técnica do Lugar Geométrico de Raízes. No projeto do controlador difuso, pelo contrário não se fez uso da modelação do sistema ou de qualquer relação matemática entre as variáveis. A utilização desta técnica de controlo destacou-se pela usa simplicidade e rapidez de implementação, fornecendo um bom desempenho ao sistema. Na parte final do relatório os resultados obtidos pelos diferentes métodos de controlo são analisados e apresentadas as respetivas conclusões. Estes resultados revelam que para este sistema, relativamente aos outros métodos, o controlador difuso apresenta o melhor desempenho tanto ao nível da resposta transitória, como em regime permanente.
Resumo:
A partir de final da década de noventa, do século passado, o e-mail trouxe importantes alterações nos fluxos info-comunicacionais das organizações, com efeitos (positivos e negativos) em termos de expetativas, rapidez de respostas, tomadas de decisão, impacto nos custos comunicacionais, descentralização da origem da comunicação, no exercício da autoridade, no aumento das trocas comunicacionais, além de aspetos mais direcionados para as questões de produção, organização, difusão, uso e preservação da informação no decurso das atividades organizacionais. O presente texto aborda estas temáticas associadas ao e-mail numa perspetiva ancorada na Ciência da Informação. Iremos procurar caracterizar o e-mail enquanto informação com origem orgânico-funcional, no contexto organizacional, seguindo-se uma análise não exaustiva de alguns temas e problemas que lhe estão associados, com especial ênfase para as questões da política de gestão do e-mail através de uma análise comparativa das orientações emanadas das autoridades arquivísticas de três países (Brasil, Canadá e Reino-Unido) para a definição de princípios e procedimentos associados ao uso desta modalidade info-comunicacional.
Resumo:
O desenvolvimento incessante em áreas urbanas ameaça a qualidade e quantidade das águas subterrâneas. O Porto é uma cidade densamente urbanizada, dominada por granitos, os quais constituem um meio fraturado anisotrópico e heterogéneo. O principal objetivo desta dissertação foi realçar a importância da cartografia hidrogeológica, bem como a relevância de realizar inventários hidrogeológicos e de potenciais focos de contaminação para compreender a vulnerabilidade dos sistemas aquíferos na cidade do Porto. Para tal, foram selecionadas as bacias hidrográficas da Asprela e de Massarelos. Assim, foram levados a cabo dois inventários, um hidrogeológico e outro das potenciais atividades de contaminação. O estudo foi apoiado pelos Sistemas de Informação Geográfica (SIG), os quais foram fundamentais para um melhor conhecimento e integração nas áreas de estudo. Previamente à implementação dos inventários foi feita uma caracterização das duas bacias, em termos geográficos, hidroclimatológicos, de ocupação do solo, geomorfológicos e hidrogeológicos. As duas bacias desenvolvem‐se, principalmente, na unidade hidrogeológica do granito de grão médio a fino, por vezes com saprólito. O inventário hidrogeológico contemplou principalmente fontanários e nascentes, tendo incluído, respetivamente, 8 e 21 pontos de água nas bacias da Asprela e de Massarelos. As águas subterrâneas são límpidas, sem turvação ou cheiro, ácidas, com mineralizações baixas a médias, temperaturas baixas e caudais muito pequenos. Quanto aos potenciais focos de contaminação, na bacia da Asprela foram reconhecidos 61, enquanto que na bacia de Massarelos foram identificados 78. A maioria destas atividades é pontual correspondendo, nomeadamente, a estabelecimentos de ensino e estações de serviço/oficinas de automóveis. Contudo, os focos lineares apresentam uma difusão significativa nas duas bacias hidrográficas. Apesar de a vulnerabilidade intrínseca à contaminação das águas subterrâneas nestas áreas ser baixa a moderada, a localização dos potenciais focos de contaminação poderá ser responsável pelo aumento da vulnerabilidade nas duas bacias estudadas. Esta metodologia demonstrou ser extremamente importante para um melhor conhecimento dos sistemas de água subterrânea do Porto e, ainda, da hidrogeologia de áreas urbanas.