19 resultados para Simulação de processos
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
In a industrial environment, to know the process one is working with is crucial to ensure its good functioning. In the present work, developed at Prio Biocombustíveis S.A. facilities, using process data, collected during the present work, and historical process data, the methanol recovery process was characterized, having started with the characterization of key process streams. Based on the information retrieved from the stream characterization, Aspen Plus® process simulation software was used to replicate the process and perform a sensitivity analysis with the objective of accessing the relative importance of certain key process variables (reflux/feed ratio, reflux temperature, reboiler outlet temperature, methanol, glycerol and water feed compositions). The work proceeded with the application of a set of statistical tools, starting with the Principal Components Analysis (PCA) from which the interactions between process variables and their contribution to the process variability was studied. Next, the Design of Experiments (DoE) was used to acquire experimental data and, with it, create a model for the water amount in the distillate. However, the necessary conditions to perform this method were not met and so it was abandoned. The Multiple Linear Regression method (MLR) was then used with the available data, creating several empiric models for the water at distillate, the one with the highest fit having a R2 equal to 92.93% and AARD equal to 19.44%. Despite the AARD still being relatively high, the model is still adequate to make fast estimates of the distillate’s quality. As for fouling, its presence has been noticed many times during this work. Not being possible to directly measure the fouling, the reboiler inlet steam pressure was used as an indicator of the fouling growth and its growth variation with the amount of Used Cooking Oil incorporated in the whole process. Comparing the steam cost associated to the reboiler’s operation when fouling is low (1.5 bar of steam pressure) and when fouling is high (reboiler’s steam pressure of 3 bar), an increase of about 58% occurs when the fouling increases.
Resumo:
Em todo o mundo são usados, hoje em dia, modelos numéricos hidrogeoquímicos para simular fenómenos naturais e fenómenos decorrentes de actividades antrópicas. Estes modelos ajudam-nos a compreender o ambiente envolvente, a sua variabilidade espacial e evolução temporal. No presente trabalho apresenta-se o desenvolvimento de modelos numéricos hidrogeoquímicos aplicados no contexto do repositório geológico profundo para resíduos nucleares de elevada actividade. A avaliação da performance de um repositório geológico profundo inclui o estudo da evolução geoquímica do repositório, bem como a análise dos cenários de mau funcionamento do repositório, e respectivas consequências ambientais. Se se escaparem acidentalmente radionuclídeos de um repositório, estes poderão atravessar as barreiras de engenharia e barreiras naturais que constituem o repositório, atingindo eventualmente, os ecosistemas superficiais. Neste caso, os sedimentos subsuperficiais constituem a última barreira natural antes dos ecosistemas superficiais. No presente trabalho foram desenvolvidos modelos numéricos que integram processos biogeoquímicos, geoquímicos, hidrodinâmicos e de transporte de solutos, para entender e quantificar a influência destes processos na mobilidade de radionuclídeos em sistemas subsuperficiais. Os resultados alcançados reflectem a robustez dos instrumentos numéricos utilizados para desenvolver simulações descritivas e predictivas de processos hidrogeoquímicos que influenciam a mobilidade de radionuclídeos. A simulação (descritiva) de uma experiência laboratorial revela que a actividade microbiana induz a diminuição do potencial redox da água subterrânea que, por sua vez, favorece a retenção de radionuclídeos sensíveis ao potencial redox, como o urânio. As simulações predictivas indicam que processos de co-precipitação com minerais de elementos maioritários, precipitação de fases puras, intercâmbio catiónico e adsorção à superfície de minerais favorecem a retenção de U, Cs, Sr e Ra na fase sólida de uma argila glaciar e uma moreia rica em calcite. A etiquetagem dos radionuclídeos nas simulações numéricas permitiu concluir que a diluição isotópica joga um papel importante no potencial impacte dos radionuclídeos nos sistemas subsuperficiais. A partir dos resultados das simulações numéricas é possivel calcular coeficientes de distribuição efectivos. Esta metodologia proporciona a simulação de ensaios de traçadores de longa duração que não seriam exequíveis à escala da vida humana. A partir destas simulações podem ser obtidos coeficientes de retardamento que são úteis no contexto da avaliação da performance de repositórios geológicos profundos.
Resumo:
O objectivo principal da presente tese consiste no desenvolvimento de estimadores robustos do variograma com boas propriedades de eficiência. O variograma é um instrumento fundamental em Geoestatística, pois modela a estrutura de dependência do processo em estudo e influencia decisivamente a predição de novas observações. Os métodos tradicionais de estimação do variograma não são robustos, ou seja, são sensíveis a pequenos desvios das hipóteses do modelo. Essa questão é importante, pois as propriedades que motivam a aplicação de tais métodos, podem não ser válidas nas vizinhanças do modelo assumido. O presente trabalho começa por conter uma revisão dos principais conceitos em Geoestatística e da estimação tradicional do variograma. De seguida, resumem-se algumas noções fundamentais sobre robustez estatística. No seguimento, apresenta-se um novo método de estimação do variograma que se designou por estimador de múltiplos variogramas. O método consiste em quatro etapas, nas quais prevalecem, alternadamente, os critérios de robustez ou de eficiência. A partir da amostra inicial, são calculadas, de forma robusta, algumas estimativas pontuais do variograma; com base nessas estimativas pontuais, são estimados os parâmetros do modelo pelo método dos mínimos quadrados; as duas fases anteriores são repetidas, criando um conjunto de múltiplas estimativas da função variograma; por fim, a estimativa final do variograma é definida pela mediana das estimativas obtidas anteriormente. Assim, é possível obter um estimador que tem boas propriedades de robustez e boa eficiência em processos Gaussianos. A investigação desenvolvida revelou que, quando se usam estimativas discretas na primeira fase da estimação do variograma, existem situações onde a identificabilidade dos parâmetros não está assegurada. Para os modelos de variograma mais comuns, foi possível estabelecer condições, pouco restritivas, que garantem a unicidade de solução na estimação do variograma. A estimação do variograma supõe sempre a estacionaridade da média do processo. Como é importante que existam procedimentos objectivos para avaliar tal condição, neste trabalho sugere-se um teste para validar essa hipótese. A estatística do teste é um estimador-MM, cuja distribuição é desconhecida nas condições de dependência assumidas. Tendo em vista a sua aproximação, apresenta-se uma versão do método bootstrap adequada ao estudo de observações dependentes de processos espaciais. Finalmente, o estimador de múltiplos variogramas é avaliado em termos da sua aplicação prática. O trabalho contém um estudo de simulação que confirma as propriedades estabelecidas. Em todos os casos analisados, o estimador de múltiplos variogramas produziu melhores resultados do que as alternativas usuais, tanto para a distribuição assumida, como para distribuições contaminadas.
Resumo:
Os Modelos de Equações Simultâneas (SEM) são modelos estatísticos com muita tradição em estudos de Econometria, uma vez que permitem representar e estudar uma vasta gama de processos económicos. Os estimadores mais usados em SEM resultam da aplicação do Método dos Mínimos Quadrados ou do Método da Máxima Verosimilhança, os quais não são robustos. Em Maronna e Yohai (1997), os autores propõem formas de “robustificar” esses estimadores. Um outro método de estimação com interesse nestes modelos é o Método dos Momentos Generalizado (GMM), o qual também conduz a estimadores não robustos. Estimadores que sofrem de falta de robustez são muito inconvenientes uma vez que podem conduzir a resultados enganadores quando são violadas as hipóteses subjacentes ao modelo assumido. Os estimadores robustos são de grande valor, em particular quando os modelos em estudo são complexos, como é o caso dos SEM. O principal objectivo desta investigação foi o de procurar tais estimadores tendo-se construído um estimador robusto a que se deu o nome de GMMOGK. Trata-se de uma versão robusta do estimador GMM. Para avaliar o desempenho do novo estimador foi feito um adequado estudo de simulação e foi também feita a aplicação do estimador a um conjunto de dados reais. O estimador robusto tem um bom desempenho nos modelos heterocedásticos considerados e, nessas condições, comporta-se melhor do que os estimadores não robustos usados no estudo. Contudo, quando a análise é feita em cada equação separadamente, a especificidade de cada equação individual e a estrutura de dependência do sistema são dois aspectos que influenciam o desempenho do estimador, tal como acontece com os estimadores usuais. Para enquadrar a investigação, o texto inclui uma revisão de aspectos essenciais dos SEM, o seu papel em Econometria, os principais métodos de estimação, com particular ênfase no GMM, e uma curta introdução à estimação robusta.
Resumo:
Em consequência de uma série de problemas ambientais, económicos e políticos relacionados com o uso de combustíveis convencionais, vários países estão agora a focar as suas atenções em combustíveis alternativos. O biodiesel está na linha da frente das alternativas ao petróleo no sector dos transportes, sendo considerado uma opção a curto prazo visto que o seu preço é competitivo e não são necessárias mudanças nos motores para implementar o seu uso. De entres os possíveis processos de produzir biodiesel, a reacção de transesterificação com catálise básica é o método preferido. Depois da reacção são sempre necessários processos de purificação de modo ao biodiesel produzido cumprir os standards definidos para os combustíveis alternativos, reduzindo problemas de motor e consequentemente aumentando a sua aceitação por parte dos consumidores. De entre as especificações encontram-se o conteúdo em água, em álcool e em glicerol. Ser-se capaz de descrever correctamente o equilíbrio de fases de sistemas que são de interesse para os processos de purificação de biodieseis numa gama alargada de condições termodinâmicas é uma condição necessária para uma correcta simulação do processo industrial, de modo a se atingir uma elevada produtividade a baixos custos de operação. O uso de moléculas oxigenadas como combustíveis representa uma alteração significativa em termos da termodinâmica de soluções. Para combustíveis baseados em petróleo as equações de estado cúbicas e os modelos clássicos de coeficientes de actividade mostraram ser apropriados, no entanto para combustíveis novos como o biodiesel, sendo mais complexos do ponto de vista das interacções intermoleculares com formação de dipolos e pontes de hidrogénio, são necessários modelos termodinâmicos mais complexos para descrever essas interacções. Neste trabalho a CPA EoS (Cubic-Plus-Association Equation of State) será desenvolvida de modo a permitir uma descrição adequada dos equilíbrios líquido-vapor e líquido-líquido para uma serie de sistemas binários e multicomponentes contendo água, ácidos gordos, ésteres de ácidos gordos, glicerol e álcoois.
Resumo:
A análise das séries temporais de valores inteiros tornou-se, nos últimos anos, uma área de investigação importante, não só devido à sua aplicação a dados de contagem provenientes de diversos campos da ciência, mas também pelo facto de ser uma área pouco explorada, em contraste com a análise séries temporais de valores contínuos. Uma classe que tem obtido especial relevo é a dos modelos baseados no operador binomial thinning, da qual se destaca o modelo auto-regressivo de valores inteiros de ordem p. Esta classe é muito vasta, pelo que este trabalho tem como objectivo dar um contributo para a análise estatística de processos de contagem que lhe pertencem. Esta análise é realizada do ponto de vista da predição de acontecimentos, aos quais estão associados mecanismos de alarme, e também da introdução de novos modelos que se baseiam no referido operador. Em muitos fenómenos descritos por processos estocásticos a implementação de um sistema de alarmes pode ser fundamental para prever a ocorrência de um acontecimento futuro. Neste trabalho abordam-se, nas perspectivas clássica e bayesiana, os sistemas de alarme óptimos para processos de contagem, cujos parâmetros dependem de covariáveis de interesse e que variam no tempo, mais concretamente para o modelo auto-regressivo de valores inteiros não negativos com coeficientes estocásticos, DSINAR(1). A introdução de novos modelos que pertencem à classe dos modelos baseados no operador binomial thinning é feita quando se propõem os modelos PINAR(1)T e o modelo SETINAR(2;1). O modelo PINAR(1)T tem estrutura periódica, cujas inovações são uma sucessão periódica de variáveis aleatórias independentes com distribuição de Poisson, o qual foi estudado com detalhe ao nível das suas propriedades probabilísticas, métodos de estimação e previsão. O modelo SETINAR(2;1) é um processo auto-regressivo de valores inteiros, definido por limiares auto-induzidos e cujas inovações formam uma sucessão de variáveis independentes e identicamente distribuídas com distribuição de Poisson. Para este modelo estudam-se as suas propriedades probabilísticas e métodos para estimar os seus parâmetros. Para cada modelo introduzido, foram realizados estudos de simulação para comparar os métodos de estimação que foram usados.
Resumo:
Resumo indisponível
Resumo:
Esta tese tem como foco principal a análise dos principais tipos de amplificação óptica e algumas de suas aplicações em sistemas de comunicação óptica. Para cada uma das tecnologias abordadas, procurou-se definir o estado da arte bem como identificar as oportunidades de desenvolvimento científico relacionadas. Os amplificadores para os quais foi dirigido alguma atenção neste documento foram os amplificadores em fibra dopada com Érbio (EDFA), os amplificadores a semicondutor (SOA) e os amplificadores de Raman (RA). Este trabalho iniciou-se com o estudo e análise dos EDFA’s. Dado o interesse científico e económico que estes amplificadores têm merecido, apenas poucos nichos de investigação estão ainda em aberto. Dentro destes, focá-mo-nos na análise de diferentes perfis de fibra óptica dopada de forma a conseguir uma optimização do desempenho dessas fibras como sistemas de amplificação. Considerando a fase anterior do trabalho como uma base de modelização para sistemas de amplificação com base em fibra e dopantes, evoluiu-se para amplificadores dopados mas em guias de onda (EDWA). Este tipo de amplificador tenta reduzir o volume físico destes dispositivos, mantendo as suas características principais. Para se ter uma forma de comparação de desempenho deste tipo de amplificador com os amplificadores em fibra, foram desenvolvidos modelos de caixa preta (BBM) e os seus parâmetros afinados por forma a termos uma boa modelização e posterior uso deste tipo de amplificiadores em setups de simulação mais complexos. Depois de modelizados e compreendidos os processo em amplificadores dopados, e com vista a adquirir uma visão global comparativa, foi imperativo passar pelo estudo dos processos de amplificação paramétrica de Raman. Esse tipo de amplificação, sendo inerente, ocorre em todas as bandas de propagação em fibra e é bastante flexível. Estes amplificadores foram inicialmente modelizados, e algumas de suas aplicações em redes passivas de acesso foram estudadas. Em especial uma série de requisitos, como por exemplo, a gama de comprimentos de onda sobre os quais existem amplificação e os altos débitos de perdas de inserção, nos levaram à investigação de um processo de amplificação que se ajustasse a eles, especialmente para buscar maiores capacidades de amplificação (nomeadamente longos alcances – superiores a 100 km – e altas razões de divisão – 1:512). Outro processo investigado foi a possibilidade de flexibilização dos parâmetros de comprimento de onda de ganho sem ter que mudar as caractísticas da bomba e se possível, mantendo toda a referenciação no transmissor. Este processo baseou-se na técnica de clamping de ganho já bastante estudada, mas com algumas modificações importantes, nomeadamente a nível do esquema (reflexão apenas num dos extremos) e da modelização do processo. O processo resultante foi inovador pelo recurso a espalhamentos de Rayleigh e Raman e o uso de um reflector de apenas um dos lados para obtenção de laser. Este processo foi modelizado através das equações de propagação e optimizado, tendo sido demonstrado experimentalmente e validado para diferentes tipos de fibras. Nesta linha, e dada a versatilidade do modelo desenvolvido, foi apresentada uma aplicação mais avançada para este tipo de amplificadores. Fazendo uso da sua resposta ultra rápida, foi proposto e analisado um regenerador 2R e analisada por simulação a sua gama de aplicação tendo em vista a sua aplicação sistémica. A parte final deste trabalho concentrou-se nos amplificadores a semiconductor (SOA). Para este tipo de amplificador, os esforços foram postos mais a nível de aplicação do que a nível de sua modelização. As aplicações principais para estes amplificadores foram baseadas em clamping óptico do ganho, visando a combinação de funções lógicas essenciais para a concepção de um latch óptico com base em componentes discretos. Assim, com base num chip de ganho, foi obtido uma porta lógica NOT, a qual foi caracterizada e demonstrada experimentalmente. Esta foi ainda introduzida num esquema de latching de forma a produzir um bi-estável totalmente óptico, o qual também foi demonstrado e caracterizado. Este trabalho é finalizado com uma conclusão geral relatando os subsistemas de amplificação e suas aplicacações.
Resumo:
O presente trabalho tem por objectivo o estudo de novos dispositivos fotónicos aplicados a sistemas de comunicações por fibra óptica e a sistemas de processamento de sinais RF. Os dispositivos apresentados baseiam-se em processamento de sinal linear e não linear. Dispositivos lineares ópticos tais como o interferómetro de Mach-Zehnder permitem adicionar sinais ópticos com pesos fixos ou sintonizáveis. Desta forma, este dispositivo pode ser usado respectivamente como um filtro óptico em amplitude com duas saídas complementares, ou, como um filtro óptico de resposta de fase sintonizável. O primeiro princípio de operação serve como base para um novo sistema fotónico de medição em tempo real da frequência de um sinal RF. O segundo princípio de operação é explorado num novo sistema fotónico de direccionamento do campo eléctrico radiado por um agregado de antenas, e também num novo compensador sintonizável de dispersão cromática. O processamento de sinal é não linear quando sinais ópticos são atrasados e posteriormente misturados entre si, em vez de serem linearmente adicionados. Este princípio de operação está por detrás da mistura de um sinal eléctrico com um sinal óptico, que por sua vez é a base de um novo sistema fotónico de medição em tempo real da frequência de um sinal RF. A mistura de sinais ópticos em meios não lineares permite uma operação eficiente numa grande largura espectral. Tal operação é usada para realizar conversão de comprimento de onda sintonizável. Um sinal óptico com multiplexagem no domínio temporal de elevada largura de banda é misturado com duas bombas ópticas não moduladas com base em processos não lineares paramétricos num guia de ondas de niobato de lítio com inversão periódica da polarização dos domínios ferroeléctricos. Noutro trabalho, uma bomba pulsada em que cada pulso tem um comprimento de onda sintonizável serve como base a um novo conversor de sinal óptico com multiplexagem no domínio temporal para um sinal óptico com multiplexagem no comprimento de onda. A bomba é misturada com o sinal óptico de entrada através de um processo não linear paramétrico numa fibra óptica com parâmetro não linear elevado. Todos os dispositivos fotónicos de processamento de sinal linear ou não linear propostos são experimentalmente validados. São também modelados teoricamente ou através de simulação, com a excepção dos que envolvem mistura de sinais ópticos. Uma análise qualitativa é suficiente nestes últimos dispositivos.
Resumo:
Com a preocupação de suprir lacunas evidenciadas pelo ensino tradicional típico do Curso de Contabilidade e Administração do Instituto Superior de Contabilidade e Administração do Porto, introduziu-se no seu sistema de ensino as unidades curriculares de Projeto de Simulação Empresarial I e II (PSE I e PSE II), que, pela sua singularidade e especificidades, denominamos de Ambiente Empresarial. A particularidade deste processo de formação, centrado no desenvolvimento de competências, molda a metodologia do ensino, da aprendizagem e da avaliação. De destacar que o sistema de avaliação das aprendizagens introduzido está construído numa base informática de recolha contínua e ponderação sistemática de uma série de indicadores. A presente tese tem como objetivo estudar as potencialidades e constrangimentos do sistema de avaliação utilizado nas unidades curriculares referidas. Pretendemos, em particular, analisar em que medida este sistema beneficia o sucesso escolar dos estudantes, em resultado de uma melhoria no processo de aprendizagem e, consequentemente, no desenvolvimento das competências dos estudantes. No decorrer dos anos letivos de 2008-2009 e de 2009-2010, segundo e primeiro semestres, respetivamente, recolhemos dados qualitativos e quantitativos através de questionários aos estudantes e entrevistas aos docentes e ao responsável pela coordenação das unidades curriculares. Os resultados do estudo levantaram uma série de questões relacionadas com a avaliação e a forma como esta desenvolve nos estudantes uma diferente postura no que concerne ao processo de ensino e aprendizagem. A centralidade no estudante como foco deste sistema de avaliação possibilita a autorregulação da aprendizagem através da retroação. O trabalho individual e de grupo apresentam-se como principais fatores no desenvolvimento das competências genéricas (relacionais) e comportamentais.
Resumo:
Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.
Resumo:
As espumas de alumínio são materiais ultraleves, o que as torna atractivas para um largo espectro de aplicações comerciais na área da defesa, na indústria automóvel e aeroespacial, entre outras. Actualmente, há um grande interesse na utilização de espumas de alumínio em componentes estruturais ultraleves, incorporados em sistemas de absorção de energia para protecção contra o impacto. O recurso à simulação numérica para resolver problemas de engenharia em várias áreas é cada vez mais comum. A modelação numérica dos materiais assume vital importância quando o problema envolve a análise de processos tecnológicos como, por exemplo, a conformação plástica de materiais, ou a análise de estruturas. Deste modo, torna-se imprescindível garantir que a modelação dos materiais é de tal forma rigorosa que permite simular o melhor possível o seu comportamento real nas condições concretas da análise a realizar. A forma mais comum de garantir o rigor dos modelos utilizados é a validação dos modelos numéricos tendo por base resultados experimentais. Neste trabalho, fez-se a caracterização do comportamento mecânico das espumas de alumínio com nome comercial ALPORAS!, obtidas pelo processo de fabrico denominado expansão directa do metal fundido por adição de um agente expansor. Esta caracterização consistiu num conjunto de ensaios experimentais quer no regime quasi-estático, quer no regime dinâmico. No regime quasi-estático realizaram-se ensaios de compressão uniaxial e de compressão multiaxial. Para a caracterização no regime dinâmico foram realizados ensaios em barras de Hopkinson de polimetil-metacrilato (PMMA). Com base nos resultados experimentais obtidos determinaram-se os parâmetros dos dois modelos constitutivos para espumas metálicas implementados no programa comercial Abaqus™/Explicit. Estes modelos, e os respectivos parâmetros determinados, foram validados reproduzindo numericamente alguns ensaios experimentais quasi-estáticos e dinâmicos. Assim, verificou-se a adequabilidade dos modelos em diversas condições quer em termos de esforços quer em termos de regime de taxa de deformação Por último, desenvolveu-se uma estrutura inovadora para absorção de energia durante um impacto, constituída por componentes perfilados em liga de alumínio e por componentes em espumas de alumínio. Esta estrutura foi testada exclusivamente com recurso à simulação numérica, utilizando os modelos constitutivos validados anteriormente.
Resumo:
Este trabalho abordou a valorização de um subproduto da indústria de lacticínios (soro de queijo) através da alteração do funcionamento de processos habitualmente utilizados no contexto do tratamento biológico. Foi avaliada a fermentação acidogénica deste subproduto para maximizar a conversão do seu elevado teor de matéria orgânica em ácidos orgânicos voláteis (AOV) que actualmente são produtos com elevada procura, nomeadamente para produção de polihidroxialcanoatos (PHA). Em ensaios descontínuos e semi-contínuos foi caracterizada a produção e composição de AOV a partir de soro de queijo variando a razão food-to-microorganism (F/M) e a concentração de alcalinidade. Recorrendo à modelação dos resultados através de superfícies de resposta, demonstrou-se que condições de F/M = 4 gCQO g-1SSV combinadas com uma adição elevada de alcalinidade (8 g L-1 expresso como CaCO3) resultaram na conversão de 72% da CQO alimentada em AOV. O acetato e o butirato foram os AOV predominantes (60%), mas elevadas razões F/M combinadas com elevadas alcalinidades promoveram o alongamento da cadeia carboxílica, tendo sido produzidos AOV de maior massa molecular (iso-valerato e n-caproato). O processo de fermentação acidogénica foi posteriormente desenvolvido em modo contínuo num reactor MBBR acidogénico operado a longo prazo. Cargas orgânicas entre 30 e 50 gCQO L-1d-1 permitiram obter um grau de acidificação máximo de 68% no efluente fermentado. Foi ainda demonstrado que uma adição dinâmica de alcalinidade (0 – 4,8 g CaCO3 L-1) nestas condições estimulou a produção de AOV de cadeia ímpar (propionato e n-valerato) até 42%. O efluente acidificado no processo anaeróbio foi usado como substrato em reactores SBR operados para selecção de culturas microbianas mistas acumuladoras de PHA, nos quais foi aplicado um regime de alimentação dinâmica em condições aeróbias (“fartura-fome”). Estes sistemas operaram também a longo prazo, e demonstraram ser capazes de remover mais de 96% da CQO alimentada e simultaneamente convertê-la em PHA, até 36% do peso celular seco. A velocidade de remoção de substrato (valor máximo de 1,33 gCQO g-1SSV h-1) foi proporcional ao teor de polímero acumulado, evidenciando o estabelecimento de uma fase de “fome” prolongada que estimulou a selecção de microrganismos com elevada capacidade de acumulação de PHA. Além disso, o teor molar de hidroxivalerato (HV) no copolímero produzido [P(HB-co-HV)] foi directamente proporcional ao teor de AOV de cadeia ímpar (propionato e n-valerato) presente no soro fermentado que serviu de substrato. Uma estratégia de operação do reactor SBR com variação da carga orgânica, aliada ao regime “fartura-fome” estabelecido, permitiu ainda simular a realidade dos processos de tratamento biológico de efluentes, nos quais a composição e concentração inicial de matéria orgânica variam frequentemente. Este modo de operação do sistema estimulou notavelmente o processo de selecção de culturas acumuladoras de PHA tendo resultado num aumento da acumulação de PHA de 7% para 36%. Os resultados demonstraram com sucesso a possibilidade de valorização do soro de queijo através de eco-biotecnologia, contribuindo para uma mudança de paradigma no tratamento convencional de efluentes: ao invés de serem eliminados enquanto poluentes, os componentes orgânicos presentes neste subproduto industrial podem assim ser convertidos em materiais de valor acrescentado.
Resumo:
O tratamento físico-químico de águas residuais, de origem industrial, mais comum é o tratamento baseado na adição de coagulante e floculante a um efluente. No entanto, o tratamento eletroquímico é um tipo de tratamento que tem vindo a ser explorado e estudado com mais ênfase ao longo dos últimos anos. O tratamento eletroquímico é uma tecnologia AOP (Processos de Oxidação Avançada) e divide-se em eletrólise direta (oxidação e redução) e indireta (eletrocoagulação-flotação e eletrooxidação). A eletrocoagulação e eletrooxidação divergem apenas pelo tipo de reações que ocorrem, devido ao material que constitui os elétrodos. São processos complexos com uma multiplicidade de mecanismos que operam sinergicamente para remover poluentes da água. Tendo em conta a sua complexidade e ainda dificuldade de compreensão, existem na literatura diferentes versões acerca de quais os mecanismos chave, assim como diversas configurações geométricas de reatores e elétrodos. Atualmente, este tipo de tratamento tem vindo a evoluir, tornando-se num método economicamente viável para o tratamento de uma grande variedade de águas residuais, nomeadamente, aquelas que possuem compostos recalcitrantes na sua composição. O presente trabalho foi realizado nas instalações da VentilAQUA S.A. e, tendo em conta a sua área de especialidade, o trabalho exposto focou-se no desenvolvimento de soluções técnicas de AOP, nomeadamente na área eletroquímica (eletrocoagulação e eletrooxidação),para estudo dos parâmetros operacionais numa nova configuração geométrica para os elétrodos. Tendo por base os contributos da revisão bibliográfica, o estudo incidiu num reator tubular, com elétrodos de inox dispostos de forma concêntrica, à mesma distância entre si. Com este reator foram executados variados testes, com diferentes efluentes, que permitiram obter resultados operacionais de otimização de funcionamento, tendo em vista a remoção de poluentes. O estudo financeiro associado permitiu concluir que a eletrooxidação é significativamente mais económica que o tratamento físico-químico, nas condições operacionais e para os efluentes tratados. Relativamente ao Acompanhamento e Gestão de ETAR’s (Capítulo 4) foi possível verificar que todos os casos em estudo apresentam uma boa eficiência de remoção de matéria orgânica, permitindo a descarga do seu efluente com uma carga poluente que cumpre com os requisitos legais de descarga em meio hídrico.
Resumo:
O presente trabalho visa discutir a relação entre a abordagem Orff-Schulwerk e o desenvolvimento do ‘Eu Musical’ em contexto de Educação Musical no 2.º Ciclo do Ensino Básico genérico português. Na tentativa de verificar, analisar e tentar compreender esta relação, o processo empírico fundamentou-se na Flow Theory, desenvolvida por Mihaly Csikszentmihalyi. O enquadramento teórico conduziu à elaboração do ‘Modelo Multidimensional de Eu Musical’ (‘MoMEuM’), o qual, partindo da abordagem Orff-Schulwerk, procurou bases epistemológicas na Flow Theory, nas vertentes Cultural, Social e Positiva da Psicologia, bem como no Embodiment. A componente empírica do estudo teve como base metodológica a investigação-ação. Nesse sentido, o professor-investigador acompanhou, de forma longitudinal, o percurso de 50 alunos no referido contexto e procurou verificar, através do FIMA - Flow Indicators in Musical Activity, a vivência de ‘experiências ótimas/estados de fluxo’ em atividades/estratégias pedagógicomusicais baseadas na abordagem Orff-Schulwerk e, por conseguinte, no desenvolvimento do ‘Eu Musical’. A análise e interpretação de dados sugere que a abordagem Orff-Schulwerk promove a ocorrência de ‘experiências ótimas/estados de fluxo’ e, no quadro do presente estudo, impulsiona o desenvolvimento do ‘Eu Musical’.