887 resultados para Operações - industriais
Resumo:
Em Portugal, as indústrias corticeira e de pasta de papel constituem um importante sector económico, contudo, gerando elevadas quantidades de subprodutos. Estes subprodutos poderiam ser explorados em aplicações de alto valor acrescentado, como fonte de compostos fenólicos, por exemplo, em vez de serem apenas queimados para produção de energia. Estes compostos são conhecidos pelas suas inúmeras propriedades, entre as quais, antioxidante, anti-inflamatória e anti-trombótica. Neste estudo as frações fenólicas da maior parte dos subprodutos gerados nas indústrias corticeira e de pasta de papel foram caracterizados em detalhe, com vista à sua valorização. A fração fenólica das cascas de Eucalyptus globulus, E. grandis, E. urograndis e E. maidenii, bem como da cortiça de Quercus suber e resíduos provenientes da sua exploração, nomeadamente, o pó de cortiça e os condensados negros, foi obtida por processos convencionais de extração sólido-líquido. No caso da casca de E. globulus, foi ainda avaliado o potencial de metodologias “verdes” no processo de extração de compostos fenólicos, usando extração com CO2 supercrítico. Esta técnica foi otimizada com recurso a metodologias de superfície de resposta. Na identificação e quantificação dos compostos fenólicos foi usada cromatografia líquida de alta resolução aliada a técnicas de espectrometria de massa. O teor de fenólicos totais foi ainda determinado pelo método de Folin- Ciocalteu, essencialmente para efeitos comparativos. A caracterização da fração fenólica de cada extrato foi ainda complementada com a análise da atividade antioxidante, usando o radical 2,2-difenil-1-picrilhidrazilo (DPPH). Foram identificados trinta compostos fenólicos na casca de E. globulus, 17 deles referenciados pela primeira vez como seus constituintes, nomeadamente os ácidos quínico, di-hidroxifenilacétic, cafeico e metil-elágico, bis-hexahidroxidifenoil( HHDP)-glucose, galoil- bis-HHDP-glucose, galoil-HHDPglucose, isoramnetina—hexosídeo, quercetina-hexosídeo, ácido metil-elágicopentosídeo, miricetina-ramnosídeo, isoramnetina-ramnosídeo, mearnsetina, floridzina, mearnsetina-hexosídeo, luteolina e uma proantocianidina B. Neste trabalho, foi estudada pela primeira vez a composição fenólica das cascas de E. grandis, E. urograndis e E. maidenii. Treze, doze e vinte e quatro compostos fenólicos foram identificados nas cascas de E. grandis, E. urograndis e E. maidenii, respetivamente. Entre estes compostos encontram-se os ácidos quínico, gálico, metilgálico, protocatequínico, clorogénico e elágico, catequina, galoil-bis-HHDP-glucose, digaloilglucose, epicatequina, quercetina-glucoronídeo, di-hidroxiisopropilcromona- hexosídeo, isoramnetina-hexosídeo, ácido elágicoramnosídeo, taxifolina, quercetina-hexosídeo, di-hidroxi- (metilpropil)isopropilcromona-hexosídeo, ácido metil-elágico-pentosídeo, miricetina-ramnosídeo, isoramnetina-ramnosídeo, aromadendrina-ramnosídeo, mearnsetina, mearnsetina-hexosídeo, eriodictiol, quercetina, isoramnetina e naringenina. A análise da fração fenólica da cortiça permitiu identificar vinte e dois compostos fenólicos, dez deles referenciados pela primeira vez como seus constituintes, nomeadamente, os ácidos quínico, salicílico, p-hidroxifenillático e metilgálico, ácido carboxílico da brevifolina, eriodictiol, naringenina, um éster isoprenílico do ácido cafeico, isoramnetina-ramnosídeo e isoramnetina. No pó de cortiça industrial foram identificados dezasseis compostos fenólicos, nomeadamente os ácidos quínico, gálico, protocatequínico, cafeico, ferúlico, elágico e metilgálico, esculetina, ácido carboxílico da brevifolina, coniferaldeído, um éster isoprenílico do ácido cafeico, uma dilactona do ácido valoneico, ácido elágico-pentosídeo, ácido elágico-ramnosídeo, isoramnetinaramnosídeo e isoramnetina. Destes, apenas o ácido elágico foi previamente referenciado como componente do pó de cortiça. Do mesmo modo, treze compostos fenólicos foram identificados no condensado negro, doze deles referenciados pela primeira vez como seus constituintes. São eles os ácidos quínico, gálico, p-hidroxifenil-láctico, protocatequínico, p-coumarico, cafeico e elágico, vanilina, esculetina, coniferaldeído, um éster isoprenílico do ácido cafeico e o eriodictiol. A extração supercrítica de compostos fenólicos da casca de eucalipto permitiu não só verificar os parâmetros que afetam a qualidade e quantidade finais dos extratos, como também obter os valores ótimos para estes parâmetros. Esta extração mostrou ainda ser bastante seletiva para determinados grupos de compostos fenólicos, como as flavanonas eriodictiol e naringenina e para o flavonol O-metilado isoramnetina. Este é também o primeiro estudo envolvendo a determinação da atividade antioxidante de extratos da cortiça e dos resíduos da sua exploração, bem como da casca de E. grandis, E. urograndis e E. maidenii. A vasta gama de compostos fenólicos identificados em cada extrato analisado, assim como as prominentes atividades antioxidantes, todas na mesma gama de valores do bem conhecido antioxidante comercial, ácido ascórbico, são claramente um grande contributo para a valorização destes subprodutos industriais.
Resumo:
Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.
Resumo:
O presente trabalho pretende caracterizar a associação existente entre a função cognitiva executiva e a capacidade para o trabalho em profissionais de saúde (médicos e enfermeiros) e profissionais de educação (professores). A função cognitiva executiva é definida como uma série de processos cognitivos de ordem superior (capacidade de planeamento, raciocínio abstrato, flexibilidade cognitiva e resolução de problemas) determinantes no controlo e coordenação de operações cognitivas e fundamentais na organização e monitorização do comportamento humano. A integridade destas funções, são determinantes para a realização adequada de tarefas da vida diária, incluindo o contexto organizacional. A capacidade para trabalho é um forte preditor do desempenho laboral, sendo definida como a autoavaliação que o trabalhador faz do seu bem-estar no presente e no futuro próximo e da capacidade para assegurar o seu trabalho tendo em conta as exigências do mesmo, a saúde e os recursos psicológicos e cognitivos disponíveis. Assim, com o objetivo de compreender a relação entre estas duas variáveis em médicos, enfermeiros e professores, no presente trabalho utilizamos uma amostra composta por 218 sujeitos, sendo que 93 são enfermeiros, 100 professores (ensino secundário) e 25 médicos. Para avaliar as funções cognitivas executivas, nomeadamente a flexibilidade cognitiva e raciocínio abstrato não-verbal utilizamos o Halstead Category Test (HCT). Para avaliar a capacidade de planeamento e resolução de problemas, utilizamos a Torre de Hanoi (TH). Para determinamos o valor da capacidade para o trabalho, utilizamos o índice de capacidade para o trabalho. No sentido de controlar variáveis que poderiam influenciar esta relação, utilizamos Questionário Geral de Saúde (GHQ-12), escala de ansiedade-traço, Questionário de Personalidade de Eysenck, escala de satisfação no trabalho e uma questão dicotómica (Sim/Não) sobre o trabalho por turnos. Pela análise dos resultados, verificamos que alterações nas funções cognitivas executivas poderão prejudicar a capacidade para o trabalho. No entanto, verificamos que variáveis como a idade, trabalho por turnos, personalidade e saúde mental poderão exercer um efeito moderador desta relação. Por fim, em comparação com médicos, enfermeiros e professores, verificamos que os médicos e enfermeiros apresentam um maior prejuízo nas funções cognitivas executivas que os professores, mas não na capacidade para o trabalho. Como conclusão, o nosso trabalho contribuiu para uma melhor compreensão da ação das funções executivas em contexto laboral (em particular na área da saúde e educação), contribuindo para o desenvolvimento e implementação de programas de promoção de saúde laboral em contexto organizacional.
Resumo:
A perfuração é uma das operações envolvidas no desmonte de rocha com explosivos. A forma como esta operação é executada é determinante para o sucesso do desmonte. Quando é realizada correctamente o desmonte produz superfícies limpas com o mínimo de sobrescavação e perturbação. A selecção das ferramentas de perfuração é um dos factores preponderantes para os custos do desmonte de maciços rochosos. O objectivo deste trabalho é demonstrar a interdependência entre os parâmetros petrofísicos, geotécnicos e geomecânicos do maciço rochoso e as tecnologias de perfuração de forma a optimizar tanto técnica como economicamente. A forma como a perfuração é executada é determinante para a boa fragmentação do maciço rochoso. Este estudo irá centrar-se na perfurabilidade do maciço, linearidade dos furos, rendimento e desgaste das ferramentas de perfuração e desenvolvimento de metodologias do ciclo de perfuração. Neste trabalho, discute-se a importância de uma abordagem integrativa para fins de geoengenhara mineira em que foi aplicada a técnica de amostragem linear em superfícies expostas do maciço num ambiente de uma exploração granítica. As áreas seleccionadas para este estudo — Pedreira de Serdedelo (Ribeira, Ponte de Lima) e pedreira do Fojo (Ferreira, Paredes de Coura), NW de Portugal — estão situadas nas proximidades de falhas geológicas regionais. Em todo os casos de estudo foram desenvolvidos numa plataforma SIG usando as seguintes ferramentas: cartografia geo-aplicada, técnicas de geologia estrutural, da geotecnia e da geomecânica mineiras e avaliação de geotecnologias. Esta abordagem leva-nos a compreender a relevância da heterogeneidade do maciço rochoso para o dimensionamento da exploração a diferentes escalas. O controlo geomecânico do desmonte do maciço rochoso através de uma perfuração alinhada é salientado com o intuito de uma abordagem de geoengenharia integrada nos maciços rochosos.
Resumo:
Este trabalho teve como principal objetivo estudar e modificar as propriedades funcionais das proteínas de soja de forma a otimizar e diversificar a sua aplicação industrial. Para tal, foram propostas e estudadas quatro estratégias: i) extração do isolado de proteínas de soja (IPS) a partir de diferentes matérias-primas, ii) adição de galactomananas (GM) com graus de ramificação e massas moleculares diferentes, iii) hidrólise enzimática controlada das proteínas de soja, iv) processamento por alta pressão hidrostática. O estudo e a interpretação da influência destas estratégias sobre as propriedades funcionais das proteínas de soja, nomeadamente, na capacidade gelificante e emulsionante, foram realizados recorrendo fundamentalmente a ensaios reológicos dinâmicos a baixas deformação, espectroscopia de infravermelho, electroforeses, calorimetria diferencial de varrimento e ensaios de microscopia confocal de varrimento laser. O estudo da extração e caracterização dos isolados de proteínas de soja obtidos a partir de diferentes matérias-primas permitiu concluir que as caraterísticas físico-químicas dos isolados são dependentes da origem da matéria-prima de extração e da severidade dos tratamentos industriais prévios à extração do isolado. Contudo, as propriedades viscoelásticas dos géis obtidos por aquecimento controlado não foram significativamente distintas embora tenha sido possível relacionar o grau de agregação com a diminuição da temperatura de gelificação e com o aumento inicial dos módulos viscoelásticos. As alterações sofridas pelos isolados de origem comercial mostraram ser irreversíveis resultando em géis menos rígidos e com maior caráter viscoso. A adição de galactomanana alterou significativamente o mecanismo de gelificação induzido termicamente das proteínas de soja, bem como as propriedades viscoelásticas dos géis e a microestrutura dos géis, demonstrando-se a ocorrência de separação de fases, em virtude da incompatibilidade termodinâmica entre os biopolímeros, resultando em géis mais rígidos e no decréscimo da temperatura de gelificação. A extensão destas alterações foi dependente da massa molecular, grau de ramificação e da razão IPS/GM. O efeito da hidrólise enzimática por ação da bromelina, nas propriedades gelificantes e emulsionantes das proteínas de soja, mostrou ser dependente do grau de hidrólise (GH). Valores de GH inferiores a 15 % melhoraram as propriedades gelificantes das proteínas de soja. Por outro lado, o aumento do GH teve um efeito negativo nas propriedades emulsionantes, o qual foi atenuado por adição da goma de alfarroba, com efeito positivo na gelificação das proteínas de soja. A concentração crítica limite de compatibilidade entre os hidrolisados de proteína de soja e a goma de alfarroba aumentou com o decréscimo do GH e da massa molecular do polissacacrídeo. O efeito da AP sobre as propriedades físico-químicas e funcionais dos IPS foi influenciado pela origem do isolado e pelas condições de tratamento. O processamento até 100 MPa desencadeou um aumento da atividade emulsionante e considerável melhoria da capacidade gelificante. Contudo, valores de pressão superiores promoveram a desnaturação das proteínas constituintes dos isolados, resultando no decréscimo da temperatura de gelificação e numa re-associação das subunidades proteicas, diminuindo a elasticidade dos géis finais. Os resultados sugeriram que as alterações nas proteínas de soja promovidas durante o tratamento por AP constituem um fator limitante para o desdobramento e re-associação durante o aquecimento térmico, necessários para a formação e fortalecimento de gel formado. O processamento por AP influenciou a estrutura secundária e a microestrutura das amostras. A presença de GA teve um papel baroprotetor. Assim, com este trabalho demonstrou-se que com as estratégias seguidas para manipulação das propriedades funcionais de proteínas de soja, nomeadamente através da adição de um polissacarídeo com propriedades estruturais controladas, da adequada combinação da adição de um polissacarídeo neutro com a hidrólise controlada das proteínas ou com tratamento por alta pressão, é possível a criação de novas funcionalidades, com utilidade no desenvolvimento de novas formulações alimentares, permitindo expandir a aplicação destas proteínas vegetais.
Resumo:
A evolução constante em novas tecnologias que providenciam suporte à forma como os nossos dispositivos se ligam, bem como a forma como utilizamos diferentes capacidades e serviços on-line, criou um conjunto sem precedentes de novos desafios que motivam o desenvolvimento de uma recente área de investigação, denominada de Internet Futura. Nesta nova área de investigação, novos aspectos arquiteturais estão ser desenvolvidos, os quais, através da re-estruturação de componentes nucleares subjacentesa que compõem a Internet, progride-a de uma forma capaz de não são fazer face a estes novos desafios, mas também de a preparar para os desafios de amanhã. Aspectos chave pertencendo a este conjunto de desafios são os ambientes de rede heterogéneos compostos por diferentes tipos de redes de acesso, a cada vez maior mudança do tráfego peer-to-peer (P2P) como o tipo de tráfego mais utilizado na Internet, a orquestração de cenários da Internet das Coisas (IoT) que exploram mecanismos de interação Maquinaa-Maquina (M2M), e a utilização de mechanismos centrados na informação (ICN). Esta tese apresenta uma nova arquitetura capaz de simultaneamente fazer face a estes desafios, evoluindo os procedimentos de conectividade e entidades envolvidas, através da adição de uma camada de middleware, que age como um mecanismo de gestão de controlo avançado. Este mecanismo de gestão de controlo aproxima as entidades de alto nível (tais como serviços, aplicações, entidades de gestão de mobilidade, operações de encaminhamento, etc.) com as componentes das camadas de baixo nível (por exemplo, camadas de ligação, sensores e atuadores), permitindo uma otimização conjunta dos procedimentos de ligação subjacentes. Os resultados obtidos não só sublinham a flexibilidade dos mecanismos que compoem a arquitetura, mas também a sua capacidade de providenciar aumentos de performance quando comparados com outras soluÇÕes de funcionamento especÍfico, enquanto permite um maior leque de cenáios e aplicações.
Resumo:
A vida da sociedade atual é dependente dos recursos fósseis, tanto a nível de energia como de materiais. No entanto, tem-se verificado uma redução das reservas destes recursos, ao mesmo tempo que as necessidades da sociedade continuam a aumentar, tornando cada vez mais necessárias, a produção de biocombustíveis e produtos químicos. Atualmente o etanol é produzido industrialmente a partir da cana-de-açúcar e milho, matérias-primas usadas na alimentação humana e animal. Este fato desencadeou o aumento de preços dos alimentos em todo o mundo e, como consequência, provocou uma série de distúrbios sociais. Os subprodutos industriais, recursos independentes das cadeias alimentares, têm-se posicionado como fonte de matérias-primas potenciais para bioprocessamento. Neste sentido, surgem os subprodutos gerados em grande quantidade pela indústria papeleira. Os licores de cozimento da madeira ao sulfito ácido (SSLs) são uma matériaprima promissora, uma vez que durante este processo os polissacarídeos da madeira são hidrolisados originando açúcares fermentáveis. A composição dos SSLs varia consoante o tipo de madeira usada no processo de cozimento (de árvores resinosas, folhosas ou a mistura de ambas). O bioprocessamento do SSL proveniente de folhosas (HSSL) é uma metodologia ainda pouco explorada. O HSSL contém elevadas concentrações de açúcares (35-45 g.L-1), na sua maioria pentoses. A fermentação destes açúcares a bioetanol é ainda um desafio, uma vez que nem todos os microrganismos são capazes de fermentar as pentoses a etanol. De entre as leveduras capazes de fermentar naturalmente as pentoses, destaca-se a Scheffersomyces stipitis, que apresenta uma elevada eficiência de fermentação. No entanto, o HSSL contém também compostos conhecidos por inibirem o crescimento de microrganismos, dificultando assim o seu bioprocessamento. Neste sentido, o principal objetivo deste trabalho foi a produção de bioetanol pela levedura S. stipitis a partir de HSSL, resultante do cozimento ao sulfito ácido da madeira de Eucalyptus globulus. Para alcançar este objetivo, estudaram-se duas estratégias de operação diferentes. Em primeiro lugar estudou-se a bio-desintoxicação do HSSL com o fungo filamentoso Paecilomyces variotii, conhecido por crescer em resíduos industriais. Estudaram-se duas tecnologias fermentativas diferentes para a biodesintoxicação do HSSL: um reator descontínuo e um reator descontínuo sequencial (SBR). A remoção biológica de inibidores do HSSL foi mais eficaz quando se usou o SBR. P. variotii assimilou alguns inibidores microbianos como o ácido acético, o ácido gálico e o pirogalol, entre outros. Após esta desintoxicação, o HSSL foi submetido à fermentação com S. stipitis, na qual foi atingida a concentração máxima de etanol de 2.36 g.L-1 com um rendimento de 0.17 g.g-1. P. variotti, além de desintoxicar o HSSL, também é útil na produção de proteína microbiana (SCP) para a alimentação animal pois, a sua biomassa é rica em proteína. O estudo da produção de SCP por P. variotii foi efetuado num SBR com HSSL sem suplementos e suplementado com sais. A melhor produção de biomassa foi obtida no HSSL sem adição de sais, tendo-se obtido um teor de proteína elevado (82,8%), com uma baixa concentração de DNA (1,1%). A proteína continha 6 aminoácidos essenciais, mostrando potencial para o uso desta SCP na alimentação animal e, eventualmente, em nutrição humana. Assim, a indústria papeleira poderá integrar a produção de bioetanol após a produção SCP e melhorar a sustentabilidade da indústria de pastas. A segunda estratégia consistiu em adaptar a levedura S. stipitis ao HSSL de modo a que esta levedura conseguisse crescer e fermentar o HSSL sem remoção de inibidores. Operou-se um reator contínuo (CSTR) com concentrações crescentes de HSSL, entre 20 % e 60 % (v/v) durante 382 gerações em HSSL, com uma taxa de diluição de 0.20 h-1. A população adaptada, recolhida no final do CSTR (POP), apresentou uma melhoria na fermentação do HSSL (60 %), quando comparada com a estirpe original (PAR). Após esta adaptação, a concentração máxima de etanol obtida foi de 6.93 g.L-1, com um rendimento de 0.26 g.g-1. POP possuía também a capacidade de metabolizar, possivelmente por ativação de vias oxidativas, compostos derivados da lenhina e taninos dissolvidos no HSSL, conhecidos inibidores microbianos. Por fim, verificou-se também que a pré-cultura da levedura em 60 % de HSSL fez com que a estirpe PAR melhorasse o processo fermentativo em HSSL, em comparação com o ensaio sem pré-cultura em HSSL. No entanto, no caso da estirpe POP, o seu metabolismo foi redirecionado para a metabolização dos inibidores sendo que a produção de etanol decresceu.
Resumo:
O objetivo deste estudo, que resultou de um estágio realizado na Associação Industrial do Distrito de Aveiro (AIDA), foi perceber qual o papel das associações empresariais e industriais para o tecido empresarial desta mesma região. Neste sentido, procurou-se perceber: quais os serviços procurados pelas empresas nas suas associações, as razões que motivam essa procura e o grau de satisfação com os serviços prestados; quais as vantagens e desvantagens de pertencer a uma associação empresarial/industrial; e quais as mudanças percecionadas como necessárias nas associações para a melhoria da qualidade dos serviços prestados, tornando-as, deste modo, mais relevantes para o tecido empresarial. Com vista à concretização do objetivo proposto foi utilizada uma metodologia qualitativa, tendo a informação sido recolhida através de análise documental, de observação participante e de entrevistas realizadas à Diretora-Geral da AIDA e a oito empresas pertencentes a associações empresariais e industriais. O presente estudo começa por apresentar a evolução da indústria portuguesa e do associativismo industrial ao longo do tempo, focando as alterações mais significativas ocorridas e referindo as funções desempenhadas pelas mesmas associações. Posteriormente, é analisado a Entidade de Acolhimento – a AIDA –, e relatadas as atividades realizadas ao longo do estágio nessa instituição. Seguidamente, e após a explicação da metodologia utilizada, é apresentada a análise das entrevistas realizadas a empresários. Finalmente, são tiradas as conclusões finais e delineadas perspetivas para o futuro. Este estudo permitiu reconhecer o papel importante que as associações empresarias/indústrias desempenham para as empresas e para as regiões onde estas se inserem. Porém, existem ainda mudanças a realizar, de forma a potenciar o seu trabalho e ir de encontro aos anseios e às necessidades das empresas.
Resumo:
The performance of real-time networks is under continuous improvement as a result of several trends in the digital world. However, these tendencies not only cause improvements, but also exacerbates a series of unideal aspects of real-time networks such as communication latency, jitter of the latency and packet drop rate. This Thesis focuses on the communication errors that appear on such realtime networks, from the point-of-view of automatic control. Specifically, it investigates the effects of packet drops in automatic control over fieldbuses, as well as the architectures and optimal techniques for their compensation. Firstly, a new approach to address the problems that rise in virtue of such packet drops, is proposed. This novel approach is based on the simultaneous transmission of several values in a single message. Such messages can be from sensor to controller, in which case they are comprised of several past sensor readings, or from controller to actuator in which case they are comprised of estimates of several future control values. A series of tests reveal the advantages of this approach. The above-explained approach is then expanded as to accommodate the techniques of contemporary optimal control. However, unlike the aforementioned approach, that deliberately does not send certain messages in order to make a more efficient use of network resources; in the second case, the techniques are used to reduce the effects of packet losses. After these two approaches that are based on data aggregation, it is also studied the optimal control in packet dropping fieldbuses, using generalized actuator output functions. This study ends with the development of a new optimal controller, as well as the function, among the generalized functions that dictate the actuator’s behaviour in the absence of a new control message, that leads to the optimal performance. The Thesis also presents a different line of research, related with the output oscillations that take place as a consequence of the use of classic co-design techniques of networked control. The proposed algorithm has the goal of allowing the execution of such classical co-design algorithms without causing an output oscillation that increases the value of the cost function. Such increases may, under certain circumstances, negate the advantages of the application of the classical co-design techniques. A yet another line of research, investigated algorithms, more efficient than contemporary ones, to generate task execution sequences that guarantee that at least a given number of activated jobs will be executed out of every set composed by a predetermined number of contiguous activations. This algorithm may, in the future, be applied to the generation of message transmission patterns in the above-mentioned techniques for the efficient use of network resources. The proposed task generation algorithm is better than its predecessors in the sense that it is capable of scheduling systems that cannot be scheduled by its predecessor algorithms. The Thesis also presents a mechanism that allows to perform multi-path routing in wireless sensor networks, while ensuring that no value will be counted in duplicate. Thereby, this technique improves the performance of wireless sensor networks, rendering them more suitable for control applications. As mentioned before, this Thesis is centered around techniques for the improvement of performance of distributed control systems in which several elements are connected through a fieldbus that may be subject to packet drops. The first three approaches are directly related to this topic, with the first two approaching the problem from an architectural standpoint, whereas the third one does so from more theoretical grounds. The fourth approach ensures that the approaches to this and similar problems that can be found in the literature that try to achieve goals similar to objectives of this Thesis, can do so without causing other problems that may invalidate the solutions in question. Then, the thesis presents an approach to the problem dealt with in it, which is centered in the efficient generation of the transmission patterns that are used in the aforementioned approaches.
Resumo:
Over the last decade, the most widespread approaches for traditional management were based on the Simple Network Management Protocol (SNMP) or Common Management Information Protocol (CMIP). However, they both have several problems in terms of scalability, due to their centralization characteristics. Although the distributed management approaches exhibit better performance in terms of scalability, they still underperform regarding communication costs, autonomy, extensibility, exibility, robustness, and cooperation between network nodes. The cooperation between network nodes normally requires excessive overheads for synchronization and dissemination of management information in the network. For emerging dynamic and large-scale networking environments, as envisioned in Next Generation Networks (NGNs), exponential growth in the number of network devices and mobile communications and application demands is expected. Thus, a high degree of management automation is an important requirement, along with new mechanisms that promote it optimally and e ciently, taking into account the need for high cooperation between the nodes. Current approaches for self and autonomic management allow the network administrator to manage large areas, performing fast reaction and e ciently facing unexpected problems. The management functionalities should be delegated to a self-organized plane operating within the network, that decrease the network complexity and the control information ow, as opposed to centralized or external servers. This Thesis aims to propose and develop a communication framework for distributed network management which integrates a set of mechanisms for initial communication, exchange of management information, network (re) organization and data dissemination, attempting to meet the autonomic and distributed management requirements posed by NGNs. The mechanisms are lightweight and portable, and they can operate in di erent hardware architectures and include all the requirements to maintain the basis for an e cient communication between nodes in order to ensure autonomic network management. Moreover, those mechanisms were explored in diverse network conditions and events, such as device and link errors, di erent tra c/network loads and requirements. The results obtained through simulation and real experimentation show that the proposed mechanisms provide a lower convergence time, smaller overhead impact in the network, faster dissemination of management information, increase stability and quality of the nodes associations, and enable the support for e cient data information delivery in comparison to the base mechanisms analyzed. Finally, all mechanisms for communication between nodes proposed in this Thesis, that support and distribute the management information and network control functionalities, were devised and developed to operate in completely decentralized scenarios.
Resumo:
The main objective of this work was to monitor a set of physical-chemical properties of heavy oil procedural streams through nuclear magnetic resonance spectroscopy, in order to propose an analysis procedure and online data processing for process control. Different statistical methods which allow to relate the results obtained by nuclear magnetic resonance spectroscopy with the results obtained by the conventional standard methods during the characterization of the different streams, have been implemented in order to develop models for predicting these same properties. The real-time knowledge of these physical-chemical properties of petroleum fractions is very important for enhancing refinery operations, ensuring technically, economically and environmentally proper refinery operations. The first part of this work involved the determination of many physical-chemical properties, at Matosinhos refinery, by following some standard methods important to evaluate and characterize light vacuum gas oil, heavy vacuum gas oil and fuel oil fractions. Kinematic viscosity, density, sulfur content, flash point, carbon residue, P-value and atmospheric and vacuum distillations were the properties analysed. Besides the analysis by using the standard methods, the same samples were analysed by nuclear magnetic resonance spectroscopy. The second part of this work was related to the application of multivariate statistical methods, which correlate the physical-chemical properties with the quantitative information acquired by nuclear magnetic resonance spectroscopy. Several methods were applied, including principal component analysis, principal component regression, partial least squares and artificial neural networks. Principal component analysis was used to reduce the number of predictive variables and to transform them into new variables, the principal components. These principal components were used as inputs of the principal component regression and artificial neural networks models. For the partial least squares model, the original data was used as input. Taking into account the performance of the develop models, by analysing selected statistical performance indexes, it was possible to conclude that principal component regression lead to worse performances. When applying the partial least squares and artificial neural networks models better results were achieved. However, it was with the artificial neural networks model that better predictions were obtained for almost of the properties analysed. With reference to the results obtained, it was possible to conclude that nuclear magnetic resonance spectroscopy combined with multivariate statistical methods can be used to predict physical-chemical properties of petroleum fractions. It has been shown that this technique can be considered a potential alternative to the conventional standard methods having obtained very promising results.
Resumo:
Os fogos florestais, embora possam ser encarados como um fenómeno natural, constituem igualmente uma ameaça com impactos negativos a vários níveis. A alteração dos regimes naturais do fogo por acção antrópica tem vindo a maximizar o potencial catastrófico do fenómeno em diferentes regiões do planeta, destacando-se, em particular, a Região Mediterrânica, onde o fogo constitui uma perturbação recorrente associada, por um lado, às características climáticas desta região e, por outro, às práticas tradicionais decorrentes da presença humana nessa área, numa extensão temporal de milhares de anos. Em Portugal, o problema dos fogos florestais assume uma expressividade de particular relevo, colocando-o entre os países do sul da Europa mais atingidos pelo fogo a cada Verão. Reconhecendo o papel das condições meteorológicas nas interacções envolvidas no processo de deflagração e propagação de incêndios, a identificação de condições meteorológicas propícias à ocorrência de incêndios, expressa sob a forma de índices de risco reveste-se de crucial importância para as operações de prevenção e combate aos incêndios, para além da mais-valia que constituem para os restantes sectores da sociedade. Adicionalmente, a detecção e monitorização de ocorrências de incêndios a partir de satélites tem vindo a assumir um papel preponderante, revelando-se fundamental enquanto fonte de alerta e pelas potencialidades que as bases de dados resultantes da observação contínua da Terra pelos satélites oferecem, no que às mais diversas áreas de investigação diz respeito. O presente trabalho explora, nas vertentes da prevenção de incêndios, a utilização de previsões de tempo de alta resolução espacial obtidas com o modelo WRF para a determinação das componentes do sistema FWI canadiano e sua disponibilização operacional. Os resultados apontam para um impacto positivo, em virtude do incremento da resolução espacial, da representação espacial do risco meteorológico de incêndio no território português. Paralelamente, apresentam-se os resultados do desenvolvimento de produtos de detecção de incêndios activos a partir da infra-estrutura de recepção de dados de satélite implementadas na Universidade de Aveiro, destacando a sua adequabilidade para a monitorização e identificação, em tempo quase-real, da ocorrência de fogos florestais em Portugal Continental.
Resumo:
Desulfurization is one of the most important processes in the refining industry. Due to a growing concern about the risks to human health and environment, associated with the emissions of sulfur compounds, legislation has become more stringent, requiring a drastic reduction in the sulfur content of fuel to levels close to zero (< 10 ppm S). However, conventional desulfurization processes are inefficient and have high operating costs. This scenario stimulates the improvement of existing processes and the development of new and more efficient technologies. Aiming at overcoming these shortcomings, this work investigates an alternative desulfurization process using ionic liquids for the removal of mercaptans from "jet fuel" streams. The screening and selection of the most suitable ionic liquid were performed based on experimental and COSMO-RS predicted liquid-liquid equilibrium data. A model feed of 1-hexanethiol and n-dodecane was selected to represent a jet-fuel stream. High selectivities were determined, as a result of the low mutual solubility between the ionic liquid and the hydrocarbon matrix, proving the potential use of the ionic liquid, which prevents the loss of fuel for the solvent. The distribution ratios of mercaptans towards the ionic liquids were not as favorable, making the traditional liquid-liquid extraction processes not suitable for the removal of aliphatic S-compounds due to the high volume of extractant required. This work explores alternative methods and proposes the use of ionic liquids in a separation process assisted by membranes. In the process proposed the ionic liquid is used as extracting solvent of the sulfur species, in a hollow fiber membrane contactor, without co-extracting the other jet-fuel compound. In a second contactor, the ionic liquid is regenerated applying a sweep gas stripping, which allows for its reuse in a closed loop between the two membrane contactors. This integrated extraction/regeneration process of desulfurization produced a jet-fuel model with sulfur content lower than 2 ppm of S, as envisaged by legislation for the use of ultra-low sulfur jet-fuel. This result confirms the high potential for development of ultra-deep desulfurization application.
Resumo:
This thesis reports in detail studies of industrial solid wastes valorization as alternative raw materials. All tested wastes are classified as non-hazardous and are generated in the pulp and paper process, including primary sludge, dregs, grits, lime mud and bottom ash (this generated in a process that occurs in parallel to the production of cellulose, whose aim is the production of energy to supply the plant through the combustion of forest biomass in fluidized bed). A detailed general characterization was performed at each waste and according to their characteristics, they were selected some applications in materials with potential use, specifically in Fibercement, Bituminous Mixture for regularization layer and industrial mortars (rendering mortars and cementitious-adhesive). After decided to application each waste was specifically tested to proceed the setting up of formulations containing different content of waste in replacement of the raw conventional material. As an isolated case, the bottom ash was tested not only as an alternative raw material for construction materials, but also it was tested for its use in fluidized bed in which the waste is generated as raw material. Both dregs and bottom ash had undergone special treatment to make possible to obtain a better quality of waste in order do not compromise the final product characteristics and process. The dregs were tested in bituminous mixtures as received and also washed (on the laboratory scale to remove soluble salts) and bottom ash were washed and screened in industrial scale (for removal of soluble salts, especially chlorides and coarse fraction particles elimination - particles larger than 1 mm size). The remaining residues form used in such as received avoiding additional costs. The results indicated potential and some limitations for each application to the use of these wastes as alternative raw material, but in some cases, the benefits in relation to valorization overlap with its limitations in both aspects, environmental and economic.
Resumo:
The main purpose of this PhD thesis was to provide convincing demonstration for a breakthrough concept of pyroelectrolysis at laboratory scale. One attempted to identify fundamental objections and/or the most critical constraints, to propose workable concepts for the overall process and for feasible electrodes, and to establish the main requirements on a clearer basis. The main effort was dedicated to studying suitable anode materials to be developed for large scale industrial units with molten silicate electrolyte. This concept relies on consumable anodes based on iron oxides, and a liquid Fe cathode, separated from the refractory materials by a freeze lining (solid) layer. In addition, one assessed an alternative concept of pyroelectrolysis with electron blocking membranes, and developed a prototype at small laboratory scale. The main composition of the molten electrolyte was based on a magnesium aluminosilicate composition, with minimum liquidus temperature, and with different additions of iron oxide. One studied the dynamics of devitrification of these melts, crystallization of iron oxides or other phases, and Fe2+/Fe3+ redox changes under laser zone melting, at different pulling rates. These studies were intended to provide guidelines for dissolution of raw materials (iron oxides) in the molten electrolyte, to assess compatibility with magnetite based consumable anodes, and to account for thermal gradients or insufficient thermal management in large scale cells. Several laboratory scale prototype cells were used to demonstrate the concept of pyroelectrolysis with electron blocking, and to identify the most critical issues and challenges. Operation with and without electron blocking provided useful information on transport properties of the molten electrolyte (i.e., ionic and electronic conductivities), their expected dependence on anodic and cathodic overpotentials, limitations in faradaic efficiency, and onset of side electrochemical reactions. The concept of consumable anodes was based on magnetite and derived spinel compositions, for their expected redox stability at high temperatures, even under oxidising conditions. Spinel compositions were designed for prospective gains in refractoriness and redox stability in wider ranges of conditions (T, pO2 and anodic overpotentials), without excessive penalty for electrical conductivity, thermomechanical stability or other requirements. Composition changes were also mainly based on components of the molten aluminosilicate melt, to avoid undue contamination and to minimize the dissolution rate of consumable anodes. Additional changes in composition were intended for prospective pyroelectrolysis of Fe alloys, with additions of different elements (Cr, Mn, Ni, Ti).