43 resultados para Acústica (Otimização)


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Viscoelastic treatments are one of the most efficient treatments, as far as passive damping is concerned, particularly in the case of thin and light structures. In this type of treatment, part of the strain energy generated in the viscoelastic material is dissipated to the surroundings, in the form of heat. A layer of viscoelastic material is applied to a structure in an unconstrained or constrained configuration, the latter proving to be the most efficient arrangement. This is due to the fact that the relative movement of both the host and constraining layers cause the viscoelastic material to be subjected to a relatively high strain energy. There are studies, however, that claim that the partial application of the viscoelastic material is just as efficient, in terms of economic costs or any other form of treatment application costs. The application of patches of material in specific and selected areas of the structure, thus minimising the extension of damping material, results in an equally efficient treatment. Since the damping mechanism of a viscoelastic material is based on the dissipation of part of the strain energy, the efficiency of the partial treatment can be correlated to the modal strain energy of the structure. Even though the results obtained with this approach in various studies are considered very satisfactory, an optimisation procedure is deemed necessary. In order to obtain optimum solutions, however, time consuming numerical simulations are required. The optimisation process to use the minimum amount of viscoelastic material is based on an evolutionary geometry re-design and calculation of the modal damping, making this procedure computationally costly. To avert this disadvantage, this study uses adaptive layerwise finite elements and applies Genetic Algorithms in the optimisation process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O transporte marítimo e o principal meio de transporte de mercadorias em todo o mundo. Combustíveis e produtos petrolíferos representam grande parte das mercadorias transportadas por via marítima. Sendo Cabo Verde um arquipelago o transporte por mar desempenha um papel de grande relevância na economia do país. Consideramos o problema da distribuicao de combustíveis em Cabo Verde, onde uma companhia e responsavel por coordenar a distribuicao de produtos petrolíferos com a gestão dos respetivos níveis armazenados em cada porto, de modo a satisfazer a procura dos varios produtos. O objetivo consiste em determinar políticas de distribuicão de combustíveis que minimizam o custo total de distribuiçao (transporte e operacões) enquanto os n íveis de armazenamento sao mantidos nos n íveis desejados. Por conveniencia, de acordo com o planeamento temporal, o prob¬lema e divido em dois sub-problemas interligados. Um de curto prazo e outro de medio prazo. Para o problema de curto prazo sao discutidos modelos matemáticos de programacao inteira mista, que consideram simultaneamente uma medicao temporal cont ínua e uma discreta de modo a modelar multiplas janelas temporais e taxas de consumo que variam diariamente. Os modelos sao fortalecidos com a inclusão de desigualdades validas. O problema e então resolvido usando um "software" comercial. Para o problema de medio prazo sao inicialmente discutidos e comparados varios modelos de programacao inteira mista para um horizonte temporal curto assumindo agora uma taxa de consumo constante, e sao introduzidas novas desigualdades validas. Com base no modelo escolhido sao compara¬das estrategias heurísticas que combinam três heur ísticas bem conhecidas: "Rolling Horizon", "Feasibility Pump" e "Local Branching", de modo a gerar boas soluçoes admissíveis para planeamentos com horizontes temporais de varios meses. Finalmente, de modo a lidar com situaçoes imprevistas, mas impor¬tantes no transporte marítimo, como as mas condicões meteorológicas e congestionamento dos portos, apresentamos um modelo estocastico para um problema de curto prazo, onde os tempos de viagens e os tempos de espera nos portos sao aleatórios. O problema e formulado como um modelo em duas etapas, onde na primeira etapa sao tomadas as decisões relativas as rotas do navio e quantidades a carregar e descarregar e na segunda etapa (designada por sub-problema) sao consideradas as decisoes (com recurso) relativas ao escalonamento das operacões. O problema e resolvido por um metodo de decomposto que usa um algoritmo eficiente para separar as desigualdades violadas no sub-problema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The expectations of citizens from the Information Technologies (ITs) are increasing as the ITs have become integral part of our society, serving all kinds of activities whether professional, leisure, safety-critical applications or business. Hence, the limitations of the traditional network designs to provide innovative and enhanced services and applications motivated a consensus to integrate all services over packet switching infrastructures, using the Internet Protocol, so as to leverage flexible control and economical benefits in the Next Generation Networks (NGNs). However, the Internet is not capable of treating services differently while each service has its own requirements (e.g., Quality of Service - QoS). Therefore, the need for more evolved forms of communications has driven to radical changes of architectural and layering designs which demand appropriate solutions for service admission and network resources control. This Thesis addresses QoS and network control issues, aiming to improve overall control performance in current and future networks which classify services into classes. The Thesis is divided into three parts. In the first part, we propose two resource over-reservation algorithms, a Class-based bandwidth Over-Reservation (COR) and an Enhanced COR (ECOR). The over-reservation means reserving more bandwidth than a Class of Service (CoS) needs, so the QoS reservation signalling rate is reduced. COR and ECOR allow for dynamically defining over-reservation parameters for CoSs based on network interfaces resource conditions; they aim to reduce QoS signalling and related overhead without incurring CoS starvation or waste of bandwidth. ECOR differs from COR by allowing for optimizing control overhead minimization. Further, we propose a centralized control mechanism called Advanced Centralization Architecture (ACA), that uses a single state-full Control Decision Point (CDP) which maintains a good view of its underlying network topology and the related links resource statistics on real-time basis to control the overall network. It is very important to mention that, in this Thesis, we use multicast trees as the basis for session transport, not only for group communication purposes, but mainly to pin packets of a session mapped to a tree to follow the desired tree. Our simulation results prove a drastic reduction of QoS control signalling and the related overhead without QoS violation or waste of resources. Besides, we provide a generic-purpose analytical model to assess the impact of various parameters (e.g., link capacity, session dynamics, etc.) that generally challenge resource overprovisioning control. In the second part of this Thesis, we propose a decentralization control mechanism called Advanced Class-based resource OverpRovisioning (ACOR), that aims to achieve better scalability than the ACA approach. ACOR enables multiple CDPs, distributed at network edge, to cooperate and exchange appropriate control data (e.g., trees and bandwidth usage information) such that each CDP is able to maintain a good knowledge of the network topology and the related links resource statistics on real-time basis. From scalability perspective, ACOR cooperation is selective, meaning that control information is exchanged dynamically among only the CDPs which are concerned (correlated). Moreover, the synchronization is carried out through our proposed concept of Virtual Over-Provisioned Resource (VOPR), which is a share of over-reservations of each interface to each tree that uses the interface. Thus, each CDP can process several session requests over a tree without requiring synchronization between the correlated CDPs as long as the VOPR of the tree is not exhausted. Analytical and simulation results demonstrate that aggregate over-reservation control in decentralized scenarios keep low signalling without QoS violations or waste of resources. We also introduced a control signalling protocol called ACOR Protocol (ACOR-P) to support the centralization and decentralization designs in this Thesis. Further, we propose an Extended ACOR (E-ACOR) which aggregates the VOPR of all trees that originate at the same CDP, and more session requests can be processed without synchronization when compared with ACOR. In addition, E-ACOR introduces a mechanism to efficiently track network congestion information to prevent unnecessary synchronization during congestion time when VOPRs would exhaust upon every session request. The performance evaluation through analytical and simulation results proves the superiority of E-ACOR in minimizing overall control signalling overhead while keeping all advantages of ACOR, that is, without incurring QoS violations or waste of resources. The last part of this Thesis includes the Survivable ACOR (SACOR) proposal to support stable operations of the QoS and network control mechanisms in case of failures and recoveries (e.g., of links and nodes). The performance results show flexible survivability characterized by fast convergence time and differentiation of traffic re-routing under efficient resource utilization i.e. without wasting bandwidth. In summary, the QoS and architectural control mechanisms proposed in this Thesis provide efficient and scalable support for network control key sub-systems (e.g., QoS and resource control, traffic engineering, multicasting, etc.), and thus allow for optimizing network overall control performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tratamento físico-químico de águas residuais, de origem industrial, mais comum é o tratamento baseado na adição de coagulante e floculante a um efluente. No entanto, o tratamento eletroquímico é um tipo de tratamento que tem vindo a ser explorado e estudado com mais ênfase ao longo dos últimos anos. O tratamento eletroquímico é uma tecnologia AOP (Processos de Oxidação Avançada) e divide-se em eletrólise direta (oxidação e redução) e indireta (eletrocoagulação-flotação e eletrooxidação). A eletrocoagulação e eletrooxidação divergem apenas pelo tipo de reações que ocorrem, devido ao material que constitui os elétrodos. São processos complexos com uma multiplicidade de mecanismos que operam sinergicamente para remover poluentes da água. Tendo em conta a sua complexidade e ainda dificuldade de compreensão, existem na literatura diferentes versões acerca de quais os mecanismos chave, assim como diversas configurações geométricas de reatores e elétrodos. Atualmente, este tipo de tratamento tem vindo a evoluir, tornando-se num método economicamente viável para o tratamento de uma grande variedade de águas residuais, nomeadamente, aquelas que possuem compostos recalcitrantes na sua composição. O presente trabalho foi realizado nas instalações da VentilAQUA S.A. e, tendo em conta a sua área de especialidade, o trabalho exposto focou-se no desenvolvimento de soluções técnicas de AOP, nomeadamente na área eletroquímica (eletrocoagulação e eletrooxidação),para estudo dos parâmetros operacionais numa nova configuração geométrica para os elétrodos. Tendo por base os contributos da revisão bibliográfica, o estudo incidiu num reator tubular, com elétrodos de inox dispostos de forma concêntrica, à mesma distância entre si. Com este reator foram executados variados testes, com diferentes efluentes, que permitiram obter resultados operacionais de otimização de funcionamento, tendo em vista a remoção de poluentes. O estudo financeiro associado permitiu concluir que a eletrooxidação é significativamente mais económica que o tratamento físico-químico, nas condições operacionais e para os efluentes tratados. Relativamente ao Acompanhamento e Gestão de ETAR’s (Capítulo 4) foi possível verificar que todos os casos em estudo apresentam uma boa eficiência de remoção de matéria orgânica, permitindo a descarga do seu efluente com uma carga poluente que cumpre com os requisitos legais de descarga em meio hídrico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Muitos dos problemas de otimização em grafos reduzem-se à determinação de um subconjunto de vértices de cardinalidade máxima que induza um subgrafo k-regular. Uma vez que a determinação da ordem de um subgrafo induzido k-regular de maior ordem é, em geral, um problema NP-difícil, são deduzidos novos majorantes, a determinar em tempo polinomial, que em muitos casos constituam boas aproximações das respetivas soluções ótimas. Introduzem-se majorantes espetrais usando uma abordagem baseada em técnicas de programação convexa e estabelecem-se condições necessárias e suficientes para que sejam atingidos. Adicionalmente, introduzem-se majorantes baseados no espetro das matrizes de adjacência, laplaciana e laplaciana sem sinal. É ainda apresentado um algoritmo não polinomial para a determinação de umsubconjunto de vértices de umgrafo que induz umsubgrafo k-regular de ordem máxima para uma classe particular de grafos. Finalmente, faz-se um estudo computacional comparativo com vários majorantes e apresentam-se algumas conclusões.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Network virtualisation is seen as a promising approach to overcome the so-called “Internet impasse” and bring innovation back into the Internet, by allowing easier migration towards novel networking approaches as well as the coexistence of complementary network architectures on a shared infrastructure in a commercial context. Recently, the interest from the operators and mainstream industry in network virtualisation has grown quite significantly, as the potential benefits of virtualisation became clearer, both from an economical and an operational point of view. In the beginning, the concept has been mainly a research topic and has been materialized in small-scale testbeds and research network environments. This PhD Thesis aims to provide the network operator with a set of mechanisms and algorithms capable of managing and controlling virtual networks. To this end, we propose a framework that aims to allocate, monitor and control virtual resources in a centralized and efficient manner. In order to analyse the performance of the framework, we performed the implementation and evaluation on a small-scale testbed. To enable the operator to make an efficient allocation, in real-time, and on-demand, of virtual networks onto the substrate network, it is proposed a heuristic algorithm to perform the virtual network mapping. For the network operator to obtain the highest profit of the physical network, it is also proposed a mathematical formulation that aims to maximize the number of allocated virtual networks onto the physical network. Since the power consumption of the physical network is very significant in the operating costs, it is important to make the allocation of virtual networks in fewer physical resources and onto physical resources already active. To address this challenge, we propose a mathematical formulation that aims to minimize the energy consumption of the physical network without affecting the efficiency of the allocation of virtual networks. To minimize fragmentation of the physical network while increasing the revenue of the operator, it is extended the initial formulation to contemplate the re-optimization of previously mapped virtual networks, so that the operator has a better use of its physical infrastructure. It is also necessary to address the migration of virtual networks, either for reasons of load balancing or for reasons of imminent failure of physical resources, without affecting the proper functioning of the virtual network. To this end, we propose a method based on cloning techniques to perform the migration of virtual networks across the physical infrastructure, transparently, and without affecting the virtual network. In order to assess the resilience of virtual networks to physical network failures, while obtaining the optimal solution for the migration of virtual networks in case of imminent failure of physical resources, the mathematical formulation is extended to minimize the number of nodes migrated and the relocation of virtual links. In comparison with our optimization proposals, we found out that existing heuristics for mapping virtual networks have a poor performance. We also found that it is possible to minimize the energy consumption without penalizing the efficient allocation. By applying the re-optimization on the virtual networks, it has been shown that it is possible to obtain more free resources as well as having the physical resources better balanced. Finally, it was shown that virtual networks are quite resilient to failures on the physical network.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudar os mecanismos subjacentes à produção de fala é uma tarefa complexa e exigente, requerendo a obtenção de dados mediante a utilização de variadas técnicas, onde se incluem algumas modalidades imagiológicas. De entre estas, a Ressonância Magnética (RM) tem ganho algum destaque, nos últimos anos, posicionando-se como uma das mais promissoras no domínio da produção de fala. Um importante contributo deste trabalho prende-se com a otimização e implementação de protocolos (RM) e proposta de estratégias de processamento de imagem ajustados aos requisitos da produção de fala, em geral, e às especificidades dos diferentes sons. Para além disso, motivados pela escassez de dados para o Português Europeu (PE), constitui-se como objetivo a obtenção de dados articulatórios que permitam complementar informação já existente e clarificar algumas questões relativas à produção dos sons do PE (nomeadamente, consoantes laterais e vogais nasais). Assim, para as consoantes laterais foram obtidas imagens RM (2D e 3D), através de produções sustidas, com recurso a uma sequência Eco de Gradiente (EG) rápida (3D VIBE), no plano sagital, englobando todo o trato vocal. O corpus, adquirido por sete falantes, contemplou diferentes posições silábicas e contextos vocálicos. Para as vogais nasais, foram adquiridas, em três falantes, imagens em tempo real com uma sequência EG - Spoiled (TurboFLASH), nos planos sagital e coronal, obtendo-se uma resolução temporal de 72 ms (14 frames/s). Foi efetuada aquisição sincronizada das imagens com o sinal acústico mediante utilização de um microfone ótico. Para o processamento e análise de imagem foram utilizados vários algoritmos semiautomáticos. O tratamento e análise dos dados permitiu efetuar uma descrição articulatória das consoantes laterais, ancorada em dados qualitativos (e.g., visualizações 3D, comparação de contornos) e quantitativos que incluem áreas, funções de área do trato vocal, extensão e área das passagens laterais, avaliação de efeitos contextuais e posicionais, etc. No que respeita à velarização da lateral alveolar /l/, os resultados apontam para um /l/ velarizado independentemente da sua posição silábica. Relativamente ao /L/, em relação ao qual a informação disponível era escassa, foi possível verificar que a sua articulação é bastante mais anteriorizada do que tradicionalmente descrito e também mais extensa do que a da lateral alveolar. A resolução temporal de 72 ms conseguida com as aquisições de RM em tempo real, revelou-se adequada para o estudo das características dinâmicas das vogais nasais, nomeadamente, aspetos como a duração do gesto velar, gesto oral, coordenação entre gestos, etc. complementando e corroborando resultados, já existentes para o PE, obtidos com recurso a outras técnicas instrumentais. Para além disso, foram obtidos novos dados de produção relevantes para melhor compreensão da nasalidade (variação área nasal/oral no tempo, proporção nasal/oral). Neste estudo, fica patente a versatilidade e potencial da RM para o estudo da produção de fala, com contributos claros e importantes para um melhor conhecimento da articulação do Português, para a evolução de modelos de síntese de voz, de base articulatória, e para aplicação futura em áreas mais clínicas (e.g., perturbações da fala).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho propõe-se investigar o papel do tempo em música a partir da prática composicional. Para isso leva em consideração uma evolução de conceitos de tempo ao longo da história humana, o entendimento recente do tempo musical e dos elementos que o compõem. São abordados, para este fim, os principais destes elementos, a quantidade e a qualidade das informações musicais, sob a perspectiva criativa. Propõe-se então uma organização conceitual que permita compreender melhor o papel do tempo em música. Em um primeiro momento dentro de obras recentes de compositores que se dedicaram ao tema e em um segundo momento dentro de um conjunto de obras originais compostas para esta tese.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis reports the application of metabolomics to human tissues and biofluids (blood plasma and urine) to unveil the metabolic signature of primary lung cancer. In Chapter 1, a brief introduction on lung cancer epidemiology and pathogenesis, together with a review of the main metabolic dysregulations known to be associated with cancer, is presented. The metabolomics approach is also described, addressing the analytical and statistical methods employed, as well as the current state of the art on its application to clinical lung cancer studies. Chapter 2 provides the experimental details of this work, in regard to the subjects enrolled, sample collection and analysis, and data processing. In Chapter 3, the metabolic characterization of intact lung tissues (from 56 patients) by proton High Resolution Magic Angle Spinning (HRMAS) Nuclear Magnetic Resonance (NMR) spectroscopy is described. After careful assessment of acquisition conditions and thorough spectral assignment (over 50 metabolites identified), the metabolic profiles of tumour and adjacent control tissues were compared through multivariate analysis. The two tissue classes could be discriminated with 97% accuracy, with 13 metabolites significantly accounting for this discrimination: glucose and acetate (depleted in tumours), together with lactate, alanine, glutamate, GSH, taurine, creatine, phosphocholine, glycerophosphocholine, phosphoethanolamine, uracil nucleotides and peptides (increased in tumours). Some of these variations corroborated typical features of cancer metabolism (e.g., upregulated glycolysis and glutaminolysis), while others suggested less known pathways (e.g., antioxidant protection, protein degradation) to play important roles. Another major and novel finding described in this chapter was the dependence of this metabolic signature on tumour histological subtype. While main alterations in adenocarcinomas (AdC) related to phospholipid and protein metabolisms, squamous cell carcinomas (SqCC) were found to have stronger glycolytic and glutaminolytic profiles, making it possible to build a valid classification model to discriminate these two subtypes. Chapter 4 reports the NMR metabolomic study of blood plasma from over 100 patients and near 100 healthy controls, the multivariate model built having afforded a classification rate of 87%. The two groups were found to differ significantly in the levels of lactate, pyruvate, acetoacetate, LDL+VLDL lipoproteins and glycoproteins (increased in patients), together with glutamine, histidine, valine, methanol, HDL lipoproteins and two unassigned compounds (decreased in patients). Interestingly, these variations were detected from initial disease stages and the magnitude of some of them depended on the histological type, although not allowing AdC vs. SqCC discrimination. Moreover, it is shown in this chapter that age mismatch between control and cancer groups could not be ruled out as a possible confounding factor, and exploratory external validation afforded a classification rate of 85%. The NMR profiling of urine from lung cancer patients and healthy controls is presented in Chapter 5. Compared to plasma, the classification model built with urinary profiles resulted in a superior classification rate (97%). After careful assessment of possible bias from gender, age and smoking habits, a set of 19 metabolites was proposed to be cancer-related (out of which 3 were unknowns and 6 were partially identified as N-acetylated metabolites). As for plasma, these variations were detected regardless of disease stage and showed some dependency on histological subtype, the AdC vs. SqCC model built showing modest predictive power. In addition, preliminary external validation of the urine-based classification model afforded 100% sensitivity and 90% specificity, which are exciting results in terms of potential for future clinical application. Chapter 6 describes the analysis of urine from a subset of patients by a different profiling technique, namely, Ultra-Performance Liquid Chromatography coupled to Mass Spectrometry (UPLC-MS). Although the identification of discriminant metabolites was very limited, multivariate models showed high classification rate and predictive power, thus reinforcing the value of urine in the context of lung cancer diagnosis. Finally, the main conclusions of this thesis are presented in Chapter 7, highlighting the potential of integrated metabolomics of tissues and biofluids to improve current understanding of lung cancer altered metabolism and to reveal new marker profiles with diagnostic value.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta tese abordam-se várias formulações e diferentes métodos para resolver o Problema da Árvore de Suporte de Custo Mínimo com Restrições de Peso (WMST – Weight-constrained Minimum Spanning Tree Problem). Este problema, com aplicações no desenho de redes de comunicações e telecomunicações, é um problema de Otimização Combinatória NP-difícil. O Problema WMST consiste em determinar, numa rede com custos e pesos associados às arestas, uma árvore de suporte de custo mínimo de tal forma que o seu peso total não exceda um dado limite especificado. Apresentam-se e comparam-se várias formulações para o problema. Uma delas é usada para desenvolver um procedimento com introdução de cortes baseado em separação e que se tornou bastante útil na obtenção de soluções para o problema. Tendo como propósito fortalecer as formulações apresentadas, introduzem-se novas classes de desigualdades válidas que foram adaptadas das conhecidas desigualdades de cobertura, desigualdades de cobertura estendida e desigualdades de cobertura levantada. As novas desigualdades incorporam a informação de dois conjuntos de soluções: o conjunto das árvores de suporte e o conjunto saco-mochila. Apresentam-se diversos algoritmos heurísticos de separação que nos permitem usar as desigualdades válidas propostas de forma eficiente. Com base na decomposição Lagrangeana, apresentam-se e comparam-se algoritmos simples, mas eficientes, que podem ser usados para calcular limites inferiores e superiores para o valor ótimo do WMST. Entre eles encontram-se dois novos algoritmos: um baseado na convexidade da função Lagrangeana e outro que faz uso da inclusão de desigualdades válidas. Com o objetivo de obter soluções aproximadas para o Problema WMST usam-se métodos heurísticos para encontrar uma solução inteira admissível. Os métodos heurísticos apresentados são baseados nas estratégias Feasibility Pump e Local Branching. Apresentam-se resultados computacionais usando todos os métodos apresentados. Os resultados mostram que os diferentes métodos apresentados são bastante eficientes para encontrar soluções para o Problema WMST.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação está dividida em duas partes. Na primeira parte reportam-se métodos de síntese de (E)-3-estirilflavonas e (E)/(Z)-2-aril- 4-cloro-3-estiril-2H-cromenos e estudos de ciclização das (E)-3- estirilflavonas em 5-arilbenzo[c]xantonas. Na segunda parte desenvolveram-se novas rotas de síntese de (E)-2-aril-3-estiril-4- quinolonas e posterior transformação em 5-fenil-12- metilbenzo[c]acridonas e 2,4-diarilfuro[3,2-c]quinolinas. Nesta parte estudou-se também a transformação de 2-aril-4-cloro-1,2-dihidroquinolina- 1,3-dicarbaldeídos em (E)/(Z)-2-aril-4-cloro-3-estiril-1,2- di-hidroquinolina-1-carbaldeídos. A síntese de novos derivados de (E)-3-estirilflavonas, abordada na primeira parte desta dissertação, envolveu estudos de otimização da reação de bromação seguida de ciclização de 3-aril-1-(2- hidroxiaril)propano-1,3-dionas/3-aril-3-hidroxi-1-(2-hidroxiaril)prop-2- en-1-onas em 3-bromoflavonas e o desenvolvimento de uma nova rota de síntese de 3-metilflavonas. As 3-metilflavonas foram sujeitas a bromação e seguidamente transformadas em sais de fosfónio antes de serem utilizadas na síntese de (E)-3-estirilflavonas via reação de Wittig. As 3-bromoflavonas foram também usadas na síntese de (E)-3- estirilflavonas via reação de Heck. A síntese de novos derivados de (E)/(Z)-2-aril-4-cloro-3-estiril-2H-cromenos, via reação de Wittig, envolveu a síntese e formilação de flavanonas. A última transformação reportada na primeira parte desta dissertação é a síntese de 5-arilbenzo[c]xantonas por reação de eletrociclização seguida de oxidação de (E)-3-estirilflavonas. Na segunda parte desta dissertação são estudadas duas vias de síntese de 2-aril-1-metil-4-quinolonas. A primeira via de síntese envolve a síntese de N-(2-acetilfenil)benzamidas, sua ciclização em 4-quinolonas seguida de metilação destas. A segunda via envolve a metilação e ciclização de N-(2-acetilfenil)benzamidas obtendo-se, num só passo, as 2-aril-1-metil-4-quinolonas. Posterior iodação das 2-aril-1-metil-4- quinolonas e subsequente reação de Heck das 2-aril-3-iodo-1-metil-4- quinolonas com estirenos comerciais possibilitaram a síntese de (E)-2- aril-3-estiril-1-metil-4-quinolonas. Estudos de eletrociclização seguidos de oxidação das (E)-2-aril-3-estiril-1-metil-4-quinolonas utilizando uma lâmpada de UV de mercúrio de alta pressão possibilitou a síntese de 5- fenil-12-metilbenzo[c]acridonas, enquanto que o aquecimento em refluxo de 1,2,4-triclorobenzeno deu origem a 2,4-diarilfuro[3,2- c]quinolinas. Nesta segunda parte aborda-se também a síntese de 2-aril-4-cloro-1,2- di-hidroquinolina-1,3-dicarbaldeídos, a partir da formilação de 2-aril- 2,3-di-hidro-4-quinolonas e a sua transformação em (E)/(Z)-2-aril-4- cloro-3-estiril-1,2-di-hidroquinolina-1-carbaldeídos por reação de Wittig. Todos os compostos sintetizados foram caracterizados por espectroscopia de ressonância magnética nuclear de protão e carbono 13C, espectros bidimensionais de correlação heteronuclear (HMBC e HSQC) e, nalguns casos espectros de efeito nuclear Overhauser (NOESY). Os novos produtos foram igualmente caracterizados por espectrometria de massa e sempre que possível análise elementar ou espectrometria de massa de alta resolução.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivos a produção, caracterização e aplicação de microelétrodos (MEs) de diamante como sensores amperométricos e potenciométricos em sistemas de corrosão nos quais a agressividade do meio e a presença de produtos de corrosão, constituem obstáculos que podem diminuir o desempenho, ou inviabilizar a utilização, de outros tipos de sensores. Os microeléctrodos são baseados em filmes finos de diamante dopado com boro (BDD – Boron Doped Diamond) depositados sobre fios de tungsténio afiados, através do método de deposição química a partir da fase vapor, assistida por filamento quente (HFCVD – Hot Filament Chemical Vapor Deposition). A otimização das diversas etapas de fabricação dos MEs deu origem ao desenvolvimento de um novo sistema de afiamento eletroquímico para obtenção destes fios e a várias opções para a obtenção dos filmes de diamante condutor e seu isolamento com resinas para exposição apenas da ponta cilíndrica. A qualidade cristalina dos filmes de diamante foi avaliada por espectroscopia de Raman. Esta informação foi complementada com uma caracterização microestrutural dos filmes de diamante por microscopia eletrónica de varrimento (SEM), em que se fez a identificação da tipologia dos cristais como pertencendo às gamas de diamante nanocristalino ou microcristalino. Os filmes de BDD foram utilizados na sua forma não modificada, com terminações em hidrogénio e também com modificação da superfície através de tratamentos de plasma RF de CF4 e O2 indutores de terminações C-F no primeiro caso e de grupos C=O, C-O-C e C-OH no segundo, tal como determinado por XPS. A caracterização eletroquímica dos MEs não modificados revelou uma resposta voltamétrica com elevada razão sinal/ruído e baixa corrente capacitiva, numa gama de polarização quasi-ideal com extensão de 3 V a 4 V, dependente dos parâmetros de crescimento e pós-tratamentos de superfície. Estudou-se a reversibilidade de algumas reações heterogéneas com os pares redox Fe(CN)6 3-/4- e FcOH0/+ e verificou-se que a constante cinética, k0, é mais elevada em elétrodos com terminações em hidrogénio, nos quais não se procedeu a qualquer modificação da superfície. Estes MEs não modificados foram também testados na deteção de Zn2+ onde se observou, por voltametria cíclica, que a detecção da redução deste ião é linear numa escala log-log na gama de 10-5-10-2 M em 5 mM NaCl. Realizaram-se também estudos em sistemas de corrosão modelares, em que os microeléctrodos foram usados como sensores amperométricos para mapear a distribuição de oxigénio e Zn2+ sobre um par galvânico Zn-Fe, com recurso a um sistema SVET (Scanning Vibrating Electrode Technique). Foi possível detetar, com resolução lateral de 100 μm, um decréscimo da concentração de O2 junto a ambos os metais e produção de catiões de zinco no ânodo. Contudo verificou-se uma significativa deposição de zinco metálico na superfície dos ME utilizados. Os MEs com superfície modificada por plasma de CF4 foram testados como sensores de oxigénio dissolvido. A calibração dos microeléctrodos foi efetuada simultaneamente por voltametria cíclica e medição óptica através de um sensor de oxigénio comercial. Determinou-se uma sensibilidade de ~0.1422 nA/μM, com um limite de deteção de 0.63 μM. Os MEs modificados com CF4 foram também testados como sensores amperométricos com os quais se observou sensibilidade ao oxigénio dissolvido em solução, tendo sido igualmente utilizados durante a corrosão galvânica de pares Zn-Fe. Em alguns casos foi conseguida sensibilidade ao ião Zn2+ sem que o efeito da contaminação superficial com zinco metálico se fizesse sentir. Os microeléctrodos tratados em plasma de CF4 permitem uma boa deteção da distribuição de oxigénio, exibindo uma resposta mais rápida que os não tratados além de maior estabilidade de medição e durabilidade. Nos MEs em que a superfície foi modificada com plasma de O2 foi possível detetar, por cronopotenciometria a corrente nula, uma sensibilidade ao pH de ~51 mV/pH numa gama de pH 2 a pH 12. Este comportamento foi associado à contribuição determinante de grupos C-O e C=O, observados por XPS com uma razão O/C de 0,16. Estes MEs foram igualmente testados durante a corrosão galvânica do par Zn-Fe onde foi possível mapear a distribuição de pH associada ao desenvolvimento de regiões alcalinas causadas pela redução do oxigénio, acima da região catódica, e de regiões ácidas decorrentes da dissolução anódica do ânodo de zinco. Com o par galvânico imerso em 50 mM NaCl registou-se uma variação de pH aproximadamente entre 4,8 acima do ânodo de zinco a 9,3 sobre o cátodo de ferro. A utilização pioneira destes MEs como sensores de pH é uma alternativa promissora aos elétrodos baseados em membranas seletivas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main objective of the present work is the study of a profitable process not only in the extraction and selective separation of lycopene and β-carotene, two compounds present in tomato, but also in its potential application to food industry wastes. This is one of the industries that produce larger amounts of wastes, which are rich in high value biomolecules with great economic interest. However, the conventional methods used to extract this kind of compounds are expensive which limits their application at large scale. Lycopene and βcarotene are carotenoids with high commercial value, known for their antioxidant activity and benefits to human health. Their biggest source is tomato, one of the world’s most consumed fruits, reason for which large quantities of waste is produced. This work focuses on the study of diverse solvents with a high potential to extract carotenoids from tomato, as well as the search for more environmentally benign solvents than those currently used to extract lycopene and β-carotene from biomass. Additionally, special attention was paid to the creation of a continuous process that would allow the fractionation of the compounds for further purification. Thus, the present work started with the extraction of both carotenoids using a wide range of solvents, namely, organic solvents, conventional salts, ionic liquids, polymers and surfactants. In this stage, each solvent was evaluated in what regards their capacity of extraction as well as their penetration ability in biomass. The results collected showed that an adequate selection of the solvents may lead to the complete extraction of both carotenoids in one single step, particularly acetone and tetrahydrofuran were the most effective ones. However, the general low penetration capacity of salts, ionic liquids, polymers and surfactants makes these solvents ineffective in the solid-liquid extraction process. As the organic solvents showed the highest capacity to extract lycopene and βcarotene, in particular tetrahydrofuran and acetone, the latter solvent used in the development process of fractionation, using to this by strategic use of solvents. This step was only successfully developed through the manipulation of the solubility of each compound in ethanol and n-hexane. The results confirmed the possibility of fractionating the target compounds using the correct addition order of the solvents. Approximately, 39 % of the β-carotene was dissolved in ethanol and about 64 % of lycopene was dissolved in n-hexane, thus indicating their separation for two different solvents which shows the selective character of the developed process without any prior stage optimization. This study revealed that the use of organic solvents leads to selective extraction of lycopene and β-carotene, allowing diminishing the numerous stages involved in conventional methods. At the end, it was possible to idealize a sustainable and of high industrial relevance integrated process, nevertheless existing the need for additional optimization studies in the future.