28 resultados para Pagamento por procedimento


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A introdução de novas exigências na Avaliação do Desempenho Docente (ADD) em Portugal (Decretos-Lei 15/2007 e 75/2010; Decretos Regulamentares 2/2008 e 2/2010) tem gerado nas escolas e nos professores, desde 2008, situações organizacionais complexas, que urge analisar e compreender. As políticas educativas têm vindo a apontar para a necessidade de um maior investimento nos processos de avaliação de professores, dando relevância ao papel a desempenhar pela supervisão pedagógica nesse contexto. A supervisão da prática letiva passou a ser considerada procedimento fundamental, na medida em que se tornou difícil conceber uma avaliação dos docentes que não incluísse sessões de observação em sala de aula. Fruto destas novas políticas de avaliação de professores, a ADD apresentou-se, do ponto de vista normativo, com base em duas funções: sumativa e formativa. Estas funções exigem maiores investimentos, novas práticas e uma reflexão sobre o papel do professor ancorada numa perspetiva holística, transformadora e emancipatória do seu desenvolvimento profissional. O principal objetivo do nosso estudo consiste em compreender as perceções e práticas desenvolvidas pelos docentes face às alterações introduzidas no sistema da ADD no geral, e, em particular, o papel desempenhado pela supervisão pedagógica (SP) na avaliação entre pares, no segundo ciclo avaliativo (2009-2011). A investigação empírica tem por base um estudo de caso desenvolvido num Agrupamento de escolas do Distrito de Aveiro. A recolha de dados foi concretizada através da administração de um questionário a todos os docentes do Agrupamento e da condução de entrevistas a 26 informadores privilegiados do processo avaliativo. Os principais resultados do estudo de caso apontam para: i) a opinião desfavorável dos professores face ao atual modelo de ADD, dada a sua natureza burocrática, complexa, injusta e a sua escassa utilidade prática, preenchendo apenas requisitos legais e de controlo; ii) um processo de SP, concretamente, a observação de aulas, que não contribui para o desenvolvimento profissional dos professores e tem impacte negativo no trabalho docente, acentuando a artificialidade dos procedimentos e aumentando o clima de competição e de conflito; iii) a sensação de desconforto entre os intervenientes, fazendo emergir sentimentos de injustiça, insegurança e ansiedade que, em seu entender, constituem constrangimentos à melhoria das aprendizagens dos alunos e à qualidade da escola; iv) uma escassa implicação na melhoria das práticas futuras e do desenvolvimento profissional dos docentes. Estes resultados constituem um desafio colocado aos investigadores no sentido de identificarem alternativas de ação para poderem lidar com a complexidade inerente ao processo de avaliação na sua relação com a supervisão pedagógica, com vista à melhoria de desempenho das escolas e dos professores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese investiga a caracterização (e modelação) de dispositivos que realizam o interface entre os domínios digital e analógico, tal como os buffers de saída dos circuitos integrados (CI). Os terminais sem fios da atualidade estão a ser desenvolvidos tendo em vista o conceito de rádio-definido-por-software introduzido por Mitola. Idealmente esta arquitetura tira partido de poderosos processadores e estende a operação dos blocos digitais o mais próximo possível da antena. Neste sentido, não é de estranhar que haja uma crescente preocupação, no seio da comunidade científica, relativamente à caracterização dos blocos que fazem o interface entre os domínios analógico e digital, sendo os conversores digital-analógico e analógico-digital dois bons exemplos destes circuitos. Dentro dos circuitos digitais de alta velocidade, tais como as memórias Flash, um papel semelhante é desempenhado pelos buffers de saída. Estes realizam o interface entre o domínio digital (núcleo lógico) e o domínio analógico (encapsulamento dos CI e parasitas associados às linhas de transmissão), determinando a integridade do sinal transmitido. Por forma a acelerar a análise de integridade do sinal, aquando do projeto de um CI, é fundamental ter modelos que são simultaneamente eficientes (em termos computacionais) e precisos. Tipicamente a extração/validação dos modelos para buffers de saída é feita usando dados obtidos da simulação de um modelo detalhado (ao nível do transístor) ou a partir de resultados experimentais. A última abordagem não envolve problemas de propriedade intelectual; contudo é raramente mencionada na literatura referente à caracterização de buffers de saída. Neste sentido, esta tese de Doutoramento foca-se no desenvolvimento de uma nova configuração de medição para a caracterização e modelação de buffers de saída de alta velocidade, com a natural extensão aos dispositivos amplificadores comutados RF-CMOS. Tendo por base um procedimento experimental bem definido, um modelo estado-da-arte é extraído e validado. A configuração de medição desenvolvida aborda não apenas a integridade dos sinais de saída mas também do barramento de alimentação. Por forma a determinar a sensibilidade das quantias estimadas (tensão e corrente) aos erros presentes nas diversas variáveis associadas ao procedimento experimental, uma análise de incerteza é também apresentada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os coeficientes de difusão (D 12) são propriedades fundamentais na investigação e na indústria, mas a falta de dados experimentais e a inexistência de equações que os estimem com precisão e confiança em fases comprimidas ou condensadas constituem limitações importantes. Os objetivos principais deste trabalho compreendem: i) a compilação de uma grande base de dados para valores de D 12 de sistemas gasosos, líquidos e supercríticos; ii) o desenvolvimento e validação de novos modelos de coeficientes de difusão a diluição infinita, aplicáveis em amplas gamas de temperatura e densidade, para sistemas contendo componentes muito distintos em termos de polaridade, tamanho e simetria; iii) a montagem e teste de uma instalação experimental para medir coeficientes de difusão em líquidos e fluidos supercríticos. Relativamente à modelação, uma nova expressão para coeficientes de difusão a diluição infinita de esferas rígidas foi desenvolvida e validada usando dados de dinâmica molecular (desvio relativo absoluto médio, AARD = 4.44%) Foram também estudados os coeficientes de difusão binários de sistemas reais. Para tal, foi compilada uma extensa base de dados de difusividades de sistemas reais em gases e solventes densos (622 sistemas binários num total de 9407 pontos experimentais e 358 moléculas) e a mesma foi usada na validação dos novos modelos desenvolvidos nesta tese. Um conjunto de novos modelos foi proposto para o cálculo de coeficientes de difusão a diluição infinita usando diferentes abordagens: i) dois modelos de base molecular com um parâmetro específico para cada sistema, aplicáveis em sistemas gasosos, líquidos e supercríticos, em que natureza do solvente se encontra limitada a apolar ou fracamente polar (AARDs globais na gama 4.26-4.40%); ii) dois modelos de base molecular biparamétricos, aplicáveis em todos os estados físicos, para qualquer tipo de soluto diluído em qualquer solvente (apolar, fracamente polar e polar). Ambos os modelos dão origem a erros globais entre 2.74% e 3.65%; iii) uma correlação com um parâmetro, específica para coeficientes de difusão em dióxido de carbono supercrítico (SC-CO2) e água líquida (AARD = 3.56%); iv) nove correlações empíricas e semi-empíricas que envolvem dois parâmetros, dependentes apenas da temperatura e/ou densidade do solvente e/ou viscosidade do solvente. Estes últimos modelos são muito simples e exibem excelentes resultados (AARDs entre 2.78% e 4.44%) em sistemas líquidos e supercríticos; e v) duas equações preditivas para difusividades de solutos em SC-CO2, em que os erros globais de ambas são inferiores a 6.80%. No global, deve realçar-se o facto de os novos modelos abrangerem a grande variedade de sistemas e moléculas geralmente encontrados. Os resultados obtidos são consistentemente melhores do que os obtidos com os modelos e abordagens encontrados na literatura. No caso das correlações com um ou dois parâmetros, mostrou-se que estes mesmos parâmetros podem ser ajustados usando um conjunto muito pequeno de dados, e posteriormente serem utilizados na previsão de valores de D 12 longe do conjunto original de pontos. Uma nova instalação experimental para medir coeficientes de difusão binários por técnicas cromatográficas foi montada e testada. O equipamento, o procedimento experimental e os cálculos analíticos necessários à obtenção dos valores de D 12 pelo método de abertura do pico cromatográfico, foram avaliados através da medição de difusividades de tolueno e acetona em SC-CO2. Seguidamente, foram medidos coeficientes de difusão de eucaliptol em SC-CO2 nas gamas de 202 – 252 bar e 313.15 – 333.15 K. Os resultados experimentais foram analisados através de correlações e modelos preditivos para D12.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This investigation focused on the development, test and validation of methodologies for mercury fractionation and speciation in soil and sediment. After an exhaustive review of the literature, several methods were chosen and tested in well characterised soil and sediment samples. Sequential extraction procedures that divide mercury fractions according to their mobility and potential availability in the environment were investigated. The efficiency of different solvents for fractionation of mercury was evaluated, as well as the adequacy of different analytical instruments for quantification of mercury in the extracts. Kinetic experiments to establish the equilibrium time for mercury release from soil or sediment were also performed. It was found that in the studied areas, only a very small percentage of mercury is present as mobile species and that mobility is associated to higher aluminium and manganese contents, and that high contents of organic matter and sulfur result in mercury tightly bound to the matrix. Sandy soils tend to release mercury faster that clayey soils, and therefore, texture of soil or sediment has a strong influence on the mobility of mercury. It was also understood that analytical techniques for quantification of mercury need to be further developed, with lower quantification limits, particularly for mercury quantification of less concentrated fractions: water-soluble e exchangeable. Although the results provided a better understanding of the distribution of mercury in the sample, the complexity of the procedure limits its applicability and robustness. A proficiency-testing scheme targeting total mercury determination in soil, sediment, fish and human hair was organised in order to evaluate the consistency of results obtained by different laboratories, applying their routine methods to the same test samples. Additionally, single extractions by 1 mol L-1 ammonium acetate solution, 0.1 mol L-1 HCl and 0.1 mol L-1 CaCl2, as well as extraction of the organometallic fraction were proposed for soil; the last was also suggested for sediment and fish. This study was important to update the knowledge on analytical techniques that are being used for mercury quantification, the associated problems and sources of error, and to improve and standardize mercury extraction techniques, as well as to implement effective strategies for quality control in mercury determination. A different, “non chemical-like” method for mercury species identification was developed, optimised and validated, based on the thermo-desorption of the different mercury species. Compared to conventional extraction procedures, this method has advantages: it requires little to no sample treatment; a complete identification of species present is obtained in less than two hours; mercury losses are almost neglectable; can be considered “clean”, as no residues are produced; the worldwide comparison of results obtained is easier and reliable, an important step towards the validation of the method. Therefore, the main deliverables of this PhD thesis are an improved knowledge on analytical procedures for identification and quantification of mercury species in soils and sediments, as well as a better understanding of the factors controlling the behaviour of mercury in these matrices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Viscoelastic treatments are one of the most efficient treatments, as far as passive damping is concerned, particularly in the case of thin and light structures. In this type of treatment, part of the strain energy generated in the viscoelastic material is dissipated to the surroundings, in the form of heat. A layer of viscoelastic material is applied to a structure in an unconstrained or constrained configuration, the latter proving to be the most efficient arrangement. This is due to the fact that the relative movement of both the host and constraining layers cause the viscoelastic material to be subjected to a relatively high strain energy. There are studies, however, that claim that the partial application of the viscoelastic material is just as efficient, in terms of economic costs or any other form of treatment application costs. The application of patches of material in specific and selected areas of the structure, thus minimising the extension of damping material, results in an equally efficient treatment. Since the damping mechanism of a viscoelastic material is based on the dissipation of part of the strain energy, the efficiency of the partial treatment can be correlated to the modal strain energy of the structure. Even though the results obtained with this approach in various studies are considered very satisfactory, an optimisation procedure is deemed necessary. In order to obtain optimum solutions, however, time consuming numerical simulations are required. The optimisation process to use the minimum amount of viscoelastic material is based on an evolutionary geometry re-design and calculation of the modal damping, making this procedure computationally costly. To avert this disadvantage, this study uses adaptive layerwise finite elements and applies Genetic Algorithms in the optimisation process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis we consider two-dimensional (2D) convolutional codes. As happens in the one-dimensional (1D) case one of the major issues is obtaining minimal state-space realizations for these codes. It turns out that the problem of minimal realization of codes is not equivalent to the minimal realization of encoders. This is due to the fact that the same code may admit different encoders with different McMillan degrees. Here we focus on the study of minimality of the realizations of 2D convolutional codes by means of separable Roesser models. Such models can be regarded as a series connection between two 1D systems. As a first step we provide an algorithm to obtain a minimal realization of a 1D convolutional code starting from a minimal realization of an encoder of the code. Then, we restrict our study to two particular classes of 2D convolutional codes. The first class to be considered is the one of codes which admit encoders of type n 1. For these codes, minimal encoders (i.e., encoders for which a minimal realization is also minimal as a code realization) are characterized enabling the construction of minimal code realizations starting from such encoders. The second class of codes to be considered is the one constituted by what we have called composition codes. For a subclass of these codes, we propose a method to obtain minimal realizations by means of separable Roesser models.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main objective of this work was to monitor a set of physical-chemical properties of heavy oil procedural streams through nuclear magnetic resonance spectroscopy, in order to propose an analysis procedure and online data processing for process control. Different statistical methods which allow to relate the results obtained by nuclear magnetic resonance spectroscopy with the results obtained by the conventional standard methods during the characterization of the different streams, have been implemented in order to develop models for predicting these same properties. The real-time knowledge of these physical-chemical properties of petroleum fractions is very important for enhancing refinery operations, ensuring technically, economically and environmentally proper refinery operations. The first part of this work involved the determination of many physical-chemical properties, at Matosinhos refinery, by following some standard methods important to evaluate and characterize light vacuum gas oil, heavy vacuum gas oil and fuel oil fractions. Kinematic viscosity, density, sulfur content, flash point, carbon residue, P-value and atmospheric and vacuum distillations were the properties analysed. Besides the analysis by using the standard methods, the same samples were analysed by nuclear magnetic resonance spectroscopy. The second part of this work was related to the application of multivariate statistical methods, which correlate the physical-chemical properties with the quantitative information acquired by nuclear magnetic resonance spectroscopy. Several methods were applied, including principal component analysis, principal component regression, partial least squares and artificial neural networks. Principal component analysis was used to reduce the number of predictive variables and to transform them into new variables, the principal components. These principal components were used as inputs of the principal component regression and artificial neural networks models. For the partial least squares model, the original data was used as input. Taking into account the performance of the develop models, by analysing selected statistical performance indexes, it was possible to conclude that principal component regression lead to worse performances. When applying the partial least squares and artificial neural networks models better results were achieved. However, it was with the artificial neural networks model that better predictions were obtained for almost of the properties analysed. With reference to the results obtained, it was possible to conclude that nuclear magnetic resonance spectroscopy combined with multivariate statistical methods can be used to predict physical-chemical properties of petroleum fractions. It has been shown that this technique can be considered a potential alternative to the conventional standard methods having obtained very promising results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde que surgiu há mais de 50 anos, a televisão sofreu muitas transformações, tanto ao nível tecnológico (por exemplo com a passagem da emissão a preto/branco para cor, o som analógico para digital, a difusão digital) como a nível da sua influência nas sociedades. Entre outros fatores de ordem tecnológica, a consolidação da Internet com o seu elevado nível de personalização, da experiência de utilização, e a sua enorme quantidade de conteúdos disponíveis, catapultou a televisão no sentido de esta se tornar mais interativa. Assim, o telespectador passou a poder usufruir de uma experiência televisiva que pode, por um lado, ser mais participativa, sendo-lhe possível, por exemplo, alvitrar sobre a qualidade de um programa enquanto assiste à sua exibição, e, por outro, ser mais personalizada, possibilitando-lhe, por exemplo, receber conteúdos automaticamente adequados ao seu perfil e contexto. No entanto, esta experiência mais participativa e personalizável carece de uma identificação, idealmente automática e não intrusiva, de quem pode beneficiar da mesma – o telespectador. Contudo, e apesar de significativos avanços na área da televisão interativa, tanto ao nível da infraestrutura de suporte como ao nível dos serviços disponibilizados, a identificação dos utilizadores é, ainda, uma área de estudo com muitos aspetos por compreender. Os seniores, em particular, são grandes consumidores de televisão e representam uma fatia muito considerável das pessoas que podem beneficiar das potencialidades disponibilizadas pela interatividade presente em muitos serviços atuais. Um número crescente destes serviços são desenhados com o objetivo de promoverem um envelhecimento ativo e um concreto apoio à vida, pelo que os seniores podem beneficiar, em vários aspetos do seu quotidiano, se os utilizarem. Nesta faixa etária, a identificação de utilizadores tem, como elemento potenciador da experiência de utilização, um papel especialmente importante ao nível de um aproveitamento personalizado e dirigido destes serviços. No entanto, atendendo às diferentes combinações de características físicas, sensoriais, cognitivas e, mesmo, de literacia digital que tipificam os seniores, perspetivou-se existir uma dependência do perfil do utilizador na seleção do método de identificação mais adequado, os quais podem ser baseados, por exemplo, num leitor de impressões digitais, instalado no telecomando; na leitura de uma wearable tag ou de um cartão RFiD; no reconhecimento da face e, eventualmente, na voz do utilizador. Assim, a inerente investigação desenrolou-se em várias fases, no sentido de permitir alicerçar a construção de uma matriz de decisão tecnológica que, em função do perfil de utilizador, selecione o sistema de identificação mais adequado. O procedimento metodológico inerente à construção desta matriz de decisão, passou por um longo processo envolvendo utilizadores reais, que se iniciou com a realização de entrevistas exploratórias com o objetivo de permitir conhecer melhor os seniores e a forma como estes encaram a tecnologia e, mais concretamente, a televisão interativa. Foi depois implementado um protótipo de alta-fidelidade, completamente funcional, para a realização de testes com o objetivo de perceber qual a preferência relativamente a um subconjunto de tecnologias de identificação. Estes testes, uma vez que não permitiram testar todas as tecnologias em estudo, revelaram-se inconclusivos, porém permitiram reforçar a necessidade de identificar e caracterizar os referidos aspetos do perfil do utilizador que podem interferir na sua preferência relativamente ao sistema de identificação. As características identificadas constituíram-se como os parâmetros de entrada da matriz, sendo que para preencher as respetivas células realizaramse testes de aceitação, com um conjunto de seniores, tendo por base um protótipo, wizard of oz, especificamente implementado para permitir experienciar todas as tecnologias em estudo. Estes testes foram precedidos pela avaliação das capacidades funcionais dos participantes, nos diversos parâmetros definidos. Este texto relata, assim, todo o processo de investigação que foi conduzido, terminando com uma descrição de exemplos de utilização da matriz de decisão implementada e com a identificação de potenciais caminhos de desenvolvimento deste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta tese abordam-se várias formulações e diferentes métodos para resolver o Problema da Árvore de Suporte de Custo Mínimo com Restrições de Peso (WMST – Weight-constrained Minimum Spanning Tree Problem). Este problema, com aplicações no desenho de redes de comunicações e telecomunicações, é um problema de Otimização Combinatória NP-difícil. O Problema WMST consiste em determinar, numa rede com custos e pesos associados às arestas, uma árvore de suporte de custo mínimo de tal forma que o seu peso total não exceda um dado limite especificado. Apresentam-se e comparam-se várias formulações para o problema. Uma delas é usada para desenvolver um procedimento com introdução de cortes baseado em separação e que se tornou bastante útil na obtenção de soluções para o problema. Tendo como propósito fortalecer as formulações apresentadas, introduzem-se novas classes de desigualdades válidas que foram adaptadas das conhecidas desigualdades de cobertura, desigualdades de cobertura estendida e desigualdades de cobertura levantada. As novas desigualdades incorporam a informação de dois conjuntos de soluções: o conjunto das árvores de suporte e o conjunto saco-mochila. Apresentam-se diversos algoritmos heurísticos de separação que nos permitem usar as desigualdades válidas propostas de forma eficiente. Com base na decomposição Lagrangeana, apresentam-se e comparam-se algoritmos simples, mas eficientes, que podem ser usados para calcular limites inferiores e superiores para o valor ótimo do WMST. Entre eles encontram-se dois novos algoritmos: um baseado na convexidade da função Lagrangeana e outro que faz uso da inclusão de desigualdades válidas. Com o objetivo de obter soluções aproximadas para o Problema WMST usam-se métodos heurísticos para encontrar uma solução inteira admissível. Os métodos heurísticos apresentados são baseados nas estratégias Feasibility Pump e Local Branching. Apresentam-se resultados computacionais usando todos os métodos apresentados. Os resultados mostram que os diferentes métodos apresentados são bastante eficientes para encontrar soluções para o Problema WMST.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho focou-se no estudo do impacte das condições ambientais, de instalação e de utilização na degradação da fibra ótica, que frequentemente resultam na redução do desempenho das fibras óticas. Entre este fatores, foram estudados os efeitos de ambientes agressivos para o revestimento da fibra, nomeadamente no tempo de vida e resistência. Foi também estudado o efeito da propagação de sinais óticos de elevadas potências em curvaturas apertadas e a sua influência na degradação do desempenho da fibra ótica. Ainda neste âmbito, foi também estudado o desempenho de fibras óticas insensíveis a curvtura e fibras dopadas com Érbio, sendo analisada a dinâmica do efeito rastilho nestas fibras. Como parte integrante das redes óticas, os conetores óticos são de extrema importância na sua estrutura. O seu desempenho será refletido na qualidade do serviço da rede, e por isso é determinante estudar os fatores que contribuem para a sua degradação e mau funcionamento. Assim, este trabalho apresenta um estudo do comportamento de conetores óticos perante situações de mau manuseamento (como são limpeza insuficiente e degradação física da face final). Em adição foi também dado ênfase à reutilização de fibra danificada pelo efeito rastilho no desenvolvimento de sensores, passíveis de serem utilizados na monitorização de índice de refração, pressão hidrostática, tensão ou alta temperatura. Este procedimento surge como uma solução de baixo custo para o desenvolvimento de sensores em fibra ótica a partir de fibra danificada e inutilizável para as suas habituais aplicações em transmissão e/ou reflexão de sinais óticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas a quiralidade tornou-se essencial na conceção, descoberta, desenvolvimento e comercialização de novos medicamentos. A importância da quiralidade na eficácia e segurança dos fármacos tem sido globalmente reconhecida tanto pelas indústrias farmacêuticas como pelas agências reguladoras de todo o mundo. De forma a produzir eficazmente medicamentos seguros e dar resposta à demanda da indústria de compostos enantiomericamente puros, a pesquisa de novos métodos de síntese assimétrica, assim como o desenvolvimento estratégico dos métodos já disponíveis tem sido um dos principais objetos de estudo de diversos grupos de investigação tanto na academia como na indústria farmacêutica No primeiro capítulo desta dissertação são introduzidos alguns dos conceitos fundamentais associados à síntese de moléculas quirais e descritas algumas das estratégias que podem ser utilizadas na sua síntese. Apresenta-se ainda uma breve revisão bibliográfica acerca dos antecedentes do grupo de investigação e sobre a ocorrência natural, atividade biológica e métodos de síntese e transformações de compostos do tipo (E,E)-cinamilidenoacetofenona. O segundo capítulo centra-se na adição de Michael enantiosseletiva de diversos nucleófilos a derivados de (E,E)-cinamilidenoacetofenona. Inicialmente descreve-se a síntese de derivados de (E,E)-cinamilidenoacetofenona através de uma condensação aldólica de acetofenonas e cinamaldeídos apropriadamente substituídos. Estes derivados são posteriormente utilizados como substratos na adição de Michael enantiosseletiva de três diferentes nucleófilos: nitrometano, malononitrilo e 2-[(difenilmetileno)amino]acetato de metilo. Nestas reações são utilizados diferentes organocatalisadores de forma a induzir enantiosseletividade nos aductos de Michael para serem utilizados na síntese de compostos com potencial interesse terapêutico. É descrita ainda uma nova metodologia de síntese de Δ1-pirrolinas através de um procedimento one-pot de redução/ciclização/desidratação mediada por ferro na presença de ácido acético de (R,E)-1,5-diaril-3-(nitrometil)pent-4-en-1-onas com bons rendimentos e excelentes excessos enantioméricos. O terceiro capítulo centra-se no estabelecimento de novas rotas de síntese e transformação de derivados do ciclo-hexano. Após uma breve revisão bibliográfica, são descritas três metodologias enantiosseletivas distintas, sendo que a primeira envolve a utilização de organocatalisadores e catalisadores de transferência de fase derivados de alcaloides cinchona. Os derivados do ciclo-hexano foram obtidos a partir da reação entre as (E,E)-cinamilidenoacetofenonas e o malononitrilo com bons rendimentos, mas baixas enantiosseletividades independentemente do catalisador utilizado. De forma a contornar este problema e uma vez que a formação do derivado do ciclo-hexano envolve inicialmente a formação in-situ do aducto de Michael, a segunda e terceira metodologias de síntese envolvem a utilização dos aductos de Michael enantiomericamente puros preparados no segundo capítulo. Assim, a reação do (S,E)-2-(1,5-diaril-1-oxopent-4-en-3-il)malononitrilo com os derivados de (E,E)-cinamilidenoacetofenona organocatalisada pela hidroquinina permitiu obter os compostos pretendidos com excelentes excessos enantioméricos. A utilização de um catalisador de transferência de fase não foi tão eficiente em termos de enantiosseletividades obtidas na reação entre as (R,E)-1,5-diaril-3-(nitrometil)pent-4-en-1-onas e os derivados de (E,E)-cinamilidenoacetofenona, apesar de estes terem sido obtidos em bons rendimentos. A preparação destes derivados levou ainda à idealização de uma nova metodologia de síntese de análogos do ácido γ-aminobutírico (GABA) devido à presença de um grupo nitro em posição gama relativamente a um grupo carboxílico. No entanto, apesar de terem sido testadas várias metodologias, não foi possível obter os compostos pretendidos. No quarto capítulo apresenta-se uma breve revisão bibliográfica acerca da ocorrência natural, atividade biológica e métodos de síntese de derivados de di-hidro- e tetra-hidropiridinas, assim como um enquadramento teórico acerca das reações pericíclicas utilizadas na síntese dos compostos pretendidos. Inicialmente é descrita a preparação de N-sulfonilazatrienos substituídos através da condensação direta de derivados de (E,E)-cinamilidenoacetofenona e sulfonamidas. Estes compostos são posteriormente utilizados na síntese de derivados de 1,2-di-hidropiridinas através de uma aza-eletrociclização-6π por duas metodologias distintas: utilização de organocatalisadores quirais e utilização de complexos metálicos de bisoxazolinas. Na síntese das tetra-hidropiridinas os N-sulfonilazatrienos são utilizados como dienos e o étoxi-eteno como dienófilo numa reação hetero-Diels-Alder inversa utilizando também os complexos metálicos de bisoxazolinas como catalisadores. Todos os novos compostos sintetizados foram caracterizados estruturalmente recorrendo a estudos de espetroscopia de ressonância magnética nuclear (RMN), incluindo espetros de 1H e 13C e estudos bidimensionais de correlação espetroscópica homonuclear e heteronuclear e de efeito nuclear de Overhauser (NOESY). Foram também efetuados, sempre que possível, espetros de massa (EM) e análises elementares ou espetros de massa de alta resolução (EMAR) para todos os novos compostos sintetizados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Compressed sensing is a new paradigm in signal processing which states that for certain matrices sparse representations can be obtained by a simple l1-minimization. In this thesis we explore this paradigm for higher-dimensional signal. In particular three cases are being studied: signals taking values in a bicomplex algebra, quaternionic signals, and complex signals which are representable by a nonlinear Fourier basis, a so-called Takenaka-Malmquist system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente relatório de estágio é clarificar e sistematizar alguns conceitos associados à Avaliação Ambiental Estratégica (AAE) de Instrumentos de Gestão Territorial (IGT), e expor a aplicação desta ferramenta a um Plano Diretor Municipal (PDM). A Avaliação Ambiental Estratégica é um instrumento de avaliação da política de ambiente aplicado ao processo de planeamento para garantir que as considerações ambientais são integradas, a par das questões económicas e sociais, durante a fase de elaboração de planos e programas e antes da sua aprovação, com a finalidade de promover a adoção de soluções mais sustentáveis e o estabelecimento de diretrizes de seguimento que minimizem os impactes negativos. Em Portugal, a aplicação desta ferramenta de avaliação é um procedimento obrigatório desde a transposição da Diretiva 2001/42/CE, de 27 de junho para a ordem jurídica interna pelo Decreto-Lei n.º 232/2007, de 15 de junho. O processo de AAE desenvolve-se em três fases essenciais: o estabelecimento dos fatores críticos para a decisão, a avaliação e o seguimento. Este relatório de estágio analisa a aplicação da AAE à 1ª revisão do Plano Diretor Municipal de Castelo de Vide, onde se conclui que a identificação das oportunidades e riscos resultantes da estratégia de desenvolvimento territorial contribui para a prossecução do desenvolvimento sustentável e para uma tomada de decisão mais adequada.