18 resultados para prisma mínimo
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
O advento da Internet e da Web, na década de 1990, a par da introdução e desenvolvimento das novas TIC e, por consequência, a emergência da Sociedade da Informação e do Conhecimento, implicaram uma profunda alteração na forma de análise dos processos de ensino-aprendizagem, já não apenas segundo um prisma cognitivista, mas, agora, também social, isto é, segundo a(s) perspetiva(s) construtivista(s). Simultaneamente, torna-se imperativo que, para que possam transformar-se em futuros trabalhadores de sucesso, isto é, trabalhadores de conhecimento (Gates, 1999), os sujeitos aprendentes passem a ser efetivamente educados/preparados para a Sociedade da Informação e do Conhecimento e, tanto quanto possível, através da educação/formação ao longo da vida (Moore e Thompson, 1997; Chute, Thompson e Hancock, 1999). Todavia, de acordo com Jorge Reis Lima e Zélia Capitão, não se deve considerar esta mudança de paradigma como uma revolução mas, antes, uma evolução, ou, mais concretamente ainda, uma “conciliação de perspectivas cognitivas e sociais” (Reis Lima e Capitão, 2003:53). Assim, às instituições de ensino/formação cumprirá a tarefa de preparar os alunos para as novas competências da era digital, promovendo “a aprendizagem dos pilares do conhecimento que sustentarão a sua aprendizagem ao longo da vida” (Reis Lima e Capitão, Ibidem:54), isto é, “aprender a conhecer”, “aprender a fazer”, “aprender a viver em comum”, e “aprender a ser” (Equipa de Missão para a Sociedade da Informação, 1997:39; negritos e sublinhados no original). Para outros, a Internet, ao afirmar-se como uma tecnologia ubíqua, cada vez mais acessível, e de elevado potencial, “vem revolucionando a gestão da informação, o funcionamento do mercado de capitais, as cadeias e redes de valor, o comércio mundial, a relação entre governos e cidadãos, os modos de trabalhar e de comunicar, o entretenimento, o contacto intercultural, os estilos de vida, as noções de tempo e de distância. A grande interrogação actual reside em saber se a Internet poderá também provocar alterações fundamentais nos modos de aprender e de ensinar” (Carneiro, 2002:17-18; destaques no original). Trata-se, portanto, como argumenta Armando Rocha Trindade (2004:10), de reconhecer que “Os requisitos obrigatórios para a eficácia da aprendizagem a ser assim assegurada são: a prévia disponibilidade de materiais educativos ou de formação de alta qualidade pedagógica e didáctica, tanto quanto possível auto-suficientes em termos de conteúdos teóricos e aplicados, bem como a previsão de mecanismos capazes de assegurar, permanentemente, um mínimo de interactividade entre docentes e aprendentes, sempre que quaisquer dificuldades destes possam manifestarse”. Esta questão é também equacionada pelo Eng.º Arnaldo Santos, da PT Inovação, quando considera que, à semelhança da “maioria dos países, a formação a distância em ambientes Internet e Intranet, vulgo e-Learning, apresenta-se como uma alternativa pedagógica em franca expansão. Portugal está a despertar para esta nova realidade. São várias as instituições nacionais do sector público e privado que utilizam o e-Learning como ferramenta ou meio para formar as suas pessoas” (Santos, 2002:26). Fernando Ramos acrescenta também que os sistemas de educação/formação que contemplam componentes não presenciais, “isto é que potenciam a flexibilidade espacial, têm vindo a recorrer às mais variadas tecnologias de comunicação para permitir a interacção entre os intervenientes, nomeadamente entre os professores e os estudantes. Um pouco por todo o mundo, e também em Portugal, se têm implantado sistemas (habitualmente designados como sistemas de ensino a distância), recorrendo às mais diversas tecnologias de telecomunicações, de que os sistemas de educação através de televisão ou os sistemas de tutoria por rádio ou telefone são exemplos bem conhecidos” (Ramos, 2002b:138-139). Ora, o nosso estudo entronca precisamente na análise de um sistema ou plataforma tecnológica de gestão de aprendizagens (Learning Management System - LMS), o MOODLE, procurando-se, deste modo, dar resposta ao reconhecimento de que “urge investigar sobre a utilização real e pedagógica da plataforma” (Carvalho, 2007:27). Por outro lado, não descurando o rol de interrogações de outros investigadores em torno da utilização do MOODLE, nem enveredando pelas visões mais céticas que inclusive pressagiam a sua “morte” (Fernandes, 2008b:134), também nós nos questionamos se esta ferramenta nem sequer vai conseguir transpor “a fase de final de entusiasmo, e tornar-se uma ferramenta de minorias e de usos ocasionais?” (Fernandes, Op. cit.:133).
Resumo:
Nesta tese abordam-se várias formulações e diferentes métodos para resolver o Problema da Árvore de Suporte de Custo Mínimo com Restrições de Peso (WMST – Weight-constrained Minimum Spanning Tree Problem). Este problema, com aplicações no desenho de redes de comunicações e telecomunicações, é um problema de Otimização Combinatória NP-difícil. O Problema WMST consiste em determinar, numa rede com custos e pesos associados às arestas, uma árvore de suporte de custo mínimo de tal forma que o seu peso total não exceda um dado limite especificado. Apresentam-se e comparam-se várias formulações para o problema. Uma delas é usada para desenvolver um procedimento com introdução de cortes baseado em separação e que se tornou bastante útil na obtenção de soluções para o problema. Tendo como propósito fortalecer as formulações apresentadas, introduzem-se novas classes de desigualdades válidas que foram adaptadas das conhecidas desigualdades de cobertura, desigualdades de cobertura estendida e desigualdades de cobertura levantada. As novas desigualdades incorporam a informação de dois conjuntos de soluções: o conjunto das árvores de suporte e o conjunto saco-mochila. Apresentam-se diversos algoritmos heurísticos de separação que nos permitem usar as desigualdades válidas propostas de forma eficiente. Com base na decomposição Lagrangeana, apresentam-se e comparam-se algoritmos simples, mas eficientes, que podem ser usados para calcular limites inferiores e superiores para o valor ótimo do WMST. Entre eles encontram-se dois novos algoritmos: um baseado na convexidade da função Lagrangeana e outro que faz uso da inclusão de desigualdades válidas. Com o objetivo de obter soluções aproximadas para o Problema WMST usam-se métodos heurísticos para encontrar uma solução inteira admissível. Os métodos heurísticos apresentados são baseados nas estratégias Feasibility Pump e Local Branching. Apresentam-se resultados computacionais usando todos os métodos apresentados. Os resultados mostram que os diferentes métodos apresentados são bastante eficientes para encontrar soluções para o Problema WMST.
Resumo:
Os Sinais de Espalhamento de Espectro de Sequência Directa exibem propriedades cicloestacionárias que implicam redundância entre componentes de frequência espaçadas por múltiplos da taxa de símbolo. Nesta tese, é apresentado um cancelador de interferência multiutilizador (Cancelador por translação na frequência - FSC) que tira partido desta propriedade. Este cancelador linear opera no domínio da frequência no sinal espalhado de tal forma que minimiza a interferência e ruído na saída (Critério do Mínimo Erro Quadrado Médio). Além de testado para o caso de antena única, são avaliadas as performances das configurações de antenas múltiplas para o caso de beamforming e canais espacialmente descorrelacionados considerando sistemas síncronos e sistemas com desalinhamento no tempo dos perfis de canais (ambos UMTS-TDD). Essas configurações divergiam na ordem da combinação temporal, combinação espacial e detecção multiutilizador. As configurações FSC foram avaliadas quando concatenadas com o PIC-2D. Os resultados das simulações mostram consideráveis melhorias nos resultados relativamente ao RAKE-2D convencional e PIC-2D. Foi atingida performance próximo ao RAKE de utilizador único quando o FSC foi avaliado concatenado com PIC-2D em quase todas as configurações. Todas as configurações foram avaliadas com modulação QPSK, 8-PSK e 16-QAM. Foi introduzida codificação Turbo e identificou-se as situações da vantagem de utilização do FSC antes do PIC-2D. As modulações 8-PSK e 16-QAM foram igualmente testadas com codificação.
Resumo:
Tal como o título indica, esta tese estuda problemas de cobertura com alcance limitado. Dado um conjunto de antenas (ou qualquer outro dispositivo sem fios capaz de receber ou transmitir sinais), o objectivo deste trabalho é calcular o alcance mínimo das antenas de modo a que estas cubram completamente um caminho entre dois pontos numa região. Um caminho que apresente estas características é um itinerário seguro. A definição de cobertura é variável e depende da aplicação a que se destina. No caso de situações críticas como o controlo de fogos ou cenários militares, a definição de cobertura recorre à utilização de mais do que uma antena para aumentar a eficácia deste tipo de vigilância. No entanto, o alcance das antenas deverá ser minimizado de modo a manter a vigilância activa o maior tempo possível. Consequentemente, esta tese está centrada na resolução deste problema de optimização e na obtenção de uma solução particular para cada caso. Embora este problema de optimização tenha sido investigado como um problema de cobertura, é possível estabelecer um paralelismo entre problemas de cobertura e problemas de iluminação e vigilância, que são habitualmente designados como problemas da Galeria de Arte. Para converter um problema de cobertura num de iluminação basta considerar um conjunto de luzes em vez de um conjunto de antenas e submetê-lo a restrições idênticas. O principal tema do conjunto de problemas da Galeria de Arte abordado nesta tese é a 1-boa iluminação. Diz-se que um objecto está 1-bem iluminado por um conjunto de luzes se o invólucro convexo destas contém o objecto, tornando assim este conceito num tipo de iluminação de qualidade. O objectivo desta parte do trabalho é então minimizar o alcance das luzes de modo a manter uma iluminação de qualidade. São também apresentadas duas variantes da 1-boa iluminação: a iluminação ortogonal e a boa !-iluminação. Esta última tem aplicações em problemas de profundidade e visualização de dados, temas que são frequentemente abordados em estatística. A resolução destes problemas usando o diagrama de Voronoi Envolvente (uma variante do diagrama de Voronoi adaptada a problemas de boa iluminação) é também proposta nesta tese.
Resumo:
Os problemas de visibilidade têm diversas aplicações a situações reais. Entre os mais conhecidos, e exaustivamente estudados, estão os que envolvem os conceitos de vigilância e ocultação em estruturas geométricas (problemas de vigilância e ocultação). Neste trabalho são estudados problemas de visibilidade em estruturas geométricas conhecidas como polígonos, uma vez que estes podem representar, de forma apropriada, muitos dos objectos reais e são de fácil manipulação computacional. O objectivo dos problemas de vigilância é a determinação do número mínimo de posições para a colocação de dispositivos num dado polígono, de modo a que estes dispositivos consigam “ver” a totalidade do polígono. Por outro lado, o objectivo dos problemas de ocultação é a determinação do número máximo de posições num dado polígono, de modo a que quaisquer duas posições não se consigam “ver”. Infelizmente, a maior parte dos problemas de visibilidade em polígonos são NP-difíceis, o que dá origem a duas linhas de investigação: o desenvolvimento de algoritmos que estabelecem soluções aproximadas e a determinação de soluções exactas para classes especiais de polígonos. Atendendo a estas duas linhas de investigação, o trabalho é dividido em duas partes. Na primeira parte são propostos algoritmos aproximados, baseados essencialmente em metaheurísticas e metaheurísticas híbridas, para resolver alguns problemas de visibilidade, tanto em polígonos arbitrários como ortogonais. Os problemas estudados são os seguintes: “Maximum Hidden Vertex Set problem”, “Minimum Vertex Guard Set problem”, “Minimum Vertex Floodlight Set problem” e “Minimum Vertex k-Modem Set problem”. São também desenvolvidos métodos que permitem determinar a razão de aproximação dos algoritmos propostos. Para cada problema são implementados os algoritmos apresentados e é realizado um estudo estatístico para estabelecer qual o algoritmo que obtém as melhores soluções num tempo razoável. Este estudo permite concluir que as metaheurísticas híbridas são, em geral, as melhores estratégias para resolver os problemas de visibilidade estudados. Na segunda parte desta dissertação são abordados os problemas “Minimum Vertex Guard Set”, “Maximum Hidden Set” e “Maximum Hidden Vertex Set”, onde são identificadas e estudadas algumas classes de polígonos para as quais são determinadas soluções exactas e/ou limites combinatórios.
Resumo:
Nesta tese estamos preocupados com o problema da resistência mínima primeiro dirigida por I. Newton em seu Principia (1687): encontrar o corpo de resistência mínima que se desloca através de um médio. As partículas do médio não interagem entre si, bem como a interação das partículas com o corpo é perfeitamente elástica. Diferentes abordagens desse modelo foram feitas por vários matemáticos nos últimos 20 anos. Aqui damos uma visão geral sobre estes resultados que representa interesse independente, uma vez que os autores diferentes usam notações diferentes. Apresentamos uma solução do problema de minimização na classe de corpos de revolução geralmente não convexos e simplesmente conexos. Acontece que nessa classe existem corpos com resistência menor do que o mínimo da resistência na classe de corpos convexos de revolução. Encontramos o infimum da resistência nesta classe e construimos uma sequência regular de corpos que aproxima este infimum. Também apresentamos um corpo de resistência nula. Até agora ninguém sabia se tais corpos existem ou não, evidentemente o nosso corpo não pertence a nenhuma classe anteriormente analisado. Este corpo é não convexo e não simplesmente conexo; a forma topológica dele é um toro, parece um UFO extraterrestre. Apresentamos aqui várias famílias de tais corpos e estudamos as suas propriedades. Também apresentamos um corpo que é natural de chamar um corpo "invisíveis em uma direção", uma vez que a trajectória de cada partícula com a certa direcção coincide com a linha recta fora do invólucro convexo do corpo. ABSTRACT: In this thesis we are concerned with the problem of minimal resistance first addressed by I. Newton in his Principia (1687): find the body of minimal resistance moving through a medium. The medium particles do not mutually interact, and the interaction of particles with the body is perfectly elastic. Different approaches to that model have been tried by several mathematicians during the last 20 years. Here we give an overview of these results that represents interest in itself since all authors use different notations. We present a solution of the minimization problem in the class of generally non convex, simply connected bodies of revolution. It happens that in this class there are bodies with smaller resistance than the minimum in the class of convex bodies of revolution. We find the infimum of the resistance in this class, and construct a sequence of bodies which approximates this infimum. Also we present a body of zero resistance. Since earlier it was unknown if such bodies exists or not, evidently our body does not belong to any class previously examined. The zero resistance body found by us is non-convex and non-simply connected; topologically it is a torus, and it looks like an extraterrestrial UFO. We present here several families of such bodies and study their properties. We also present a body which is natural to call a body "invisible in one direction", since the trajectory of each particle with the given direction, outside the convex hull of the body, coincides with a straight line.
Resumo:
Consideramos o problema de controlo óptimo de tempo mínimo para sistemas de controlo mono-entrada e controlo afim num espaço de dimensão finita com condições inicial e final fixas, onde o controlo escalar toma valores num intervalo fechado. Quando aplicamos o método de tiro a este problema, vários obstáculos podem surgir uma vez que a função de tiro não é diferenciável quando o controlo é bang-bang. No caso bang-bang os tempos conjugados são teoricamente bem definidos para este tipo de sistemas de controlo, contudo os algoritmos computacionais directos disponíveis são de difícil aplicação. Por outro lado, no caso suave o conceito teórico e prático de tempos conjugados é bem conhecido, e ferramentas computacionais eficazes estão disponíveis. Propomos um procedimento de regularização para o qual as soluções do problema de tempo mínimo correspondente dependem de um parâmetro real positivo suficientemente pequeno e são definidas por funções suaves em relação à variável tempo, facilitando a aplicação do método de tiro simples. Provamos, sob hipóteses convenientes, a convergência forte das soluções do problema regularizado para a solução do problema inicial, quando o parâmetro real tende para zero. A determinação de tempos conjugados das trajectórias localmente óptimas do problema regularizado enquadra-se na teoria suave conhecida. Provamos, sob hipóteses adequadas, a convergência do primeiro tempo conjugado do problema regularizado para o primeiro tempo conjugado do problema inicial bang-bang, quando o parâmetro real tende para zero. Consequentemente, obtemos um algoritmo eficiente para a computação de tempos conjugados no caso bang-bang.
Resumo:
O objectivo deste trabalho é estudar a circulação da água na Ria de Aveiro, contribuindo para o conhecimento da qualidade da sua água. É apresentada a caracterização morfológica e hidrológica da Ria, pondo em evidência a complexidade da sua morfologia e o carácter lagunar desta massa de água, que é justificado pelo reduzido caudal de água proveniente dos rios. O balanço do volume de água no ciclo semi-diurno de maré permitiu calcular caudais e percursos de maré. É analisada a variação de volume de ciclo quinzenal e discutida a importância das correntes residuais no transporte de substâncias na Ria. É apresentado um método de amostragem para determinar salinidades médias em segmentos dos canais da Ria, que admite condições quase estacionárias. Foram calculados os tempos de residência da água doce nos segmentos dos canais, tendo-se obtido tempos baixos próximo da barra, que aumentam para o interior dos canais. Foram realizadas observações de correntes de maré, de salinidade e de concentração de partículas em suspensão, em duas secções do canal que vai até ao Largo do Laranjo. Os resultados obtidos são compatíveis com a existência de circulação residual no ramo da Murtosa, predominando a corrente de enchente no sul e nascente, e a de vazante no norte e poente. O predomínio do gradiente longitudinal de salinidade indica também que o transporte dispersivo é importante. A concentração de partículas em suspensão está relacionada com a velocidade da corrente, indicando que a deposição e a ressuspensão alternam. O aumento da concentração média de partículas quando a salinidade diminui revela a influência do sedimento transportado pelos rios. O balanço de substâncias resultante do transporte entre os segmentos dos canais foi representado por um modelo de segmentos de prisma de maré. Os valores dos coeficientes de retorno entre os segmentos foram calibrados por um procedimento automático, baseado nas salinidades médias observadas. O modelo simula com exito a evolução do campo médio de salinidade durante períodos longos.
Resumo:
A alimentação artificial de aves necrófagas tem sido alvo de atenção e as suas vantagens e desvantagens ainda são discutidas. A habituação por parte dos abutres e a atracção de espécies oportunistas são vistas como um problema. Foi disponibilizado alimento em quatro comedouros durante três anos, de 2010 a 2012. Registaram-se todas as aves observadas nos comedouros, anotando-se a espécie, o número de indivíduos e o comportamento alimentar e/ou não alimentar a cada 5 minutos. Também foi monitorizado o número de casais e o sucesso reprodutor do Grifo e do Abutre do Egipto. Notou-se uma aparente relação positiva entre estas duas espécies. A frequência de alimentação e o número de indivíduos das duas espécies aumentou gradualmente ao longo dos três anos, enquanto os tempos de detecção e alimentação diminuíram. Uma tendência oposta foi obtida para espécies oportunistas como o Milhafre-preto e o Milhafre-real. Não foi possível concluir sobre o efeito da alimentação artificial na produtividade mas pode existir uma relação da frequência de alimentação com a fase da época de reprodução na qual as crias são um factor determinante. O máximo da frequência de alimentação e o mínimo geral de tempos coincidem com as primeiras semanas das crias, para o Abutre do Egipto, e com a fase de maior requerimento destas, para o Grifo. A evolução destes parâmetros pode definir habituação. Os nossos resultados mostram que esta habituação tornou a alimentação artificial mais eficaz, com pouca quantidade de alimento, maioritariamente obtido pelo Abutre do Egipto e pelo Grifo com menor presença de espécies oportunistas. As espécies que se alimentam nos comedouros apresentam diferentes estratégias na obtenção do alimento, contornando a monopolização apresentada pelo Grifo. Desta forma o Abutre do Egipto parece estar a conseguir tirar proveito do alimento que lhe é dirigido. A disponibilização de alimento regular em poucas quantidades, nas primeiras horas de luz do dia, alternando o local onde o alimento é colocado, podem ser estratégias acertadas na alimentação suplementar dirigida ao Abutre do Egipto e ao Grifo.
Resumo:
Genericamente falando, os serviços sobre redes têm vindo a afastar-se de um modelo monolítico para um modelo de criação de serviços que permite ou - como é mais frequente - requer a cooperação entre vários Provedores de Serviço. A Internet, que tem vindo a forçar a convergência de serviços, mostra que começa a ser virtualmente impossível a um único operador fornecer qualquer serviço com um mínimo de interesse para os utilizadores. Esta tese foca-se em serviços de transporte (e.g., connectividade) e discute o impacto das fronteira que as ofertas de serviços têm com o negócio. A questão central é a seguinte: o que muda quando o mesmo serviço é oferecido não apenas por um mas por mais do que um Provedor de Serviço. Por um lado, esta tese cobre, em abs tracto, a noção de Provedor se Serviço, como evoluiu e em que sentido está a evoluir, particularmente num contexto de muitos Provedores de Serviço. Os primeiros capítulos desta tese analizam e propõem arquitecturas para cooperação inter-Provedor-de-Serviço e para serviços comuns tais como multimédia. Por outro lado, oferece-se soluções práticas, com as respectivas avaliações, para alguns problemas, que ainda hoje se mantêm em aberto, tais como encaminhamento inter-domínio, Qualidade-de-Serviço, Mobilidade e distribuição de conteúdos, tais como as contribuições relacionadas com o impacto da noção administrativa de Sistemas Autónomos sobre encaminhamento inter-domínio, uma arquitectura de transporte inter-domínio e o problema que levanta da ineficiência que decorre do planeamento não- cooperativo de Redes de Entrega de Conteúdos.
Resumo:
A perfuração é uma das operações envolvidas no desmonte de rocha com explosivos. A forma como esta operação é executada é determinante para o sucesso do desmonte. Quando é realizada correctamente o desmonte produz superfícies limpas com o mínimo de sobrescavação e perturbação. A selecção das ferramentas de perfuração é um dos factores preponderantes para os custos do desmonte de maciços rochosos. O objectivo deste trabalho é demonstrar a interdependência entre os parâmetros petrofísicos, geotécnicos e geomecânicos do maciço rochoso e as tecnologias de perfuração de forma a optimizar tanto técnica como economicamente. A forma como a perfuração é executada é determinante para a boa fragmentação do maciço rochoso. Este estudo irá centrar-se na perfurabilidade do maciço, linearidade dos furos, rendimento e desgaste das ferramentas de perfuração e desenvolvimento de metodologias do ciclo de perfuração. Neste trabalho, discute-se a importância de uma abordagem integrativa para fins de geoengenhara mineira em que foi aplicada a técnica de amostragem linear em superfícies expostas do maciço num ambiente de uma exploração granítica. As áreas seleccionadas para este estudo — Pedreira de Serdedelo (Ribeira, Ponte de Lima) e pedreira do Fojo (Ferreira, Paredes de Coura), NW de Portugal — estão situadas nas proximidades de falhas geológicas regionais. Em todo os casos de estudo foram desenvolvidos numa plataforma SIG usando as seguintes ferramentas: cartografia geo-aplicada, técnicas de geologia estrutural, da geotecnia e da geomecânica mineiras e avaliação de geotecnologias. Esta abordagem leva-nos a compreender a relevância da heterogeneidade do maciço rochoso para o dimensionamento da exploração a diferentes escalas. O controlo geomecânico do desmonte do maciço rochoso através de uma perfuração alinhada é salientado com o intuito de uma abordagem de geoengenharia integrada nos maciços rochosos.
Resumo:
Viscoelastic treatments are one of the most efficient treatments, as far as passive damping is concerned, particularly in the case of thin and light structures. In this type of treatment, part of the strain energy generated in the viscoelastic material is dissipated to the surroundings, in the form of heat. A layer of viscoelastic material is applied to a structure in an unconstrained or constrained configuration, the latter proving to be the most efficient arrangement. This is due to the fact that the relative movement of both the host and constraining layers cause the viscoelastic material to be subjected to a relatively high strain energy. There are studies, however, that claim that the partial application of the viscoelastic material is just as efficient, in terms of economic costs or any other form of treatment application costs. The application of patches of material in specific and selected areas of the structure, thus minimising the extension of damping material, results in an equally efficient treatment. Since the damping mechanism of a viscoelastic material is based on the dissipation of part of the strain energy, the efficiency of the partial treatment can be correlated to the modal strain energy of the structure. Even though the results obtained with this approach in various studies are considered very satisfactory, an optimisation procedure is deemed necessary. In order to obtain optimum solutions, however, time consuming numerical simulations are required. The optimisation process to use the minimum amount of viscoelastic material is based on an evolutionary geometry re-design and calculation of the modal damping, making this procedure computationally costly. To avert this disadvantage, this study uses adaptive layerwise finite elements and applies Genetic Algorithms in the optimisation process.
Resumo:
We consider some problems of the calculus of variations on time scales. On the beginning our attention is paid on two inverse extremal problems on arbitrary time scales. Firstly, using the Euler-Lagrange equation and the strengthened Legendre condition, we derive a general form for a variation functional that attains a local minimum at a given point of the vector space. Furthermore, we prove a necessary condition for a dynamic integro-differential equation to be an Euler-Lagrange equation. New and interesting results for the discrete and quantum calculus are obtained as particular cases. Afterwards, we prove Euler-Lagrange type equations and transversality conditions for generalized infinite horizon problems. Next we investigate the composition of a certain scalar function with delta and nabla integrals of a vector valued field. Euler-Lagrange equations in integral form, transversality conditions, and necessary optimality conditions for isoperimetric problems, on an arbitrary time scale, are proved. In the end, two main issues of application of time scales in economic, with interesting results, are presented. In the former case we consider a firm that wants to program its production and investment policies to reach a given production rate and to maximize its future market competitiveness. The model which describes firm activities is studied in two different ways: using classical discretizations; and applying discrete versions of our result on time scales. In the end we compare the cost functional values obtained from those two approaches. The latter problem is more complex and relates to rate of inflation, p, and rate of unemployment, u, which inflict a social loss. Using known relations between p, u, and the expected rate of inflation π, we rewrite the social loss function as a function of π. We present this model in the time scale framework and find an optimal path π that minimizes the total social loss over a given time interval.
Resumo:
Expanded porphyrins are synthetic analogues of porphyrins, differing from the last ones and other naturally occurring tetrapyrrolic macrocycles by containing a larger central core, with a minimum of 17 atoms, while retaining the extended conjugation features that are a tremendous feature of these biological pigments. The core expansion results in various systems with novel spectral and electronic features, often uniques. Most of these systems can also coordinate cations and/or anions, and in some cases they can bind more than one of these species. In many cases, these molecules display structural features, such as non-planar structures, that have no antecedents in the chemistry of porphyrins or related macrocyclic compounds. This work will discuss several synthetic approaches for the synthesis of expanded porphyrins, namely the construction of new building blocks by Michael addition, as well as potential synthetic routes towards expanded porphyrins. The synthesis of smaller oligopyrrolic compounds namely, bipyrroles and dipyrromethanes, not only were developed for the synthesis of expanded porphyrins as they were also used in Knoevenagel condensations furnishing chromogenic compounds able to recognize different anions in solution. Also, an approach to the synthesis of novel expanded porphyrins namely sapphyrins has been done by aza-Michael additions. Several synthetic routes towards the synthesis of pyridyl and pyridinium N-Fused pentaphyrins and hexaphyrins have been explored in order to achieve compounds with potential applications in catalysis and PDI, respectively. Studies on the synthesis of compounds with potential anion binding properties, led to the structural characterization and NMR anion binding studies of [28]hexaphyrins functionalized with several diamines in the para position of their pentafluorophenyl groups. These compounds allow NH hydrogen bond interactions with various anions. All synthesized compounds were fully characterized by modern spectroscopic techniques.
Resumo:
Esta dissertação pretende analisar a obra de João Canijo e a sua relação com as representações da identidade nacional. Para isso, socorre-se de uma revisão bibliográfica sobre a identidade cultural portuguesa, em diversas dimensões (histórica, literária e antropológica), ressaltando, sobretudo, a importância da ideologia salazarista e a tensão identitária da situação atual. Num segundo momento, este trabalho preocupa-se com a história do cinema português, desde os anos 60, procurando estabelecer paradigmas e mudanças, sobretudo na relação com o imaginário português. Na terceira parte, a dissertação ensaia uma análise a oito longas-metragens do realizador, propondo a ideia de uma dramaturgia da violência, através de uma intertextualidade com a tragédia grega e o melodrama cinematográfico, que pretende dar conta de um imaginário português contemporâneo, que se baseia numa sociedade patriarcal e na sua violência. Nesse sentido, argumenta-se a importância de conceitos como a “não-inscrição”, de José Gil, ou o recalcado, de Eduardo Lourenço, para a compreensão dos filmes. Num último momento, esta análise percorre o debate do realismo no cinema, através do prisma das mudanças contemporâneas sugeridas pela obra do cineasta, em que se destaca uma hibridez entre elementos ficcionais e documentais. Sugere-se, finalmente, uma dramaturgia da violência nos filmes de João Canijo que procura rever o imaginário existente no que diz respeito à identidade portuguesa e às suas representações culturais.