38 resultados para Desigualdades Matriciais Lineares (LMIs)
Resumo:
O comportamento cíclico das estruturas de betão armado é fortemente condicionado pelo mecanismo de aderência entre o betão e o aço. O escorregamento relativo entre os dois materiais, resultante da degradação progressiva da aderência em elementos solicitados por ações cíclicas, é uma causa frequente de danos graves e até do colapso de estruturas devido à ocorrência de sismos. Entre as estruturas existentes de betão armado que foram dimensionadas e construídas antes da entrada em vigor dos regulamentos sísmicos atuais, muitas foram construídas com armadura lisa, e portanto, possuem fracas propriedades de aderência. A informação disponível na literatura sobre o comportamento cíclico de elementos estruturais de betão armado com armadura lisa é reduzida e a influência das propriedades da aderência associadas a este tipo de armadura no comportamento cíclico das estruturas existentes não se encontra ainda devidamente estudada. O objectivo principal desta tese foi estudar a influência do escorregamento na resposta cíclica de elementos estruturais de betão armado com armadura lisa. Foram realizados ensaios cíclicos em elementos do tipo nó viga-pilar, construídos à escala real, representativos de ligações interiores em edifícios existentes sem pormenorização específica para resistir às ações sísmicas. Para comparação, foi realizado o ensaio de um nó construído com armadura nervurada. Foi ainda realizado o ensaio cíclico de uma viga de betão armado recolhida de uma estrutura antiga. Foram elaborados modelos numéricos não-lineares para simular a resposta dos elementos ensaiados, concentrando especial atenção no mecanismo do escorregamento. Os resultados obtidos no âmbito desta tese contribuem para o avanço do conhecimento sobre o comportamento cíclico de elementos estruturais de betão armado com armadura lisa. As análises numéricas realizadas comprovam a necessidade de incluir os efeitos do escorregamento na modelação numérica deste tipo de estruturas de forma a representar com rigor a sua resposta às ações cíclicas.
Resumo:
A dissertação de doutoramento apresentada insere-se na área de electrónica não-linear de rádio-frequência (RF), UHF e microondas, tendo como principal campo de acção o estudo da distorção nãolinear em arquitecturas de recepção rádio, nomeadamente receptores de conversão directa como Power Meters, RFID (Radio Frequency IDentification) ou SDR (Software Define Radio) front-ends. Partindo de um estudo exaustivo das actuais arquitecturas de recepção de radiofrequência e revendo todos os conceitos teóricos relacionados com o desempenho não-linear dos sistemas/componentes electrónicos, foram desenvolvidos algoritmos matemáticos de modulação dos comportamentos não-lineares destas arquitecturas, simulados e testados em laboratório e propostas novas arquitecturas para a minimização ou cancelamento do impacto negativo de grandes interferidores em frequências vizinhas ao do sistema pretendido.
Resumo:
A crescente procura de recursos fosseis a que se tem assistido nos ultimos anos, tem resultado num crescimento sem precedentes dos precos, com consequencias imprevisiveis e que levara, no espaco de decadas, ao seu inevitavel esgotamento. A procura de um modelo de desenvolvimento sustentavel, baseado em recursos renovaveis e o grande desafio que se coloca a civilizacao no seculo XXI. A biomassa vegetal, atraves das designadas gBio-refinarias h, e uma alternativa logica para a producao de produtos quimicos e de materiais mas tambem de combustiveis e energia. Os oleos vegetais constituem uma das fracoes da biomassa vegetal, cuja exploracao tem merecido redobrada atencao nos ultimos anos, como fonte de materiais e de combustiveis. Assim, a presente dissertacao tem por objetivo o desenvolvimento de novos materiais polimericos derivados de oleos vegetais, seguindo duas abordagens distintas, nomeadamente a preparacao de polimeros atraves de polimerizacao por etapas e polimerizacao em cadeia (Parte B e C, respetivamente). Em primeiro lugar, foram sintetizados poliesteres alifaticos de cadeia longa a partir de monomeros provenientes do oleo de colza (Capitulo III). A auto-metatese do acido erucico com catalisadores de rutenio, seguida de hidrogenacao da ligacao dupla, originou o acido 1,26-hexacosanodioico, que por sua vez foi convertido em hexacosano-1,26-diol. Subsequentemente, a policondensacao do acido ƒ¿,ƒÖ-dicarboxilico de cadeia longa com o hexacosano-1,26-diol originou o poliester 26,26. O diacido C26 foi tambem polimerizado com outros alcano-diois de cadeia curta, nomeadamente o dodecano-1,12-diol e o butano-1,2-diol, produzindo, respetivamente, os poliesteres 12,26 e 4,26. Estes poliesteres de fontes 100% renovaveis possuem valores de Mn na ordem dos 8-14 kDa e valores de PDI entre 2.1 e 2.7. As propriedades destes poliesteres alifaticos foram avaliadas atraves de varias tecnicas, revelando elevada cristalinidade (com uma estrutura cristalina como a do polietileno) e elevadas temperaturas de fusao (74-104 ‹C), cristalizacao (68-92 ‹C) e degradacao (323-386 ‹C). Em segundo lugar, foram sintetizados polimeros lineares termo-reversiveis a partir de derivados do oleo de ricinio (Capitulo IV). Para tal foram preparados monomeros que incorporam aneis furanicos inseridos atraves do acoplamento tiol-eno, e que posteriormente foram polimerizados pela reacao de Diels-Alder (DA) entre os grupos furano (dieno A) e estruturas complementares do tipo maleimida (dienofilo B). Para as polimerizacoes DA foram consideradas duas abordagens diferentes, nomeadamente (i) o uso de monomeros com dois aneis furanicos terminais em conjunto com uma bismaleimida (sistemas AA+BB) e (ii) a utilizacao de um monomero que incorpora ambos os grupos reativos, furano e maleimida, na sua estrutura (sistema AB). Este estudo demonstrou claramente que ambas as estratégias foram bem sucedidas embora com diferentes resultados em termos da natureza dos produtos obtidos. Estes polímeros lineares apresentam valores relativamente baixos de Tg (-40 to -2 °C) devido à natureza flexível dos grupos separadores das funções reativas, e de Mn (4.5-9.0 kDa) dada a observada tendência de ciclização associada a concentrações baixas de monómero. A aplicação da reação de retro-DA aos polímeros em causa confirmou o seu caráter reversível, ou seja, a possibilidade de promover, em condições controladas, a despolimerização com recuperação dos monómeros de partida. Esta particularidade abre caminhos para materiais macromoleculares originais com aplicações promissoras tais como auto-reparação e reciclabilidade. Em terceiro lugar, sintetizaram-se polímeros não-lineares termo-reversíveis a partir de derivados do óleo de ricínio (Capítulo V). Para tal foram preparados monómeros trifuncionais e posteriormente polimerizados através da reação de DA entre os grupos reativos complementares furano/maleimida. Foram consideradas três abordagens distintas para preparar estes polímeros não-lineares, nomeadamente através da utilização de (i) um monómero bisfurânico em combinação com uma trismaleimida (sistema A2+B3) e (ii) um monómero trisfurânico em conjunto com uma bismaleimida (sistema A3+B2) que originaram materiais ramificados ou reticulados, e ainda (iii) a utilização de monómeros assimetricamente substituídos do tipo A2B ou AB2 capazes de originar estruturas macromoleculares hiper-ramificadas. Todos os sistemas apresentaram valores de Tg perto de 0 °C, o que era de esperar para estes materiais não-lineares. A aplicação da reação de retro-DA comprovou mais uma vez o caráter termo-reversível das polimerizações em causa. Em quarto lugar e último lugar, foram preparados copolímeros de acetato de vinilo (VAc) com monómeros derivados de óleo de girassol (Capítulo VI). Ésteres vinílicos de ácidos gordos (FAVE) foram sintetizados por transvinilação dos ácidos oleico e linoleico com VAc catalisada por um complexo de irídio. Os monómeros vinílicos preparados foram caracterizados e posteriormente homopolimerizados e copolimerizados com VAc através do uso dos grupos vinílicos terminais como função inicial de polimerização. A variação do tipo e quantidade de monómero FAVE e da quantidade de iniciador radicalar originou copolímeros de VAc com valores de Mn na gama de 1.2-3.0 kDa e valores de Tg de -5 a 16 °C. Os copolímeros foram avaliados em testes de cura oxidativa através das insaturações nas suas cadeias alifáticas para formar materiais reticulados, e os resultados sugerem que eles podem ser sistemas efetivos de cura para aplicações como tintas, vernizes e outros tipos de revestimento. Todos os materiais poliméricos preparados ao longo deste trabalho constituem contribuições atrativas para a área dos polímeros oriundos de recursos renováveis e representam uma prova indiscutível de que os óleos vegetais são percursores promissores de materiais macromoleculares com potenciais aplicações.
Resumo:
Generalizamos o cálculo Hahn variacional para problemas do cálculo das variações que envolvem derivadas de ordem superior. Estudamos o cálculo quântico simétrico, nomeadamente o cálculo quântico alpha,beta-simétrico, q-simétrico e Hahn-simétrico. Introduzimos o cálculo quântico simétrico variacional e deduzimos equações do tipo Euler-Lagrange para o cálculo q-simétrico e Hahn simétrico. Definimos a derivada simétrica em escalas temporais e deduzimos algumas das suas propriedades. Finalmente, introduzimos e estudamos o integral diamond que generaliza o integral diamond-alpha das escalas temporais.
Resumo:
Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.
Resumo:
Nesta dissertação é apresentada uma abordagem a polinómios de Appell multidimensionais dando-se especial relevância à estrutura da sua função geradora. Esta estrutura, conjugada com uma escolha adequada de ordenação dos monómios que figuram nos polinómios, confere um carácter unificador à abordagem e possibilita uma representação matricial de polinómios de Appell por meio de matrizes particionadas em blocos. Tais matrizes são construídas a partir de uma matriz de estrutura simples, designada matriz de criação, subdiagonal e cujas entradas não nulas são os sucessivos números naturais. A exponencial desta matriz é a conhecida matriz de Pascal, triangular inferior, onde figuram os números binomiais que fazem parte integrante dos coeficientes dos polinómios de Appell. Finalmente, aplica-se a abordagem apresentada a polinómios de Appell definidos no contexto da Análise de Clifford.
Resumo:
Este trabalho investiga novas metodologias para as redes óticas de acesso de próxima geração (NG-OAN). O trabalho está dividido em quatro tópicos de investigação: projeto da rede, modelos numéricos para efeitos não lineares da fibra ótica, impacto dos efeitos não lineares da fibra ótica e otimização da rede. A rede ótica de acesso investigada nesse trabalho está projetado para suprir os requisitos de densidade de utilizadores e cobertura, isto é, suportar muitos utilizadores ( 1000) com altas velocidades de conexão dedicada ( 1 Gb/s) ocupando uma faixa estreita do espectro ( 25 nm) e comprimentos de fibra ótica até 100 km. Os cenários são baseados em redes óticas passivas com multiplexagem por divisão no comprimento de onda de alta densidade (UDWDM-PON) utilizando transmissores/receptores coerentes nos terminais da rede. A rede é avaliada para vários ritmos de transmissão usando formatos de modulação avançados, requisitos de largura de banda por utilizador e partilha de banda com tecnologias tradicionais de redes óticas passivas (PON). Modelos numéricos baseados em funções de transferência das séries de Volterra (VSTF) são demonstrados tanto para a análise dos efeitos não lineares da fibra ótica quanto para avaliação do desempenho total da rede. São apresentadas as faixas de potência e distância de transmissão nas quais as séries de Volterra apresentam resultados semelhantes ao modelo referência Split-Step Fourier (SSF) (validado experimentalmente) para o desempenho total da rede. Além disso, um algoritmo, que evita componentes espectrais com intensidade nulo, é proposto para realizar cálculos rápidos das séries. O modelo VSTF é estendido para identificar unicamente os efeitos não lineares da fibra ótica mais relevantes no cenário investigado: Self-Phase Modulation (SPM), Cross-Phase Modulation (XPM) e Four-Wave Mixing (FWM). Simulações numéricas são apresentadas para identificar o impacto isolado de cada efeito não linear da fibra ótica, SPM, XPM e FWM, no desempenho da rede com detecção coerente UDWDM-PON, transportando canais com modulação digital em fase (M-ária PSK) ou modulação digital em amplitude (M-ária QAM). A análise numérica é estendida para diferentes comprimentos de fibra ótica mono modo (SSMF), potência por canal e ritmo de transmissão por canal. Por conseguinte, expressões analíticas são extrapoladas para determinar a evolução do SPM, XPM e FWM em função da potência e distância de transmissão em cenários NG-OAN. O desempenho da rede é otimizada através da minimização parcial da interferência FWM (via espaçamento desigual dos canais), que nesse caso, é o efeito não linear da fibra ótica mais relevante. Direções para melhorias adicionas no desempenho da rede são apresentados para cenários em que o XPM é relevante, isto é, redes transportando formatos de modulação QAM. A solução, nesse caso, é baseada na utilização de técnicas de processamento digital do sinal.
Resumo:
Durante o último século, as populações de cervídeos têm aumentado substancialmente um pouco por toda a Europa. O veado Cervus elaphus não foi exceção, apresentando atualmente uma ampla distribuição geográfica. Após a quase extinção de todas as populações selvagens desta espécie em Portugal, o número de efetivos de veado e a área de distribuição da espécie têm aumentado significativamente nas últimas décadas. Esta proliferação deveu-se fundamentalmente aos processos de reintrodução implementados em algumas zonas do país, como foi o caso da Serra da Lousã. Dez anos após a reintrodução, a expansão geográfica e demográfica é já uma realidade e a espécie assume um papel relevante tanto do ponto de vista cinegético como turístico. Com o aumento das populações de ungulados, surge a necessidade de aumentar o conhecimento existente sobre estas espécies, particularmente ao nível das estimativas populacionais, do uso e seleção de habitat, do comportamento e da fisiologia das populações. Neste sentido, um dos objetivos foi comparar quatro métodos de contagem de excrementos em termos de estimativa populacional, aplicabilidade e eficiência. Face aos resultados obtidos, o método de transectos lineares com distance sampling revelou-se o mais eficiente, providenciando uma boa precisão num menor tempo. Relativamente ao uso e seleção do habitat, recorrendo a transectos de contagem de excrementos e a observações diretas, verificou-se que o veado seleciona positivamente habitats que lhe proporcionam simultaneamente alimento e refúgio, como é o caso das áreas de ecótono. A preferência por áreas de ecótono evidencia um comportamento adaptativo de maximização de energia, no qual os animais optam por procurar refúgio na proximidade das áreas de alimentação de forma a minimizarem os dispêndios energéticos. Em termos de dinâmica populacional, verificou-se uma relação entre a densidade de veado e o tamanho dos seus grupos, bem como o efeito nos mesmos do coberto vegetal. Contudo, dado o seu alto dimorfismo sexual em termos de tamanho corporal, as preferências de habitat podem também ser em parte responsáveis pela segregação sexual fora da época de reprodução. Face aos resultados obtidos através do método de observação direta de animais, a segregação sexual surge como consequência da interação entre fatores sociais e de habitat, que resultam de diferentes estratégias reprodutivas por parte de ambos os sexos. As diferentes estratégias reprodutivas são também notórias em termos de condição física e imunológica, com os machos a aumentarem a sua condição durante as épocas de primavera e verão de forma a melhorarem a sua performance durante o cio, e as fêmeas a viverem grande parte do ano no limiar da condição física devido ao seu investimento na sobrevivência da sua descendência. Globalmente, o veado apresenta uma boa adaptação à Serra da Lousã e representa um importante recurso natural para esta região. Contudo, para que a proliferação desta população selvagem continue, é necessária a implementação de medidas de gestão adequadas a este ecossistema mediterrâneo.
Resumo:
The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.
Resumo:
O trabalho de investigação apresentado nesta dissertação foi desenvolvido tendo como objectivo a síntese e funcionalização de meso-triarilcorróis para utilização como quimiossensores. Este trabalho encontra-se apresentado ao longo de cinco capítulos. No primeiro capítulo são apresentadas as características gerais, as metodologias de síntese e de funcionalização de macrociclos de tipo corrólico, e descrevemse algumas aplicações em que têm sido utilizados. São ainda abordadas algumas das propriedades e características dos quimiossensores e os mecanismos de deteção de diversos analítos. No segundo capítulo, após uma pequena introdução às reações de Wittig e de Diels-Alder, escolhidas para a funcionalização do macrociclo corrólico, descreve-se o estudo efectuado para a obtenção do complexo de gálio(III) do 3- vinil-5,10,15-tris(pentafluorofenil)corrol e o seu comportamento como dieno, em reações de Diels-Alder na presença dos dienófilos 1,4-benzoquinona e 1,4- naftoquinona. Desses estudos resultaram dois aductos cuja habilidade sensorial, bem como a dos seus precursores, foi estudada, em solução, na presença de aniões esféricos (F-, Br-, Cl-), lineares (CN-) e volumosos (CH3COO-, H2PO4 -). Dos macrociclos estudados verificou-se que o corrol base-livre 5,10,15-tris(pentafluorofenil)corrol apresenta uma elevada sensibilidade para o anião fluoreto (F-), e que a coordenação do núcleo corrólico com gálio(III) diminui a afinidade para este anião. Em geral, todos os compostos mostraram afinidade para o anião cianeto (CN-) mesmo quando em suportes poliméricos. O gel de poliacrilamida revelou-se muito promissor na determinação de CN- em amostras de água. No terceiro capítulo é avaliada a reatividade do complexo de gálio(III) do 3- vinil-5,10,15-tris(pentafluorofenil)corrol ainda como dieno mas agora na presença de um dienófilo linear, o acetilenodicarboxilato de dimetilo. Desse estudo resultaram dois novos derivados corrólicos. A habilidade sensorial dos mesmos perante os aniões fluoreto, cianeto, acetato, e fosfato foi avaliada por espectroscopia de absorção e emissão tendo um dos aductos mostrado ser colorimétrico para o anião cianeto. No quarto capítulo descreve-se a síntese e caracterização de dois conjugados do tipo corrol-cumarina, resultantes de reações de Hetero-Diels-Alder entre o 3-vinil-5,10,15-tris(pentafluorofenil)corrolatogálio(III)(piridina) e orto-quinonasmetídeos gerados in situ a partir de reacções de Knoevenagel entre cumarinas e paraformaldeído. Realizaram-se estudos de afinidade sensorial para aniões e catiões com estes macrociclos, bem como com conjugados porfirinacumarina análogos. A inserção de uma unidade cumarina conferiu uma excepcional solubilidade tendo os novos derivados apresentado solubilidade em etanol. No quinto e último capítulo desta dissertação é avaliada a capacidade sensorial do 5,10,15-tris(pentafluorofenil)corrol e da sua espécie monoaniónica, para os catiões metálicos Na+, Ca2+, Cu2+, Cd2+, Pb2+, Hg2+, Ag+, Al3+, Zn2+, Ni2+, Cr3+, Ga3+, Fe3+ em tolueno e acetonitrilo. Os macrociclos corrólicos mostraram ser selectivos e colorimétricos para o catião Hg2+. Neste trabalho descreve-se ainda a síntese do derivado -iminocorrol, que após funcionalização com o 3-isocianatopropiltrimetoxisilano originou um derivado do tipo alcoxisilano, que foi, posteriormente, ancorado a nanopartículas comerciais de sílica. As novas nanopartículas ancoradas com o alcoxisilano corrol foram estudadas na presença de Cu2+, Hg2+ e Ag+. Na presença do catião Ag+ assistiu-se a uma mudança de cor, de verde para amarelo.
Resumo:
Esta tese investiga a caracterização (e modelação) de dispositivos que realizam o interface entre os domínios digital e analógico, tal como os buffers de saída dos circuitos integrados (CI). Os terminais sem fios da atualidade estão a ser desenvolvidos tendo em vista o conceito de rádio-definido-por-software introduzido por Mitola. Idealmente esta arquitetura tira partido de poderosos processadores e estende a operação dos blocos digitais o mais próximo possível da antena. Neste sentido, não é de estranhar que haja uma crescente preocupação, no seio da comunidade científica, relativamente à caracterização dos blocos que fazem o interface entre os domínios analógico e digital, sendo os conversores digital-analógico e analógico-digital dois bons exemplos destes circuitos. Dentro dos circuitos digitais de alta velocidade, tais como as memórias Flash, um papel semelhante é desempenhado pelos buffers de saída. Estes realizam o interface entre o domínio digital (núcleo lógico) e o domínio analógico (encapsulamento dos CI e parasitas associados às linhas de transmissão), determinando a integridade do sinal transmitido. Por forma a acelerar a análise de integridade do sinal, aquando do projeto de um CI, é fundamental ter modelos que são simultaneamente eficientes (em termos computacionais) e precisos. Tipicamente a extração/validação dos modelos para buffers de saída é feita usando dados obtidos da simulação de um modelo detalhado (ao nível do transístor) ou a partir de resultados experimentais. A última abordagem não envolve problemas de propriedade intelectual; contudo é raramente mencionada na literatura referente à caracterização de buffers de saída. Neste sentido, esta tese de Doutoramento foca-se no desenvolvimento de uma nova configuração de medição para a caracterização e modelação de buffers de saída de alta velocidade, com a natural extensão aos dispositivos amplificadores comutados RF-CMOS. Tendo por base um procedimento experimental bem definido, um modelo estado-da-arte é extraído e validado. A configuração de medição desenvolvida aborda não apenas a integridade dos sinais de saída mas também do barramento de alimentação. Por forma a determinar a sensibilidade das quantias estimadas (tensão e corrente) aos erros presentes nas diversas variáveis associadas ao procedimento experimental, uma análise de incerteza é também apresentada.
Resumo:
A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.
Resumo:
O transporte marítimo e o principal meio de transporte de mercadorias em todo o mundo. Combustíveis e produtos petrolíferos representam grande parte das mercadorias transportadas por via marítima. Sendo Cabo Verde um arquipelago o transporte por mar desempenha um papel de grande relevância na economia do país. Consideramos o problema da distribuicao de combustíveis em Cabo Verde, onde uma companhia e responsavel por coordenar a distribuicao de produtos petrolíferos com a gestão dos respetivos níveis armazenados em cada porto, de modo a satisfazer a procura dos varios produtos. O objetivo consiste em determinar políticas de distribuicão de combustíveis que minimizam o custo total de distribuiçao (transporte e operacões) enquanto os n íveis de armazenamento sao mantidos nos n íveis desejados. Por conveniencia, de acordo com o planeamento temporal, o prob¬lema e divido em dois sub-problemas interligados. Um de curto prazo e outro de medio prazo. Para o problema de curto prazo sao discutidos modelos matemáticos de programacao inteira mista, que consideram simultaneamente uma medicao temporal cont ínua e uma discreta de modo a modelar multiplas janelas temporais e taxas de consumo que variam diariamente. Os modelos sao fortalecidos com a inclusão de desigualdades validas. O problema e então resolvido usando um "software" comercial. Para o problema de medio prazo sao inicialmente discutidos e comparados varios modelos de programacao inteira mista para um horizonte temporal curto assumindo agora uma taxa de consumo constante, e sao introduzidas novas desigualdades validas. Com base no modelo escolhido sao compara¬das estrategias heurísticas que combinam três heur ísticas bem conhecidas: "Rolling Horizon", "Feasibility Pump" e "Local Branching", de modo a gerar boas soluçoes admissíveis para planeamentos com horizontes temporais de varios meses. Finalmente, de modo a lidar com situaçoes imprevistas, mas impor¬tantes no transporte marítimo, como as mas condicões meteorológicas e congestionamento dos portos, apresentamos um modelo estocastico para um problema de curto prazo, onde os tempos de viagens e os tempos de espera nos portos sao aleatórios. O problema e formulado como um modelo em duas etapas, onde na primeira etapa sao tomadas as decisões relativas as rotas do navio e quantidades a carregar e descarregar e na segunda etapa (designada por sub-problema) sao consideradas as decisoes (com recurso) relativas ao escalonamento das operacões. O problema e resolvido por um metodo de decomposto que usa um algoritmo eficiente para separar as desigualdades violadas no sub-problema.
Resumo:
Nos últimos anos, o número de vítimas de acidentes de tráfego por milhões de habitantes em Portugal tem sido mais elevado do que a média da União Europeia. Ao nível nacional torna-se premente uma melhor compreensão dos dados de acidentes e sobre o efeito do veículo na gravidade do mesmo. O objetivo principal desta investigação consistiu no desenvolvimento de modelos de previsão da gravidade do acidente, para o caso de um único veículo envolvido e para caso de uma colisão, envolvendo dois veículos. Além disso, esta investigação compreendeu o desenvolvimento de uma análise integrada para avaliar o desempenho do veículo em termos de segurança, eficiência energética e emissões de poluentes. Os dados de acidentes foram recolhidos junto da Guarda Nacional Republicana Portuguesa, na área metropolitana do Porto para o período de 2006-2010. Um total de 1,374 acidentes foram recolhidos, 500 acidentes envolvendo um único veículo e 874 colisões. Para a análise da segurança, foram utilizados modelos de regressão logística. Para os acidentes envolvendo um único veículo, o efeito das características do veículo no risco de feridos graves e/ou mortos (variável resposta definida como binária) foi explorado. Para as colisões envolvendo dois veículos foram criadas duas variáveis binárias adicionais: uma para prever a probabilidade de feridos graves e/ou mortos num dos veículos (designado como veículo V1) e outra para prever a probabilidade de feridos graves e/ou mortos no outro veículo envolvido (designado como veículo V2). Para ultrapassar o desafio e limitações relativas ao tamanho da amostra e desigualdade entre os casos analisados (apenas 5.1% de acidentes graves), foi desenvolvida uma metodologia com base numa estratégia de reamostragem e foram utilizadas 10 amostras geradas de forma aleatória e estratificada para a validação dos modelos. Durante a fase de modelação, foi analisado o efeito das características do veículo, como o peso, a cilindrada, a distância entre eixos e a idade do veículo. Para a análise do consumo de combustível e das emissões, foi aplicada a metodologia CORINAIR. Posteriormente, os dados das emissões foram modelados de forma a serem ajustados a regressões lineares. Finalmente, foi desenvolvido um indicador de análise integrada (denominado “SEG”) que proporciona um método de classificação para avaliar o desempenho do veículo ao nível da segurança rodoviária, consumos e emissões de poluentes.Face aos resultados obtidos, para os acidentes envolvendo um único veículo, o modelo de previsão do risco de gravidade identificou a idade e a cilindrada do veículo como estatisticamente significativas para a previsão de ocorrência de feridos graves e/ou mortos, ao nível de significância de 5%. A exatidão do modelo foi de 58.0% (desvio padrão (D.P.) 3.1). Para as colisões envolvendo dois veículos, ao prever a probabilidade de feridos graves e/ou mortos no veículo V1, a cilindrada do veículo oposto (veículo V2) aumentou o risco para os ocupantes do veículo V1, ao nível de significância de 10%. O modelo para prever o risco de gravidade no veículo V1 revelou um bom desempenho, com uma exatidão de 61.2% (D.P. 2.4). Ao prever a probabilidade de feridos graves e/ou mortos no veículo V2, a cilindrada do veículo V1 aumentou o risco para os ocupantes do veículo V2, ao nível de significância de 5%. O modelo para prever o risco de gravidade no veículo V2 também revelou um desempenho satisfatório, com uma exatidão de 40.5% (D.P. 2.1). Os resultados do indicador integrado SEG revelaram que os veículos mais recentes apresentam uma melhor classificação para os três domínios: segurança, consumo e emissões. Esta investigação demonstra que não existe conflito entre a componente da segurança, a eficiência energética e emissões relativamente ao desempenho dos veículos.
Resumo:
“Branch-and-cut” algorithm is one of the most efficient exact approaches to solve mixed integer programs. This algorithm combines the advantages of a pure branch-and-bound approach and cutting planes scheme. Branch-and-cut algorithm computes the linear programming relaxation of the problem at each node of the search tree which is improved by the use of cuts, i.e. by the inclusion of valid inequalities. It should be taken into account that selection of strongest cuts is crucial for their effective use in branch-and-cut algorithm. In this thesis, we focus on the derivation and use of cutting planes to solve general mixed integer problems, and in particular inventory problems combined with other problems such as distribution, supplier selection, vehicle routing, etc. In order to achieve this goal, we first consider substructures (relaxations) of such problems which are obtained by the coherent loss of information. The polyhedral structure of those simpler mixed integer sets is studied to derive strong valid inequalities. Finally those strong inequalities are included in the cutting plane algorithms to solve the general mixed integer problems. We study three mixed integer sets in this dissertation. The first two mixed integer sets arise as a subproblem of the lot-sizing with supplier selection, the network design and the vendor-managed inventory routing problems. These sets are variants of the well-known single node fixed-charge network set where a binary or integer variable is associated with the node. The third set occurs as a subproblem of mixed integer sets where incompatibility between binary variables is considered. We generate families of valid inequalities for those sets, identify classes of facet-defining inequalities, and discuss the separation problems associated with the inequalities. Then cutting plane frameworks are implemented to solve some mixed integer programs. Preliminary computational experiments are presented in this direction.