959 resultados para Ajuste de modelos não lineares
Resumo:
El presente estudio tiene el objetivo de ofrecer una visión general sobre los Modelos de Desarrollo y Organización Territorial desde la perspectiva de las relaciones entre el medio urbano, “rururbano” y rural, en España. Para ello, tras conocer y valorar los enfoque conceptuales y temáticos, se estudia el crecimiento urbano en nuestro país en las últimas décadas, analizando de manera pormenorizada la importancia que ha cobrado y cobra la aplicación legislativa de leyes, planes y normas, tanto en el propio crecimiento urbano como en la demanda de viviendas en las ciudades españolas y, de igual modo, la vinculación de ambas con el precio de las viviendas, relacionándolo con la problemática de la “rururbanización”, y del medio rural.
Resumo:
Se expone una fundamentación teórica, lógica y metodológica de tres modelos semióticos: los elementos y funciones de la comunicación de Jakobson; el modelo actancial de Greimas; y los mundos: real, referencia y posible de Eco, aplicados al análisis de poesía narrativa popular difundida en distintos formatos audiovisuales.
Resumo:
El presente estudio fue realizado en tres clases del Centro de Educación Primaria "Filósofo Séneca" de Madrid. El objetivo fue determinar la forma en que los niños de 5º y 6º de educación primaria procesan la información social y su relación con el nivel de ajuste social manifestado, expresado en términos de agresividad y victimización. El estudio, se basa en el Modelo de Procesamiento de la Información Social propuesto por Crick y Dodge (1994) y examina el cuarto paso de éste, la generación de respuestas alternativas. Se recogieron datos de forma individualizada de n=55 niños, 24 niños y 31 niñas. La hipótesis principal, formulada como que un déficit en el procesamiento de la información social se relacionará con unos niveles más altos de agresión y victimización, se mantiene.
The following study was implemented in three classes of the Primary EducationCentre «Filósofo Séneca». Its aim was to determine the way that children of this age processsocial information and the relation between this and the level of aggression or victimizationthey show.The study is based on the Model of Social Information Processing proposed byCrick and Dodge in 1994, and examines the fourth step of this model, the generation of alternative responses. The principal hypothesis, that a deficit in social information process-ing will be related to higher levels of aggression and victimization, is supported.
Resumo:
Processos e Modelos de Raciocínio na Tomada de Decisão: contributos concetuais e interrogações Dulce Magalhães - Departamento de Enfermagem, Universidade de Évora Manuel Lopes - Departamento de Enfermagem, Universidade de Évora Ana Fonseca - Departamento de Enfermagem, Universidade de Évora Os enfermeiros que integram as equipas de unidades de cuidados hospitalares têm que prevenir, minimizar e corrigir situações clínicas instáveis. Em consequência disso defrontam-se diária e sistematicamente com a obrigatoriedade de tomar decisões no contexto da ação (Thompson & Dowding, 2005) e agir em conformidade. Eles têm que tomar decisões num espaço que não é reservado e que está confinado a uma teia de relações que acontecem entre o doente, a família e os restantes membros da equipa de saúde (Benner et al, 2011; Tanner, 2006, Lopes, 2006). Um espaço onde acontecem múltiplas interrupções que provêm de procedimentos de trabalho e exigências constantes de atenção a cada doente (Hedberg & Larsson, 2004; Potter et al, 2005; Wolf et al, 2006). São decisões processuais e multidimensionais que têm que considerar em simultâneo, o que deve ser feito, como deve ser feito e quando deve ser feito, no respeito da singularidade do doente e do seu contexto circundante (Gillespie, 2009). Esta dinâmica também está interligada com os dados clínicos que recorrentemente emergem, bem como à acessibilidade, multiplicidade e ambiguidade dos dados clínicos (Junnola et al, 2002; Carnevali &Thomas, 1993 Simmons, 2010), ao tempo de decisão e às decisões conflituosas (Thompson, 2004). São ambientes clínicos onde acontecem contingências, algumas delas aleatórias, que exigem que os enfermeiros independentemente dos níveis de proficiência sejam obrigados a tomar decisões complexas de forma rápida e precisa, para optimizar os resultados esperados (Curry & Botti, 2006). O conhecimento e o raciocínio que os enfermeiros usam na tomada de decisão são elementos, entre outros, que definem muito da prática profissional (Cody, 2006). Por isso, conscientes da realidade enunciada através da investigação que tem vindo a ser desenvolvida, foi nossa intenção analisar criticamente os modelos de decisão que têm expressão na literatura de enfermagem e que têm sido desenvolvidos em diferentes áreas do conhecimento (Concoran-Perry et al, 1999), no sentido de reconhecer o seu poder explicativo para a tomada de decisão dos enfermeiros. Alguns deles são apresentados numa estrutura normativa, outros numa descritiva e em função disso, podem dividir-se em duas categorias teóricas, sistemático-positivista e intuitivo-humanista (Thompson, 1999; Aitken, Marshall, Elliott & McKinley, 2007). As abordagens sistemático-positivistas sugerem que a tomada de decisão acontece num processo sequencial previamente definido e explicitado. Assentam no pressuposto que existe alguma atividade de análise ou de resolução de problemas em curso, para o enfermeiro tomar uma decisão. Nas abordagens intuitivo-humanistas a decisão é entendida no seio de um processo como um todo e no contexto de uma abordagem naturalista (Benner, 1984; Thompson, 1999). Elas podem ser diferenciadas, desde logo, a partir dos seus centros de interesse. Enquanto a primeira se interessa pelo número de dados e pelos processos de análise cognitiva para uma melhor decisão. A segunda dá primazia aos contextos relacionais e de comunicação com os doentes e serve-se da performance clínica para eleger as melhores ações.
Resumo:
O metano é um gás de estufa potente e uma importante fonte de energia. A importância global e impacto em zonas costeiras de acumulações e escape de gás metano são ainda pouco conhecidas. Esta tese investiga acumulações e escape de gás em canais de maré da Ria de Aveiro com dados de cinco campanhas de reflexão sísmica de alta resolução realizadas em 1986, 1999, 2002 e 2003. Estas incluem três campanhas de Chirp (RIAV99, RIAV02 e RIAV02A) e duas campanhas de Boomer (VOUGA86 e RIAV03). O processamento dos dados de navegação incluíram filtros de erros, correcções de sincronização de relógios de sistemas de aquisição de dados, ajuste de “layback” e estimativa da posição de “midpoint”. O processamento do sinal sísmico consistiu na correcção das amplitudes, remoção de ruído do tipo “burst”, correcções estáticas, correcção do “normal move-out”, filtragem passabanda, desconvolução da assinatura e migração Stolt F-K. A análise da regularidade do trajecto de navegação, dos desfasamentos entre horizontes e dos modelos de superfícies foi utilizada para controlo de qualidade, e permitiu a revisão e melhoria dos parâmetros de processamento. A heterogeneidade da cobertura sísmica, da qualidade do sinal, da penetração e da resolução, no seu conjunto constrangeram o uso dos dados a interpretações detalhadas, mas locais, de objectos geológicos da Ria. É apresentado um procedimento para determinar a escolha de escalas adequadas para modelar os objectos geológicos, baseado na resolução sísmica, erros de posicionamento conhecidos e desfasamentos médios entre horizontes. As evidências de acumulação e escape de gás na Ria de Aveiro incluem turbidez acústica, reflexões reforçadas, cortinas acústicas, domas, “pockmarks” e alinhamentos de “pockmarks” enterradas, horizontes perturbados e plumas acústicas na coluna de água (flares). A estratigrafia e a estrutura geológica controlam a distribuição e extensão das acumulações e escape de gás. Ainda assim, nestes sistemas de baixa profundidade de água, as variações da altura de maré têm um impacto significativo na detecção de gás com métodos acústicos, através de alterações nas amplitudes originais de reflexões reforçadas, turbidez acústica e branqueamento acústico em zonas com gás. Os padrões encontrados confirmam que o escape de bolhas de gás é desencadeado pela descida da maré. Há acumulações de gás em sedimentos Holocénicos e no substrato de argilas e calcários do Mesozóico. Evidências directas de escape de gás em sondagens em zonas vizinhas, mostraram gás essencialmente biogénico. A maioria do gás na área deve ter sido gerado em sedimentos lagunares Holocénicos. No entanto, a localização e geometria de estruturas de escape de fluidos em alguns canais de maré, seguem o padrão de fracturas do substrato Mesozóico, indicando uma possível fonte mais profunda de gás e que estas fracturas funcionam como condutas preferenciais de migração dos fluidos e exercem um controlo estrutural na ocorrência de gás na Ria.
Resumo:
O interesse crescente das membranas inorgânicas deve-se à potencial aplicação em novas áreas de investigação e da indústria, e em alternativa a operações mais convencionais. Em particular, as membranas de titanossilicatos oferecem vantagens importantes sobre as de zeólitos, pois podem ser sintetizadas sem agentes estruturantes orgânicos, para evitar a calcinação subsequente usualmente responsável por defeitos irreversíveis, exibem novas possibilidades de substituição isomórfica da matriz, permitindo um ajuste mais fino das propriedades catalíticas e de adsorção, e são capazes de separar misturas com base em diferenças de afinidade e tamanho molecular (efeito de peneiro). Os objectivos principais deste trabalho foram: i) a caracterização dinâmica de membranas do tipo zeolítico sintetizadas no Laboratório Associado CICECO, realizando-se experiências de permeação com gases puros e misturas; ii) o desenvolvimento e validação de novos modelos para a transferência de massa multicomponente através de membranas porosas pela abordagem de Maxwell-Stefan, tendo em conta os mecanismos específicos encontrados, particularmente a contribuição por difusão superficial; e iii) a modelação dos pontos experimentais medidos, bem como dados compilados da literatura. De forma a realizar os ensaios de permeação, desenhou-se, montou-se e testou-se uma instalação experimental. Para gases puros, os objectivos principais foram a medição de permeâncias a temperatura constante, por variação da pressão transmembranar r ( ΔP ), e de permeâncias a temperatura programada, conduzidas a ΔP constante. Seguidamente, calcularam-se as selectividades ideais. Em relação a misturas, a determinação de selectividades reais requer as fracções molares no permeado e no retido. Na globalidade, estudaram-se três suportes diferentes (aço inoxidável e α − alumina) e dezanove membranas de AM-3, ETS-10, ZSM-5 e zeólito 4A, utilizando-se H2, He, N2, CO2, e O2. A primeira avaliação exploratória da qualidade das membranas foi feita permeando azoto à temperatura ambiente. Assim, permeâncias superiores a 10−6 mol/m2s.Pa evidenciavam defeitos grosseiros, levando-nos a efectuar cristalizações adicionais sobre as primeiras camadas. Este procedimento foi implementado com oito membranas. Um trabalho experimental mais detalhado foi conduzido com cinco membranas. Membranas com curvas permeância-temperatura ( Π −T ) decrescentes indicam tipicamente transporte viscoso e de Knudsen, i.e. meso e macrodefeitos. Por exemplo, a membrana nº 3 de AM-3 exibiu este comportamento com H2, He, N2 e CO2 puros. A contribuição de Knudsen foi confirmada pela relação linear encontrada entre as permeâncias e o inverso da raiz quadrada da massa molar. O mecanismo viscoso foi também identificado, pois as permeâncias eram inversamente proporcionais à viscosidade do gás ou, atendendo a equações do tipo de Chapman-Enskog, directamente proporcionais a 2 0.5 k d M (onde k d é o diâmetro cinético e M a massa molar). Um comportamento de permeação distinto observou-se com a membrana nº 5 de AM-3. As permeâncias registadas a temperatura programada eram aproximadamente constantes para o N2, CO2 e O2, enquanto com o H2 cresciam significativamente. Conjuntamente elas evidenciam a ocorrência de macro, meso e microdefeitos intercristalinos. O transporte gasoso activado através dos microporos compensa o impacto diminuidor dos meso e macroporos. Ao contrário do N2, CO2 e O2, o pequeno diâmetro do hidrogénio torna-lhe possível permear através dos microporos intracristalinos, o que lhe adiciona um mecanismo de transferência responsável por esse crescimento. No que respeita à difusão superficial, o sistema CO2/ZSM-5 pode ser tomado como um exemplo paradigmático. Uma vez que este zeólito adsorve o CO2, as permeâncias diminuem com o crescimento de ΔP , em virtude de as concentrações no sólido aumentarem de forma não linear e tenderem para a saturação. Os resultados contrastantes obtidos com azoto realçam ainda mais o mecanismo superficial, pois o N2 não é adsorvido e as permeâncias medidas são constantes. Globalmente, as selectividades ideais calculadas ( α* ) variam de cerca de 1 a 4.2. Este parâmetro foi também utilizado para discriminar as melhores membranas, uma vez que baixos valores de α* denotam o escoamento viscoso não-selectivo típico de macrodefeitos. Por exemplo, o H2/CO2 na membrana nº 3 de AM-3 apresentou α* = 3.6 − 4.2 para 40–120ºC, enquanto que na membrana nº 5 de AM-3 originou α* = 2.6 − 3.1. Estes resultados corroboraram as observações anteriores, segundo as quais a membrana nº 5 era melhor do que a nº 3. Alguns ensaios foram realizados com membranas saturadas com água para aumentar a selectividade: as medições mostraram claramente uma melhoria inicial seguida de uma redução consistente de α* com o aumento da temperatura, devido à remoção das moléculas de água responsáveis pela obstrução de alguns poros. Em relação às selectividades reais de misturas contendo hidrogénio, devem ser realizadas mais experiências e a quantificação do hidrogénio deve ser melhorada. No que concerne à modelação, novos factores termodinâmicos de Maxwell- Stefan foram derivados para as isotérmicas mono e multicomponente de Nitta, Langmuir-Freundlich e Toth, tendo sido testadas com dados de equilíbrio e de permeação da literatura. (É importante realçar que só estão publicadas equações para Langmuir e Dual-Site Langmuir de componentes puros e misturas). O procedimento de validação adoptado foi exigente: i) as isotérmicas multicomponente foram previstas a partir das de gás puro; ii) os parâmetros de difusão dos componentes puros foram ajustados a dados de permeação de cada gás; iii) depois, as difusividades cruzadas de Maxwell- Stefan foram estimadas pela relação de Vignes; finalmente, v) as novas equações foram testadas usando-se estes parâmetros, tendo sido capazes de estimar com sucesso fluxos binários. Paralelamente ao enfoque principal do trabalho, derivou-se um novo modelo para permuta iónica em materiais microporosos baseado nas equações de Maxwell-Stefan. Este foi validado com dados experimentais de remoção de Hg2+ e Cd2+ de soluções aquosas usando ETS-4. A sua capacidade preditiva foi também avaliada, sendo possível concluir que se comporta muito bem. Com efeito, conseguiram-se boas previsões com parâmetros optimizados a partir de conjuntos de dados independentes. Este comportamento pode ser atribuído aos princípios físicos sólidos da teoria de Maxwell-Stefan.
Resumo:
Os sistemas compartimentais são frequentemente usados na modelação de diversos processos em várias áreas, tais como a biomedicina, ecologia, farmacocinética, entre outras. Na maioria das aplicações práticas, nomeadamente, aquelas que dizem respeito à administração de drogas a pacientes sujeitos a cirurgia, por exemplo, a presença de incertezas nos parâmetros do sistema ou no estado do sistema é muito comum. Ao longo dos últimos anos, a análise de sistemas compartimentais tem sido bastante desenvolvida na literatura. No entanto, a análise da sensibilidade da estabilidade destes sistemas na presença de incertezas tem recebido muito menos atenção. Nesta tese, consideramos uma lei de controlo por realimentação do estado com restrições de positividade e analisamos a sua robustez quando aplicada a sistemas compartimentais lineares e invariantes no tempo com incertezas nos parâmetros. Além disso, para sistemas lineares e invariantes no tempo com estado inicial desconhecido, combinamos esta lei de controlo com um observador do estado e a robustez da lei de controlo resultante também é analisada. O controlo do bloqueio neuromuscular por meio da infusão contínua de um relaxante muscular pode ser modelado como um sistema compartimental de três compartimentos e tem sido objecto de estudo por diversos grupos de investigação. Nesta tese, os nossos resultados são aplicados a este problema de controlo e são fornecidas estratégias para melhorar os resultados obtidos.
Resumo:
The work reported in this thesis aimed at applying the methodology known as metabonomics to the detailed study of a particular type of beer and its quality control, with basis on the use of multivariate analysis (MVA) to extract meaningful information from given analytical data sets. In Chapter 1, a detailed description of beer is given considering the brewing process, main characteristics and typical composition of beer, beer stability and the commonly used analytical techniques for beer analysis. The fundamentals of the analytical methods employed here, namely nuclear magnetic resonance (NMR) spectroscopy, gas-chromatography-mass spectrometry (GC-MS) and mid-infrared (MIR) spectroscopy, together with the description of the metabonomics methodology are described shortly in Chapter 2. In Chapter 3, the application of high resolution NMR to characterize the chemical composition of a lager beer is described. The 1H NMR spectrum obtained by direct analysis of beer show a high degree of complexity, confirming the great potential of NMR spectroscopy for the detection of a wide variety of families of compounds, in a single run. Spectral assignment was carried out by 2D NMR, resulting in the identification of about 40 compounds, including alcohols, amino acids, organic acids, nucleosides and sugars. In a second part of Chapter 3, the compositional variability of beer was assessed. For that purpose, metabonomics was applied to 1H NMR data (NMR/MVA) to evaluate beer variability between beers from the same brand (lager), produced nationally but differing in brewing site and date of production. Differences between brewing sites and/or dates were observed, reflecting compositional differences related to particular processing steps, including mashing, fermentation and maturation. Chapter 4 describes the quantification of organic acids in beer by NMR, using different quantitative methods: direct integration of NMR signals (vs. internal reference or vs. an external electronic reference, ERETIC method) and by quantitative statistical methods (using the partial least squares (PLS) regression) were developed and compared. PLS1 regression models were built using different quantitative methods as reference: capillary electrophoresis with direct and indirect detection and enzymatic essays. It was found that NMR integration results generally agree with those obtained by the best performance PLS models, although some overestimation for malic and pyruvic acids and an apparent underestimation for citric acid were observed. Finally, Chapter 5 describes metabonomic studies performed to better understand the forced aging (18 days, at 45 ºC) beer process. The aging process of lager beer was followed by i) NMR, ii) GC-MS, and iii) MIR spectroscopy. MVA methods of each analytical data set revealed clear separation between different aging days for both NMR and GC-MS data, enabling the identification of compounds closely related with the aging process: 5-hydroxymethylfurfural (5-HMF), organic acids, γ-amino butyric acid (GABA), proline and the ratio linear/branched dextrins (NMR domain) and 5-HMF, furfural, diethyl succinate and phenylacetaldehyde (known aging markers) and, for the first time, 2,3-dihydro-3,5-dihydroxy-6-methyl-4(H)-pyran-4-one xii (DDMP) and maltoxazine (by GC-MS domain). For MIR/MVA, no aging trend could be measured, the results reflecting the need of further experimental optimizations. Data correlation between NMR and GC-MS data was performed by outer product analysis (OPA) and statistical heterospectroscopy (SHY) methodologies, enabling the identification of further compounds (11 compounds, 5 of each are still unassigned) highly related with the aging process. Data correlation between sensory characteristics and NMR and GC-MS was also assessed through PLS1 regression models using the sensory response as reference. The results obtained showed good relationships between analytical data response and sensory response, particularly for the aromatic region of the NMR spectra and for GC-MS data (r > 0.89). However, the prediction power of all built PLS1 regression models was relatively low, possibly reflecting the low number of samples/tasters employed, an aspect to improve in future studies.
Resumo:
O comportamento cíclico das estruturas de betão armado é fortemente condicionado pelo mecanismo de aderência entre o betão e o aço. O escorregamento relativo entre os dois materiais, resultante da degradação progressiva da aderência em elementos solicitados por ações cíclicas, é uma causa frequente de danos graves e até do colapso de estruturas devido à ocorrência de sismos. Entre as estruturas existentes de betão armado que foram dimensionadas e construídas antes da entrada em vigor dos regulamentos sísmicos atuais, muitas foram construídas com armadura lisa, e portanto, possuem fracas propriedades de aderência. A informação disponível na literatura sobre o comportamento cíclico de elementos estruturais de betão armado com armadura lisa é reduzida e a influência das propriedades da aderência associadas a este tipo de armadura no comportamento cíclico das estruturas existentes não se encontra ainda devidamente estudada. O objectivo principal desta tese foi estudar a influência do escorregamento na resposta cíclica de elementos estruturais de betão armado com armadura lisa. Foram realizados ensaios cíclicos em elementos do tipo nó viga-pilar, construídos à escala real, representativos de ligações interiores em edifícios existentes sem pormenorização específica para resistir às ações sísmicas. Para comparação, foi realizado o ensaio de um nó construído com armadura nervurada. Foi ainda realizado o ensaio cíclico de uma viga de betão armado recolhida de uma estrutura antiga. Foram elaborados modelos numéricos não-lineares para simular a resposta dos elementos ensaiados, concentrando especial atenção no mecanismo do escorregamento. Os resultados obtidos no âmbito desta tese contribuem para o avanço do conhecimento sobre o comportamento cíclico de elementos estruturais de betão armado com armadura lisa. As análises numéricas realizadas comprovam a necessidade de incluir os efeitos do escorregamento na modelação numérica deste tipo de estruturas de forma a representar com rigor a sua resposta às ações cíclicas.
Resumo:
O presente trabalho tem como objetivo analisar a cinética de secagem do bacalhau salgado verde (Gadus morhua) em secador convectivo. É apresentada a análise da composição físico-química dos bacalhaus utilizados nos ensaios experimentais, bem como o estudo das isotermas de sorção do produto, através de experiências e modelação matemática. Dos modelos usados para o ajuste das isotermas de sorção do bacalhau salgado verde, o que melhor se adaptou aos resultados experimentais foi o modelo de GAB Modificado, com coeficientes de correlação variando entre 0,992 e 0,998. Para o controlo do processo de secagem (nomeadamente os parâmetros temperatura, humidade relativa e velocidade do ar) foi utilizada lógica difusa, através do desenvolvimento de controladores difusos para o humidificador, desumidificador, resistências de aquecimento e ventilador. A modelação do processo de secagem foi realizada através de redes neuronais artificiais (RNA), modelo semi-empírico de Page e modelo difusivo de Fick. A comparação entre dados experimentais e simulados, para cada modelo, apresentou os seguintes erros: entre 1,43 e 11,58 para o modelo de Page, 0,34 e 4,59 para o modelo de Fick e entre 1,13 e 6,99 para a RNA, com médias de 4,38, 1,67 e 2,93 respectivamente. O modelo obtido pelas redes neuronais artificiais foi submetido a um algoritmo de otimização, a fim de buscar os parâmetros ideais de secagem, de forma a minimizar o tempo do processo e maximizar a perda de água do bacalhau. Os parâmetros ótimos obtidos para o processo de secagem, após otimização realizada, para obter-se uma humidade adimensional final de 0,65 foram: tempo de 68,6h, temperatura de 21,45°C, humidade relativa de 51,6% e velocidade de 1,5m/s. Foram também determinados os custos de secagem para as diferentes condições operacionais na instalação experimental. Os consumos por hora de secagem variaram entre 1,15 kWh e 2,87kWh, com uma média de 1,94kWh.
Resumo:
Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.
Resumo:
Este trabalho investiga novas metodologias para as redes óticas de acesso de próxima geração (NG-OAN). O trabalho está dividido em quatro tópicos de investigação: projeto da rede, modelos numéricos para efeitos não lineares da fibra ótica, impacto dos efeitos não lineares da fibra ótica e otimização da rede. A rede ótica de acesso investigada nesse trabalho está projetado para suprir os requisitos de densidade de utilizadores e cobertura, isto é, suportar muitos utilizadores ( 1000) com altas velocidades de conexão dedicada ( 1 Gb/s) ocupando uma faixa estreita do espectro ( 25 nm) e comprimentos de fibra ótica até 100 km. Os cenários são baseados em redes óticas passivas com multiplexagem por divisão no comprimento de onda de alta densidade (UDWDM-PON) utilizando transmissores/receptores coerentes nos terminais da rede. A rede é avaliada para vários ritmos de transmissão usando formatos de modulação avançados, requisitos de largura de banda por utilizador e partilha de banda com tecnologias tradicionais de redes óticas passivas (PON). Modelos numéricos baseados em funções de transferência das séries de Volterra (VSTF) são demonstrados tanto para a análise dos efeitos não lineares da fibra ótica quanto para avaliação do desempenho total da rede. São apresentadas as faixas de potência e distância de transmissão nas quais as séries de Volterra apresentam resultados semelhantes ao modelo referência Split-Step Fourier (SSF) (validado experimentalmente) para o desempenho total da rede. Além disso, um algoritmo, que evita componentes espectrais com intensidade nulo, é proposto para realizar cálculos rápidos das séries. O modelo VSTF é estendido para identificar unicamente os efeitos não lineares da fibra ótica mais relevantes no cenário investigado: Self-Phase Modulation (SPM), Cross-Phase Modulation (XPM) e Four-Wave Mixing (FWM). Simulações numéricas são apresentadas para identificar o impacto isolado de cada efeito não linear da fibra ótica, SPM, XPM e FWM, no desempenho da rede com detecção coerente UDWDM-PON, transportando canais com modulação digital em fase (M-ária PSK) ou modulação digital em amplitude (M-ária QAM). A análise numérica é estendida para diferentes comprimentos de fibra ótica mono modo (SSMF), potência por canal e ritmo de transmissão por canal. Por conseguinte, expressões analíticas são extrapoladas para determinar a evolução do SPM, XPM e FWM em função da potência e distância de transmissão em cenários NG-OAN. O desempenho da rede é otimizada através da minimização parcial da interferência FWM (via espaçamento desigual dos canais), que nesse caso, é o efeito não linear da fibra ótica mais relevante. Direções para melhorias adicionas no desempenho da rede são apresentados para cenários em que o XPM é relevante, isto é, redes transportando formatos de modulação QAM. A solução, nesse caso, é baseada na utilização de técnicas de processamento digital do sinal.
Resumo:
The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.
Resumo:
Esta tese investiga a caracterização (e modelação) de dispositivos que realizam o interface entre os domínios digital e analógico, tal como os buffers de saída dos circuitos integrados (CI). Os terminais sem fios da atualidade estão a ser desenvolvidos tendo em vista o conceito de rádio-definido-por-software introduzido por Mitola. Idealmente esta arquitetura tira partido de poderosos processadores e estende a operação dos blocos digitais o mais próximo possível da antena. Neste sentido, não é de estranhar que haja uma crescente preocupação, no seio da comunidade científica, relativamente à caracterização dos blocos que fazem o interface entre os domínios analógico e digital, sendo os conversores digital-analógico e analógico-digital dois bons exemplos destes circuitos. Dentro dos circuitos digitais de alta velocidade, tais como as memórias Flash, um papel semelhante é desempenhado pelos buffers de saída. Estes realizam o interface entre o domínio digital (núcleo lógico) e o domínio analógico (encapsulamento dos CI e parasitas associados às linhas de transmissão), determinando a integridade do sinal transmitido. Por forma a acelerar a análise de integridade do sinal, aquando do projeto de um CI, é fundamental ter modelos que são simultaneamente eficientes (em termos computacionais) e precisos. Tipicamente a extração/validação dos modelos para buffers de saída é feita usando dados obtidos da simulação de um modelo detalhado (ao nível do transístor) ou a partir de resultados experimentais. A última abordagem não envolve problemas de propriedade intelectual; contudo é raramente mencionada na literatura referente à caracterização de buffers de saída. Neste sentido, esta tese de Doutoramento foca-se no desenvolvimento de uma nova configuração de medição para a caracterização e modelação de buffers de saída de alta velocidade, com a natural extensão aos dispositivos amplificadores comutados RF-CMOS. Tendo por base um procedimento experimental bem definido, um modelo estado-da-arte é extraído e validado. A configuração de medição desenvolvida aborda não apenas a integridade dos sinais de saída mas também do barramento de alimentação. Por forma a determinar a sensibilidade das quantias estimadas (tensão e corrente) aos erros presentes nas diversas variáveis associadas ao procedimento experimental, uma análise de incerteza é também apresentada.
Resumo:
A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.