33 resultados para Modelos Lineares em Séries Temporais


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os sistemas compartimentais são frequentemente usados na modelação de diversos processos em várias áreas, tais como a biomedicina, ecologia, farmacocinética, entre outras. Na maioria das aplicações práticas, nomeadamente, aquelas que dizem respeito à administração de drogas a pacientes sujeitos a cirurgia, por exemplo, a presença de incertezas nos parâmetros do sistema ou no estado do sistema é muito comum. Ao longo dos últimos anos, a análise de sistemas compartimentais tem sido bastante desenvolvida na literatura. No entanto, a análise da sensibilidade da estabilidade destes sistemas na presença de incertezas tem recebido muito menos atenção. Nesta tese, consideramos uma lei de controlo por realimentação do estado com restrições de positividade e analisamos a sua robustez quando aplicada a sistemas compartimentais lineares e invariantes no tempo com incertezas nos parâmetros. Além disso, para sistemas lineares e invariantes no tempo com estado inicial desconhecido, combinamos esta lei de controlo com um observador do estado e a robustez da lei de controlo resultante também é analisada. O controlo do bloqueio neuromuscular por meio da infusão contínua de um relaxante muscular pode ser modelado como um sistema compartimental de três compartimentos e tem sido objecto de estudo por diversos grupos de investigação. Nesta tese, os nossos resultados são aplicados a este problema de controlo e são fornecidas estratégias para melhorar os resultados obtidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objectivo deste trabalho científico é o estudo do transporte vertical de momento linear horizontal (CMT) realizado por sistemas de nuvens de convecção profunda sobre o oceano tropical. Para realizar este estudo, foram utilizadas simulações tridimensionais produzidas por um modelo explícito de nuvens (CRM) para os quatro meses de duração da campanha observacional TOGA COARE que ocorreu sobre as águas quentes do Pacífico ocidental. O estudo foca essencialmente as características estatísticas e à escala da nuvem do CMT durante um episódio de fortes ventos de oeste e durante um período de tempo maior que incluí este evento de convecção profunda. As distribuições verticais e altitude-temporais de campos atmosféricos relacionados com o CMT são avaliadas relativamente aos campos observacionais disponíveis, mostrando um bom acordo com os resultados de estudos anteriores, confirmando assim a boa qualidade das primeiras e fornecendo a confiança necessária para continuar a investigação. A sensibilidade do CMT em relação do domínio espacial do model é analisada, utilizando dois tipos de simulações tridimensionais produzidas por domínios horizontais de diferente dimensão, sugerindo que o CMT não depende da dimensão do domínio espacial horizontal escolhido para simular esta variável. A capacidade da parameterização do comprimento de mistura simular o CMT é testada, destacando as regiões troposféricas onde os fluxos de momento linear horizontal são no sentido do gradiente ou contra o gradiente. Os fluxos no sentido do gradiente apresentam-se relacionados a uma fraca correlação entre os campos atmosféricos que caracterizam esta parameterização, sugerindo que as formulações dos fluxos de massa dentro da nuvem e o fenómeno de arrastamento do ar para dentro da nuvem devem ser revistos. A importância do ar saturado e não saturado para o CMT é estudada com o objectivo de alcançar um melhor entendimento acerca dos mecanismos físicos responsáveis pelo CMT. O ar não saturado e saturado na forma de correntes descendentes contribuem de forma determinante para o CMT e deverão ser considerados em futuras parameterizações do CMT e da convecção em nuvens cumulus. Métodos de agrupamento foram aplicados às contribuições do ar saturado e não saturado, analisando os campos da força de flutuação e da velocidade vertical da partícula de ar, concluindo-se a presença de ondas gravíticas internas como mecanismo responsável pelo ar não saturado. A força do gradiente de pressão dentro da nuvem é também avaliada, utilizando para este efeito a fórmula teórica proposta por Gregory et al. (1997). Uma boa correlação entre esta força e o produto entre efeito de cisalhamento do vento e a perturbação da velocidade vertical é registada, principalmente para as correntes ascendentes dentro da nuvem durante o episódio de convecção profunda. No entanto, o valor ideal para o coeficiente empírico c*, que caracteriza a influência da força do gradiente de pressão dentro da nuvem sobre a variação vertical da velocidade horizontal dentro da nuvem, não é satisfatoriamente alcançado. Bons resultados são alcançados através do teste feito à aproximação do fluxo de massa proposta por Kershaw e Gregory (1997) para o cálculo do CMT total, revelando mais uma vez a importância do ar não saturado para o CMT.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Understanding the biology of offshore species is hardened by the difficulties of sampling in the deep-sea environment. Additionally, due to the vastness of the open ocean, knowledge of early life histories of pelagic larvae is still relatively scarce. In decapod species with bentho-pelagic lifestyle, the transition from life in the seafloor to the water column not only is associated with drastic morphological metamorphosis, but also with changes in behavior and feeding ecology. The purpose of the present thesis was to investigate physiological, biochemical and behavioral adaptation occurring during early development of such species. The Norway lobster, Nephrops norvegicus, and the crab Monodaeus couchi were used as a model as these two species are encountered off the NE Atlantic shelf at depth greater than 300 m. Chapter 1 introduces the challenges faced by both adult and larvae inhabiting such remote habitats, including the effect of food availability on development and oceanographic processes on dispersal and recruitment. The thesis follows early life histories, starting with within-brood variability in the fatty acid (FA) profile displayed by developing N. norvegicus embryos. There were no differences in the FA composition of embryos sampled from both sides of the brooding chamber in most females. However, all females exhibited significant differences in the FA profiles of embryos sampled from different pleopods. Potential causes for the variations recorded may be differential female investment during oocyte production or shifts in FA catabolism during the incubation period promoted by embryo’s location within the brooding chamber. Next, feeding rates and digestive enzymes activity of the early stage larvae was investigated in N. norvegicus. Both stages were able to maximize food intake when larvae were scarce and showed increased feeding rate following periods of starvation. Amylase activity indicated that carbohydrates are not the primary energy reserve and that feeding may be required soon after hatching to trigger amylase activity. Protease activity indicated that protein reserves are catabolized under starvation. These results indicate that larvae may maximize prey ingestion in the presence of plankton patches with higher food abundance and minimize the deleterious effects induced by previous periods of intermittent starvation or unsuitable prey densities/types. Additionally, changes in enzymatic activity may allow newly hatched N. norvegicus larvae to metabolize protein reserves to overcome short-term starvation. Vertical migration behavior and the influence of oceanographic properties were studied next. All zoeal stages of M. couchi displayed reverse diel vertical migration. Abundance of early stages was correlated with chlorophyll a levels. An ontogenic shift in vertical distribution explained the results; earlier zoeal stages remain in the food-rich upper water column while later stages migrate to the bottom for settlement. This vertical migration behavior is likely to affect horizontal distribution of larvae. Indeed, global current patterns will result in low inter-annual variations in decapod larvae recruitment, but short term variations such as upwelling events will cause deviation from the expected dispersal pattern. Throughout development, from the embryo to metamorphosis into benthic juvenile, offshore decapods face many challenges. For the developing individual survivorship will depend heavily on food availability but also on the reserves passed on by the mother. Even though vertical migration behavior can allow the larvae to take advantage of depth varying currents for transport, the effect of general circulation pattern will superimpose local current and influence feeding conditions and affect dispersal and recruitment.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The work reported in this thesis aimed at applying the methodology known as metabonomics to the detailed study of a particular type of beer and its quality control, with basis on the use of multivariate analysis (MVA) to extract meaningful information from given analytical data sets. In Chapter 1, a detailed description of beer is given considering the brewing process, main characteristics and typical composition of beer, beer stability and the commonly used analytical techniques for beer analysis. The fundamentals of the analytical methods employed here, namely nuclear magnetic resonance (NMR) spectroscopy, gas-chromatography-mass spectrometry (GC-MS) and mid-infrared (MIR) spectroscopy, together with the description of the metabonomics methodology are described shortly in Chapter 2. In Chapter 3, the application of high resolution NMR to characterize the chemical composition of a lager beer is described. The 1H NMR spectrum obtained by direct analysis of beer show a high degree of complexity, confirming the great potential of NMR spectroscopy for the detection of a wide variety of families of compounds, in a single run. Spectral assignment was carried out by 2D NMR, resulting in the identification of about 40 compounds, including alcohols, amino acids, organic acids, nucleosides and sugars. In a second part of Chapter 3, the compositional variability of beer was assessed. For that purpose, metabonomics was applied to 1H NMR data (NMR/MVA) to evaluate beer variability between beers from the same brand (lager), produced nationally but differing in brewing site and date of production. Differences between brewing sites and/or dates were observed, reflecting compositional differences related to particular processing steps, including mashing, fermentation and maturation. Chapter 4 describes the quantification of organic acids in beer by NMR, using different quantitative methods: direct integration of NMR signals (vs. internal reference or vs. an external electronic reference, ERETIC method) and by quantitative statistical methods (using the partial least squares (PLS) regression) were developed and compared. PLS1 regression models were built using different quantitative methods as reference: capillary electrophoresis with direct and indirect detection and enzymatic essays. It was found that NMR integration results generally agree with those obtained by the best performance PLS models, although some overestimation for malic and pyruvic acids and an apparent underestimation for citric acid were observed. Finally, Chapter 5 describes metabonomic studies performed to better understand the forced aging (18 days, at 45 ºC) beer process. The aging process of lager beer was followed by i) NMR, ii) GC-MS, and iii) MIR spectroscopy. MVA methods of each analytical data set revealed clear separation between different aging days for both NMR and GC-MS data, enabling the identification of compounds closely related with the aging process: 5-hydroxymethylfurfural (5-HMF), organic acids, γ-amino butyric acid (GABA), proline and the ratio linear/branched dextrins (NMR domain) and 5-HMF, furfural, diethyl succinate and phenylacetaldehyde (known aging markers) and, for the first time, 2,3-dihydro-3,5-dihydroxy-6-methyl-4(H)-pyran-4-one xii (DDMP) and maltoxazine (by GC-MS domain). For MIR/MVA, no aging trend could be measured, the results reflecting the need of further experimental optimizations. Data correlation between NMR and GC-MS data was performed by outer product analysis (OPA) and statistical heterospectroscopy (SHY) methodologies, enabling the identification of further compounds (11 compounds, 5 of each are still unassigned) highly related with the aging process. Data correlation between sensory characteristics and NMR and GC-MS was also assessed through PLS1 regression models using the sensory response as reference. The results obtained showed good relationships between analytical data response and sensory response, particularly for the aromatic region of the NMR spectra and for GC-MS data (r > 0.89). However, the prediction power of all built PLS1 regression models was relatively low, possibly reflecting the low number of samples/tasters employed, an aspect to improve in future studies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduzimos um cálculo das variações fraccional nas escalas temporais ℤ e (hℤ)!. Estabelecemos a primeira e a segunda condição necessária de optimalidade. São dados alguns exemplos numéricos que ilustram o uso quer da nova condição de Euler–Lagrange quer da nova condição do tipo de Legendre. Introduzimos também novas definições de derivada fraccional e de integral fraccional numa escala temporal com recurso à transformada inversa generalizada de Laplace.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O comportamento cíclico das estruturas de betão armado é fortemente condicionado pelo mecanismo de aderência entre o betão e o aço. O escorregamento relativo entre os dois materiais, resultante da degradação progressiva da aderência em elementos solicitados por ações cíclicas, é uma causa frequente de danos graves e até do colapso de estruturas devido à ocorrência de sismos. Entre as estruturas existentes de betão armado que foram dimensionadas e construídas antes da entrada em vigor dos regulamentos sísmicos atuais, muitas foram construídas com armadura lisa, e portanto, possuem fracas propriedades de aderência. A informação disponível na literatura sobre o comportamento cíclico de elementos estruturais de betão armado com armadura lisa é reduzida e a influência das propriedades da aderência associadas a este tipo de armadura no comportamento cíclico das estruturas existentes não se encontra ainda devidamente estudada. O objectivo principal desta tese foi estudar a influência do escorregamento na resposta cíclica de elementos estruturais de betão armado com armadura lisa. Foram realizados ensaios cíclicos em elementos do tipo nó viga-pilar, construídos à escala real, representativos de ligações interiores em edifícios existentes sem pormenorização específica para resistir às ações sísmicas. Para comparação, foi realizado o ensaio de um nó construído com armadura nervurada. Foi ainda realizado o ensaio cíclico de uma viga de betão armado recolhida de uma estrutura antiga. Foram elaborados modelos numéricos não-lineares para simular a resposta dos elementos ensaiados, concentrando especial atenção no mecanismo do escorregamento. Os resultados obtidos no âmbito desta tese contribuem para o avanço do conhecimento sobre o comportamento cíclico de elementos estruturais de betão armado com armadura lisa. As análises numéricas realizadas comprovam a necessidade de incluir os efeitos do escorregamento na modelação numérica deste tipo de estruturas de forma a representar com rigor a sua resposta às ações cíclicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A distribui ção de um sinal relógio, com elevada precisão espacial (baixo skew) e temporal (baixo jitter ), em sistemas sí ncronos de alta velocidade tem-se revelado uma tarefa cada vez mais demorada e complexa devido ao escalonamento da tecnologia. Com a diminuição das dimensões dos dispositivos e a integração crescente de mais funcionalidades nos Circuitos Integrados (CIs), a precisão associada as transições do sinal de relógio tem sido cada vez mais afectada por varia ções de processo, tensão e temperatura. Esta tese aborda o problema da incerteza de rel ogio em CIs de alta velocidade, com o objetivo de determinar os limites do paradigma de desenho sí ncrono. Na prossecu ção deste objectivo principal, esta tese propõe quatro novos modelos de incerteza com âmbitos de aplicação diferentes. O primeiro modelo permite estimar a incerteza introduzida por um inversor est atico CMOS, com base em parâmetros simples e su cientemente gen éricos para que possa ser usado na previsão das limitações temporais de circuitos mais complexos, mesmo na fase inicial do projeto. O segundo modelo, permite estimar a incerteza em repetidores com liga ções RC e assim otimizar o dimensionamento da rede de distribui ção de relógio, com baixo esfor ço computacional. O terceiro modelo permite estimar a acumula ção de incerteza em cascatas de repetidores. Uma vez que este modelo tem em considera ção a correla ção entre fontes de ruí do, e especialmente util para promover t ecnicas de distribui ção de rel ogio e de alimentação que possam minimizar a acumulação de incerteza. O quarto modelo permite estimar a incerteza temporal em sistemas com m ultiplos dom ínios de sincronismo. Este modelo pode ser facilmente incorporado numa ferramenta autom atica para determinar a melhor topologia para uma determinada aplicação ou para avaliar a tolerância do sistema ao ru ído de alimentação. Finalmente, usando os modelos propostos, são discutidas as tendências da precisão de rel ogio. Conclui-se que os limites da precisão do rel ogio são, em ultima an alise, impostos por fontes de varia ção dinâmica que se preveem crescentes na actual l ogica de escalonamento dos dispositivos. Assim sendo, esta tese defende a procura de solu ções em outros ní veis de abstração, que não apenas o ní vel f sico, que possam contribuir para o aumento de desempenho dos CIs e que tenham um menor impacto nos pressupostos do paradigma de desenho sí ncrono.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente tese investiga o processo de tomada de decisão na gestão de cadeias de abastecimento, utilizando um quadro de análise de opções reais. Especificamente, estudamos tópicos como o nível de inventário ideal para protecção contra a incerteza da procura, o momento para implementação de capacidade flexível em mercados onde existe complexidade no mix de produtos, o tempo para o reforço do factor trabalho visando requisitos de serviço ao mercado, e as decisões entre integração e outsourcing num ambiente de incerteza. Foram usadas metodologias de tempo discreto e contínuo para identificar o valor ideal e o calendário das opções a adoptar, quando a procura é estocástica. Além disso, foram considerados os efeitos dos requisitos dos mercados, como a complexidade na oferta de produtos e o nível de serviço. A procura é representada recorrendo a diferentes processos estocásticos, o impacto de saltos inesperados também é explorado, reforçando a generalização dos modelos a diferentes condições de negócio. A aplicabilidade dos modelos que apresentamos permite a diversificação e o enriquecimento da literatura sobre a abordagem de opções reais, no âmbito das cadeias de abastecimento. Níveis de inventário flexíveis e capacidades flexíveis são característicos das cadeias de abastecimento e podem ser usados como resposta à incerteza do mercado. Esta tese é constituída por ensaios que suportam a aplicação dos modelos, e consiste num capítulo introdutório (designado por ensaio I) e mais seis ensaios sobre factores que discutem o uso de medidas de flexibilidade nas cadeias de abastecimento, em ambientes de incerteza, e um último ensaio sobre a extensão do conceito de flexibilidade ao tratamento da avaliação de planos de negócio. O segundo ensaio que apresentamos é sobre o valor do inventário num único estádio, enquanto medida de flexibilidade, sujeita ao crescente condicionalismo dos custos com posse de activos. Introduzimos uma nova classificação de artigos para suportar o indicador designado por overstock. No terceiro e quarto ensaio ampliamos a exploração do conceito de overstock, promovendo a interacção e o balanceamento entre vários estádios de uma cadeia de abastecimento, como forma de melhorar o desempenho global. Para sustentar a aplicação prática das abordagens, adaptamos o ensaio número três à gestão do desempenho, para suportar o estabelecimento de metas coordenadas e alinhadas; e adaptamos o quarto ensaio à coordenação das cadeias de abastecimento, como auxiliar ao planeamento integrado e sequencial dos níveis de inventário. No ensaio cinco analisamos o factor de produção “tecnologia”, em relação directa com a oferta de produtos de uma empresa, explorando o conceito de investimento, como medida de flexibilidade nas componentes de volume da procura e gama de produtos. Dedicamos o ensaio número seis à análise do factor de produção “Mão-de-Obra”, explorando as condicionantes para aumento do número de turnos na perspectiva económica e determinando o ponto crítico para a tomada de decisão em ambientes de incerteza. No ensaio número sete exploramos o conceito de internalização de operações, demarcando a nossa análise das demais pela definição do momento crítico que suporta a tomada de decisão em ambientes dinâmicos. Complementamos a análise com a introdução de factores temporais de perturbação, nomeadamente, o estádio de preparação necessário e anterior a uma eventual alteração de estratégia. Finalmente, no último ensaio, estendemos a análise da flexibilidade em ambientes de incerteza ao conceito de planos de negócio. Em concreto, exploramos a influência do número de pontos de decisão na flexibilidade de um plano, como resposta à crescente incerteza dos mercados. A título de exemplo, usamos o mecanismo de gestão sequencial do orçamento para suportar o nosso modelo. A crescente incerteza da procura obrigou a um aumento da agilidade e da flexibilidade das cadeias de abastecimento, limitando o uso de muitas das técnicas tradicionais de suporte à gestão, pela incapacidade de incorporarem os efeitos da incerteza. A flexibilidade é claramente uma vantagem competitiva das empresas que deve, por isso, ser quantificada. Com os modelos apresentados e com base nos resultados analisados, pretendemos demonstrar a utilidade da consideração da incerteza nos instrumentos de gestão, usando exemplos numéricos para suportar a aplicação dos modelos, o que claramente promove a aproximação dos desenvolvimentos aqui apresentados às práticas de negócio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os incêndios florestais são uma importante fonte de emissão de compostos gasosos e de aerossóis. Em Portugal, onde a maioria dos incêndios ocorre no norte e centro do país, os incêndios destroem todos os anos milhares de hectares, com importantes perdas em termos económicos, de vidas humanas e qualidade ambiental. As emissões podem alterar consideravelmente a química da atmosfera, degradar a qualidade do ar e alterar o clima. Contudo, a informação sobre as caraterísticas das emissões dos incêndios florestais nos países do Mediterrâneo é limitada. Tanto a nível nacional como internacional, existe um interesse crescente na elaboração de inventários de emissões e de regulamentos sobre as emissões de carbono para a atmosfera. Do ponto de vista atmosférico da monitorização atmosférica, os incêndios são considerados um desafio, dada a sua variabilidade temporal e espacial, sendo de esperar um aumento da sua frequência, dimensão e severidade, e também porque as estimativas de emissões dependem das caraterísticas dos biocombustíveis e da fase de combustão. O objetivo deste estudo foi quantificar e caraterizar as emissões de gases e aerossóis de alguns dos mais representativos incêndios florestais que ocorreram no centro de Portugal nos verões de 2009 e de 2010. Efetuou-se a colheita de amostras de gases e de duas frações de partículas (PM2.5 e PM2.5-10) nas plumas de fumo em sacos Tedlar e em filtros de quartzo acoplados a um amostrador de elevado volume, respetivamente. Os hidrocarbonetos totais (THC) e óxidos de carbono (CO e CO2) nas amostras gasosas foram analisados em instrumentos automáticos de ionização de chama e detetores não dispersivos de infravermelhos, respetivamente. Para algumas amostras, foram também quantificados alguns compostos de carbonilo após reamostragem do gás dos sacos Tedlar em cartuchos de sílica gel revestidos com 2,4-dinitrofenilhidrazina (DNPH), seguida de análise por cromatografia líquida de alta resolução. Nas partículas, analisou-se o carbono orgânico e elementar (técnica termo-óptica), iões solúveis em água (cromatografia iónica) e elementos (espectrometria de massa com plasma acoplado por indução ou análise instrumental por ativação com neutrões). A especiação orgânica foi obtida por cromatografia gasosa acoplada a espectrometria de massa após extração com recurso a vários solventes e separação dos extratos orgânicos em diversas classes de diferentes polaridades através do fracionamento com sílica gel. Os fatores de emissão do CO e do CO2 situaram-se nas gamas 52-482 e 822-1690 g kg-1 (base seca), mostrando, respetivamente, correlação negativa e positiva com a eficiência de combustão. Os fatores de emissão dos THC apresentaram valores mais elevados durante a fase de combustão latente sem chama, oscilando entre 0.33 e 334 g kg-1 (base seca). O composto orgânico volátil oxigenado mais abundante foi o acetaldeído com fatores de emissão que variaram desde 1.0 até 3.2 g kg-1 (base seca), seguido pelo formaldeído e o propionaldeído. Observou-se que as emissões destes compostos são promovidas durante a fase de combustão latente sem chama. Os fatores de emissão de PM2.5 e PM10 registaram valores entre 0.50-68 e 0.86-72 g kg-1 (base seca), respetivamente. A emissão de partículas finas e grosseiras é também promovida em condições de combustão lenta. As PM2.5 representaram cerca de 90% da massa de partículas PM10. A fração carbonosa das partículas amostradas em qualquer dos incêndios foi claramente dominada pelo carbono orgânico. Foi obtida uma ampla gama de rácios entre o carbono orgânico e o carbono elementar, dependendo das condições de combustão. Contudo, todos os rácios refletiram uma maior proporção de carbono orgânico em relação ao carbono elementar, típica das emissões de queima de biomassa. Os iões solúveis em água obtidos nas partículas da pluma de fumo contribuíram com valores até 3.9% da massa de partículas PM2.5 e 2.8% da massa de partículas de PM2.5-10. O potássio contribuiu com valores até 15 g mg-1 PM2.5 e 22 g mg-1 PM2.5-10, embora em massa absoluta estivesse maioritariamente presente nas partículas finas. Os rácios entre potássio e carbono elementar e entre potássio e carbono orgânico obtidos nas partículas da pluma de fumo enquadram-se na gama de valores relatados na literatura para emissões de queima de biomassa. Os elementos detetados nas amostras representaram, em média, valores até 1.2% e 12% da massa de PM2.5 e PM2.5-10, respetivamente. Partículas resultantes de uma combustão mais completa (valores elevados de CO2 e baixos de CO) foram caraterizadas por um elevado teor de constituintes inorgânicos e um menor conteúdo de matéria orgânica. Observou-se que a matéria orgânica particulada é composta principalmente por componentes fenólicos e produtos derivados, séries de compostos homólogos (alcanos, alcenos, ácidos alcanóicos e alcanóis), açúcares, biomarcadores esteróides e terpenóides, e hidrocarbonetos aromáticos policíclicos. O reteno, um biomarcador das emissões da queima de coníferas, foi o hidrocarboneto aromático dominante nas amostras das plumas de fumo amostradas durante a campanha que decorreu em 2009, devido ao predomínio de amostras colhidas em incêndios em florestas de pinheiros. O principal açúcar anidro, e sempre um dos compostos mais abundantes, foi o levoglucosano. O rácio levoglucosano/OC obtido nas partículas das plumas de fumo, em média, registaram valores desde 5.8 a 23 mg g-1 OC. Os rácios levoglucosano/manosano e levoglucosano/(manosano+galactosano) revelaram o predomínio de amostras provenientes da queima de coníferas. Tendo em conta que a estimativa das emissões dos incêndios florestais requer um conhecimento de fatores de emissão apropriados para cada biocombustível, a base de dados abrangente obtida neste estudo é potencialmente útil para atualizar os inventários de emissões. Tem vindo a ser observado que a fase de combustão latente sem chama, a qual pode ocorrer simultaneamente com a fase de chama e durar várias horas ou dias, pode contribuir para uma quantidade considerável de poluentes atmosféricos, pelo que os fatores de emissão correspondentes devem ser considerados no cálculo das emissões globais de incêndios florestais. Devido à falta de informação detalhada sobre perfis químicos de emissão, a base de dados obtida neste estudo pode também ser útil para a aplicação de modelos no recetor no sul da Europa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese investiga a caracterização (e modelação) de dispositivos que realizam o interface entre os domínios digital e analógico, tal como os buffers de saída dos circuitos integrados (CI). Os terminais sem fios da atualidade estão a ser desenvolvidos tendo em vista o conceito de rádio-definido-por-software introduzido por Mitola. Idealmente esta arquitetura tira partido de poderosos processadores e estende a operação dos blocos digitais o mais próximo possível da antena. Neste sentido, não é de estranhar que haja uma crescente preocupação, no seio da comunidade científica, relativamente à caracterização dos blocos que fazem o interface entre os domínios analógico e digital, sendo os conversores digital-analógico e analógico-digital dois bons exemplos destes circuitos. Dentro dos circuitos digitais de alta velocidade, tais como as memórias Flash, um papel semelhante é desempenhado pelos buffers de saída. Estes realizam o interface entre o domínio digital (núcleo lógico) e o domínio analógico (encapsulamento dos CI e parasitas associados às linhas de transmissão), determinando a integridade do sinal transmitido. Por forma a acelerar a análise de integridade do sinal, aquando do projeto de um CI, é fundamental ter modelos que são simultaneamente eficientes (em termos computacionais) e precisos. Tipicamente a extração/validação dos modelos para buffers de saída é feita usando dados obtidos da simulação de um modelo detalhado (ao nível do transístor) ou a partir de resultados experimentais. A última abordagem não envolve problemas de propriedade intelectual; contudo é raramente mencionada na literatura referente à caracterização de buffers de saída. Neste sentido, esta tese de Doutoramento foca-se no desenvolvimento de uma nova configuração de medição para a caracterização e modelação de buffers de saída de alta velocidade, com a natural extensão aos dispositivos amplificadores comutados RF-CMOS. Tendo por base um procedimento experimental bem definido, um modelo estado-da-arte é extraído e validado. A configuração de medição desenvolvida aborda não apenas a integridade dos sinais de saída mas também do barramento de alimentação. Por forma a determinar a sensibilidade das quantias estimadas (tensão e corrente) aos erros presentes nas diversas variáveis associadas ao procedimento experimental, uma análise de incerteza é também apresentada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar das recentes inovações tecnológicas, o setor dos transportes continua a exercer impactes significativos sobre a economia e o ambiente. Com efeito, o sucesso na redução das emissões neste setor tem sido inferior ao desejável. Isto deve-se a diferentes fatores como a dispersão urbana e a existência de diversos obstáculos à penetração no mercado de tecnologias mais limpas. Consequentemente, a estratégia “Europa 2020” evidencia a necessidade de melhorar a eficiência no uso das atuais infraestruturas rodoviárias. Neste contexto, surge como principal objetivo deste trabalho, a melhoria da compreensão de como uma escolha de rota adequada pode contribuir para a redução de emissões sob diferentes circunstâncias espaciais e temporais. Simultaneamente, pretende-se avaliar diferentes estratégias de gestão de tráfego, nomeadamente o seu potencial ao nível do desempenho e da eficiência energética e ambiental. A integração de métodos empíricos e analíticos para avaliação do impacto de diferentes estratégias de otimização de tráfego nas emissões de CO2 e de poluentes locais constitui uma das principais contribuições deste trabalho. Esta tese divide-se em duas componentes principais. A primeira, predominantemente empírica, baseou-se na utilização de veículos equipados com um dispositivo GPS data logger para recolha de dados de dinâmica de circulação necessários ao cálculo de emissões. Foram percorridos aproximadamente 13200 km em várias rotas com escalas e características distintas: área urbana (Aveiro), área metropolitana (Hampton Roads, VA) e um corredor interurbano (Porto-Aveiro). A segunda parte, predominantemente analítica, baseou-se na aplicação de uma plataforma integrada de simulação de tráfego e emissões. Com base nesta plataforma, foram desenvolvidas funções de desempenho associadas a vários segmentos das redes estudadas, que por sua vez foram aplicadas em modelos de alocação de tráfego. Os resultados de ambas as perspetivas demonstraram que o consumo de combustível e emissões podem ser significativamente minimizados através de escolhas apropriadas de rota e sistemas avançados de gestão de tráfego. Empiricamente demonstrou-se que a seleção de uma rota adequada pode contribuir para uma redução significativa de emissões. Foram identificadas reduções potenciais de emissões de CO2 até 25% e de poluentes locais até 60%. Através da aplicação de modelos de tráfego demonstrou-se que é possível reduzir significativamente os custos ambientais relacionados com o tráfego (até 30%), através da alteração da distribuição dos fluxos ao longo de um corredor com quatro rotas alternativas. Contudo, apesar dos resultados positivos relativamente ao potencial para a redução de emissões com base em seleções de rotas adequadas, foram identificadas algumas situações de compromisso e/ou condicionantes que devem ser consideradas em futuros sistemas de eco navegação. Entre essas condicionantes importa salientar que: i) a minimização de diferentes poluentes pode implicar diferentes estratégias de navegação, ii) a minimização da emissão de poluentes, frequentemente envolve a escolha de rotas urbanas (em áreas densamente povoadas), iii) para níveis mais elevados de penetração de dispositivos de eco-navegação, os impactos ambientais em todo o sistema podem ser maiores do que se os condutores fossem orientados por dispositivos tradicionais focados na minimização do tempo de viagem. Com este trabalho demonstrou-se que as estratégias de gestão de tráfego com o intuito da minimização das emissões de CO2 são compatíveis com a minimização do tempo de viagem. Por outro lado, a minimização de poluentes locais pode levar a um aumento considerável do tempo de viagem. No entanto, dada a tendência de redução nos fatores de emissão dos poluentes locais, é expectável que estes objetivos contraditórios tendam a ser minimizados a médio prazo. Afigura-se um elevado potencial de aplicação da metodologia desenvolvida, seja através da utilização de dispositivos móveis, sistemas de comunicação entre infraestruturas e veículos e outros sistemas avançados de gestão de tráfego.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O transporte marítimo e o principal meio de transporte de mercadorias em todo o mundo. Combustíveis e produtos petrolíferos representam grande parte das mercadorias transportadas por via marítima. Sendo Cabo Verde um arquipelago o transporte por mar desempenha um papel de grande relevância na economia do país. Consideramos o problema da distribuicao de combustíveis em Cabo Verde, onde uma companhia e responsavel por coordenar a distribuicao de produtos petrolíferos com a gestão dos respetivos níveis armazenados em cada porto, de modo a satisfazer a procura dos varios produtos. O objetivo consiste em determinar políticas de distribuicão de combustíveis que minimizam o custo total de distribuiçao (transporte e operacões) enquanto os n íveis de armazenamento sao mantidos nos n íveis desejados. Por conveniencia, de acordo com o planeamento temporal, o prob¬lema e divido em dois sub-problemas interligados. Um de curto prazo e outro de medio prazo. Para o problema de curto prazo sao discutidos modelos matemáticos de programacao inteira mista, que consideram simultaneamente uma medicao temporal cont ínua e uma discreta de modo a modelar multiplas janelas temporais e taxas de consumo que variam diariamente. Os modelos sao fortalecidos com a inclusão de desigualdades validas. O problema e então resolvido usando um "software" comercial. Para o problema de medio prazo sao inicialmente discutidos e comparados varios modelos de programacao inteira mista para um horizonte temporal curto assumindo agora uma taxa de consumo constante, e sao introduzidas novas desigualdades validas. Com base no modelo escolhido sao compara¬das estrategias heurísticas que combinam três heur ísticas bem conhecidas: "Rolling Horizon", "Feasibility Pump" e "Local Branching", de modo a gerar boas soluçoes admissíveis para planeamentos com horizontes temporais de varios meses. Finalmente, de modo a lidar com situaçoes imprevistas, mas impor¬tantes no transporte marítimo, como as mas condicões meteorológicas e congestionamento dos portos, apresentamos um modelo estocastico para um problema de curto prazo, onde os tempos de viagens e os tempos de espera nos portos sao aleatórios. O problema e formulado como um modelo em duas etapas, onde na primeira etapa sao tomadas as decisões relativas as rotas do navio e quantidades a carregar e descarregar e na segunda etapa (designada por sub-problema) sao consideradas as decisoes (com recurso) relativas ao escalonamento das operacões. O problema e resolvido por um metodo de decomposto que usa um algoritmo eficiente para separar as desigualdades violadas no sub-problema.