18 resultados para Economia - Métodos estatísticos
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
The work reported in this thesis aimed at applying the methodology known as metabonomics to the detailed study of a particular type of beer and its quality control, with basis on the use of multivariate analysis (MVA) to extract meaningful information from given analytical data sets. In Chapter 1, a detailed description of beer is given considering the brewing process, main characteristics and typical composition of beer, beer stability and the commonly used analytical techniques for beer analysis. The fundamentals of the analytical methods employed here, namely nuclear magnetic resonance (NMR) spectroscopy, gas-chromatography-mass spectrometry (GC-MS) and mid-infrared (MIR) spectroscopy, together with the description of the metabonomics methodology are described shortly in Chapter 2. In Chapter 3, the application of high resolution NMR to characterize the chemical composition of a lager beer is described. The 1H NMR spectrum obtained by direct analysis of beer show a high degree of complexity, confirming the great potential of NMR spectroscopy for the detection of a wide variety of families of compounds, in a single run. Spectral assignment was carried out by 2D NMR, resulting in the identification of about 40 compounds, including alcohols, amino acids, organic acids, nucleosides and sugars. In a second part of Chapter 3, the compositional variability of beer was assessed. For that purpose, metabonomics was applied to 1H NMR data (NMR/MVA) to evaluate beer variability between beers from the same brand (lager), produced nationally but differing in brewing site and date of production. Differences between brewing sites and/or dates were observed, reflecting compositional differences related to particular processing steps, including mashing, fermentation and maturation. Chapter 4 describes the quantification of organic acids in beer by NMR, using different quantitative methods: direct integration of NMR signals (vs. internal reference or vs. an external electronic reference, ERETIC method) and by quantitative statistical methods (using the partial least squares (PLS) regression) were developed and compared. PLS1 regression models were built using different quantitative methods as reference: capillary electrophoresis with direct and indirect detection and enzymatic essays. It was found that NMR integration results generally agree with those obtained by the best performance PLS models, although some overestimation for malic and pyruvic acids and an apparent underestimation for citric acid were observed. Finally, Chapter 5 describes metabonomic studies performed to better understand the forced aging (18 days, at 45 ºC) beer process. The aging process of lager beer was followed by i) NMR, ii) GC-MS, and iii) MIR spectroscopy. MVA methods of each analytical data set revealed clear separation between different aging days for both NMR and GC-MS data, enabling the identification of compounds closely related with the aging process: 5-hydroxymethylfurfural (5-HMF), organic acids, γ-amino butyric acid (GABA), proline and the ratio linear/branched dextrins (NMR domain) and 5-HMF, furfural, diethyl succinate and phenylacetaldehyde (known aging markers) and, for the first time, 2,3-dihydro-3,5-dihydroxy-6-methyl-4(H)-pyran-4-one xii (DDMP) and maltoxazine (by GC-MS domain). For MIR/MVA, no aging trend could be measured, the results reflecting the need of further experimental optimizations. Data correlation between NMR and GC-MS data was performed by outer product analysis (OPA) and statistical heterospectroscopy (SHY) methodologies, enabling the identification of further compounds (11 compounds, 5 of each are still unassigned) highly related with the aging process. Data correlation between sensory characteristics and NMR and GC-MS was also assessed through PLS1 regression models using the sensory response as reference. The results obtained showed good relationships between analytical data response and sensory response, particularly for the aromatic region of the NMR spectra and for GC-MS data (r > 0.89). However, the prediction power of all built PLS1 regression models was relatively low, possibly reflecting the low number of samples/tasters employed, an aspect to improve in future studies.
Resumo:
The main objective of this work was to monitor a set of physical-chemical properties of heavy oil procedural streams through nuclear magnetic resonance spectroscopy, in order to propose an analysis procedure and online data processing for process control. Different statistical methods which allow to relate the results obtained by nuclear magnetic resonance spectroscopy with the results obtained by the conventional standard methods during the characterization of the different streams, have been implemented in order to develop models for predicting these same properties. The real-time knowledge of these physical-chemical properties of petroleum fractions is very important for enhancing refinery operations, ensuring technically, economically and environmentally proper refinery operations. The first part of this work involved the determination of many physical-chemical properties, at Matosinhos refinery, by following some standard methods important to evaluate and characterize light vacuum gas oil, heavy vacuum gas oil and fuel oil fractions. Kinematic viscosity, density, sulfur content, flash point, carbon residue, P-value and atmospheric and vacuum distillations were the properties analysed. Besides the analysis by using the standard methods, the same samples were analysed by nuclear magnetic resonance spectroscopy. The second part of this work was related to the application of multivariate statistical methods, which correlate the physical-chemical properties with the quantitative information acquired by nuclear magnetic resonance spectroscopy. Several methods were applied, including principal component analysis, principal component regression, partial least squares and artificial neural networks. Principal component analysis was used to reduce the number of predictive variables and to transform them into new variables, the principal components. These principal components were used as inputs of the principal component regression and artificial neural networks models. For the partial least squares model, the original data was used as input. Taking into account the performance of the develop models, by analysing selected statistical performance indexes, it was possible to conclude that principal component regression lead to worse performances. When applying the partial least squares and artificial neural networks models better results were achieved. However, it was with the artificial neural networks model that better predictions were obtained for almost of the properties analysed. With reference to the results obtained, it was possible to conclude that nuclear magnetic resonance spectroscopy combined with multivariate statistical methods can be used to predict physical-chemical properties of petroleum fractions. It has been shown that this technique can be considered a potential alternative to the conventional standard methods having obtained very promising results.
Resumo:
Urban soil quality may be severely affected by hydrophobic organic contaminants (HOCs), impairing environmental quality and human health. A comprehensive study was conducted in two contrasting Portuguese urban areas (Lisbon and Viseu) in order to assess the levels and potential risks of these contaminants, to identify sources and study their behaviour in soils. The concentrations of HOCs were related to the size of the city, with much higher contamination levels observed in Lisbon urban area. Source apportionment was performed by studying the HOCs profiles, their relationship with potentially toxic elements and general characteristics of soil using multivariate statistical methods. Lisbon seems to be affected by nearby sources (traffic, industry and incineration processes) whereas in Viseu the atmospheric transport may be playing an important role. In a first tier of risk assessment (RA) it was possible to identify polycyclic aromatic hydrocarbons (PAHs) in Lisbon soils as a potential hazard. The levels of PAHs in street dusts were further studied and allowed to clarify that traffic, tire and pavement debris can be an important source of PAHs to urban soils. Street dusts were also identified as being a potential concern regarding human and environmental health, especially if reaching the nearby aquatic bodies. Geostatistical tools were also used and their usefulness in a RA analysis and urban planning was discussed. In order to obtain a more realistic assessment of risks of HOCs to environment and human health it is important to evaluate their available fraction, which is also the most accessible for organisms. Therefore, a review of the processes involved on the availability of PAHs was performed and the outputs produced by the different chemical methods were evaluated. The suitability of chemical methods to predict bioavailability of PAHs in dissimilar naturally contaminated soils has not been demonstrated, being especially difficult for high molecular weight compounds. No clear relationship between chemical and biological availability was found in this work. Yet, in spite of the very high total concentrations found in some Lisbon soils, both the water soluble fraction and the body residues resulting from bioaccumulation assays were generally very low, which may be due to aging phenomena. It was observed that the percentage of soluble fraction of PAHs in soils was found to be different among compounds and mostly regulated by soil properties. Regarding bioaccumulation assays, although no significant relationship was found between soil properties and bioavailability, it was verified that biota-to-soil bioaccumulation factors were sample dependent rather than compound dependent. In conclusion, once the compounds of potential concern are targeted, then performing a chemical screening as a first tier can be a simple and effective approach to start a RA. However, reliable data is still required to improve the existing models for risk characterization.
Resumo:
No contexto econômico competitivo e globalizado no qual as corporações estão inseridas, emerge a necessidade de evolução constante para acompanhar as mudanças que o ambiente lhes impõe, visando a sustentabilidade e a perpetuidade. A evolução econômica e financeira das corporações pode promover o desenvolvimento de uma nação, mesmo que o aumento da concorrência no mercado obrigue-as a investirem em novas relações com o seu universo, buscando melhorar os seus níveis de desempenho mensurados por meio de novos instrumentos economicos e financeiros. Desta forma, o grau de investimento corporativo passa a ser relevante, pois pode gerar confiança em novos investimentos, sendo visto como sinônimo de economia forte. No concernente ao objetivo, esta tese teve como escopo o desenvolvimento de um indicador econômico e financeiro visando balizar o grau de credibilidade rating que as corporações apresentam em sua estrutura corporativa, por meio de um conjunto de índices econômicos e financeiros ligados à liquidez, à lucratividade, ao endividamento e à rentabilidade, provindos das demonstrações econômicas e financeiras das corporações estudadas. Este estudo caracteriza-se no contexto da tipologia aplicada, de objetivo descritivo com delineamento bibliográfico, na amplitude da problemática, caracteriza-se como quantitativo, compreendendo a população de 70 corporações brasileiras reconhecidas pelas certificadoras internacionais, Standard & Poor's, Moody's e Fitch Ratings, as quais detinham o grau de investimento corporativo no ano de 2008. Quanto aos métodos e procedimentos estatísticos, primeiramente utilizou-se a análise descritiva com vistas ao resumo dos dados, posteriormente foi feita a análise de correlação por meio do Coeficiente de Correlação Linear de Pearson, aplicando-se em seguida a análise de regressão. Em seguida para a confecção do modelo utilizou-se a análise fatorial e para testificar sua confiabilidade o Alfa de Cronbach, utilizou-se também a análise discriminante, para classificação dos quartis. As conclusões do estudo baseiamse nos resultados apresentados pela evolução do tratamento estatístico, que inicialmente apresentam uma correlação predominantemente fraca, no entanto isto não invalida a correlação de Pearson, pois todos os coeficientes apresentaram uma significância de (p<0,05). Na aplicação da análise de regressão, todos os modelos apresentaram resultados satisfatórios sendo perceptível a existência de uma forte correlação. A confiabilidade do modelo de grau de investimento corporativo provindo da análise fatorial foi testificada pelo coeficiente do Alpha de Cronbach, que apresentou valor de 0,768, o que indica consistência interna satisfatória ao estudo. O grau de investimento na base longitudinal de 2008 a 2010 apresenta variabilidade de 95,72% a 98,33% de acertividade. Portanto, conclui-se que o indicador criado por este estudo, possui condições de ser utilizado como base de definição do grau de investimento de corporações empresariais.
Resumo:
O objectivo principal da presente tese consiste no desenvolvimento de estimadores robustos do variograma com boas propriedades de eficiência. O variograma é um instrumento fundamental em Geoestatística, pois modela a estrutura de dependência do processo em estudo e influencia decisivamente a predição de novas observações. Os métodos tradicionais de estimação do variograma não são robustos, ou seja, são sensíveis a pequenos desvios das hipóteses do modelo. Essa questão é importante, pois as propriedades que motivam a aplicação de tais métodos, podem não ser válidas nas vizinhanças do modelo assumido. O presente trabalho começa por conter uma revisão dos principais conceitos em Geoestatística e da estimação tradicional do variograma. De seguida, resumem-se algumas noções fundamentais sobre robustez estatística. No seguimento, apresenta-se um novo método de estimação do variograma que se designou por estimador de múltiplos variogramas. O método consiste em quatro etapas, nas quais prevalecem, alternadamente, os critérios de robustez ou de eficiência. A partir da amostra inicial, são calculadas, de forma robusta, algumas estimativas pontuais do variograma; com base nessas estimativas pontuais, são estimados os parâmetros do modelo pelo método dos mínimos quadrados; as duas fases anteriores são repetidas, criando um conjunto de múltiplas estimativas da função variograma; por fim, a estimativa final do variograma é definida pela mediana das estimativas obtidas anteriormente. Assim, é possível obter um estimador que tem boas propriedades de robustez e boa eficiência em processos Gaussianos. A investigação desenvolvida revelou que, quando se usam estimativas discretas na primeira fase da estimação do variograma, existem situações onde a identificabilidade dos parâmetros não está assegurada. Para os modelos de variograma mais comuns, foi possível estabelecer condições, pouco restritivas, que garantem a unicidade de solução na estimação do variograma. A estimação do variograma supõe sempre a estacionaridade da média do processo. Como é importante que existam procedimentos objectivos para avaliar tal condição, neste trabalho sugere-se um teste para validar essa hipótese. A estatística do teste é um estimador-MM, cuja distribuição é desconhecida nas condições de dependência assumidas. Tendo em vista a sua aproximação, apresenta-se uma versão do método bootstrap adequada ao estudo de observações dependentes de processos espaciais. Finalmente, o estimador de múltiplos variogramas é avaliado em termos da sua aplicação prática. O trabalho contém um estudo de simulação que confirma as propriedades estabelecidas. Em todos os casos analisados, o estimador de múltiplos variogramas produziu melhores resultados do que as alternativas usuais, tanto para a distribuição assumida, como para distribuições contaminadas.
Resumo:
Os Modelos de Equações Simultâneas (SEM) são modelos estatísticos com muita tradição em estudos de Econometria, uma vez que permitem representar e estudar uma vasta gama de processos económicos. Os estimadores mais usados em SEM resultam da aplicação do Método dos Mínimos Quadrados ou do Método da Máxima Verosimilhança, os quais não são robustos. Em Maronna e Yohai (1997), os autores propõem formas de “robustificar” esses estimadores. Um outro método de estimação com interesse nestes modelos é o Método dos Momentos Generalizado (GMM), o qual também conduz a estimadores não robustos. Estimadores que sofrem de falta de robustez são muito inconvenientes uma vez que podem conduzir a resultados enganadores quando são violadas as hipóteses subjacentes ao modelo assumido. Os estimadores robustos são de grande valor, em particular quando os modelos em estudo são complexos, como é o caso dos SEM. O principal objectivo desta investigação foi o de procurar tais estimadores tendo-se construído um estimador robusto a que se deu o nome de GMMOGK. Trata-se de uma versão robusta do estimador GMM. Para avaliar o desempenho do novo estimador foi feito um adequado estudo de simulação e foi também feita a aplicação do estimador a um conjunto de dados reais. O estimador robusto tem um bom desempenho nos modelos heterocedásticos considerados e, nessas condições, comporta-se melhor do que os estimadores não robustos usados no estudo. Contudo, quando a análise é feita em cada equação separadamente, a especificidade de cada equação individual e a estrutura de dependência do sistema são dois aspectos que influenciam o desempenho do estimador, tal como acontece com os estimadores usuais. Para enquadrar a investigação, o texto inclui uma revisão de aspectos essenciais dos SEM, o seu papel em Econometria, os principais métodos de estimação, com particular ênfase no GMM, e uma curta introdução à estimação robusta.
Resumo:
As 4-quinolonas e as acridonas são duas importantes famílias de compostos heterocíclicos azotados naturais que apresentam uma variedade de importantes aplicações biológicas. As 4-quinolonas têm sido objecto de extensos estudos devido às suas potenciais aplicações como fortes agentes citotóxicos, antimitóticos e anti-plaquetários e como protectores cardiovasculares, mas o seu uso é principalmente como antibióticos de largo espectro. As acridonas são conhecidas por apresentarem importante actividade antiviral, antiparasitária, contra a leishmania e a malária, e anticancerígena. A variedade de importantes aplicações biológicas das 4-quinolonas e das acridonas e a contínua procura pela comunidade científica de novas substâncias com actividades biológicas atractivas destaca estes compostos como alvos interessantes para a preparação de novos derivados e/ou para o desenvolvimento de novos métodos de síntese destas duas famílias de compostos. No primeiro capítulo desta dissertação descreve-se a síntese dos compostos de partida que tiveram de ser previamente preparados para o desenvolvimento das novas rotas de síntese apresentadas nos capítulos seguintes. A 4-cloro-3- formilquinolina foi obtida através da reacção de Vilsmeier-Haack da 2’-aminoacetofenona enquanto que a 3-formilquinolin-4(1H)-ona foi facilmente preparada por hidrólise ácida da anterior. Foi necessário proteger o grupo amina da quinolin-4(1H)-ona para evitar reacções secundárias e foram descritas as reacções de protecção com o grupo metilo, etoxicarbonilo e ptoluenossulfonilo. Os 2,2-dióxidos de 1,3-di-hidrobenzo[c]tiofeno, necessários para o estudo das reacções de Diels-Alder, não se encontram disponíveis comercialmente e a sua síntese é também descrita. No segundo capítulo reporta-se uma nova e eficiente rota de síntese de (Z)- e (E)-3-estirilquinolin-4(1H)-onas a partir da reacção de Wittig da 4-cloro-3- formilquinolina e de 3-formilquinolin-4(1H)-onas com benzilidenotrifenilfosforanos. As (Z)-3-estirilquinolin-4(1H)-onas foram obtidas com elevada diastereoselectividade a partir da reacção das 3-formilquinolin- 4(1H)-onas N-protegidas enquanto que as (E)-3-estirilquinolin-4(1H)-onas foram preparadas através da reacção de Wittig da 4-cloro-3-formilquinolina seguida da hidrólise ácida das respectivas (Z)- e (E)-4-cloro-3-estirilquinolinas obtidas. Ambas as rotas sintéticas são eficientes, independentemente dos substituintes dos benzilidenotrifenilfosforanos. No terceiro capítulo, descreve-se um novo método de síntese de novas benzo[b]acridonas a partir da reacção de Diels-Alder de 3-formilquinolin-4(1H)- onas N-protegidas, que actuam como dienófilos, com dienos altamente reactivos, os orto-benzoquinodimetanos, preparados in situ através da extrusão térmica do dióxido de enxofre dos respectivos 2,2-dióxidos de 1,3-dihidrobenzo[ c]tiofeno. A reacção de cicloadição das 3-formilquinolin-4(1H)-onas N-protegidas com orto-benzoquinodimetanos origina as benzo[b]-1,6,6a,12atetra- hidroacridin-12(7H)-onas esperadas, que são o resultado da referida cicloadição seguida de desformilação in situ, e mostrou ser eficiente apenas quando o grupo amina está derivatizado com um grupo sacador de electrões. A desidrogenação destas benzo[b]-1,6,6a,12a-tetra-hidroacridin-12(7H)-onas em dimetilsulfóxido utilizando uma quantidade catalítica de iodo foi também descrita e originou como produto principal as benzo[b]acridin-12(7H)-onas N-desprotegidas. Todos os compostos novos sintetizados foram caracterizados por diversas técnicas analíticas, especialmente por estudos espectroscópicos de ressonância magnética nuclear (RMN), incluindo espectros de 1H e 13C, bidimensionais de correlação espectroscópica homonuclear e heteronuclear e de efeito nuclear de Overhauser (NOESY). Foram também efectuados, sempre que possível, espectros de massa (EM) e análises elementares ou espectros de massa de alta resolução (EMAR) para todos os compostos novos sintetizados. O tautomerismo da 3-formil- e 3-estirilquinolin-4(1H)-onas e as isomerizações (E) (Z) e rotacional das 3-estirilquinolin-4(1H)-onas e das 4-cloro-3-estirilquinolinas foram estudados através de ressonância magnética nuclear experimental (RMN 1H e 13C) e teórica [B3LYP/6-311++G(d,p)].
Resumo:
Resumo indisponível
Resumo:
O objectivo geral desta tese foi investigar diversas estratégias de síntese de nanocompósitos híbridos de matriz polimérica, contendo nanopartículas inorgânicas com funcionalidades diversas. O interesse nestes nanocompósitos multifuncionais consiste no enorme potencial que apresentam para novas aplicações tecnológicas, tais como em optoelectrónica ou em medicina. No capítulo introdutório, apresenta-se uma revisão das propriedades de nanopartículas inorgânicas e nanoestruturas obtidas a partir destas, métodos de preparação e de modificação química superficial, incluindo a formação de nanocompósitos poliméricos, bem como a aplicação destas nanoestruturas em medicina e biologia. O estudo das propriedades de nanopartículas de ouro é um importante tema em Nanociência e Nanotecnologia. As propriedades singulares destas NPs apresentam uma estreita relação com o tamanho, morfologia, arranjo espacial e propriedades dieléctricas do meio circundante. No capítulo 2, é reportada a preparação de nanocompósitos utilizando miniemulsões de poli-estireno (PS) e poli-acrilato de butilo (PBA) contendo nanopartículas de ouro revestidas com moléculas orgânicas. As propriedades ópticas destas estruturas híbridas são dominadas por efeitos plasmónicos e dependem de uma forma crítica na morfologia final dos nanocompósitos. Em particular, demonstra-se aqui a possibilidade de ajustar a resposta óptica, na região do visível do espectro, através do arranjo das nanopartículas na matriz polimérica, e consequentemente o acoplamento plasmónico, utilizando nanopartículas resultantes da mesma síntese. Na generalidade, é reportada aqui uma estratégia alternativa para modificar a resposta óptica de nanocompósitos, através do controlo da morfologia do compósito final face à estratégia mais comum que envolve o controlo das características morfológicas das partículas metálicas utilizadas como materiais de partida. No Capítulo 3 apresentam-se os resultados da preparação de vários compósitos poliméricos com propriedades magnéticas de interesse prático. Em particular discute-se a síntese e propriedades magnéticas de nanopartículas de ligas metálicas de cobalto-platina (CoPt3) e ferro-platina (FePt3), assim como de óxidos de ferro (magnetite Fe3O4 e maguemite g-Fe2O3) e respectivos nanocompósitos poliméricos. A estratégia aqui descrita constitui uma via interessante de desenvolver materiais nanocompósitos com potencial aplicação em ensaios de análise de entidades biológicas in vitro, que pode ser estendido a outros materiais magnéticos. Como prova de conceito, demonstrase a bioconjugação de nanocompósitos de CoPt3/PtBA com anticorpos IgG de bovino. No capítulo 4 é descrita a preparação e propriedades ópticas de pontos quânticos (“quantum dots”, QDs) de CdSe/ZnS assim como dos seus materiais nanocompósitos poliméricos, CdSe/ZnS-PBA. Como resultado das suas propriedades ópticas singulares, os QDs têm sido extensivamente investigados como materiais inorgânicos para aplicações em dispositivos ópticos. A incorporação de QDs em matrizes poliméricas é de particular interesse, nomeadamente devido ao comportamento óptico do nanocompósito final parecer estar dependente do tipo de polímero utilizado. As propriedades ópticas dos nanocompósitos foram estudadas sistematicamente por medidas de fotoluminescência. Os nanocompósitos apresentam propriedades interessantes para potenciais aplicações biológicas em diagnóstico in vitro, funcionando como sondas biológicas luminescentes.
Resumo:
Recentemente a avaliação imobiliária levou ao colapso de instituições financeiras e à crise no Subprime. A presente investigação pretende contribuir para perceber quais os factores preponderantes na avaliação imobiliária. O trabalho aborda a problemática da assimetria de informação, os diferentes métodos de avaliação imobiliária e a importância das externalidades. Empiricamente há diversos casos analisados através do uso da metodologia da Regressão Linear, Análise de Clusters e Análise de Componentes Principais da Análise Factorial. O primeiro caso analisado é direccionado à avaliação das externalidades, onde os resultados indicam que as externalidades positivas principais são as seguintes: as vistas de marina são mais valorizadas que as vistas de mar, as vistas frontais são mais valorizadas que as vistas laterais e existem diferenças de valorização ao nível do piso de acordo com o tipo de habitação (residência ou férias). O segundo estudo analisa como o método do rendimento ajuda na explicação da realidade portuguesa, no qual foram obtidos três clusters de rendas e três clusters de yields para cada uma das amostras. Os resultados demonstram que: (a) ambos os clusters, das yields e das rendas são formados por diferentes elementos (b) que o valor da oferta é explicado pelo método do rendimento, pelo cluster das yields e pela densidade populacional. No terceiro estudo foram inquiridos 427 indivíduos que procuravam apartamento para residência. A partir da Análise de Componentes Principais da Análise Factorial efectuada obtiveram-se sete factores determinantes na procura de apartamento: as externalidades negativas, as externalidades positivas, a localização de negócios no rés-do-chão do edifício de apartamentos, os interesses racionais de proximidade, as variáveis secundárias na utilização do edifício, as variáveis de rendimento e as variáveis de interesses pessoais. A principal conclusão é que como é uma área transdisciplinar, é difícil chegar a um único modelo que incorpore os métodos de avaliação e as diferentes dinâmicas da procura. O avaliador, deve analisar e fazer o seu scoring, tendo em conta o equilíbrio entre a ciência da avaliação e a arte da apreciação.
Resumo:
O mercado imobiliário tem um papel importante nas economias modernas, tanto a nível macro como a nível micro. Ao nível macro, a construção de habitação representa um sector importante e influente na economia, com efeitos multiplicadores significativos sobre a produção e o emprego. Ao nível micro, uma residência representa o activo mais valioso da maioria dos indivíduos e uma parcela muito relevante da riqueza das famílias. Para estas, o custo e a qualidade das suas habitações influencia directa e indirectamente a sua qualidade de vida. A habitação é por isso mesmo um tema, que avaliado nas suas múltiplas dimensões, se caracteriza por ser bastante complexo, mas também ao mesmo tempo desafiante. De modo a delimitar o objecto de análise do trabalho de investigação, esta tese realça os aspectos de localização e distribuição espacial das habitações urbanas. Será desenvolvido um quadro conceptual e respectiva metodologia para a compreender a estrutura espacial da habitação urbana realçando os três aspectos fundamentais da análise espacial: heterogenidade espacial, dependência espacial e escala espacial. A metodologia, aplicada à área urbana de Aveiro e Ílhavo é baseada numa análise hedónica factorial de preços e na noção não geométrica do espaço. Primeiro, é fixada uma escala territorial e são definidos submercados habitacional. Posteriormente, quer a heterogeneidade quer a dependência espaciais são estudados utilizando métodos econométricos, sem considerar qualquer padrão fixo e conhecido de interações espaciais. Em vez disso, são desenvolvidos novos métodos,tendo como base o modelo hedónico factorial, para inferir sobre os potenciais drivers de difusão espacial no valor de uma habitação. Este modelo, foi aplicado a duas diferentes escalas espaciais, para compreender as preferências dos indivíduos em Aveiro ao escolher os seus locais de residencia, e como estas afectam os preços da habitação. O trabalho empírico, utilizando duas bases de dados de habitação distintas, aplicadas ao mercado de habitação de Aveiro mostram: i) em linha com a literatura, a dificuldade de definir submercados e compreender as inter-relações entre esses mercados; ii) a utilidade de uma abordagem híbrida, combinando análise factorial com regressão; iii) a importância fundamental que o efeito escala espacial desempenha no estudo da heterogeneidade e dos spillovers e, finalmente, iv) uma metodologia inovadora para analisar spillovers sem assumir aprioristicamente uma estrutura espacial específica de difusão espacial. Esta metodologia considera a matriz de pesos espaciais (W) desconhecida e estimatima as interações espaciais dentro e entre submercados habitação.
Resumo:
Os moluscos bivalves constituem um recurso haliêutico de elevada importância na economia (inter)nacional pelas suas características organolépticas, valor nutritivo e relevância na gastronomia tradicional. Não obstante, representam um produto alimentar de elevado risco para a saúde pública. A contaminação microbiológica (autóctone e antropogénica), sendo crónica nos bancos de bivalves das zonas estuarino-lagunares, constitui uma das principais preocupações associadas à segurança alimentar. Aquando da filtração inerente aos processos de respiração e alimentação, os bivalves bioacumulam passivamente microrganismos incluindo os patogénicos. A sua colocação no mercado impõe pois, prévia salubrização para níveis microbiológicos compatíveis com a legislação em vigor, salvaguardando a saúde pública. Apesar da monitorização das áreas de apanha e produção, das medidas de prevenção e da depuração, a ocorrência de surtos associados ao consumo de bivalves tem aumentado. Tal deve-se à insuficiente monitorização da contaminação microbiológica dos bivalves, contribuindo para uma gestão ineficaz do produto e consequente sub-valorização. O presente trabalho pretendeu caracterizar o estado de desenvolvimento do sector de exploração de bivalves em Portugal do ponto de vista da segurança alimentar, e analisar os aspectos cruciais da monitorização e da depuração do produto apresentando alternativas abrangentes e aplicáveis ao sector. Assim, desenvolveu-se uma metodologia de base molecular passível de adaptação à monitorização dos bivalves das zonas conquícolas, como alternativa ao método de referência vigente do Número Mais Provável que é baseado apenas na quantificação de Escherichia coli. O mexilhão (Mytilus edulis) da Ria de Aveiro, bivalve de interesse comercial a nível (inter)nacional serviu de modelo para a comparação de protocolos de extração de DNA. Esta metodologia foi desenvolvida de modo a que os métodos de extração de DNA sejam passíveis de aplicação a outras matrizes biológicas ou ambientais. Para além da detecção e quantificação directa de bactérias patogénicas, esta metodologia poderá ser aplicada à monitorização da transferência vertical microbiana nos bancos de bivalves bem como à caracterização da dinâmica espacio-temporal das populações microbianas no ambiente e à monitorização dos processos de depuração. Foi ainda abordado o potencial da aplicação de bacteriófagos ou de enzimas líticas para a optimização dos processos de purificação. O trabalho realizado e as perspectivas futuras propostas pretendem contribuir para a dinamização e requalificação do sector de exploração de bivalves através da melhoria do nível de segurança alimentar dos moluscos bivalves comercializados para alimentação humana, valorizando este recurso.
Resumo:
Esta tese apresenta um estudo sobre otimização económica de parques eólicos, com o objetivo de obter um algoritmo para otimização económica de parques eólicos através do custo da energia produzida. No estudo utilizou-se uma abordagem multidisciplinar. Inicialmente, apresentam-se as principais tecnologias e diferentes arquiteturas utilizadas nos parques eólicos. Bem como esquemas de funcionamento e gestão dos parques. São identificadas variáveis necessárias e apresenta-se um modelo dimensionamento para cálculo dos custos da energia produzida, tendo-se dado ênfase às instalações onshore e ligados a rede elétrica de distribuição. É feita uma análise rigorosa das características das topologias dos aerogeradores disponíveis no mercado, e simula-se o funcionamento de um parque eólico para testar a validade dos modelos desenvolvidos. Também é implementado um algoritmo para a obtenção de uma resposta otimizada para o ciclo de vida económico do parque eólico em estudo. A abordagem proposta envolve algoritmos para otimização do custo de produção com multiplas funções objetivas com base na descrição matemática da produção de eletricidade. Foram desenvolvidos modelos de otimização linear, que estabelece a ligação entre o custo económico e a produção de eletricidade, tendo em conta ainda as emissões de CO2 em instrumentos de política energética para energia eólica. São propostas expressões para o cálculo do custo de energia com variáveis não convencionais, nomeadamente, para a produção variável do parque eólico, fator de funcionamento e coeficiente de eficiência geral do sistema. Para as duas últimas, também é analisado o impacto da distribuição do vento predominante no sistema de conversão de energia eólica. Verifica-se que os resultados obtidos pelos algoritmos propostos são similares às obtidas por demais métodos numéricos já publicados na comunidade científica, e que o algoritmo de otimização económica sofre influência significativa dos valores obtidos dos coeficientes em questão. Finalmente, é demonstrado que o algoritmo proposto (LCOEwso) é útil para o dimensionamento e cálculo dos custos de capital e O&M dos parques eólicos com informação incompleta ou em fase de projeto. Nesse sentido, o contributo desta tese vem ser desenvolver uma ferramenta de apoio à tomada de decisão de um gestor, investidor ou ainda agente público em fomentar a implantação de um parque eólico.
Resumo:
Apesar das recentes inovações tecnológicas, o setor dos transportes continua a exercer impactes significativos sobre a economia e o ambiente. Com efeito, o sucesso na redução das emissões neste setor tem sido inferior ao desejável. Isto deve-se a diferentes fatores como a dispersão urbana e a existência de diversos obstáculos à penetração no mercado de tecnologias mais limpas. Consequentemente, a estratégia “Europa 2020” evidencia a necessidade de melhorar a eficiência no uso das atuais infraestruturas rodoviárias. Neste contexto, surge como principal objetivo deste trabalho, a melhoria da compreensão de como uma escolha de rota adequada pode contribuir para a redução de emissões sob diferentes circunstâncias espaciais e temporais. Simultaneamente, pretende-se avaliar diferentes estratégias de gestão de tráfego, nomeadamente o seu potencial ao nível do desempenho e da eficiência energética e ambiental. A integração de métodos empíricos e analíticos para avaliação do impacto de diferentes estratégias de otimização de tráfego nas emissões de CO2 e de poluentes locais constitui uma das principais contribuições deste trabalho. Esta tese divide-se em duas componentes principais. A primeira, predominantemente empírica, baseou-se na utilização de veículos equipados com um dispositivo GPS data logger para recolha de dados de dinâmica de circulação necessários ao cálculo de emissões. Foram percorridos aproximadamente 13200 km em várias rotas com escalas e características distintas: área urbana (Aveiro), área metropolitana (Hampton Roads, VA) e um corredor interurbano (Porto-Aveiro). A segunda parte, predominantemente analítica, baseou-se na aplicação de uma plataforma integrada de simulação de tráfego e emissões. Com base nesta plataforma, foram desenvolvidas funções de desempenho associadas a vários segmentos das redes estudadas, que por sua vez foram aplicadas em modelos de alocação de tráfego. Os resultados de ambas as perspetivas demonstraram que o consumo de combustível e emissões podem ser significativamente minimizados através de escolhas apropriadas de rota e sistemas avançados de gestão de tráfego. Empiricamente demonstrou-se que a seleção de uma rota adequada pode contribuir para uma redução significativa de emissões. Foram identificadas reduções potenciais de emissões de CO2 até 25% e de poluentes locais até 60%. Através da aplicação de modelos de tráfego demonstrou-se que é possível reduzir significativamente os custos ambientais relacionados com o tráfego (até 30%), através da alteração da distribuição dos fluxos ao longo de um corredor com quatro rotas alternativas. Contudo, apesar dos resultados positivos relativamente ao potencial para a redução de emissões com base em seleções de rotas adequadas, foram identificadas algumas situações de compromisso e/ou condicionantes que devem ser consideradas em futuros sistemas de eco navegação. Entre essas condicionantes importa salientar que: i) a minimização de diferentes poluentes pode implicar diferentes estratégias de navegação, ii) a minimização da emissão de poluentes, frequentemente envolve a escolha de rotas urbanas (em áreas densamente povoadas), iii) para níveis mais elevados de penetração de dispositivos de eco-navegação, os impactos ambientais em todo o sistema podem ser maiores do que se os condutores fossem orientados por dispositivos tradicionais focados na minimização do tempo de viagem. Com este trabalho demonstrou-se que as estratégias de gestão de tráfego com o intuito da minimização das emissões de CO2 são compatíveis com a minimização do tempo de viagem. Por outro lado, a minimização de poluentes locais pode levar a um aumento considerável do tempo de viagem. No entanto, dada a tendência de redução nos fatores de emissão dos poluentes locais, é expectável que estes objetivos contraditórios tendam a ser minimizados a médio prazo. Afigura-se um elevado potencial de aplicação da metodologia desenvolvida, seja através da utilização de dispositivos móveis, sistemas de comunicação entre infraestruturas e veículos e outros sistemas avançados de gestão de tráfego.
Resumo:
A desmaterialização da economia é um dos caminhos para a promoção do desenvolvimento sustentável na medida em que elimina ou reduz a utilização de recursos naturais, fazendo mais com menos. A intensificação dos processos tecnológicos é uma forma de desmaterializar a economia. Sistemas mais compactos e mais eficientes consomem menos recursos. No caso concreto dos sistemas envolvendo processo de troca de calor, a intensificação resulta na redução da área de permuta e da quantidade de fluido de trabalho, o que para além de outra vantagem que possa apresentar decorrentes da miniaturização, é um contributo inegável para a sustentabilidade da sociedade através do desenvolvimento científico e tecnológico. O desenvolvimento de nanofluidos surge no sentido de dar resposta a estes tipo de desafios da sociedade moderna, contribuindo para a inovação de produtos e sistemas, dando resposta a problemas colocados ao nível das ciências de base. A literatura é unânime na identificação do seu potencial como fluidos de permuta, dada a sua elevada condutividade, no entanto a falta de rigor subjacente às técnicas de preparação dos mesmos, assim como de um conhecimento sistemático das suas propriedades físicas suportado por modelos físico-matemáticos devidamente validados levam a que a operacionalização industrial esteja longe de ser concretizável. Neste trabalho, estudou-se de forma sistemática a condutividade térmica de nanofluidos de base aquosa aditivados com nanotubos de carbono, tendo em vista a identificação dos mecanismos físicos responsáveis pela condução de calor no fluido e o desenvolvimento de um modelo geral que permita com segurança determinar esta propriedade com o rigor requerido ao nível da engenharia. Para o efeito apresentam-se métodos para uma preparação rigorosa e reprodutível deste tipo de nanofluido assim como das metodologias consideradas mais importantes para a aferição da sua estabilidade, assegurando deste modo o rigor da técnica da sua produção. A estabilidade coloidal é estabelecida de forma rigorosa tendo em conta parâmetros quantificáveis como a ausência de aglomeração, a separação de fases e a deterioração da morfologia das nanopartículas. Uma vez assegurado o método de preparação dos nanofluídos, realizou-se uma análise paramétrica conducente a uma base de dados obtidos experimentalmente que inclui a visão central e globalizante da influência relativa dos diferentes fatores de controlo com impacto nas propriedades termofísicas. De entre as propriedades termofísicas, este estudo deu particular ênfase à condutividade térmica, sendo os fatores de controlo selecionados os seguintes: fluido base, temperatura, tamanho da partícula e concentração de nanopartículas. Experimentalmente, verificou-se que de entre os fatores de controlo estudados, os que maior influência detêm sobre a condutividade térmica do nanofluido, são o tamanho e concentração das nanopartículas. Com a segurança conferida por uma base de dados sólida e com o conhecimento acerca da contribuição relativa de cada fator de controlo no processo de transferência de calor, desenvolveu-se e validou-se um modelo físico-matemático com um caracter generalista, que permitirá determinar com segurança a condutividade térmica de nanofluidos.