922 resultados para modelação numérica
Resumo:
Os coeficientes de difusão (D 12) são propriedades fundamentais na investigação e na indústria, mas a falta de dados experimentais e a inexistência de equações que os estimem com precisão e confiança em fases comprimidas ou condensadas constituem limitações importantes. Os objetivos principais deste trabalho compreendem: i) a compilação de uma grande base de dados para valores de D 12 de sistemas gasosos, líquidos e supercríticos; ii) o desenvolvimento e validação de novos modelos de coeficientes de difusão a diluição infinita, aplicáveis em amplas gamas de temperatura e densidade, para sistemas contendo componentes muito distintos em termos de polaridade, tamanho e simetria; iii) a montagem e teste de uma instalação experimental para medir coeficientes de difusão em líquidos e fluidos supercríticos. Relativamente à modelação, uma nova expressão para coeficientes de difusão a diluição infinita de esferas rígidas foi desenvolvida e validada usando dados de dinâmica molecular (desvio relativo absoluto médio, AARD = 4.44%) Foram também estudados os coeficientes de difusão binários de sistemas reais. Para tal, foi compilada uma extensa base de dados de difusividades de sistemas reais em gases e solventes densos (622 sistemas binários num total de 9407 pontos experimentais e 358 moléculas) e a mesma foi usada na validação dos novos modelos desenvolvidos nesta tese. Um conjunto de novos modelos foi proposto para o cálculo de coeficientes de difusão a diluição infinita usando diferentes abordagens: i) dois modelos de base molecular com um parâmetro específico para cada sistema, aplicáveis em sistemas gasosos, líquidos e supercríticos, em que natureza do solvente se encontra limitada a apolar ou fracamente polar (AARDs globais na gama 4.26-4.40%); ii) dois modelos de base molecular biparamétricos, aplicáveis em todos os estados físicos, para qualquer tipo de soluto diluído em qualquer solvente (apolar, fracamente polar e polar). Ambos os modelos dão origem a erros globais entre 2.74% e 3.65%; iii) uma correlação com um parâmetro, específica para coeficientes de difusão em dióxido de carbono supercrítico (SC-CO2) e água líquida (AARD = 3.56%); iv) nove correlações empíricas e semi-empíricas que envolvem dois parâmetros, dependentes apenas da temperatura e/ou densidade do solvente e/ou viscosidade do solvente. Estes últimos modelos são muito simples e exibem excelentes resultados (AARDs entre 2.78% e 4.44%) em sistemas líquidos e supercríticos; e v) duas equações preditivas para difusividades de solutos em SC-CO2, em que os erros globais de ambas são inferiores a 6.80%. No global, deve realçar-se o facto de os novos modelos abrangerem a grande variedade de sistemas e moléculas geralmente encontrados. Os resultados obtidos são consistentemente melhores do que os obtidos com os modelos e abordagens encontrados na literatura. No caso das correlações com um ou dois parâmetros, mostrou-se que estes mesmos parâmetros podem ser ajustados usando um conjunto muito pequeno de dados, e posteriormente serem utilizados na previsão de valores de D 12 longe do conjunto original de pontos. Uma nova instalação experimental para medir coeficientes de difusão binários por técnicas cromatográficas foi montada e testada. O equipamento, o procedimento experimental e os cálculos analíticos necessários à obtenção dos valores de D 12 pelo método de abertura do pico cromatográfico, foram avaliados através da medição de difusividades de tolueno e acetona em SC-CO2. Seguidamente, foram medidos coeficientes de difusão de eucaliptol em SC-CO2 nas gamas de 202 – 252 bar e 313.15 – 333.15 K. Os resultados experimentais foram analisados através de correlações e modelos preditivos para D12.
Resumo:
Este trabalho abordou a valorização de um subproduto da indústria de lacticínios (soro de queijo) através da alteração do funcionamento de processos habitualmente utilizados no contexto do tratamento biológico. Foi avaliada a fermentação acidogénica deste subproduto para maximizar a conversão do seu elevado teor de matéria orgânica em ácidos orgânicos voláteis (AOV) que actualmente são produtos com elevada procura, nomeadamente para produção de polihidroxialcanoatos (PHA). Em ensaios descontínuos e semi-contínuos foi caracterizada a produção e composição de AOV a partir de soro de queijo variando a razão food-to-microorganism (F/M) e a concentração de alcalinidade. Recorrendo à modelação dos resultados através de superfícies de resposta, demonstrou-se que condições de F/M = 4 gCQO g-1SSV combinadas com uma adição elevada de alcalinidade (8 g L-1 expresso como CaCO3) resultaram na conversão de 72% da CQO alimentada em AOV. O acetato e o butirato foram os AOV predominantes (60%), mas elevadas razões F/M combinadas com elevadas alcalinidades promoveram o alongamento da cadeia carboxílica, tendo sido produzidos AOV de maior massa molecular (iso-valerato e n-caproato). O processo de fermentação acidogénica foi posteriormente desenvolvido em modo contínuo num reactor MBBR acidogénico operado a longo prazo. Cargas orgânicas entre 30 e 50 gCQO L-1d-1 permitiram obter um grau de acidificação máximo de 68% no efluente fermentado. Foi ainda demonstrado que uma adição dinâmica de alcalinidade (0 – 4,8 g CaCO3 L-1) nestas condições estimulou a produção de AOV de cadeia ímpar (propionato e n-valerato) até 42%. O efluente acidificado no processo anaeróbio foi usado como substrato em reactores SBR operados para selecção de culturas microbianas mistas acumuladoras de PHA, nos quais foi aplicado um regime de alimentação dinâmica em condições aeróbias (“fartura-fome”). Estes sistemas operaram também a longo prazo, e demonstraram ser capazes de remover mais de 96% da CQO alimentada e simultaneamente convertê-la em PHA, até 36% do peso celular seco. A velocidade de remoção de substrato (valor máximo de 1,33 gCQO g-1SSV h-1) foi proporcional ao teor de polímero acumulado, evidenciando o estabelecimento de uma fase de “fome” prolongada que estimulou a selecção de microrganismos com elevada capacidade de acumulação de PHA. Além disso, o teor molar de hidroxivalerato (HV) no copolímero produzido [P(HB-co-HV)] foi directamente proporcional ao teor de AOV de cadeia ímpar (propionato e n-valerato) presente no soro fermentado que serviu de substrato. Uma estratégia de operação do reactor SBR com variação da carga orgânica, aliada ao regime “fartura-fome” estabelecido, permitiu ainda simular a realidade dos processos de tratamento biológico de efluentes, nos quais a composição e concentração inicial de matéria orgânica variam frequentemente. Este modo de operação do sistema estimulou notavelmente o processo de selecção de culturas acumuladoras de PHA tendo resultado num aumento da acumulação de PHA de 7% para 36%. Os resultados demonstraram com sucesso a possibilidade de valorização do soro de queijo através de eco-biotecnologia, contribuindo para uma mudança de paradigma no tratamento convencional de efluentes: ao invés de serem eliminados enquanto poluentes, os componentes orgânicos presentes neste subproduto industrial podem assim ser convertidos em materiais de valor acrescentado.
Resumo:
Portugal é um dos países europeus com melhor cobertura espacial e populacional de rede de autoestradas (5º entre os 27 da UE). O acentuado crescimento desta rede nos últimos anos leva a que seja necessária a utilização de metodologias de análise e avaliação da qualidade do serviço que é prestado nestas infraestruturas, relativamente às condições de circulação. Usualmente, a avaliação da qualidade de serviço é efetuada por intermédio de metodologias internacionalmente aceites, das quais se destaca a preconizada no Highway Capacity Manual (HCM). É com esta última metodologia que são habitualmente determinados em Portugal, os níveis de serviço nas diversas componentes de uma autoestrada (secções correntes, ramos de ligação e segmentos de entrecruzamento). No entanto, a sua transposição direta para a realidade portuguesa levanta algumas reservas, uma vez que os elementos que compõem o ambiente rodoviário (infraestrutura, veículo e condutor) são distintos dos da realidade norte-americana para a qual foi desenvolvida. Assim, seria útil para os atores envolvidos no setor rodoviário dispor de metodologias desenvolvidas para as condições portuguesas, que possibilitassem uma caracterização mais realista da qualidade de serviço ao nível da operação em autoestradas. No entanto, importa referir que o desenvolvimento de metodologias deste género requer uma quantidade muito significativa de dados geométricos e de tráfego, o que acarreta uma enorme necessidade de meios, quer humanos, quer materiais. Esta abordagem é assim de difícil execução, sendo por isso necessário recorrer a metodologias alternativas para a persecução deste objetivo. Ultimamente tem-se verificado o uso cada vez mais generalizado de modelos de simulação microscópica de tráfego, que simulando o movimento individual dos veículos num ambiente virtual permitem realizar análises de tráfego. A presente dissertação apresenta os resultados obtidos no desenvolvimento de uma metodologia que procura recriar, através de simuladores microscópicos de tráfego, o comportamento das correntes de tráfego em secções correntes de autoestradas com o intuito de, posteriormente, se proceder à adaptação da metodologia preconizada no HCM (na sua edição de 2000) à realidade portuguesa. Para tal, com os simuladores microscópicos utilizados (AIMSUN e VISSIM) procurou-se reproduzir as condições de circulação numa autoestrada portuguesa, de modo a que fosse possível analisar as alterações sofridas no comportamento das correntes de tráfego após a modificação dos principais fatores geométricos e de tráfego envolvidos na metodologia do HCM 2000. Para o efeito, realizou-se uma análise de sensibilidade aos simuladores de forma a avaliar a sua capacidade para representar a influência desses fatores, com vista a, numa fase posterior, se quantificar o seu efeito para a realidade nacional e dessa forma se proceder à adequação da referida metodologia ao contexto português. Em resumo, o presente trabalho apresenta as principais vantagens e limitações dos microssimuladores AIMSUN e VISSIM na modelação do tráfego de uma autoestrada portuguesa, tendo-se concluído que estes simuladores não são capazes de representar de forma explícita alguns dos fatores considerados na metodologia do HCM 2000, o que impossibilita a sua utilização como ferramenta de quantificação dos seus efeitos e consequentemente inviabiliza a adaptação dessa metodologia à realidade nacional. São, no entanto, referidas algumas indicações de como essas limitações poderão vir a ser ultrapassadas, com vista à consecução futura dessa adequação.
Resumo:
Viscoelastic treatments are one of the most efficient treatments, as far as passive damping is concerned, particularly in the case of thin and light structures. In this type of treatment, part of the strain energy generated in the viscoelastic material is dissipated to the surroundings, in the form of heat. A layer of viscoelastic material is applied to a structure in an unconstrained or constrained configuration, the latter proving to be the most efficient arrangement. This is due to the fact that the relative movement of both the host and constraining layers cause the viscoelastic material to be subjected to a relatively high strain energy. There are studies, however, that claim that the partial application of the viscoelastic material is just as efficient, in terms of economic costs or any other form of treatment application costs. The application of patches of material in specific and selected areas of the structure, thus minimising the extension of damping material, results in an equally efficient treatment. Since the damping mechanism of a viscoelastic material is based on the dissipation of part of the strain energy, the efficiency of the partial treatment can be correlated to the modal strain energy of the structure. Even though the results obtained with this approach in various studies are considered very satisfactory, an optimisation procedure is deemed necessary. In order to obtain optimum solutions, however, time consuming numerical simulations are required. The optimisation process to use the minimum amount of viscoelastic material is based on an evolutionary geometry re-design and calculation of the modal damping, making this procedure computationally costly. To avert this disadvantage, this study uses adaptive layerwise finite elements and applies Genetic Algorithms in the optimisation process.
Resumo:
Nos últimos anos, o número de vítimas de acidentes de tráfego por milhões de habitantes em Portugal tem sido mais elevado do que a média da União Europeia. Ao nível nacional torna-se premente uma melhor compreensão dos dados de acidentes e sobre o efeito do veículo na gravidade do mesmo. O objetivo principal desta investigação consistiu no desenvolvimento de modelos de previsão da gravidade do acidente, para o caso de um único veículo envolvido e para caso de uma colisão, envolvendo dois veículos. Além disso, esta investigação compreendeu o desenvolvimento de uma análise integrada para avaliar o desempenho do veículo em termos de segurança, eficiência energética e emissões de poluentes. Os dados de acidentes foram recolhidos junto da Guarda Nacional Republicana Portuguesa, na área metropolitana do Porto para o período de 2006-2010. Um total de 1,374 acidentes foram recolhidos, 500 acidentes envolvendo um único veículo e 874 colisões. Para a análise da segurança, foram utilizados modelos de regressão logística. Para os acidentes envolvendo um único veículo, o efeito das características do veículo no risco de feridos graves e/ou mortos (variável resposta definida como binária) foi explorado. Para as colisões envolvendo dois veículos foram criadas duas variáveis binárias adicionais: uma para prever a probabilidade de feridos graves e/ou mortos num dos veículos (designado como veículo V1) e outra para prever a probabilidade de feridos graves e/ou mortos no outro veículo envolvido (designado como veículo V2). Para ultrapassar o desafio e limitações relativas ao tamanho da amostra e desigualdade entre os casos analisados (apenas 5.1% de acidentes graves), foi desenvolvida uma metodologia com base numa estratégia de reamostragem e foram utilizadas 10 amostras geradas de forma aleatória e estratificada para a validação dos modelos. Durante a fase de modelação, foi analisado o efeito das características do veículo, como o peso, a cilindrada, a distância entre eixos e a idade do veículo. Para a análise do consumo de combustível e das emissões, foi aplicada a metodologia CORINAIR. Posteriormente, os dados das emissões foram modelados de forma a serem ajustados a regressões lineares. Finalmente, foi desenvolvido um indicador de análise integrada (denominado “SEG”) que proporciona um método de classificação para avaliar o desempenho do veículo ao nível da segurança rodoviária, consumos e emissões de poluentes.Face aos resultados obtidos, para os acidentes envolvendo um único veículo, o modelo de previsão do risco de gravidade identificou a idade e a cilindrada do veículo como estatisticamente significativas para a previsão de ocorrência de feridos graves e/ou mortos, ao nível de significância de 5%. A exatidão do modelo foi de 58.0% (desvio padrão (D.P.) 3.1). Para as colisões envolvendo dois veículos, ao prever a probabilidade de feridos graves e/ou mortos no veículo V1, a cilindrada do veículo oposto (veículo V2) aumentou o risco para os ocupantes do veículo V1, ao nível de significância de 10%. O modelo para prever o risco de gravidade no veículo V1 revelou um bom desempenho, com uma exatidão de 61.2% (D.P. 2.4). Ao prever a probabilidade de feridos graves e/ou mortos no veículo V2, a cilindrada do veículo V1 aumentou o risco para os ocupantes do veículo V2, ao nível de significância de 5%. O modelo para prever o risco de gravidade no veículo V2 também revelou um desempenho satisfatório, com uma exatidão de 40.5% (D.P. 2.1). Os resultados do indicador integrado SEG revelaram que os veículos mais recentes apresentam uma melhor classificação para os três domínios: segurança, consumo e emissões. Esta investigação demonstra que não existe conflito entre a componente da segurança, a eficiência energética e emissões relativamente ao desempenho dos veículos.
Resumo:
Esta investigação teve como objetivo central averiguar se o comportamento espaciotemporal do turista urbano influencia a sua satisfação com a experiência de visita multiatração. Apesar de a mobilidade ser uma condição sine qua non do turismo, e, por outro lado, a visita a múltiplas atrações o contexto habitual em que se desenvolve a experiência turística em contexto urbano, a investigação neste domínio tende a ignorar a dimensão espaciotemporal e multiatração dessa experiência. O modelo conceptual proposto visa a sistematização da análise do comportamento espaciotemporal do turista bem como o estudo da sua relação com a satisfação, enquanto satisfação global e satisfação com dimensões da experiência. A partir deste, foi definido o modelo da pesquisa que, modelizando a questão central em estudo, teve por base dois instrumentos principais: estudo de rastreamento através de equipamento GPS e inquérito por questionário, realizados junto de hóspedes de dez hotéis de Lisboa (n= 413). A análise dos dados assume, por sua vez, dupla natureza: espacial e estatística. Em termos de análise espacial, a metodologia SIG em que se baseou a concretização dos mapas foi executada tendo como suporte a solução ArcGIS for Desktop 10.1, permitindo gerar visualizações úteis do ponto de vista da questão em estudo. A análise estatística dos dados compreendeu métodos descritivos, exploratórios e inferenciais, tendo como principal instrumento de teste das hipóteses formuladas a modelação PLS-PM, complementada pela análise PLS-MGA, com recurso ao programa SmartPLS 2.0. Entre as várias relações significativas encontradas, a conclusão mais importante que se pode retirar da investigação empírica é que, de facto, o comportamento espaciotemporal do turista urbano influencia a sua satisfação com a experiência de visita multiatração, afigurando-se particularmente importante neste contexto, em termos científicos e empíricos, investigar a heterogeneidade subjacente à população em estudo.
Resumo:
A modelação e análise de séries temporais de valores inteiros têm sido alvo de grande investigação e desenvolvimento nos últimos anos, com aplicações várias em diversas áreas da ciência. Nesta tese a atenção centrar-se-á no estudo na classe de modelos basedos no operador thinning binomial. Tendo como base o operador thinning binomial, esta tese focou-se na construção e estudo de modelos SETINAR(2; p(1); p(2)) e PSETINAR(2; 1; 1)T , modelos autorregressivos de valores inteiros com limiares autoinduzidos e dois regimes, admitindo que as inovações formam uma sucessão de variáveis independentes com distribuição de Poisson. Relativamente ao primeiro modelo analisado, o modelo SETINAR(2; p(1); p(2)), além do estudo das suas propriedades probabilísticas e de métodos, clássicos e bayesianos, para estimar os parâmetros, analisou-se a questão da seleção das ordens, no caso de elas serem desconhecidas. Com este objetivo consideraram-se algoritmos de Monte Carlo via cadeias de Markov, em particular o algoritmo Reversible Jump, abordando-se também o problema da seleção de modelos, usando metodologias clássica e bayesiana. Complementou-se a análise através de um estudo de simulação e uma aplicação a dois conjuntos de dados reais. O modelo PSETINAR(2; 1; 1)T proposto, é também um modelo autorregressivo com limiares autoinduzidos e dois regimes, de ordem unitária em cada um deles, mas apresentando uma estrutura periódica. Estudaram-se as suas propriedades probabilísticas, analisaram-se os problemas de inferência e predição de futuras observações e realizaram-se estudos de simulação.
Resumo:
This thesis focuses on the application of optimal alarm systems to non linear time series models. The most common classes of models in the analysis of real-valued and integer-valued time series are described. The construction of optimal alarm systems is covered and its applications explored. Considering models with conditional heteroscedasticity, particular attention is given to the Fractionally Integrated Asymmetric Power ARCH, FIAPARCH(p; d; q) model and an optimal alarm system is implemented, following both classical and Bayesian methodologies. Taking into consideration the particular characteristics of the APARCH(p; q) representation for financial time series, the introduction of a possible counterpart for modelling time series of counts is proposed: the INteger-valued Asymmetric Power ARCH, INAPARCH(p; q). The probabilistic properties of the INAPARCH(1; 1) model are comprehensively studied, the conditional maximum likelihood (ML) estimation method is applied and the asymptotic properties of the conditional ML estimator are obtained. The final part of the work consists on the implementation of an optimal alarm system to the INAPARCH(1; 1) model. An application is presented to real data series.
Resumo:
No mundo do trabalho, designadamente na indústria, acentua-se o défice de competências matemáticas nos profissionais da indústria, particularmente a Modelação Matemática, facto que constitui uma preocupação crescente à escala mundial e, obviamente, do sistema educativo português e da comunidade matemática nacional. Este défice é justificado pela falta de formação dos professores em contexto industrial e, de acordo com a National Council of Teachers of Mathematics, pela incapacidade que muitos docentes têm em apresentar a Matemática aplicada a situações laborais. Face à relevância social, económica e política da problemática descrita, centrou-se o presente estudo na Avaliação da Gestão Curricular da Matemática nos Cursos Profissionais de nível III do ensino secundário em Portugal, com enfoque na Modelação Matemática que, segundo os referentes internacionais, é simultaneamente uma competência e uma metodologia de ensino promotora do desenvolvimento de competências matemáticas nos profissionais da indústria. No contexto da gestão do currículo da Matemática para os cursos profissionais de nível III em escolas secundárias portuguesas, desenvolveu-se o presente estudo para se responder à questão de investigação: Em que medida a gestão curricular da Matemática, instituída, intencional e implementada nos cursos profissionais de nível III contempla situações-problema, suscetíveis de promover o desenvolvimento de competências no aluno, relevantes para o seu desempenho profissional? Construiu-se um referencial de avaliação, centrado na dimensão ecológica, segundo o modelo teórico Enfoque Ontosemiótico, abarcando um conjunto de sub-dimensões sobre as quais foram definidos critérios e respetivos indicadores. De realçar, ainda, que o referencial, além de ter servido de instrumento de avaliação da gestão curricular da Matemática nos cursos profissionais de nível III do ensino secundário, serviu, também, como guia orientador no desenho das sete situações-problema de natureza de Modelação Matemática no estudo de funções. O enquadramento metodológico do presente estudo assentou no método Estudo de Caso. Para analisar o caso, selecionaram-se sete unidades integradas de análise, a saber: a gestão curricular da Matemática de cada um dos seis professores participantes e a gestão curricular da Matemática instituída pelos normativos oficiais (programa da componente de formação científica da disciplina de Matemática para os cursos profissionais). Para a análise dos dados empíricos, respeitantes à gestão instituída, recorreuse à análise de conteúdo e teve essencialmente como propósito avaliar em que medida as orientações curriculares, emanadas no Programa da componente de formação científica disciplina de Matemática para os cursos profissionais de nível III, estão em conformidade com os referenciais teóricos. Sequencialmente, a operacionalização da avaliação intencional consubstanciou-se nos planos das aulas cedidos previamente a cada observação. A análise de conteúdo, como técnica de tratamento dos dados empíricos, foi a forma de se aceder às intenções de cada professor participante no estudo. A observação de aulas sucedeu à avaliação do plano de aula, constituindo a forma de avaliar in loco a gestão curricular da Matemática implementada, permitindo avaliar a coerência das observações com as intenções expressas nas planificações. Os registos das observações foram concretizados sob a forma de notas de campo que incluem uma componente descritiva e outra reflexiva que se dirigem para a análise dos dados empíricos recolhidos. Em termos de resultados, a avaliação da gestão curricular instituída foi reveladora de que o postulado pelos referentes para o desenvolvimento de competências tem a sua representação nas orientações curriculares expressas no Programa da componente de formação científica da disciplina de Matemática para os cursos profissionais de nível III. Contrariamente, a gestão curricular da Matemática pelos professores participantes revelou-se muito condicionada ao cumprimento dos conteúdos propostos pelo programa da disciplina. Por conseguinte, a gestão curricular da Matemática por competências, enfatizada no Programa (gestão instituída), encontrou, neste estudo, pouca tradução na gestão curricular intencional e implementada dos professores participantes, na medida em que a mesma não refletiu uma articulação com a componente de formação técnica do curso, visando uma metodologia proactiva no desenho de situações-problema promotoras de desenvolver, nos alunos, competências profícuas para a sua profissão, nomeadamente a Modelação Matemática. De salientar, ainda, que uma percentagem muito significativa de situações-problema propostas pelos professores não são, no geral, pertinentes para os respetivos cursos, não sendo, neste sentido, promotoras do estabelecimento de ligação com a futura performance profissional dos alunos. Tal lacuna parece ter resultado da ausência de trabalho colaborativo entre os professores de Matemática e os restantes docentes que constituem a equipa formativa do curso, lacuna que dificulta a articulação e coordenação em prol de um ensino contextualizado, ou ainda pela ausência de formação contínua pelos professores, no âmbito de temáticas inerentes à gestão curricular a cursos profissionais.
Resumo:
As últimas décadas do séc. XX assistiram a um crescente protagonismo do Design de Informação que, desde então, tem sofrido inúmeras formas e designações, num processo de afirmação e auto descoberta. A proliferação de dados disponíveis deu ao design e em particular a este ramo do desenho para a compreensão, uma visibilidade crescente e a responsabilidade de encontrar, a partir da informação, novos meios para a construção de sentido. Do design à engenharia informática, são várias as disciplinas que convergem hoje nesse desígnio ainda que sob diferentes modelos e ferramentas. Esta convergência promove uma comparação entre modelos, que tendem a ser tanto mais valorizados quanto mais objectivas as representações. De Playfair a Bertin, as representações gráficas dos últimos duzentos anos têm-se situado no âmbito de disciplinas como a Economia, Sociologia ou a Gestão, explorando metáforas funcionais com vista à evidência da tradução numérica. O Design, enquanto mediador cultural e através do Desenho, tende a acrescentar ao mesmo exercício uma dimensão narrativa ou ilustrativa, convocando a própria existência do autor na interpretação dos mesmos dados numéricos. Com esta investigação, novos processos de semiose se oferecem, associando à objectividade dos dados quantitativos, a subjectividade da cultura formulada a partir do indivíduo enquanto intérprete. Na procura do conhecimento, reconhece-se assim que o desenho da informação ganha competências pela mediação da experiência, religando ética, técnica e estética.
Resumo:
A tese tem como foco quatro eixos centrais: o ensino superior, a sociedade civil, a cidadania e a hegemonia. Na primeira parte da tese, estes eixos teórico-conceptuais são explanados numa perspectiva da promoção de uma compreensão mais ampla da sociedade civil e do estado, nomeadamente o contratualismo, o liberalismo, o materialismo e o neoliberalismo. Um protagonismo fundamental é atribuído às concepções de Antonio Gramsci de sociedade civil, cidadania e estado aplicadas no ensino superior no Sul da Amazónia brasileira. A segunda parte da tese concentra-se num estudo de caso com três premissas de análise: a fragmentação do ensino superior brasileiro; a reconfiguração da cidadania e hegemonia; e o ensino superior no contexto do Amazonas. O ensino superior no Brasil teve início com as escolas jesuíticas, que, depois de encerradas pelo Marquês de Pombal não tiveram sucessoras em solo brasileiro, ao nível do que poderia ter sido o embrião de um sistema de ensino superior. A chegada da Corte Imperial Portuguesa, em 1808, permite reinstalar novos cursos. A primeira unidade de ensino superior no Amazonas surge apenas no princípio do século XX. Um século depois, tem início o processo de expansão com a implantação de unidades no interior do estado. O ensino superior no Brasil, nas últimas décadas, assumiu um caráter híbrido e de massificação. A massificação, no entanto, ainda é uma realidade a ser alcançada. Apesar dos avanços realizados na última década, ainda subsiste ainda uma forte exclusão de estudantes. O enfoque sobre o ensino superior e a cidadania, no contexto do Amazonas, surge na articulação de um conjunto de informação empírica, extraída de entrevistas realizadas com atores chave locais, com as categorias de pensamento de Antonio Gramsci, que sustentam teoricamente o estudo. Esta articulação tem no ensino superior a possibilidade de desenvolver a cidadania como o princípio organizador e fim último deste nível de ensino. Neste sentido, a hegemonia ganha um estatuto de orientação e direção que permite aos sujeitos envolvidos no ensino superior maior possibilidade de autonomia, liberdade, justiça social, empregabilidade e desenvolvimento social. O modelo de universidade para a cidadania apresenta-se como uma possibilidade de mudanças no horizonte social, económico e também político, no interior da própria universidade. O ensino superior, perspectivado como um instrumento essencial para a cidadania, tem como objetivo primordial a qualificação de professores para a educação de base, Reflexivamente, esta qualificação não deixará potencialmente de produzir retornos positivos na própria expansão e abrangência numérica e educativa do próprio ensino superior. Desta forma, a cidadania no ensino superior é perspectivada neste estudo como um deslocamento de lógicas de compreensão individual e de individualização elitista dos benefícios para lógicas assentes em construções mais coletivas, portadoras de benefícios sociais. A interiorização do ensino superior no Amazonas é assumida no estudo como uma possibilidade de formação académica para o desenvolvimento de práticas pedagógicas e científicas críticas e mais conscientes, constituindo um horizonte determinante para a ativação de processos de integração regional e nacional. Em suma, os pontos de confluência entre o ensino superior, a sociedade civil, a cidadania e as propostas de Gramsci, estão relacionados com a formação, a conscientização política, e o bem-estar económico e social.
Resumo:
The main motivation for the work presented here began with previously conducted experiments with a programming concept at the time named "Macro". These experiments led to the conviction that it would be possible to build a system of engine control from scratch, which could eliminate many of the current problems of engine management systems in a direct and intrinsic way. It was also hoped that it would minimize the full range of software and hardware needed to make a final and fully functional system. Initially, this paper proposes to make a comprehensive survey of the state of the art in the specific area of software and corresponding hardware of automotive tools and automotive ECUs. Problems arising from such software will be identified, and it will be clear that practically all of these problems stem directly or indirectly from the fact that we continue to make comprehensive use of extremely long and complex "tool chains". Similarly, in the hardware, it will be argued that the problems stem from the extreme complexity and inter-dependency inside processor architectures. The conclusions are presented through an extensive list of "pitfalls" which will be thoroughly enumerated, identified and characterized. Solutions will also be proposed for the various current issues and for the implementation of these same solutions. All this final work will be part of a "proof-of-concept" system called "ECU2010". The central element of this system is the before mentioned "Macro" concept, which is an graphical block representing one of many operations required in a automotive system having arithmetic, logic, filtering, integration, multiplexing functions among others. The end result of the proposed work is a single tool, fully integrated, enabling the development and management of the entire system in one simple visual interface. Part of the presented result relies on a hardware platform fully adapted to the software, as well as enabling high flexibility and scalability in addition to using exactly the same technology for ECU, data logger and peripherals alike. Current systems rely on a mostly evolutionary path, only allowing online calibration of parameters, but never the online alteration of their own automotive functionality algorithms. By contrast, the system developed and described in this thesis had the advantage of following a "clean-slate" approach, whereby everything could be rethought globally. In the end, out of all the system characteristics, "LIVE-Prototyping" is the most relevant feature, allowing the adjustment of automotive algorithms (eg. Injection, ignition, lambda control, etc.) 100% online, keeping the engine constantly working, without ever having to stop or reboot to make such changes. This consequently eliminates any "turnaround delay" typically present in current automotive systems, thereby enhancing the efficiency and handling of such systems.
Resumo:
Forest fires implications in overland flow and soil erosion have been researched for several years. Therefore, is widely known that fires enhance hydrological and geomorphological activity worldwide as also in Mediterranean areas. Soil burn severity has been widely used to describe the impacts of fire on soils, and has being recognized as a decisive factor controlling post-fire erosion rates. However, there is no unique definition of the term and the relationship between soil burn severity and post-fire hydrological and erosion response has not yet been fully established. Few studies have assessed post-fire erosion over multiple years, and the authors are aware of none which assess runoff. Small amount of studies concerning pre-fire management practices were also found. In the case of soil erosion models, the Revised Universal Soil Loss Equation (RUSLE) and the revised Morgan–Morgan–Finney (MMF) are well-known models, but not much information is available as regards their suitability in predicting post-fire soil erosion in forest soils. The lack of information is even more pronounced as regards post-fire rehabilitation treatments. The aim of the thesis was to perform an extensive research under the post fire hydrologic and erosive response subject. By understanding the effect of burn severity in ecosystems and its implications regarding post fire hydrological and erosive responses worldwide. Test the effect of different pre-fire land management practices (unplowed, downslope plowed and contour plowed) and time-since-fire, in the post fire hydrological and erosive response, between the two most common land uses in Portugal (pine and eucalypt). Assess the performance of two widely-known erosion models (RUSLE and Revised MMF), to predict soil erosion rates during first year following two wildfires of distinctive burn severity. Furthermore, to apply these two models considering different post-fire rehabilitation treatments in an area severely affected by fire. Improve model estimations of post-fire runoff and erosion rates in two different land uses (pine and eucalypt) using the revised MMF. To assess these improvements by comparing estimations and measurements of runoff and erosion, in two recently burned sites, as also with their post fire rehabilitation treatments. Model modifications involved: (1) focusing on intra-annual changes in parameters to incorporate seasonal differences in runoff and erosion; and (2) inclusion of soil water repellency in runoff predictions. Additionally, validate these improvements with the application of the model to other pine and eucalypt sites in Central Portugal. The review and meta-analysis showed that fire occurrence had a significant effect on the hydrological and erosive response. However, this effect was only significantly higher with increasing soil burn severity for inter-rill erosion, and not for runoff. This study furthermore highlighted the incoherencies between existing burn severity classifications, and proposed an unambiguous classification. In the case of the erosion plots with natural rainfall, land use factor affected annual runoff while land management affected both annual runoff and erosion amounts significantly. Time-since-fire had an important effect in erosion amounts among unplowed sites, while for eucalypt sites time affected both annual runoff and erosion amounts. At all studied sites runoff coefficients increase over the four years of monitoring. In the other hand, sediment concentration in the runoff, recorded a decrease during the same period. Reasons for divergence from the classic post-fire recovery model were also explored. Short fire recurrence intervals and forest management practices are viewed as the main reasons for the observed severe and continuing soil degradation. The revised MMF model presented reasonable accuracy in the predictions while the RUSLE clearly overestimated the observed erosion rates. After improvements: the revised model was able to predict first-year post-fire plot-scale runoff and erosion rates for both forest types, these predictions were improved both by the seasonal changes in the model parameters; and by considering the effect of soil water repellency on the runoff, individual seasonal predictions were considered accurate, and the inclusion of the soil water repellency in the model also improved the model at this base. The revised MMF model proved capable of providing a simple set of criteria for management decisions about runoff and erosion mitigation measures in burned areas. The erosion predictions at the validation sites attested both to the robustness of the model and of the calibration parameters, suggesting a potential wider application.
Resumo:
The production of color/flavor compounds in wine is the result of different interrelated mechanism reactions. Among these, the oxidation phenomenon and the Maillard reaction stands out with particular relevance due to their large impact on the sensory quality of wines and consequently on the product shelflife. The aim of this thesis is to achieve a global vision of wine degradation mechanisms. The identification of mediators’ reactions involved in oxidative browning and aromatic degradation will be attempted based on different detectors. Two approaches are implemented in this work: a “non-target” approach by which relevant analytical tools will be used to merge the information of cyclic voltammetry and Diode-Array (DAD) detectors, allowing a broader overview of the system and the note of interesting compounds, and a “target” approach by which the identification and quantification of the different compounds related to the wine degradation process will be performed using different detectors (HPLC-UV/Vis, LC-MS, GC-MS, and FID). Two different patterns of degradation will be used in this study: wines generated by O2 and temperature perturbations, and synthetic solutions with relevant wine constituents for mechanisms validation. Results clearly demonstrate a “convolution” of chemical mechanisms. The presence of oxygen combined with temperature had a synergistic effect on the formation of several key odorant compounds.The results of this work could be translated to the wine-making and wine-storage environment from the modelling of the analysed compounds.
Resumo:
The better understanding of the interactions between climate change and air quality is an emerging priority for research and policy. Climate change will bring changes in the climate system, which will affect the concentration and dispersion of air pollutants. The main objective of the current study is to assess the impacts of climate change on air quality in 2050 over Portugal and Porto urban area. First, an evaluation and characterization of the air quality over mainland Portugal was performed for the period between 2002 and 2012. The results show that NO2, PM10 and O3 are the critical pollutants in Portugal. Also, the influence of meteorology on O3, NO2 and PM10 levels was investigate in the national main urban areas (Porto and Lisboa) and was verified that O3 has a statistically significant relationship with temperature in most of the components. The results also indicate that emission control strategies are primary regulators for NO2 and PM10 levels. After, understanding the national air quality problems and the influence that meteorology had in the historical air quality levels, the air quality modelling system WRF-CAMx was tested and the required inputs for the simulations were prepared to fulfil the main goal of this work. For the required air quality modelling inputs, an Emission Projections under RCP scenarios (EmiPro-RCP) model was developed to assist the estimation of future emission inventories for GHG and common air pollutants. Also, the current emissions were estimated for Portugal with a higher detailed disaggregation to improve the performance of the air quality simulations. The air quality modelling system WRF/CAMx was tested and evaluated over Portugal and Porto urban area and the results point out that is an adequate tool for the analysis of air quality under climate change. For this purpose, regional simulations of air quality during historical period and future (2045-2050) were conducted with CAMx version 6.0 to evaluate the impacts of simulated future climate and anthropogenic emission projections on air quality over the study area. The climate and the emission projections were produced under the RCP8.5 scenario. The results from the simulations point out, that if the anthropogenic emissions keep the same in 2050, the concentrations of NO2, PM10 and O3 will increase in Portugal. When, besides the climate change effects, is consider the projected anthropogenic emissions the annual mean concentrations of NO2 decrease significantly in Portugal and Porto urban area, and on the contrary the annual mean PM10 concentrations increases in Portugal and decrease in Porto urban area. The O3 results are mainly caused by the reduction of ozone precursors, getting the higher reductions in urban areas and increases in the surrounding areas. All the analysis performed for both simulations for Porto urban area support that, for PM10 and O3, there will be an increase in the occurrence of extreme values, surpassing the annual legislated parameters and having more daily exceedances. This study constitutes an innovative scientific tool to help in future air quality management in order to mitigate future climate change impacts on air quality.