12 resultados para Resultados operacionais
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
O tratamento físico-químico de águas residuais, de origem industrial, mais comum é o tratamento baseado na adição de coagulante e floculante a um efluente. No entanto, o tratamento eletroquímico é um tipo de tratamento que tem vindo a ser explorado e estudado com mais ênfase ao longo dos últimos anos. O tratamento eletroquímico é uma tecnologia AOP (Processos de Oxidação Avançada) e divide-se em eletrólise direta (oxidação e redução) e indireta (eletrocoagulação-flotação e eletrooxidação). A eletrocoagulação e eletrooxidação divergem apenas pelo tipo de reações que ocorrem, devido ao material que constitui os elétrodos. São processos complexos com uma multiplicidade de mecanismos que operam sinergicamente para remover poluentes da água. Tendo em conta a sua complexidade e ainda dificuldade de compreensão, existem na literatura diferentes versões acerca de quais os mecanismos chave, assim como diversas configurações geométricas de reatores e elétrodos. Atualmente, este tipo de tratamento tem vindo a evoluir, tornando-se num método economicamente viável para o tratamento de uma grande variedade de águas residuais, nomeadamente, aquelas que possuem compostos recalcitrantes na sua composição. O presente trabalho foi realizado nas instalações da VentilAQUA S.A. e, tendo em conta a sua área de especialidade, o trabalho exposto focou-se no desenvolvimento de soluções técnicas de AOP, nomeadamente na área eletroquímica (eletrocoagulação e eletrooxidação),para estudo dos parâmetros operacionais numa nova configuração geométrica para os elétrodos. Tendo por base os contributos da revisão bibliográfica, o estudo incidiu num reator tubular, com elétrodos de inox dispostos de forma concêntrica, à mesma distância entre si. Com este reator foram executados variados testes, com diferentes efluentes, que permitiram obter resultados operacionais de otimização de funcionamento, tendo em vista a remoção de poluentes. O estudo financeiro associado permitiu concluir que a eletrooxidação é significativamente mais económica que o tratamento físico-químico, nas condições operacionais e para os efluentes tratados. Relativamente ao Acompanhamento e Gestão de ETAR’s (Capítulo 4) foi possível verificar que todos os casos em estudo apresentam uma boa eficiência de remoção de matéria orgânica, permitindo a descarga do seu efluente com uma carga poluente que cumpre com os requisitos legais de descarga em meio hídrico.
Resumo:
O planeamento e gestão de stocks assume uma enorme relevância no contexto empresarial para que se possa responder de forma eficaz às flutuações do mercado e, consequentemente aumentar a produtividade e competitividade da empresa. O presente estudo foi desenvolvido numa empresa do setor vitivinícola português e tem como objetivo estudar os processos de gestão de stocks da mesma, de forma a melhorar os seus resultados operacionais. Mais especificamente, pretende-se elaborar um plano de gestão de stocks para que se possam definir políticas que se adequem a cada produto de forma a evitar quebras de stocks. Para alcançar os objetivos, considerou-se a seguinte metodologia: (1) análise da procura de produtos; (2) perceber de que forma se comporta a procura ao longo do ano; (3) definição do tipo de política de planeamento a ser adotada para cada grupo de produtos; (4) cálculo das quantidades de stock a produzir e o intervalo de tempo entre cada produção e (5) verificação da operacionalidade do plano de intervenção de modo a melhorar o planeamento da produção. As propostas de intervenção passaram pela implementação de políticas de gestão de stocks, nomeadamente a política de ponto de encomenda e a política de revisão cíclica. Passaram também pelo estudo da sazonalidade das vendas dos diferentes tipos de vinho de forma a facilitar o planeamento da preparação de espumantes. Embora as propostas não tenham sido postas em prática, são discutidas as vantagens e desvantagens das mesmas, bem como apresentadas propostas de melhoria.
Resumo:
O objectivo geral deste trabalho consistiu no desenvolvimento de novos sensores químicos de fibra óptica (OF) para análise de compostos orgânicos voláteis (VOCs) em ambientes industriais. A componente de detecção dos sensores desenvolvidos é constituída por uma pequena secção de fibra óptica revestida com um filme de polímero. A morfologia dos filmes poliméricos foi analisada e caracterizada por microscopia electrónica de varrimento (SEM), sendo a espessura dos filmes determinada por espectroscopia de retrodispersão de Rutherford (RBS, acrónimo do inglês Rutherford backscattering spectrometry). O desempenho analítico dos sensores de OF foi avaliado relativamente a diferentes parâmetros operacionais, tais como, concentração da solução de revestimento, técnica de deposição do filme polimérico, temperatura da célula de injecção, temperatura de cura do material polimérico, caudal do gás de arraste, comprimento de onda e frequência de funcionamento do laser, configurações estruturais da célula de injecção e do tubo analítico. Foram desenvolvidos dois sensores de OF a operar na região do infravermelho para determinação de diferentes classes de VOCs, nomeadamente hidrocarbonetos aromáticos, clorados e alifáticos, além de álcoois. Os sensores de OF desenvolvidos apresentaram adequadas características analíticas em termos de sensibilidade, linearidade, repetitibilidade e reprodutibilidade do sinal analítico, sendo o tempo de resposta de aproximadamente 30 segundos. Foi também desenvolvido um sensor de OF para especiação de benzeno, tolueno e o-xileno a operar na região do visível (635 - 650 nm), tendo sido aplicado à análise de amostras reais de ar de uma indústria de solventes. Relativamente à monitorização de VOCs em ambientes industriais, foi desenvolvido um sensor de OF para monitorização in situ e de forma remota (até uma distância máxima de 60 metros do local de amostragem) de benzeno, tolueno, etilbenzeno, p-xileno, m-xileno e o-xileno (BTEX), utilizando um díodo laser a 1550 nm. O desempenho analítico do sensor desenvolvido foi comparado, para a determinação de BTEX, com a cromatografia gasosa acoplada à detecção com ionização de chama (GC-FID). Foram ainda desenvolvidos dois detectores de fibra óptica acoplados a um cromatógrafo de gás para especiação de álcoois e hidrocarbonetos aromáticos. A metodologia desenvolvida baseada em cromatografia gasosa acoplada a um detector de fibra óptica (GC-OF) foi aplicada à análise de amostras reais de ar de uma indústria de solventes, comparando os respectivos resultados com os obtidos por GC-FID. Por fim foi efectuado um estudo visando a obtenção de um modelo geral para a resposta analítica dos sensores de fibra óptica desenvolvidos.
Resumo:
Face aos princípios orientadores do New Public Management a política orçamental, continuando a ser primordial na avaliação do desempenho do gestor público, deixou de ser o seu único meio de avaliação, constituindo a informação proporcionada pela contabilidade financeira uma ferramenta essencial para aferir a racionalidade, a economia, a eficiência e a eficácia da aplicação dos recursos na satisfação das necessidades dos cidadãos/eleitores. O presente trabalho de investigação tem como objectivo proporcionar conhecimento acerca dos incentivos que podem motivar o gestor autárquico à prática da gestão dos resultados bem como identificar os procedimentos contabilísticos utilizados para essa gestão. O trabalho desenvolvido assentou em pressupostos das teorias da agência e da escolha pública que permitiram formular as hipóteses a testar no estudo empírico. Os resultados obtidos confirmam o pressuposto fundamental de ambas as teorias: na presença de uma relação de agência em que existem conflitos de interesse entre o gestor e o principal, o gestor procura actuar oportunisticamente no seu interesse próprio, maximizando o seu bem-estar. Confirmam, igualmente, que numa perspectiva de sinalização de desempenho e competência, com vista à reeleição, o autarca procede à gestão dos resultados tendo como objectivo evitar divulgar resultados negativos e procurar divulgar resultados positivos próximos de zero num nível que não seja considerado excessivo por parte, nomeadamente, do cidadão, dos grupos de interesse e dos partidos políticos.
Resumo:
Nesta tese são estabelecidas novas propriedades espectrais de grafos com estruturas específicas, como sejam os grafos separados em cliques e independentes e grafos duplamente separados em independentes, ou ainda grafos com conjuntos (κ,τ)-regulares. Alguns invariantes dos grafos separados em cliques e independentes são estudados, tendo como objectivo limitar o maior valor próprio do espectro Laplaciano sem sinal. A técnica do valor próprio é aplicada para obter alguns majorantes e minorantes do índice do espectro Laplaciano sem sinal dos grafos separados em cliques e independentes bem como sobre o índice dos grafos duplamente separados em independentes. São fornecidos alguns resultados computacionais de modo a obter uma melhor percepção da qualidade desses mesmos extremos. Estudamos igualmente os grafos com um conjunto (κ,τ)-regular que induz uma estrela complementar para um valor próprio não-principal $. Além disso, é mostrado que $=κ-τ. Usando uma abordagem baseada nos grafos estrela complementares construímos, em alguns casos, os respectivos grafos maximais. Uma caracterização dos grafos separados em cliques e independentes que envolve o índice e as entradas do vector principal é apresentada tal como um majorante do número da estabilidade dum grafo conexo.
Resumo:
O presente trabalho tem como objetivo analisar a cinética de secagem do bacalhau salgado verde (Gadus morhua) em secador convectivo. É apresentada a análise da composição físico-química dos bacalhaus utilizados nos ensaios experimentais, bem como o estudo das isotermas de sorção do produto, através de experiências e modelação matemática. Dos modelos usados para o ajuste das isotermas de sorção do bacalhau salgado verde, o que melhor se adaptou aos resultados experimentais foi o modelo de GAB Modificado, com coeficientes de correlação variando entre 0,992 e 0,998. Para o controlo do processo de secagem (nomeadamente os parâmetros temperatura, humidade relativa e velocidade do ar) foi utilizada lógica difusa, através do desenvolvimento de controladores difusos para o humidificador, desumidificador, resistências de aquecimento e ventilador. A modelação do processo de secagem foi realizada através de redes neuronais artificiais (RNA), modelo semi-empírico de Page e modelo difusivo de Fick. A comparação entre dados experimentais e simulados, para cada modelo, apresentou os seguintes erros: entre 1,43 e 11,58 para o modelo de Page, 0,34 e 4,59 para o modelo de Fick e entre 1,13 e 6,99 para a RNA, com médias de 4,38, 1,67 e 2,93 respectivamente. O modelo obtido pelas redes neuronais artificiais foi submetido a um algoritmo de otimização, a fim de buscar os parâmetros ideais de secagem, de forma a minimizar o tempo do processo e maximizar a perda de água do bacalhau. Os parâmetros ótimos obtidos para o processo de secagem, após otimização realizada, para obter-se uma humidade adimensional final de 0,65 foram: tempo de 68,6h, temperatura de 21,45°C, humidade relativa de 51,6% e velocidade de 1,5m/s. Foram também determinados os custos de secagem para as diferentes condições operacionais na instalação experimental. Os consumos por hora de secagem variaram entre 1,15 kWh e 2,87kWh, com uma média de 1,94kWh.
Resumo:
O presente trabalho pretende auxiliar o processo de consolidação do conceito de sustentabilidade no seio das organizações. Partindo de ferramentas de gestão e avaliação já existentes, esta tese sugere a sua integração numa única metodologia, ultrapassando desse modo as limitações e potenciando as suas capacidades enquanto ferramentas isoladas. O modelo proposto para o Sistema de Gestão da Sustentabilidade (SGS) integra assim: o conceito de melhoria contínua característico dos sistemas de gestão normalizados; a capacidade de tradução da perspetiva estratégica da gestão para o plano operacional, característica do Business Scorecard (BSC); e, por fim, a avaliação emergética é ainda utilizada como uma ferramenta de avaliação da sustentabilidade de sistemas. Um objetivo secundário desta tese prende-se com o desenvolvimento de um procedimento para a realização da análise emergética de um sistema. Depois de analisada a literatura referente à utilização da análise emergética, identificou-se como necessária a definição de um procedimento normalizado, adotando um conjunto de tarefas e um formato de apresentação de resultados que permita disseminar o conceito e tornar a ferramenta mais “utilizável”. Por outro lado, procurou-se dotar o procedimento com um conjunto de indicações que permitem ultrapassar limitações e inconvenientes apontados pelos críticos mas também utilizadores do método, nomeadamente: problemas de dupla contagem, cálculo da incerteza da análise e critérios de qualidade da informação utilizada. O modelo dos sistemas de gestão normalizados apresenta um papel central na metodologia proposta. O conceito de “melhoria contínua” afigura-se como fundamental num sistema que pretende implementar o conceito “desenvolvimento sustentável” e avaliar o seu desempenho à luz do mesmo. Assim, o ciclo Plan-Do-check-Act (PDCA) deve ser utilizado para implementar o SGS de acordo com uma Política para a Sustentabilidade que a organização deve desenvolver. Definida a Política, o modelo baseia-se então no ciclo PDCA: fase de planeamento; fase de implementação; fase de verificação; e fase de revisão. É na fase de planeamento do SGS que se sugere a introdução das outras duas ferramentas: a análise emergética (AEm) e o BSC. A fase de planeamento do modelo de SGS proposto neste trabalho foi aplicada à Universidade de Aveiro (UA), incluindo a definição de uma Política para a Sustentabilidade e o planeamento estratégico e operacional. A avaliação emergética à UA foi realizada recorrendo ao procedimento desenvolvido nesta tese e permitiu caracterizar e avaliar os fluxos de recursos que a “alimentam” sob uma só unidade, atribuindo deste modo graus de importância aos diferentes recursos utilizados. A informação representa 96% do total de recursos utilizados na UA, quando avaliados sob o ponto de vista emergética. Para além da informação, os fluxos financeiros representam a maior fatia do orçamento emergético da UA, grande parte dos quais serve para sustentar os serviços prestados pelo corpo docente da UA. Analisando valores históricos de 3 indicadores de desempenho emergético, observa-se que a UA não regista uma evolução positiva em nenhum dos indicadores: a emergia utilizada nos edifícios tem-se mantido mais ou menos constante; a retribuição emergética da UA para a sociedade, avaliada sobre a forma de diplomados, tem diminuído; e a relação emergética entre professores e alunos tem também diminuído, facto que pode refletir-se na qualidade dos “produtos” da UA. Da aplicação do SGS à UA regista-se: a adequabilidade do ciclo PDCA à implementação de um SGS; a capacidade da AEm “obrigar” a organização a adotar uma abordagem sistémica da sua atividade, resultando numa visão mais aprofundada da sua relação com o contexto ambiental, económico e social em que se insere; a importância da visão estratégica e da sua tradução em termos operacionais na fase de planeamento de um SGS; e, por fim, a capacidade de adaptação e dupla funcionalidade (implementação e avaliação) do modelo de SGS proposto. A metodologia de SGS proposta nesta tese, sendo direcionada para todo o tipo de organizações, não se desvirtua quando aplicada ao contexto específico das instituições de ensino superior e permite implementar e avaliar o conceito “desenvolvimento sustentável” nas quatro dimensões da universidade (Educação, Investigação, Operação; Relação com as partes interessadas).
Resumo:
This investigation focused on the development, test and validation of methodologies for mercury fractionation and speciation in soil and sediment. After an exhaustive review of the literature, several methods were chosen and tested in well characterised soil and sediment samples. Sequential extraction procedures that divide mercury fractions according to their mobility and potential availability in the environment were investigated. The efficiency of different solvents for fractionation of mercury was evaluated, as well as the adequacy of different analytical instruments for quantification of mercury in the extracts. Kinetic experiments to establish the equilibrium time for mercury release from soil or sediment were also performed. It was found that in the studied areas, only a very small percentage of mercury is present as mobile species and that mobility is associated to higher aluminium and manganese contents, and that high contents of organic matter and sulfur result in mercury tightly bound to the matrix. Sandy soils tend to release mercury faster that clayey soils, and therefore, texture of soil or sediment has a strong influence on the mobility of mercury. It was also understood that analytical techniques for quantification of mercury need to be further developed, with lower quantification limits, particularly for mercury quantification of less concentrated fractions: water-soluble e exchangeable. Although the results provided a better understanding of the distribution of mercury in the sample, the complexity of the procedure limits its applicability and robustness. A proficiency-testing scheme targeting total mercury determination in soil, sediment, fish and human hair was organised in order to evaluate the consistency of results obtained by different laboratories, applying their routine methods to the same test samples. Additionally, single extractions by 1 mol L-1 ammonium acetate solution, 0.1 mol L-1 HCl and 0.1 mol L-1 CaCl2, as well as extraction of the organometallic fraction were proposed for soil; the last was also suggested for sediment and fish. This study was important to update the knowledge on analytical techniques that are being used for mercury quantification, the associated problems and sources of error, and to improve and standardize mercury extraction techniques, as well as to implement effective strategies for quality control in mercury determination. A different, “non chemical-like” method for mercury species identification was developed, optimised and validated, based on the thermo-desorption of the different mercury species. Compared to conventional extraction procedures, this method has advantages: it requires little to no sample treatment; a complete identification of species present is obtained in less than two hours; mercury losses are almost neglectable; can be considered “clean”, as no residues are produced; the worldwide comparison of results obtained is easier and reliable, an important step towards the validation of the method. Therefore, the main deliverables of this PhD thesis are an improved knowledge on analytical procedures for identification and quantification of mercury species in soils and sediments, as well as a better understanding of the factors controlling the behaviour of mercury in these matrices.
Resumo:
Este trabalho de investigação foi realizado com o objetivo geral de se descobrir quais são os Fatores Críticos de Sucesso e os aspectos chaves de qualidade e sustentabilidade, a serem considerados no ensino de Engenharia de Produção em um IES privada no Brasil. No presente estudo de caso executou-se uma revisão teórica sistemática nas áreas temáticas da pesquisa, que propiciou a criação de um framework que define os 7 Fatores Críticos de Sucesso ao ensino de Engenharia de Produção, apontando sua divisão nas áreas de qualidade e sustentabilidade, e, por fim, a subdivisão em 6 subáreas de ações operacionais a serem consideradas pela gestão de IES para alcançar melhorias de desempenho em suas atividades. Posteriormente ao levantamento teórico, foi realizado o estudo de caso propriamente dito, que dividiu-se em duas etapas, uma qualitativa e uma quantitativa. Na primeira elaborou-se um roteiro de entrevista em profundidade aplicada a um terço do corpo docente do curso em estudo, captando a impressão destes sobre as temáticas em estudo voltadas à execução de suas atividades. Os dados obtidos foram organizados com o auxílio do software WebQDA, gerando ideias do que deve ser trabalhado para melhorar as condições e resultados do referido curso. A etapa quantitativa foi iniciada com a elaboração de um questionário on-line, desenvolvido a partir do enquadramento teórico e da informação obtida na parte qualitativa do estudo, que envolveu respostas de cerca de dois terços dos discentes de Engenharia de Produção. A informação foi recolhida através de um formulário disponibilizado pelo googledocs, e os resultados foram analisados com o auxílio do software SPSS, permitindo conhecer as expectativas e percepções dos alunos e, consequentemente, os gaps provenientes a serem trabalhados. Finalmente, o estudo revelou que para aspectos de qualidade, os pontos de tangibilidade, como infraestrutura geral, laboratórios técnicos específicos, cantina e biblioteca, precisam ser melhorados, e, para aspectos de sustentabilidade, surge a necessidade de melhorar as formas de divulgação do curso, captação de alunos e propostas para a retenção dos mesmos para outros cursos e projetos da IES. Deste modo, o trabalho desenvolvido atingiu seu objetivo e se mostrou válido para aplicações na IES e em outros cursos da mesma (com as devidas adaptações). Fica como recomendação final aplicar o estudo periodicamente para se captar as mudanças situacionais que ocorrerem, manter um controle eficiente dos aspectos estudados e gerar melhorias contínuas no curso estudado e na própria IES.
Resumo:
The ever-growing energy consumption in mobile networks stimulated by the expected growth in data tra ffic has provided the impetus for mobile operators to refocus network design, planning and deployment towards reducing the cost per bit, whilst at the same time providing a signifi cant step towards reducing their operational expenditure. As a step towards incorporating cost-eff ective mobile system, 3GPP LTE-Advanced has adopted the coordinated multi-point (CoMP) transmission technique due to its ability to mitigate and manage inter-cell interference (ICI). Using CoMP the cell average and cell edge throughput are boosted. However, there is room for reducing energy consumption further by exploiting the inherent exibility of dynamic resource allocation protocols. To this end packet scheduler plays the central role in determining the overall performance of the 3GPP longterm evolution (LTE) based on packet-switching operation and provide a potential research playground for optimizing energy consumption in future networks. In this thesis we investigate the baseline performance for down link CoMP using traditional scheduling approaches, and subsequently go beyond and propose novel energy e fficient scheduling (EES) strategies that can achieve power-e fficient transmission to the UEs whilst enabling both system energy effi ciency gain and fairness improvement. However, ICI can still be prominent when multiple nodes use common resources with di fferent power levels inside the cell, as in the so called heterogeneous networks (Het- Net) environment. HetNets are comprised of two or more tiers of cells. The rst, or higher tier, is a traditional deployment of cell sites, often referred to in this context as macrocells. The lower tiers are termed small cells, and can appear as microcell, picocells or femtocells. The HetNet has attracted signiffi cant interest by key manufacturers as one of the enablers for high speed data at low cost. Research until now has revealed several key hurdles that must be overcome before HetNets can achieve their full potential: bottlenecks in the backhaul must be alleviated, as well as their seamless interworking with CoMP. In this thesis we explore exactly the latter hurdle, and present innovative ideas on advancing CoMP to work in synergy with HetNet deployment, complemented by a novel resource allocation policy for HetNet tighter interference management. As system level simulator has been used to analyze the proposed algorithm/protocols, and results have concluded that up to 20% energy gain can be observed.
Resumo:
Wireless communication technologies have become widely adopted, appearing in heterogeneous applications ranging from tracking victims, responders and equipments in disaster scenarios to machine health monitoring in networked manufacturing systems. Very often, applications demand a strictly bounded timing response, which, in distributed systems, is generally highly dependent on the performance of the underlying communication technology. These systems are said to have real-time timeliness requirements since data communication must be conducted within predefined temporal bounds, whose unfulfillment may compromise the correct behavior of the system and cause economic losses or endanger human lives. The potential adoption of wireless technologies for an increasingly broad range of application scenarios has made the operational requirements more complex and heterogeneous than before for wired technologies. On par with this trend, there is an increasing demand for the provision of cost-effective distributed systems with improved deployment, maintenance and adaptation features. These systems tend to require operational flexibility, which can only be ensured if the underlying communication technology provides both time and event triggered data transmission services while supporting on-line, on-the-fly parameter modification. Generally, wireless enabled applications have deployment requirements that can only be addressed through the use of batteries and/or energy harvesting mechanisms for power supply. These applications usually have stringent autonomy requirements and demand a small form factor, which hinders the use of large batteries. As the communication support may represent a significant part of the energy requirements of a station, the use of power-hungry technologies is not adequate. Hence, in such applications, low-range technologies have been widely adopted. In fact, although low range technologies provide smaller data rates, they spend just a fraction of the energy of their higher-power counterparts. The timeliness requirements of data communications, in general, can be met by ensuring the availability of the medium for any station initiating a transmission. In controlled (close) environments this can be guaranteed, as there is a strict regulation of which stations are installed in the area and for which purpose. Nevertheless, in open environments, this is hard to control because no a priori abstract knowledge is available of which stations and technologies may contend for the medium at any given instant. Hence, the support of wireless real-time communications in unmanaged scenarios is a highly challenging task. Wireless low-power technologies have been the focus of a large research effort, for example, in the Wireless Sensor Network domain. Although bringing extended autonomy to battery powered stations, such technologies are known to be negatively influenced by similar technologies contending for the medium and, especially, by technologies using higher power transmissions over the same frequency bands. A frequency band that is becoming increasingly crowded with competing technologies is the 2.4 GHz Industrial, Scientific and Medical band, encompassing, for example, Bluetooth and ZigBee, two lowpower communication standards which are the base of several real-time protocols. Although these technologies employ mechanisms to improve their coexistence, they are still vulnerable to transmissions from uncoordinated stations with similar technologies or to higher power technologies such as Wi- Fi, which hinders the support of wireless dependable real-time communications in open environments. The Wireless Flexible Time-Triggered Protocol (WFTT) is a master/multi-slave protocol that builds on the flexibility and timeliness provided by the FTT paradigm and on the deterministic medium capture and maintenance provided by the bandjacking technique. This dissertation presents the WFTT protocol and argues that it allows supporting wireless real-time communication services with high dependability requirements in open environments where multiple contention-based technologies may dispute the medium access. Besides, it claims that it is feasible to provide flexible and timely wireless communications at the same time in open environments. The WFTT protocol was inspired on the FTT paradigm, from which higher layer services such as, for example, admission control has been ported. After realizing that bandjacking was an effective technique to ensure the medium access and maintenance in open environments crowded with contention-based communication technologies, it was recognized that the mechanism could be used to devise a wireless medium access protocol that could bring the features offered by the FTT paradigm to the wireless domain. The performance of the WFTT protocol is reported in this dissertation with a description of the implemented devices, the test-bed and a discussion of the obtained results.
Resumo:
Forest fires implications in overland flow and soil erosion have been researched for several years. Therefore, is widely known that fires enhance hydrological and geomorphological activity worldwide as also in Mediterranean areas. Soil burn severity has been widely used to describe the impacts of fire on soils, and has being recognized as a decisive factor controlling post-fire erosion rates. However, there is no unique definition of the term and the relationship between soil burn severity and post-fire hydrological and erosion response has not yet been fully established. Few studies have assessed post-fire erosion over multiple years, and the authors are aware of none which assess runoff. Small amount of studies concerning pre-fire management practices were also found. In the case of soil erosion models, the Revised Universal Soil Loss Equation (RUSLE) and the revised Morgan–Morgan–Finney (MMF) are well-known models, but not much information is available as regards their suitability in predicting post-fire soil erosion in forest soils. The lack of information is even more pronounced as regards post-fire rehabilitation treatments. The aim of the thesis was to perform an extensive research under the post fire hydrologic and erosive response subject. By understanding the effect of burn severity in ecosystems and its implications regarding post fire hydrological and erosive responses worldwide. Test the effect of different pre-fire land management practices (unplowed, downslope plowed and contour plowed) and time-since-fire, in the post fire hydrological and erosive response, between the two most common land uses in Portugal (pine and eucalypt). Assess the performance of two widely-known erosion models (RUSLE and Revised MMF), to predict soil erosion rates during first year following two wildfires of distinctive burn severity. Furthermore, to apply these two models considering different post-fire rehabilitation treatments in an area severely affected by fire. Improve model estimations of post-fire runoff and erosion rates in two different land uses (pine and eucalypt) using the revised MMF. To assess these improvements by comparing estimations and measurements of runoff and erosion, in two recently burned sites, as also with their post fire rehabilitation treatments. Model modifications involved: (1) focusing on intra-annual changes in parameters to incorporate seasonal differences in runoff and erosion; and (2) inclusion of soil water repellency in runoff predictions. Additionally, validate these improvements with the application of the model to other pine and eucalypt sites in Central Portugal. The review and meta-analysis showed that fire occurrence had a significant effect on the hydrological and erosive response. However, this effect was only significantly higher with increasing soil burn severity for inter-rill erosion, and not for runoff. This study furthermore highlighted the incoherencies between existing burn severity classifications, and proposed an unambiguous classification. In the case of the erosion plots with natural rainfall, land use factor affected annual runoff while land management affected both annual runoff and erosion amounts significantly. Time-since-fire had an important effect in erosion amounts among unplowed sites, while for eucalypt sites time affected both annual runoff and erosion amounts. At all studied sites runoff coefficients increase over the four years of monitoring. In the other hand, sediment concentration in the runoff, recorded a decrease during the same period. Reasons for divergence from the classic post-fire recovery model were also explored. Short fire recurrence intervals and forest management practices are viewed as the main reasons for the observed severe and continuing soil degradation. The revised MMF model presented reasonable accuracy in the predictions while the RUSLE clearly overestimated the observed erosion rates. After improvements: the revised model was able to predict first-year post-fire plot-scale runoff and erosion rates for both forest types, these predictions were improved both by the seasonal changes in the model parameters; and by considering the effect of soil water repellency on the runoff, individual seasonal predictions were considered accurate, and the inclusion of the soil water repellency in the model also improved the model at this base. The revised MMF model proved capable of providing a simple set of criteria for management decisions about runoff and erosion mitigation measures in burned areas. The erosion predictions at the validation sites attested both to the robustness of the model and of the calibration parameters, suggesting a potential wider application.