12 resultados para Infraestrutura
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
Portugal é um dos países europeus com melhor cobertura espacial e populacional de rede de autoestradas (5º entre os 27 da UE). O acentuado crescimento desta rede nos últimos anos leva a que seja necessária a utilização de metodologias de análise e avaliação da qualidade do serviço que é prestado nestas infraestruturas, relativamente às condições de circulação. Usualmente, a avaliação da qualidade de serviço é efetuada por intermédio de metodologias internacionalmente aceites, das quais se destaca a preconizada no Highway Capacity Manual (HCM). É com esta última metodologia que são habitualmente determinados em Portugal, os níveis de serviço nas diversas componentes de uma autoestrada (secções correntes, ramos de ligação e segmentos de entrecruzamento). No entanto, a sua transposição direta para a realidade portuguesa levanta algumas reservas, uma vez que os elementos que compõem o ambiente rodoviário (infraestrutura, veículo e condutor) são distintos dos da realidade norte-americana para a qual foi desenvolvida. Assim, seria útil para os atores envolvidos no setor rodoviário dispor de metodologias desenvolvidas para as condições portuguesas, que possibilitassem uma caracterização mais realista da qualidade de serviço ao nível da operação em autoestradas. No entanto, importa referir que o desenvolvimento de metodologias deste género requer uma quantidade muito significativa de dados geométricos e de tráfego, o que acarreta uma enorme necessidade de meios, quer humanos, quer materiais. Esta abordagem é assim de difícil execução, sendo por isso necessário recorrer a metodologias alternativas para a persecução deste objetivo. Ultimamente tem-se verificado o uso cada vez mais generalizado de modelos de simulação microscópica de tráfego, que simulando o movimento individual dos veículos num ambiente virtual permitem realizar análises de tráfego. A presente dissertação apresenta os resultados obtidos no desenvolvimento de uma metodologia que procura recriar, através de simuladores microscópicos de tráfego, o comportamento das correntes de tráfego em secções correntes de autoestradas com o intuito de, posteriormente, se proceder à adaptação da metodologia preconizada no HCM (na sua edição de 2000) à realidade portuguesa. Para tal, com os simuladores microscópicos utilizados (AIMSUN e VISSIM) procurou-se reproduzir as condições de circulação numa autoestrada portuguesa, de modo a que fosse possível analisar as alterações sofridas no comportamento das correntes de tráfego após a modificação dos principais fatores geométricos e de tráfego envolvidos na metodologia do HCM 2000. Para o efeito, realizou-se uma análise de sensibilidade aos simuladores de forma a avaliar a sua capacidade para representar a influência desses fatores, com vista a, numa fase posterior, se quantificar o seu efeito para a realidade nacional e dessa forma se proceder à adequação da referida metodologia ao contexto português. Em resumo, o presente trabalho apresenta as principais vantagens e limitações dos microssimuladores AIMSUN e VISSIM na modelação do tráfego de uma autoestrada portuguesa, tendo-se concluído que estes simuladores não são capazes de representar de forma explícita alguns dos fatores considerados na metodologia do HCM 2000, o que impossibilita a sua utilização como ferramenta de quantificação dos seus efeitos e consequentemente inviabiliza a adaptação dessa metodologia à realidade nacional. São, no entanto, referidas algumas indicações de como essas limitações poderão vir a ser ultrapassadas, com vista à consecução futura dessa adequação.
Resumo:
Socio-economic changes, alterations in societal expectations and new public policies have put pressures on higher education public funding, bringing the issue of funding diversification to the forefront. Income diversification, namely, generation of funds from private, as well as from competitive public sources, has become increasingly important in European higher education due to a complex financial environment and perceived deficit of innovation transfer. Although there are numerous studies about changes in national funding systems and allocation mechanisms, few have focused on diversification of funding sources, especially in the European context, making Portugal no exception. Thus, this study aims at exploring income diversification at the institutional level and its influence on the internal organisational structures. For this purpose two Portuguese public universities were chosen as case studies. The empirical material was collected through semi-structured interviews with top management and middle management of each university and through documentary analysis. Data analysis demonstrated that both universities are in the process of institutionalizing and formalising practices of income diversification, notably by getting more professional in how they are dealing with external stakeholders, such as businesses, local community, and students. However, the study also revealed that there is no formal, organised strategy to deal with income diversification. In general, the universities are reacting to external demands rather than pro-actively exploring opportunities. In this respect, the analysis determined several factors that promote or inhibit income diversification activities. Quality and favourable organizational culture were named by the interviewees as the most relevant factors for successful income diversification. External factors such as legal arrangements and funding conditions were cited as major constraints. This research has also revealed that revenue diversification activities tend to develop along the continuum towards higher sophistication and systematisation of activities that are supported by a powerful infrastructure. Together with efforts at the institutional level, the role of government policies proves to be crucial in providing tools and incentives to higher education institutions and creating a harmonious higher education system.
Resumo:
Este trabalho de investigação foi realizado com o objetivo geral de se descobrir quais são os Fatores Críticos de Sucesso e os aspectos chaves de qualidade e sustentabilidade, a serem considerados no ensino de Engenharia de Produção em um IES privada no Brasil. No presente estudo de caso executou-se uma revisão teórica sistemática nas áreas temáticas da pesquisa, que propiciou a criação de um framework que define os 7 Fatores Críticos de Sucesso ao ensino de Engenharia de Produção, apontando sua divisão nas áreas de qualidade e sustentabilidade, e, por fim, a subdivisão em 6 subáreas de ações operacionais a serem consideradas pela gestão de IES para alcançar melhorias de desempenho em suas atividades. Posteriormente ao levantamento teórico, foi realizado o estudo de caso propriamente dito, que dividiu-se em duas etapas, uma qualitativa e uma quantitativa. Na primeira elaborou-se um roteiro de entrevista em profundidade aplicada a um terço do corpo docente do curso em estudo, captando a impressão destes sobre as temáticas em estudo voltadas à execução de suas atividades. Os dados obtidos foram organizados com o auxílio do software WebQDA, gerando ideias do que deve ser trabalhado para melhorar as condições e resultados do referido curso. A etapa quantitativa foi iniciada com a elaboração de um questionário on-line, desenvolvido a partir do enquadramento teórico e da informação obtida na parte qualitativa do estudo, que envolveu respostas de cerca de dois terços dos discentes de Engenharia de Produção. A informação foi recolhida através de um formulário disponibilizado pelo googledocs, e os resultados foram analisados com o auxílio do software SPSS, permitindo conhecer as expectativas e percepções dos alunos e, consequentemente, os gaps provenientes a serem trabalhados. Finalmente, o estudo revelou que para aspectos de qualidade, os pontos de tangibilidade, como infraestrutura geral, laboratórios técnicos específicos, cantina e biblioteca, precisam ser melhorados, e, para aspectos de sustentabilidade, surge a necessidade de melhorar as formas de divulgação do curso, captação de alunos e propostas para a retenção dos mesmos para outros cursos e projetos da IES. Deste modo, o trabalho desenvolvido atingiu seu objetivo e se mostrou válido para aplicações na IES e em outros cursos da mesma (com as devidas adaptações). Fica como recomendação final aplicar o estudo periodicamente para se captar as mudanças situacionais que ocorrerem, manter um controle eficiente dos aspectos estudados e gerar melhorias contínuas no curso estudado e na própria IES.
Resumo:
Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.
Resumo:
Network virtualisation is seen as a promising approach to overcome the so-called “Internet impasse” and bring innovation back into the Internet, by allowing easier migration towards novel networking approaches as well as the coexistence of complementary network architectures on a shared infrastructure in a commercial context. Recently, the interest from the operators and mainstream industry in network virtualisation has grown quite significantly, as the potential benefits of virtualisation became clearer, both from an economical and an operational point of view. In the beginning, the concept has been mainly a research topic and has been materialized in small-scale testbeds and research network environments. This PhD Thesis aims to provide the network operator with a set of mechanisms and algorithms capable of managing and controlling virtual networks. To this end, we propose a framework that aims to allocate, monitor and control virtual resources in a centralized and efficient manner. In order to analyse the performance of the framework, we performed the implementation and evaluation on a small-scale testbed. To enable the operator to make an efficient allocation, in real-time, and on-demand, of virtual networks onto the substrate network, it is proposed a heuristic algorithm to perform the virtual network mapping. For the network operator to obtain the highest profit of the physical network, it is also proposed a mathematical formulation that aims to maximize the number of allocated virtual networks onto the physical network. Since the power consumption of the physical network is very significant in the operating costs, it is important to make the allocation of virtual networks in fewer physical resources and onto physical resources already active. To address this challenge, we propose a mathematical formulation that aims to minimize the energy consumption of the physical network without affecting the efficiency of the allocation of virtual networks. To minimize fragmentation of the physical network while increasing the revenue of the operator, it is extended the initial formulation to contemplate the re-optimization of previously mapped virtual networks, so that the operator has a better use of its physical infrastructure. It is also necessary to address the migration of virtual networks, either for reasons of load balancing or for reasons of imminent failure of physical resources, without affecting the proper functioning of the virtual network. To this end, we propose a method based on cloning techniques to perform the migration of virtual networks across the physical infrastructure, transparently, and without affecting the virtual network. In order to assess the resilience of virtual networks to physical network failures, while obtaining the optimal solution for the migration of virtual networks in case of imminent failure of physical resources, the mathematical formulation is extended to minimize the number of nodes migrated and the relocation of virtual links. In comparison with our optimization proposals, we found out that existing heuristics for mapping virtual networks have a poor performance. We also found that it is possible to minimize the energy consumption without penalizing the efficient allocation. By applying the re-optimization on the virtual networks, it has been shown that it is possible to obtain more free resources as well as having the physical resources better balanced. Finally, it was shown that virtual networks are quite resilient to failures on the physical network.
Resumo:
Desde que surgiu há mais de 50 anos, a televisão sofreu muitas transformações, tanto ao nível tecnológico (por exemplo com a passagem da emissão a preto/branco para cor, o som analógico para digital, a difusão digital) como a nível da sua influência nas sociedades. Entre outros fatores de ordem tecnológica, a consolidação da Internet com o seu elevado nível de personalização, da experiência de utilização, e a sua enorme quantidade de conteúdos disponíveis, catapultou a televisão no sentido de esta se tornar mais interativa. Assim, o telespectador passou a poder usufruir de uma experiência televisiva que pode, por um lado, ser mais participativa, sendo-lhe possível, por exemplo, alvitrar sobre a qualidade de um programa enquanto assiste à sua exibição, e, por outro, ser mais personalizada, possibilitando-lhe, por exemplo, receber conteúdos automaticamente adequados ao seu perfil e contexto. No entanto, esta experiência mais participativa e personalizável carece de uma identificação, idealmente automática e não intrusiva, de quem pode beneficiar da mesma – o telespectador. Contudo, e apesar de significativos avanços na área da televisão interativa, tanto ao nível da infraestrutura de suporte como ao nível dos serviços disponibilizados, a identificação dos utilizadores é, ainda, uma área de estudo com muitos aspetos por compreender. Os seniores, em particular, são grandes consumidores de televisão e representam uma fatia muito considerável das pessoas que podem beneficiar das potencialidades disponibilizadas pela interatividade presente em muitos serviços atuais. Um número crescente destes serviços são desenhados com o objetivo de promoverem um envelhecimento ativo e um concreto apoio à vida, pelo que os seniores podem beneficiar, em vários aspetos do seu quotidiano, se os utilizarem. Nesta faixa etária, a identificação de utilizadores tem, como elemento potenciador da experiência de utilização, um papel especialmente importante ao nível de um aproveitamento personalizado e dirigido destes serviços. No entanto, atendendo às diferentes combinações de características físicas, sensoriais, cognitivas e, mesmo, de literacia digital que tipificam os seniores, perspetivou-se existir uma dependência do perfil do utilizador na seleção do método de identificação mais adequado, os quais podem ser baseados, por exemplo, num leitor de impressões digitais, instalado no telecomando; na leitura de uma wearable tag ou de um cartão RFiD; no reconhecimento da face e, eventualmente, na voz do utilizador. Assim, a inerente investigação desenrolou-se em várias fases, no sentido de permitir alicerçar a construção de uma matriz de decisão tecnológica que, em função do perfil de utilizador, selecione o sistema de identificação mais adequado. O procedimento metodológico inerente à construção desta matriz de decisão, passou por um longo processo envolvendo utilizadores reais, que se iniciou com a realização de entrevistas exploratórias com o objetivo de permitir conhecer melhor os seniores e a forma como estes encaram a tecnologia e, mais concretamente, a televisão interativa. Foi depois implementado um protótipo de alta-fidelidade, completamente funcional, para a realização de testes com o objetivo de perceber qual a preferência relativamente a um subconjunto de tecnologias de identificação. Estes testes, uma vez que não permitiram testar todas as tecnologias em estudo, revelaram-se inconclusivos, porém permitiram reforçar a necessidade de identificar e caracterizar os referidos aspetos do perfil do utilizador que podem interferir na sua preferência relativamente ao sistema de identificação. As características identificadas constituíram-se como os parâmetros de entrada da matriz, sendo que para preencher as respetivas células realizaramse testes de aceitação, com um conjunto de seniores, tendo por base um protótipo, wizard of oz, especificamente implementado para permitir experienciar todas as tecnologias em estudo. Estes testes foram precedidos pela avaliação das capacidades funcionais dos participantes, nos diversos parâmetros definidos. Este texto relata, assim, todo o processo de investigação que foi conduzido, terminando com uma descrição de exemplos de utilização da matriz de decisão implementada e com a identificação de potenciais caminhos de desenvolvimento deste trabalho.
Resumo:
A Internet tem conseguido mudar os limites das interações sociais e económicas, por fornecer uma infraestrutura robusta para comunicação sem constrangimento de distâncias no tempo e no espaço, que pode ser usada em diversas formas para acumulação e arquivo de recursos de conhecimento. Esta revolução da Internet levou a uma difusão sem precedentes de comunidades virtuais em que os consumidores participam e expressam as suas opiniões sobre os produtos e serviços que consomem ou pretendem consumir. O presente trabalho pretende explorar a temática das comunidades virtuais como fator de inovação, tendo como base o estudo de caso de uma comunidade virtual ligada ao setor do vinho, procurando compreender até que ponto as comunidades virtuais podem contribuir para a evolução dos produtos ou mesmo para a criação de novos produtos. O trabalho inicia-se com a revisão da literatura em torno do conhecimento, internet, comunidades virtuais, lead users e o processo de inovação, crowdsourcing e a cocriação no processo de desenvolvimento de novos produtos. Conclui-se que as empresas podem construir estratégias que permitam uma canalização da informação proporcionada pelos consumidores e Lead Users, procurando, por exemplo, utilização de ferramentas de crowdsourcing. Segue-se a aplicação de uma estratégia de investigação qualitativa, o estudo de caso, à página no Facebook Vinhos do Alentejo, em que se analisa uma comunidade de consumidores de vinhos do Alentejo que proporciona ideias de melhoria do produto ou da experiência de consumo. A recolha dos dados dessa página e a análise de conteúdo foram apoiadas pelo NVivo 10. Como principais resultados destacam-se a utilização desta página como ferramenta de marketing, na divulgação dos vinhos, da gastronomia, da região do Alentejo e ainda a obtenção de experiências preferidas de consumo dos vinhos.
Resumo:
Interest on using teams of mobile robots has been growing, due to their potential to cooperate for diverse purposes, such as rescue, de-mining, surveillance or even games such as robotic soccer. These applications require a real-time middleware and wireless communication protocol that can support an efficient and timely fusion of the perception data from different robots as well as the development of coordinated behaviours. Coordinating several autonomous robots towards achieving a common goal is currently a topic of high interest, which can be found in many application domains. Despite these different application domains, the technical problem of building an infrastructure to support the integration of the distributed perception and subsequent coordinated action is similar. This problem becomes tougher with stronger system dynamics, e.g., when the robots move faster or interact with fast objects, leading to tighter real-time constraints. This thesis work addressed computing architectures and wireless communication protocols to support efficient information sharing and coordination strategies taking into account the real-time nature of robot activities. The thesis makes two main claims. Firstly, we claim that despite the use of a wireless communication protocol that includes arbitration mechanisms, the self-organization of the team communications in a dynamic round that also accounts for variable team membership, effectively reduces collisions within the team, independently of its current composition, significantly improving the quality of the communications. We will validate this claim in terms of packet losses and communication latency. We show how such self-organization of the communications can be achieved in an efficient way with the Reconfigurable and Adaptive TDMA protocol. Secondly, we claim that the development of distributed perception, cooperation and coordinated action for teams of mobile robots can be simplified by using a shared memory middleware that replicates in each cooperating robot all necessary remote data, the Real-Time Database (RTDB) middleware. These remote data copies, which are updated in the background by the selforganizing communications protocol, are extended with age information automatically computed by the middleware and are locally accessible through fast primitives. We validate our claim showing a parsimonious use of the communication medium, improved timing information with respect to the shared data and the simplicity of use and effectiveness of the proposed middleware shown in several use cases, reinforced with a reasonable impact in the Middle Size League of RoboCup.
Resumo:
This thesis describes the design and implementation of a reliable centimeter-level indoor positioning system fully compatible with a conventional smartphone. The proposed system takes advantage of the smartphone audio I/O and processing capabilities to perform acoustic ranging in the audio band using non-invasive audio signals and it has been developed having in mind applications that require high accuracy, such as augmented reality, virtual reality, gaming and audio guides. The system works in a distributed operation mode, i.e. each smartphone is able to obtain its own position using only acoustic signals. To support the positioning system, a Wireless Sensor Network (WSN) of synchronized acoustic beacons is used. To keep the infrastructure in sync we have developed an Automatic Time Synchronization and Syntonization (ATSS) protocol with a standard deviation of the sync offset error below 1.25 μs. Using an improved Time Difference of Arrival (TDoA) estimation approach (which takes advantage of the beacon signals’ periodicity) and by performing Non-Line-of-Sight (NLoS) mitigation, we were able to obtain very stable and accurate position estimates with an absolute mean error of less than 10 cm in 95% of the cases and a mean standard deviation of 2.2 cm for a position refresh period of 350 ms.
Resumo:
Advances in FPGA technology and higher processing capabilities requirements have pushed to the emerge of All Programmable Systems-on-Chip, which incorporate a hard designed processing system and a programmable logic that enable the development of specialized computer systems for a wide range of practical applications, including data and signal processing, high performance computing, embedded systems, among many others. To give place to an infrastructure that is capable of using the benefits of such a reconfigurable system, the main goal of the thesis is to implement an infrastructure composed of hardware, software and network resources, that incorporates the necessary services for the operation, management and interface of peripherals, that coompose the basic building blocks for the execution of applications. The project will be developed using a chip from the Zynq-7000 All Programmable Systems-on-Chip family.
Resumo:
Nowadays there is a huge evolution in the technological world and in the wireless networks. The electronic devices have more capabilities and resources over the years, which makes the users more and more demanding. The necessity of being connected to the global world leads to the arising of wireless access points in the cities to provide internet access to the people in order to keep the constant interaction with the world. Vehicular networks arise to support safety related applications and to improve the traffic flow in the roads; however, nowadays they are also used to provide entertainment to the users present in the vehicles. The best way to increase the utilization of the vehicular networks is to give to the users what they want: a constant connection to the internet. Despite of all the advances in the vehicular networks, there were several issues to be solved. The presence of dedicated infrastructure to vehicular networks is not wide yet, which leads to the need of using the available Wi-Fi hotspots and the cellular networks as access networks. In order to make all the management of the mobility process and to keep the user’s connection and session active, a mobility protocol is needed. Taking into account the huge number of access points present at the range of a vehicle for example in a city, it will be beneficial to take advantage of all available resources in order to improve all the vehicular network, either to the users and to the operators. The concept of multihoming allows to take advantage of all available resources with multiple simultaneous connections. This dissertation has as objectives the integration of a mobility protocol, the Network-Proxy Mobile IPv6 protocol, with a host-multihoming per packet solution in order to increase the performance of the network by using more resources simultaneously, the support of multi-hop communications, either in IPv6 or IPv4, the capability of providing internet access to the users of the network, and the integration of the developed protocol in the vehicular environment, with the WAVE, Wi-Fi and cellular technologies. The performed tests focused on the multihoming features implemented on this dissertation, and on the IPv4 network access for the normal users. The obtained results show that the multihoming addition to the mobility protocol improves the network performance and provides a better resource management. Also, the results show the correct operation of the developed protocol in a vehicular environment.
Resumo:
A gasificação de biomassa permite a produção de um gás combustível com capacidade para reduzir o consumo de combustíveis fósseis. Contudo, para promover a utilização deste processo a nível industrial é necessário ultrapassar diversas limitações e elaborar tecnologias de gasificação que sejam mais rentáveis e eficientes. No presente trabalho efetuou-se a gasificação direta com ar, num reator auto-térmico com um leito fluidizado borbulhante, de diferentes tipos de biomassa provenientes da floresta portuguesa, nomeadamente pellets de madeira e diferentes tipos de biomassa florestal residual derivada de eucalipto. A investigação foi realizada numa instalação à escala piloto localizada no Departamento de Ambiente e Ordenamento da Universidade de Aveiro. A infraestrutura foi desenvolvida de modo a permitir o estudo do processo de gasificação de biomassa. O reator utilizado apresenta 3 metros de altura, consistindo a câmara de gasificação em 2.25 metros, 0.25 metros de diâmetro interno e uma potência entre 40 e 70 kWth. O leito é composto por areia (partículas com granulometria entre os 355 e 1000 µm) e tem uma altura de 0.23 m. A infraestrutura experimental oferece condições para efetuar a gasificação de biomassa, determinar a composição do gás produzido em termos de CO, CO2, H2, N2, CH4 e C2H4 e efetuar a sua combustão num queimador localizado a jusante do reator. O leito fluidizado operou com temperaturas médias entre os 700 e 850ºC. Para as razões de equivalência estabelecidas, entre 0.17 e 0.36, o gás seco apresentou uma composição que, em termos volumétricos e em função das condições operatórias, variou entre 14.0 a 21.4% CO, 14.2 a 17.5% CO2, 3.6 a 5.8% CH4, 1.3 a 2.4% C2H4, 2.0 a 10.2% H2 e 48.9 a 61.1% N2. A maior concentração de CO, CH4 e C2H4 foi observada durante a gasificação de biomassa residual florestal derivada de eucalipto com razão de equivalência de 0.17, contudo, a maior concentração de H2 foi obtida na gasificação de pellets de madeira com razão de equivalência de 0.25. Tendo em conta a composição gasosa, o poder calorífico inferior do gás seco encontrou-se entre 4.4 e 6.9 MJ/Nm3 e os valores mais elevados foram observados durante os processos de gasificação efetuados com menor razão de equivalência. A produção específica de gás variou entre 1.2 e 2.2 Nm3/kg biomassa bs, a eficiência do gás arrefecido entre 41.1 e 62.6% e a eficiência de conversão de carbono entre 60.0 e 87.5%, encontrando-se na gama dos valores reportados na literatura. A melhor condição, em termos da eficiência de gás arrefecido, consistiu na gasificação de biomassa residual florestal derivada de eucalipto com razão de equivalência de 0.25, e em termos da produção específica de gás seco e eficiência de conversão de carbono, na gasificação de biomassa residual florestal derivada de eucalipto com razão de equivalência de 0.35. Contudo, o gás com maior poder calorífico inferior foi obtido durante a gasificação de biomassa residual florestal derivada de eucalipto com razão de equivalência de 0.17. O reator demonstrou adequabilidade na gasificação de diferentes tipos de biomassa e foram observadas condições estáveis de operação, tanto em termos de temperatura como da composição do gás produzido. Geralmente, o gás apresentou propriedades combustíveis apropriadas para ser comburido de forma contínua e estável pelo queimador de gás, sem ser necessária uma fonte de ignição permanente ou a utilização de um combustível auxiliar.