18 resultados para CAPEX
Resumo:
While the role of executives’ cognition in organisations’ responses to change is a central topic in strategic cognition research, changes in firms’ environment are typically not measured directly but described either as an event (for example, new industry legislation) or represented by a time period (e.g. when a new technology impacted an industry). The Australian mining sector has witnessed a historically significant change in demand for its products and we begin by developing measures of changes in supply and demand for key commodities during the period 1992-2008. We identify sub-groups of firms based on their activities and commodity sector and examine the relation of these variables to executives’ cognition and to firms’ CapEx. We find industry, firm and cognitive variables are related to both strategic cognition and firms’ CapEx.
Resumo:
The present Master dissertation is a project whose main objective is to identify value creation opportunities through fuel switching in the Portuguese industry, services, agriculture and fishing sectors. Fuel switching opportunities are characterized by type of fuel transition, type of technology transition, economy subsectors prone to have fuel switching and value created through fuel shift. Results suggest tomato concentrate, dairy, beer manufacturing and sugar refining subsectors is where prevalence of fuel oil steam boilers is high, for such cases conversion to natural gas steam boilers should result in operations having a ratio of NPV over CAPEX larger than ten and a payback period just under one year. Results further suggest food, beverages, textile, chemicals and wood subsectors currently operate between ten and twenty cogeneration Diesel engines that can be either modified to operate with natural gas or replaced by new natural gas cogeneration systems. Financial modeling indicates that both options have great value creation potential. The current analysis aims to be used by natural gas suppliers and energy project promoters to identify new potential deals as well as by heavy energy consumers to mitigate their energy related costs.
Resumo:
The Guernsey post office stamps consist of 2 exhibition series souvenir sheets commemorating Major-General Sir Issac Brock, 1769-1812. The stamp was issued in 1996 to celebrate Guernsey’s attendance at Canada’s international stamp exhibition CAPEX 96. The stamps issued by the United States postal service consist of 1 sheet of stamps commemorating the 50th anniversary of the Peace Bridge, 1927-1977. The stamps issued by Canada Post include 5 commemorative day-of-issue envelopes with stamps featuring William Hamilton Merritt and the Welland Canal. This stamp was issued in 1974 to celebrate the 150th anniversary of the canal. There is also a set of 4 inscription corner blocks of stamps. These items are contained in an envelope addressed to Mr. J.N. Jackson, St. Catharines, ON. There is also a separate sheet of the same stamp. Also issued by Canada Post are 2 full sheets of stamps, one commemorating the 50th anniversary of the Peace Bridge (1927-1977), and one commemorating 25 years of the St. Lawrence Seaway (1959-1984). Lastly, there are 2 full sheets of stamps commemorating the 100th anniversary of the Royal Henley Regatta, issued in 1982.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
India is the largest producer and processor of cashew in the world. The export value of cashew is about Rupees 2600 crore during 2004-05. Kerala is the main processing and exporting center of cashew. In Kerala most of the cashew processing factories are located in Kollam district. The industry provides livelihood for about 6-7 lakhs of employees and farmers, the cashew industry has national importance. In Kollam district alone there are more than 2.5 lakhs employees directly involved in the industry, which comes about 10 per cent of the population of the district, out of which 95 per cent are women workers. It is a fact that any amount received by a woman worker will be utilized directly for the benefit of the family and hence the link relating to family welfare is quite clear. Even though the Government of Kerala has incorporated the Kerala State Cashew Development Corporation (KSCDC) and Kerala State Cashew Workers Apex Industrial Co—operative Society (CAPEX) to develop the Cashew industry, the cashew industry and ancillary industries did not grow as per the expectation. In this context, an attempt has been made to analyze the problems and potential of the industry so as to make the industry viable and sustainable for the perpetual employment and income generation as well as the overall development of the Kollam district.
Resumo:
Over the useful life of a LAN, network downtimes will have a negative impact on organizational productivity not included in current Network Topological Design (NTD) problems. We propose a new approach to LAN topological design that includes the impact of these productivity losses into the network design, minimizing not only the CAPEX but also the expected cost of unproductiveness attributable to network downtimes over a certain period of network operation.
Resumo:
Este trabalho tem por objetivo explicar os motivos do recente aumento das ofertas públicas iniciais de ações no Brasil. Utilizando uma amostra de 101 empresas, em 10 setores da economia listados na BOVESPA durante os anos de 1999 a 2008, foram encontradas evidências de que a razão market-to-book e os gastos com investimento (CAPEX) influenciam positivamente a probabilidade de abertura de capital (análise exante). Numa análise complementar (ex-post), pode-se observar um crescimento nos gastos com capital (capital expenditures) nos anos subseqüentes à oferta pública inicial, reflexo dos altos investimentos necessários nos setores em questão e das oportunidades de crescimento futuras. Os IPO’s também são acompanhados por uma redução no retorno sobre o ativo (índice “ROA”), em linha com estudos feitos nos mercados Europeu e Americano.
Resumo:
Os resultados obtidos possibilitam afirmar que as indústrias que mais investiram em Tecnologia de Informação (TI), no período de 2001 a 2011, obtiveram maior crescimento da sua receita operacional e resultados operacionais mais eficazes, comparadas com as indústrias que investiram menos no período. De acordo com o modelo proposto, para as empresas estudadas foi possível encontrar, no prazo de dois anos, um crescimento de 7% no resultado operacional para cada 1% a mais de investimentos em TI. Destaca-se o objetivo da pesquisa de identificar e analisar os impactos dos gastos e investimentos em tecnologia de informação no desempenho financeiro das indústrias brasileiras, para alcançá-lo, adotou-se um modelo de pesquisa que utilizou métricas contábeis-financeiras e indicadores de uso TI, bem como a combinação de técnicas estatísticas para as análises. O trabalho aprofunda e amplia as discussões existentes sobre a avaliação dos investimentos em TI e como aferir o impacto desta sobre o desempenho organizacional. O universo do estudo foi composto pelas companhias brasileiras, de capital aberto, do ramo industrial, com ações ativas na BOVESPA, totalizando 119 companhias. Por meio de uma survey obteve-se os dados complementares referentes aos gastos e investimentos em TI; os questionários semiestruturados foram encaminhados diretamente ao Gerente de TI (Chief Information Officer). Estes esforços na coleta de dados primários possibilitaram a obtenção de uma amostra bastante significativa, com 63 indústrias, ou seja, 53% da população estudada. Após coleta, a análise dos dados foi desenvolvida em três etapas: (1) Análise Fatorial (AF) para seleção de fatores de desempenho que resultou no final do processo em doze variáveis para o modelo da pesquisa; (2) Análise de Cluster (AC) que evidenciou três agrupamentos distintos de indústrias por suas características e desempenho e (3) Regressão Múltipla que adotou um modelo econométrico dinâmico, estimado pelo Método dos Momentos Generalizado (GMM), satisfazendo as condições do modelo de Arellano-Bond (1991). Salienta-se que o modelo proposto permitiu tratar de forma adequada metodologicamente as correlações espúrias, possibilitando identificar que os gastos e investimentos em TI, (IGTI t-2), de dois períodos anteriores impactaram no Resultado Operacional Atual, (ROPt), evidenciando o efeito tardio, ou lag effect. Além disso, foi constatado que outras variáveis de rentabilidade e liquidez impactam neste resultado, também adotando defasagem das variáveis. A principal variável de TI da pesquisa, o IGTI, é calculada pela soma de gastos e investimentos em TI anuais (OPEX/CAPEX), dividida pela Receita Operacional Líquida anual. Para pesquisas futuras, há a possibilidade de buscar medidas de avaliação por tipos (categorias) de investimento em TI, visando ao aprofundamento da análise destes impactos no desempenho setorizado (ligado a cada investimento) e da análise de clusters, adotando o modelo de análise da pesquisa.
Resumo:
Today, many leading organizations are undertaking extensive research on a very broad range of new and evolving optical networking technologies. These efforts carry particular significance, especially in light of the “postbubble” dynamics of the optical networking market and have led to the investigation of various cost-efficient optical technologies. Today’s telecom carriers operate several independent optical domains based on diverse technologies, control solutions, standards, and protocols, making interdomain and intercarrier interworking extremely difficult. Standardized interworking across diverse multigranularity network interfaces, and interoperability across disparate vendor equipments and carrier domains are crucial to provisioning end-to-end services and achieving cost-efficient network operation. Needless to say, having an interoperable and standard control plane across multidomain optical networks can benefit carriers through the availability of a wide selection of network elements, platforms, and multiple vendor solutions resulting in faster deployment and reduced CAPEX and OPEX charges.
Resumo:
The next-generation SONET metro network is evolving into a service-rich infrastructure. At the edge of such a network, multi-service provisioning platforms (MSPPs) provide efficient data mapping enabled by Generic Framing Procedure (GFP) and Virtual Concatenation (VC). The core of the network tends to be a meshed architecture equipped with Multi-Service Switches (MSSs). In the context of these emerging technologies, we propose a load-balancing spare capacity reallocation approach to improve network utilization in the next-generation SONET metro networks. Using our approach, carriers can postpone network upgrades, resulting in increased revenue with reduced capital expenditures (CAPEX). For the first time, we consider the spare capacity reallocation problem from a capacity upgrade and network planning perspective. Our approach can operate in the context of shared-path protection (with backup multiplexing) because it reallocates spare capacity without disrupting working services. Unlike previous spare capacity reallocation approaches which aim at minimizing total spare capacity, our load-balancing approach minimizes the network load vector (NLV), which is a novel metric that reflects the network load distribution. Because NLV takes into consideration both uniform and non-uniform link capacity distribution, our approach can benefit both uniform and non-uniform networks. We develop a greedy loadbalancing spare capacity reallocation (GLB-SCR) heuristic algorithm to implement this approach. Our experimental results show that GLB-SCR outperforms a previously proposed algorithm (SSR) in terms of established connection capacity and total network capacity in both uniform and non-uniform networks.
Resumo:
Following the collapse of the communist regime in 1989, Bulgaria has undergone dramatic political, economic and social transformations. The transition process of the past two decades was characterized by several reforms to support democratisation of the political system and the functioning of a free-market economy. Since 1992, Switzerland has been active in Bulgaria providing assistance to the transition process, with support to Sustainable Management of Natural Resources (SMNR) starting in 1995. The SMNR Capitalisation of Experiences (CapEx) took place between March and September 2007, in the context of SDC phasing out its programmes in Bulgaria by the end of 2007 due to the country’s accession to the European Union. The CapEx exercise has culminated in the identification of 17 lessons learned. In the view of the CapEx team, many of these lessons are relevant for countries that are in the process of joining the EU, facing similar democratisation challenges as Bulgaria. Overall, the Swiss SMNR projects have been effective entry points to support areas that are crucial to democratic transitions, namely participation in public goods management, decentralisation, human capacity development in research and management, and preparation for EU membership. The specificity of the Swiss support stems from an approach that combines a long-term commitment with a clear thematic focus (forestry, biodiversity conservation and organic agriculture). The multistakeholder approach and diversification of support between local, regional and national levels are also important elements that contributed to make a difference in relation to other donors supporting the Bulgarian transition. At the institutional level, there are a number of challenges where the contribution of SMNR activities was only modest, namely improving the legal framework and creating more transparency and accountability, both of which are time and resource-consuming processes. In addition, the emergence of competent and sustainable non-government organisations (NGOs) is a complex process that requires support to membership based organisations, a challenge that was hardly met in the case of SMNR. Finally, reform of government institutions involved in management of natural resources is difficult to achieve via project support only, as it requires leverage and commitment at the level of policy dialogue. At the programme management level, the CapEx team notes that corruption was not systematically addressed in SMNR projects, indicating that more attention should be given to this issue at the outset of any new project.
Resumo:
FTTH (fibra hasta el hogar) es actualmente, junto con la banda ancha móvil, la principal evolución tecnológica en Redes y Servicios de Telecomunicaciones. Se prevé que en los próximos años, el despliegue de las redes FTTH se vea incrementado de manera significativa, gracias al interés creciente tanto de Operadores de Telecomunicaciones como de Organismos Gubernamentales. Este despliegue (que en el año 2013 ya se está haciendo realidad) llevará servicios de muy alta velocidad (superiores a 100 Mbps, incluso 1 Gbps) de manera masiva a los hogares, exigiendo nuevos requisitos y prestaciones en la red del hogar de los clientes. Se abre aquí, por tanto, un campo de exploración novedoso, incipiente y de requerimientos cada vez más exigentes. De hecho, sin duda, la red del hogar es uno de los elementos fundamentales para el éxito de las redes y servicios en FTTH. Debido a todo lo anterior, se convierte en una necesidad para el sector de las Telecomunicaciones el encontrar soluciones a los problemas anteriormente mencionados. Con objeto de contribuir al análisis de soluciones, este proyecto se enfoca en dos temas, ambos relacionados con la problemática ya mencionada en la red del hogar: Prospección e identificación de soluciones tecnológicas avanzadas para la red del hogar. Descrito en capítulos 2, 3 y 4. En ellos se realiza un estudio detallado de la situación actual y tendencias futuras de los dispositivos utilizados en la red del hogar. Este estudio está enfocado en la distribución de señales de muy alto ancho de banda (en torno a los 100 Mbps por segundo) en el hogar. Diseño y desarrollo de una aplicación que permita determinar la calidad de experiencia de cliente (QoE) de un servicio de televisión IP (IPTV). Descrito en capítulos 5 y 6. Se ha seleccionado este tipo de servicios debido a que son los que requieren mayores prestaciones tanto de la red de transporte como de la red del hogar y, al mismo tiempo, son los más complicados de medir debido a la fuerte componente de subjetividad del usuario final. Una red del hogar correctamente diseñada debe cumplir de manera equilibrada los requisitos demandados tanto por el operador como por el cliente o usuario final del servicio. Los requisitos del operador se centran principalmente en el control de la inversión (CAPEX) y del gasto de mantenimiento de la red del hogar (OPEX). El usuario, por otra parte, requiere sencillez en la instalación y mínimo número de elementos a instalar (cero intrusismo, ausencia de cableado). Para adaptarse a estos requerimientos, existe una serie de dispositivos y tecnologías que buscan encontrar el punto de equilibrio entre necesidades de operadores y de clientes finales. Las soluciones actualmente utilizadas pueden dividirse en soluciones cableadas e inalámbricas. También existen soluciones híbridas. Todas ellas se describen en detalle en los capítulos 3 y 4. Al final del estudio se concluye que, con la tecnología actual, es preferible el uso de soluciones cableadas tipo Ethernet o POF. Es recomendable no usar soluciones PLC de manera extensiva (G.hn puede ser una alternativa a futuro) y, en caso de no requerir cableado, utilizar WiFi 11n con frecuencias de 5 GHz, así como sus evoluciones, WiFi 11ac y 11ad. La aplicación desarrollada, explicada en los capítulos 5 y 6, permite capturar y medir en tiempo real la señal de televisión IP que se entrega al usuario. Esta aplicación estimará, a partir de dichas medidas, la calidad de la señal entregada. Para ello tendrá en cuenta el tipo de descodificador utilizado por el usuario así como la red empleada (red FTTH de Telefónica). Esta aplicación podría ser utilizada en los centros de atención técnica de las operadoras de telecomunicaciones, determinando así la relación existente entre reclamaciones recibidas y calidad de servicio medida por la aplicación. Asimismo, aparte de realizar medidas en tiempo real, la aplicación vuelca las medidas realizadas y alarmas detectadas en ficheros log, facilitando el análisis técnico de los problemas e incidencias registrados por dichos centros técnicos. Igualmente, esta aplicación puede ser utilizada para el proceso de certificación de equipamiento de red del hogar o incluso como herramienta para profundizar en parámetros teóricos y criterios de medida de calidad de servicio en IPTV. ABSTRACT. FTTH (Fiber To The Home) and mobile broadband are currently the main technological trend in the Network and Telecommunications Services area. In the next few years, the deployment of FTTH networks will experiment a significant increase, due to the growing interest of both telecommunications operators and government agencies. This deployment (that is becoming a reality) which will massively carry high-speed services to households (speeds of more than 100 Mbps, even 1 Gbps) will demand new requirements and features in the customer’s home network. It can be found here a new and emerging field of exploration, with increasingly demanding requirements. In fact, the home network is one of the key elements for the success of FTTH network and services. Due to the aforementioned, it is a necessity for the telecommunications industry to find solutions to these problems. In order to contribute into the solution analysis, this project focuses on two subjects, both related to the problems of home networking: Exploratory research and identification of advanced technology solutions for the home network. Described in chapters 2, 3 and 4. These chapters show a detailed study of the current situation and future trends of the devices used at the home network. It focuses on the distribution of very high bandwidth signals (around 100 Mbps per second) in the customer’s home. Design and development of an application to evaluate customer’s quality of experience (QoE) of an IP television service (IPTV). Described in chapters 5 and 6. IPTV service has been selected because it requires higher performance both from the transport and the home networks and, at the same time, it is the most difficult to measure due to the strong component of subjectivity of the end user. A correct design of the home network must meet the requirements demanded both by the network operator and the customer (end user of the service). Network operator requirements mainly focus on reduced capital expenditures (CAPEX) and operational expenditures (OPEX). Additionally, the final user requires a simple and easy installation and also the minimum number of items to install (zero intrusion, lack of wiring, etc.). Different devices and technologies seek to find a balance between these two requirements (network operators and final users requirements). Solutions available in the market can be divided into wired and wireless. There are also hybrid solutions. All of them are described thoroughly in the first part of the project. The conclusion at the end of the study recommends the use of wired technologies like Ethernet or POF. Additionally, the use of PLC is not advised (G.hn can be an alternative in the future) and, in the case of not requiring wiring, the use of 11ac and 11ad WiFi is advised. The application developed in the second part of the project allows capturing and measuring the real-time IPTV signal delivered to the user. This application will estimate the delivered signal quality from the captured measurements. For this purpose, it will also consider the type of decoder installed on the customer’s premises and the transport network (Telefonica’s FTTH network). This application could be used at the operator’s technical service centres, determining in this way the relationship between user’s complaints and the quality of service measured. Additionally, this application can write all the measurements and alarms in log files, making easier the technical analysis of problems and impairments recorded by the technical centres. Finally, the application can also be used for the certification process of home networking equipment (i.e. decoders) or even as a tool to deepen theoretical parameters and measuring criteria of quality of service in IPTV.
Resumo:
El objetivo principal del presente proyecto es implantar un sistema de calidad en un laboratorio de caracterización de residuos, con el fin de obtener la acreditación otorgada por la Entidad Nacional de Acreditación (ENAC) como laboratorio de caracterización de residuos metalúrgicos no férreos. El sistema de calidad a implantar se basa en la Norma UNE-EN ISO/IEC 17025:2005 (requisitos generales para la competencia de los laboratorios de ensayo y calibración). Se trata por tanto de determinar los principales residuos de proceso y operación, de la metalurgia del Al, Cu, Zn y Pb, para posteriormente y mediante las normas UNEEN-CEN identificar los ensayos normalizados de caracterización de dichos residuos. y adecuar dichos ensayos a la norma. Finalmente se describe el proceso de implantación del sistema de calidad basado en la citada norma, y se hace un estudio económico que incluye tanto los gastos de inversión en equipos como los gastos de operación y mantenimiento (CAPEX y OPEX). Todo ello para poder ser acreditados por un organismo como ENAC.
Resumo:
Este trabalho trata da proposta para a produção carbonato de glicerila como continuação de trabalho de Mestrado. Propõe-se estabelecer uma sequência para a obtenção e a purificação do produto, que envolve remoção e o aproveitamento de amônia e a remoção de eletrólitos, bem como a utilização de novos catalisadores. De maneira geral, análises espectrofotométricas demonstraram que o produto purificado apresentou características semelhantes às da especificação constante de produto já existente no mercado cedido para comparação (JEFFSOL®, Huntsman). Além disso, foi calculado o custo de produção tanto em escala laboratorial como em escala industrial. Análises de Ressonância Magnética Nuclear e Cromatografia a Gás, aliadas à Espectrofotometria no Infravermelho permitiram avaliar tanto a evolução das reações, bem como os rendimentos reacionais. Foi demonstrada a aplicabilidade das técnicas de RMN 1H e 13C para o cálculo dos rendimentos reacionais, bem como para a elucidação dos mecanismos reacionais. A partir de análises em escala laboratorial, foi possível verificar que, para as condições reacionais estudadas foram obtidas baixas conversões da glicerina e baixas seletividades para o carbonato de glicerila. E ainda, o sulfato de zinco apresentou o melhor desempenho. É importante salientar que, mesmo para baixas conversões, sua produção ainda é economicamente viável devido ao seu elevado valor de mercado. O estudo da produção em escala industrial contemplou a síntese de fluxograma de processo e posterior simulação, incluindo o dimensionamento dos principais equipamentos de processo para fins de análise econômica, via calculo de custos de capital (CAPEX) e operacionais (OPEX). Os resultados indicaram viabilidade econômica do projeto, sendo demonstrado que a implantação de uma nova unidade de produção de carbonato de glicerila pode ser bastante rentável mesmo para baixos rendimentos. O produto obtido possui diversas e interessantes aplicações cosméticas e farmacêuticas, principalmente por ser um tensoativo não iônico, de baixa toxicidade, biodegradável e produzido a partir de fontes renováveis. Assim, o carbonato de glicerila produzido é uma interessante forma de aproveitamento da glicerina proveniente da fabricação de biodiesel.
Resumo:
A gaseificação utiliza o conteúdo intrínseco de carbonos e hidrogênios das matérias primas sólidas ou líquidas na geração de uma mistura de hidrogênio (H2), monóxido de carbono (CO), dióxido de carbono (CO2) e metano (CH4). Tal mistura pode ser utilizada como matéria prima na síntese de novos produtos ou como combustível. A gaseificação pode ser utilizada no processamento de uma gama variada de produtos, independentemente de suas características ou estado físico. A utilização de biomassa como insumo da gaseificação vem sendo cada vez mais explorada e estudada, já que apresenta benefícios não somente na esfera ambiental, mas também em âmbitos econômicos e sociais. A vinhaça é um subproduto do processo de produção de álcool, que contém grandes concentrações de nutrientes e matéria orgânica em sua composição. A sua utilização hoje está limitada a fertirrigação e a aplicações isoladas em biodigestão e outros, que não são suficientes para o consumo da produção anual crescente do resíduo. Seu uso na gaseificação permitiria o aproveitamento do conteúdo orgânico da mesma e a produção de gases de alto valor agregado. Como a umidade do insumo interfere negativamente na eficiência da gaseificação clássica, a aplicação da mesma para matérias primas com alto teor de líquidos não é recomendada. Uma alternativa viável seria a utilização do meio gaseificante supercrítico, que resulta em rendimentos constantes, independentemente da umidade da corrente de entrada do reator. O presente trabalho consiste no projeto de um módulo de gaseificação de vinhaça em água supercrítica, a ser instalado como uma unidade anexa a usinas de açúcar e álcool. Ele compreende o projeto conceitual e análise de viabilidade deste módulo, incluindo estimativas de CAPEX (Capital Expenditure) e OPEX (Operation Expenditure) e uma análise de sensibilidade dos mesmos. O estudo apresenta ainda o estado da arte do conhecimento e da tecnologia de gaseificação com água supercrítica (SCWG), relacionando os gargalos a serem resolvidos, assim como os ganhos intrínsecos da definição conceitual do projeto.