914 resultados para Equipe de Alto Desempenho
Resumo:
A indústria brasileira do turismo experimentou profundas alterações em sua estrutura a partir da década de 1990, notadamente em função de grandes investimentos em hotéis de categoria luxo e super luxo. Esse tipo de hospedagem tem como estratégia a diferenciação por meio da oferta de serviços e experiências singulares aos hóspedes. Assim, as ferramentas de atendimento virtual ao cliente podem contribuir para a construção da lealdade do hóspede a partir da diferenciação dos serviços prestados pelo hotel resort. Este é um estudo descritivo de natureza qualitativa, feito a partir de um levantamento no qual se efetuou a análise do desempenho das ferramentas de atendimento virtual ao cliente encontradas em 47 grandes hotéis resort de categoria luxo e super luxo em operação no Brasil. Os principais resultados indicam a baixa utilização das ferramentas de atendimento virtual disponíveis, sendo que as mais largamente empregadas foram e-mail, formulário eletrônico para submissão, autosserviço e mapa do site. Por outro lado, as ferramentas menos utilizadas foram e-mail de resposta automática, FAQ, chat instantâneo, personalização de site, grupos de discussão e vídeo-conferência; sendo que as quatro últimas sequer foram identifi cadas nos hotéis resort pesquisados. Pôde-se constatar também que mesmo os hotéis resort classifi cados com alto desempenho, subutilizam as ferramentas de atendimento virtual, o que parece não contribuir de forma plena para a oferta de uma experiência singular e diferenciada em relação à comunicação com seus clientes atuais, bem como com os potenciais clientes.
Resumo:
VIEIRA, Sirlei Tereza Pitteri. Competências Territoriais para o Desenvolvimento: uma análise sobre a região Metropolitana da Baixada Santista (RMBS). 2012. 208f. Dissertação (Doutorado em Administração) - Universidade Municipal de São Caetano do Sul, São Caetano do Sul, 2012.
Resumo:
Dissertação apresentada ao Programa de Pós-graduação em Administração - Mestrado da Universidade Municipal de São Caetano do Sul.
Resumo:
O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.
Resumo:
A presente Dissertação propõe uma biblioteca de comunicação de alto desempenho, baseada em troca de mensagens, especificamente projetada para explorar eficientemente as potencialidades da tecnologia SCI (Scalable Coherent Interface). No âmago da referida biblioteca, a qual se denominou DECK/SCI, acham-se três protocolos de comunicação distintos: um protocolo de baixa latência e mínimo overhead, especializado na troca de mensagens pequenas; um protocolo de propósito geral; e um protocolo de comunicação que emprega uma técnica de zero-copy, também idealizada neste Trabalho, no intuito de elevar a máxima largura de banda alcançável durante a transmissão de mensagens grandes. As pesquisas desenvolvidas no decurso da Dissertação que se lhe apresenta têm por mister proporcionar um ambiente para o desenvolvimento de aplicações paralelas, que demandam alto desempenho computacional, em clusters que se utilizam da tecnologia SCI como rede de comunicação. A grande motivação para os esforços envidados reside na consolidação dos clusters como arquiteturas, a um só tempo, tecnologicamente comparáveis às máquinas paralelas dedicadas, e economicamente viáveis. A interface de programação exportada pelo DECK/SCI aos usuários abarca o mesmo conjunto de primitivas da biblioteca DECK (Distributed Execution Communication Kernel), concebida originalmente com vistas à consecução de alto desempenho sobre a tecnologia Myrinet. Os resultados auferidos com o uso do DECK/SCI revelam a eficiência dos mecanismos projetados, e a utilização profícua das características de alto desempenho intrínsecas da rede SCI, haja visto que se obteve uma performance muito próxima dos limites tecnológicos impostos pela arquitetura subjacente. Outrossim, a execução de uma clássica aplicação paralela, para fins de validação, testemunha que as primitivas e abstrações fornecidas pelo DECK/SCI mantêm estritamente a mesma semântica da interface de programação do original DECK.
Resumo:
Atualmente, tem-se cada vez mais adotado o uso de pozolanas de alta reatividade como ferramenta para a obtenção do concreto de alta resistência (CAR). As pozolanas de alta reatividade dividem-se em sílica ativa, cinza de casca de arroz e o metacaulim de alta reatividade (MCAR). O estudo focalizando o efeito da sílica ativa e cinza de casca de arroz no concreto já se encontra em estado adiantado, principalmente quando se refere à sílica ativa. Contudo, esta situação não se repete quando se focaliza o uso do MCAR, visto que o estudo em relação ao efeito deste material no concreto encontra-se em um estágio inicial, principalmente quando refere-se ao Brasil. O MCAR é oriundo do processo de calcinação em temperaturas entre 400ºC e 950ºC e posterior processo de moagem de argilas com altos teores de caulinita, como a argila caulinítica e o caulim. A elevada finura obtida no MCAR é o principal diferencial deste material em relação ao metacaulim. Além destas argilas, tem-se também buscado atualmente o uso de outros materiais, como os resíduos provenientes da indústria do papel, para a produção do MCAR. Esta nova opção, além do resultado técnico, ainda apresenta como vantagem o caráter ecológico decorrente do uso de um resíduo industrial. Assim sendo, o objetivo principal deste trabalho foi avaliar o uso do MCAR, decorrente de resíduo industrial, nas propriedades mecânicas do concreto, mais especificamente na resistência à compressão, resistência à tração na compressão diametral, resistência à tração na flexão, módulo de elasticidade e coeficiente de Poisson. Na realização deste trabalho variou-se os teores de substituições de MCAR, as relações água/cimento e as idades de rompimento dos corpos-de-prova. A metodologia baseou-se em ensaios laboratoriais e no uso de ferramentas estatísticas para validação dos resultados Em paralelo realizou-se um estudo da microestrutura utilizando-se o microscópio eletrônico de varredura, a difração de raios-x, a análise termodiferencial e termogravimétrica, a titulometria e a porosimetria por intrusão de mercúrio, visando um melhor entendimento do comportamento obtido nos ensaios mecânicos. Com base nesses ensaios, foram propostas equações a partir dos parâmetros estudados, que indicaram, em todos os ensaios mecânicos realizados, melhorias decorrente do efeito pozolânico e filer do MCAR. A ratificação destes efeitos foi obtida nos ensaios realizados na microestrutura. Na comparação com os resultados relatados com o uso da cinza de casca de arroz e com a sílica ativa, obtidos em ensaios com metodologia e materiais semelhante, verificou-se um comportamento similar a estes materiais. Conclui-se com um resumo dos resultados obtidos neste trabalho que evidenciam claramente a possibilidade do uso do MCAR na produção do CAR.
Resumo:
As tarefas de visão computacional incentivam uma significativa parte da pesquisa em todas as áreas científicas e industriais, entre as quais, cita-se a área voltada para o desenvolvimento de arquiteturas de computadores. A visão computacional é considerada um dos problemas mais desafiadores para a computação de alto desempenho, pois esta requer um grande desempenho, bem como um alto grau de flexibilidade. A flexibilidade é necessária pois a visão computacional abrange aplicações em que há diferentes tarefas a serem realizadas com diferentes necessidades de desempenho. Esta flexibilidade é particularmente importante em sistemas destinados a atuar como ambientes experimentais para novas técnicas de processamento visual ou para a prototipação de novas aplicações. Computação configurável tem demonstrado, por meio de exemplos implementados pela comunidade científica, fornecer uma boa relação entre alto desempenho e flexibilidade necessária para a implementação de diferentes técnicas utilizadas na área de visão computacional. Contudo, poucos esforços de pesquisa têm sido realizados na concepção de sistemas completos visando a solução de um problema de visão computacional, incluindo ambos os requisitos de software e de hardware. O principal objetivo deste trabalho é mostrar que as técnicas e tecnologias disponíveis na área de computação configurável podem ser empregadas para a concepção de um sistema capaz de implementar um grande número de aplicações da área de visão computacional na pesquisa e no ambiente industrial. Entretanto, não é escopo deste trabalho implementar um sistema de computação que seja suficiente para abordar os requerimentos necessários para todas as aplicações em visão computacional, mas os métodos aqui introduzidos podem ser utilizados como uma base geral de implementação de várias tarefas de visão computacional. Este trabalho utiliza ambientes que permitem implementações conjuntas de hardware e software, pois os mesmos facilitam a validação das técnicas aqui apresentadas, por meio da implementação de um estudo de caso, sendo parte deste estudo de caso implementado em software e outra parte em hardware.
Resumo:
A paralelização de métodos de resolução de sistemas de equações lineares e não lineares é uma atividade que tem concentrado várias pesquisas nos últimos anos. Isto porque, os sistemas de equações estão presentes em diversos problemas da computação cientí ca, especialmente naqueles que empregam equações diferenciais parciais (EDPs) que modelam fenômenos físicos, e que precisam ser discretizadas para serem tratadas computacionalmente. O processo de discretização resulta em sistemas de equações que necessitam ser resolvidos a cada passo de tempo. Em geral, esses sistemas têm como características a esparsidade e um grande número de incógnitas. Devido ao porte desses sistemas é necessária uma grande quantidade de memória e velocidade de processamento, sendo adequado o uso de computação de alto desempenho na obtenção da solução dos mesmos. Dentro desse contexto, é feito neste trabalho um estudo sobre o uso de métodos de decomposição de domínio na resolução de sistemas de equações em paralelo. Esses métodos baseiam-se no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções de cada subdomínio. Uma vez que diferentes subdomínios podem ser tratados independentemente, tais métodos são atrativos para ambientes paralelos. Mais especi camente, foram implementados e analisados neste trabalho, três diferentes métodos de decomposição de domínio. Dois desses com sobreposição entre os subdomínios, e um sem sobreposição. Dentre os métodos com sobreposição foram estudados os métodos aditivo de Schwarz e multiplicativo de Schwarz. Já dentre os métodos sem sobreposição optou-se pelo método do complemento de Schur. Todas as implementações foram desenvolvidas para serem executadas em clusters de PCs multiprocessados e estão incorporadas ao modelo HIDRA, que é um modelo computacional paralelo multifísica desenvolvido no Grupo de Matemática da Computação e Processamento de Alto Desempenho (GMCPAD) para a simulação do escoamento e do transporte de substâncias em corpos de águas.
Resumo:
This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.
Resumo:
Esta pesquisa visa a modelagem de clusters de computadores, utilizando um modelo analítico simples que é representado por um grafo valorado denominado grafo da arquitetura. Para ilustrar tal metodologia, exemplificou-se a modelagem do cluster Myrinet/SCI do Instituto de Informática da UFRGS, que é do tipo heterogêneo e multiprocessado. A pesquisa visa também o estudo de métodos e tecnologias de software para o particionamento de grafos de aplicações e seu respectivo mapeamento sobre grafos de arquiteturas. Encontrar boas partições de grafos pode contribuir com a redução da comunicação entre processadores em uma máquina paralela. Para tal, utilizou-se o grafo da aplicação HIDRA, um dos trabalhos do GMCPAD, que modela o transporte de substâncias no Lago Guaíba. Um fator importante é o crescente avanço da oferta de recursos de alto desempenho como os clusters de computadores. Os clusters podem ser homogêneos, quando possuem um arquitetura com nós de mesma característica como: velocidade de processamento, quantidade de memória RAM e possuem a mesma rede de interconexão interligando-os. Eles também podem ser heterogêneos, quando alguns dos componentes dos nós diferem em capacidade ou tecnologia. A tendência é de clusters homogêneos se tornarem em clusters heterogêneos, como conseqüência das expansões e atualizações. Efetuar um particionamento que distribua a carga em clusters heterogêneos de acordo com o poder computacional de cada nó não é uma tarefa fácil, pois nenhum processador deve ficar ocioso e, tampouco, outros devem ficar sobrecarregados Vários métodos de particionamento e mapeamento de grafos foram estudados e três ferramentas (Chaco, Jostle e o Scotch) foram testadas com a aplicação e com a arquitetura modeladas. Foram realizados, ainda, vários experimentos modificando parâmetros de entrada das ferramentas e os resultados foram analisados. Foram considerados melhores resultados aqueles que apresentaram o menor número de corte de arestas, uma vez que esse parâmetro pode representar a comunicação entre os processadores de uma máquina paralela, e executaram o particionamento/mapeamento no menor tempo. O software Chaco e o software Jostle foram eficientes no balanceamento de carga por gerarem partições com praticamente o mesmo tamanho, sendo os resultados adequados para arquiteturas homogêneas. O software Scotch foi o único que permitiu o mapeamento do grafo da aplicação sobre o grafo da arquitetura com fidelidade, destacando-se também por executar particionamento com melhor qualidade e pela execução dos experimentos em um tempo significativamente menor que as outras ferramentas pesquisadas.
Resumo:
Este relatório faz uma análise teórica das diversas correntes em estratégia empresarial sobre a questão da vantagem competitiva. A análise aqui apresentada se fundamenta em um modelo bidimensional que classifica as teorias de estratégia em quatro grupos: (1) Análise de Indústria, (2) Processo de Mercado, (3) Teoria dos Recursos e (4) Competências Dinâmicas. As noções de vantagem competitiva inerentes a cada visão são descritas e comparadas. Uma segunda secção apresenta os resultados de uma análise visando selecionar um conjunto de empresas brasileiras de alto desempenho, e um grupo de controle a partir do cálculo do retorno médio sobre o patrimônio líquido. Uma base dados em MS Access é parte integrante deste relatório.
Resumo:
Num país onde se discute a crise do Poder Judiciário, calcada na morosidade da tramitação dos processos em dissintonia do direito com a realidade social, à vista da sobrecarga de serviços pelos juízes, vislumbra-se na atividade conciliatória paralela a atividade jurisdicional um meio de evitar o abarrotamento de processos nos Tribunais. Trata-se de instituto largamente utilizado nos Juizados Especiais Cíveis, mas ainda pouco difundido na justiça comum. Por isto, aposta-se que a conciliação no processo civil, se bem conduzida, pode alcançar resultados ainda não atingidos pela falkta de estruturação do mecanismo e adoção de suas técnicas no processo judicial. Com o aperfeiçoamento da técnica conciliatória mediante sua aplicação em momento processual adequado e através de profissional tecnicamente qualificado para o desempenho da atividade em sua essência, a conciliação há de se tornar um meio alternativo relevante na finalização das ações judiciais envolvendo direito disponível. A criação de Câmaras de Conciliação auxiliares às varas cíveis da Justiça comum Estadual, com vistas à realização concentrada da atividade conciliatória no processo judicial inicialmente distribuído, constitui uma grande aliada contra a morosidade do Poder Judiciário e, sua prática contínua, mediante instrumentos de gestão, certamente contribuirá para a deflação processual. A finalidade precípua da proposta é porporcionar, por meio dos fundamentos legais e administrativos existentes, a melhor utilização do instituto da conciliação, com objetivo de se alcançar agilidade e efetividade na prestação jurisdicional, buscando a resolução de conflitos em todas as suas proporções e amplitude, por vezes não alcançada com a sentença. Com vistas ao efetivo funcionamento deste departamento administrativo nas Comarcas da Justiça Estadual, as Câmaras de Conciliação requerem uma estrutura organizacional apropriada, infra-estrutura que proporcione o desenvolvimento dos trabalhos, rotinas, equipe, indicadores de desempenho, estabelecimento de metas e objetivos, tudo sob o enfoque do sistema gerencial de processos de trabalho.
Resumo:
Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.
Resumo:
Esse trabalho de dissertação está incluído no contexto das pesquisas realizadas no Grupo de Processamento Paralelo e Distribuído da UFRGS. Ele aborda as áreas da computação de alto desempenho, interfaces simples de programação e de sistemas de interconexão de redes velozes. A máquina paralela formada por agregados (clusters) tem se destacado por apresentar os recursos computacionais necessários às aplicações intensivas que necessitam de alto desempenho. Referente a interfaces de programação, Java tem se mostrado uma boa opção para a escrita de aplicações paralelas por oferecer os sistemas de RMI e de soquetes que realizam comunicação entre dois computadores, além de todas as facilidades da orientação a objetos. Na área a respeito de interconexão de rede velozes está emergindo como uma tentativa de padronização a nova tecnologia Infiniband. Ela proporciona uma baixa latência de comunicação e uma alta vazão de dados, além de uma série de vantagens implementadas diretamente no hardware. É neste contexto que se desenvolve o presente trabalho de dissertação de mestrado. O seu tema principal é o sistema Aldeia que reimplementa a interface bastante conhecida de soquetes Java para realizar comunicação assíncrona em agregados formados por redes de sistema. Em especial, o seu foco é redes configuradas com equipamentos Infiniband. O Aldeia objetiva assim preencher a lacuna de desempenho do sistema padrão de soquetes Java, que além de usar TCP/IP possui um caráter síncrono. Além de Infiniband, o Aldeia também procura usufruir dos avanços já realizados na biblioteca DECK, desenvolvida no GPPD da UFRGS. Com a sua adoção, é possível realizar comunicação com uma interface Java sobre redes Myrinet, SCI, além de TCP/IP. Somada a essa vantagem, a utilização do DECK também proporciona a propriedade de geração de rastros para a depuração de programas paralelos escritos com o Aldeia. Uma das grandes vantagens do Aldeia está na sua capacidade de transmitir dados assincronamente. Usando essa técnica, cálculos da aplicação podem ser realizados concorrentemente com as operações pela rede. Por fim, os canais de dados do Aldeia substituem perfeitamente aqueles utilizados para a serialização de objetos. Nesse mesmo caminho, o Aldeia pode ser integrado à sistemas que utilizem a implementação de soquetes Java, agora para operar sobre redes de alta velocidade. Palavras-chave: Arquitetura Infiniband, agregado de computadores, linguagem de programação Java, alto desempenho, interface de programação.
Resumo:
O estudo aqui apresentado tem como objetivo mostrar que a competitividade da indústria química brasileira pode ser revista por meio do desenvolvimento da área química a partir dos recursos naturais renováveis e de alto desempenho de produtividade, aqui representado pela cana-de-açúcar. A base deste estudo analisa a competitividade econômica da produção do acetato de etila, utilizando o etanol como única matéria-prima, sendo o Brasil um grande exportador e, ao mesmo tempo, detentor de um mercado interno forte quando comparado a outros países desenvolvidos. O acetato de etila exportado representou 52% da capacidade nominal instalada no Brasil no ano de 2008. No Brasil existem três ofertantes, mas apenas um produtor é exportador. Todos usam a esterificação como tecnologia de produção, via reação do ácido acético e etanol, sendo o ácido acético largamente importado. O estudo tem como premissa que a competitividade do acetato de etila no Brasil seja dada pelo etanol, que aqui é produzido pela fermentação do caldo de cana-de-açúcar. Já a tecnologia de esterificação é conhecida e de domínio público mundial, e o ácido acético é uma commodity petroquímica com preço referenciado globalmente. Argumenta-se neste trabalho que a competitividade do acetato de etila decorre da linkage com a produção de etanol de cana-de-açúcar, o que coloca o Brasil como grande potencial exportador desse produto. Utilizando a tecnologia de desidrogenação do etanol, pode-se obter acetato de etila utilizando-se apenas o etanol como matéria-prima, reduzindo-se assim a necessidade de importação de ácido acético, que representaria redução anual do déficit da balança comercial petroquímica brasileira em aproximadamente meio bilhão de dólares e, ademais, permitindo que o acetato de etila produzido no Brasil seja ainda mais competitivo. A partir deste estudo é possível avaliar, por analogia, a competitividade de outros produtos químicos produzidos a partir da matriz cana-de-açúcar, tais como eteno, lubrificantes, plásticos etc. Tal caminho permite criar um novo marco para a indústria química brasileira, com consequente redução da dependência de petróleo e gás natural.