119 resultados para Pesquisa computacional
Resumo:
Com base em uma abordagem hermenêutica, esta Dissertação procura analisar a formação de professores, buscando compreender os horizontes discursivos que demarcam os sentidos da pesquisa na política oficial para a educação básica. Para tanto, tomei como corpus de investigação as Diretrizes Curriculares Nacionais para a Formação de Professores, articulando-as a um conjunto de documentos que regulamentam a atual política de formação de professores no Brasil. Nesses documentos, a pesquisa é introduzida como elemento essencial da formação, sendo compreendida como um conjunto de procedimentos metodológicos que tem como objeto de estudo as práticas pedagógicas relacionadas ao ensino/aprendizagem dos conteúdos escolares. Na política oficial, o sentido da pesquisa encontra-se diretamente vinculado ao aperfeiçoamento das práticas pedagógicas, onde a construção de competências operacionais torna-se condição necessária para a resolução de problemas práticos em sala de aula Ao estabelecer uma articulação entre Hermenêutica e Educação, situo as discussões sobre a formação do professor-pesquisador em um novo horizonte compreensivo, onde questões referentes ao método e técnicas de pesquisa, à objetividade e validade científica, abrem espaço para outras tematizações, tais como: a importância da pergunta e do diálogo na realização da pesquisa, a experiência como aspecto singular da formação e a abertura para o encontro do professor-pesquisador com o seu outro. Com isso, intencionei não apenas incluir novos elementos para se pensar a pesquisa, mas sobretudo, colocar em questão os pressupostos que orientam a política oficial de formação de professores.
Resumo:
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.
Resumo:
Apresenta-se neste estudo o potencial de recuperação de informação em C&T nas bases de dados nacionais e internacionais na grande área das Ciências da Saúde, na área da Medicina e na pesquisa médica em Câncer no Brasil. Esta capacitação científica instalada foi hierarquizada geográfica e institucionalmente usando como parâmetro o conceito de mérito científico fornecido pelo próprio sistema de C&T brasileiro. Os dados foram complementados pela análise da produção científica para identificar o grau de inserção internacional da pesquisa médica em Câncer no Brasil. Para tanto foram incorporadas informações das bases de dados do Institute for Scientific Information. Pode-se concluir que a grande área das Ciências da Saúde é a maior em contingente de pesquisa no Brasil, sendo a Medicina a área numericamente predominante. Na pesquisa médica em Câncer constatou-se que existem apenas dois cursos de pós-graduação diretamente relacionados com a formação de recursos humanos neste tema de pesquisa, 569 grupos de pesquisa (3,8% do total do país), 785 pesquisadores doutores, dos quais somente 153 são pesquisadores com bolsa de produtividade em pesquisa do CNPq (1,7% do total do país) No entanto, a produção científica, apesar de pouco expressiva do ponto de vista quantitativo, apresenta uma inserção internacional qualificada, sendo utilizada por outros pesquisadores com um elevado percentual, 84% de citações dos artigos brasileiros produzidos entre 1998-2002. Conclui-se, portanto, que apesar de não esgotar completamente as muitas especificidades do tema investigado, as informações disponíveis nas bases de dados nacionais e internacionais podem apontar caminhos para a investigação de tendências significativas da comunidade científica em todas as áreas do conhecimento ou temas de pesquisa, conforme os modos de recuperação apresentados. Através da interpretação criteriosa a partir de estudos continuados nessas bases, como é o caso deste trabalho, é possível utilizar a informação em C&T como subsídio para o planejamento de políticas de CT&I no Brasil.
Resumo:
Resumo não disponível.
Resumo:
Propriedades de equilíbrio e espectroscópicas são determinadas para a mistura líquida CS2/C6H6 na temperatura de 298K e nas frações molares de benzeno iguais a 0,25, 0,50 e 0,75, usando simulação computacional por Dinâmica Molecular. As interações intermoleculares são descritas em relaçãao a todos os átomos por um potencial Lennard-Jones (12/6), com as interações eletrostáticas representadas por quadrupolos pontuais, localizados nos centros de massa das mol´eculas. Um segundo potencial também é considerado, onde a distribuição de cargas na molécula é usada para descrever as interações eletrostáticas. Dados termodinâmicos e propriedades estruturais, descritas através de funções de distribuição radial e de correlação angular, são calculados. Os resultados obtidos com os dois potenciais mostram boa concordância com os dados experimentais. A análise das frações molares locais e das energias internas indica que a mistura líquida CS2/C6H6 apresenta comportamento aproximadamente ideal. As funções de distribuição radial e de correlação angular evidenciam uma configuração preferencialmente paralela entre as moléculas de CS2 e C6H6 a distâncias menores em relação a distância do máximo da função de distribução , correspondente a primeira camada de coordenação . Nesta região, a configuração perpendicularé fracamente favorecida em relação as demais orientações. Funções de correlação temporal da polarizabilidade coletiva e da polarizabilidade molecular, correspondentes aos espalhamentos Rayleigh e Raman, respectivamente, são calculadas a partir do modelo de interação dipolo induzido por dipolo de 1a ordem. As funções de correlação são divididas nas contribuições orientacional, induzida por colisão e cruzada, e nas contribuições dos componentes. Propriedades de equilíbrio como anisotropia efetiva e intensidades integradas são determinadas para as misturas e líquidos puros. Os resultados indicam que a correlação orientacional entre as moléculas de CS2 é a maior responsável pelos espectros Rayleigh e espectros Raman deste componente. A maior participação do benzeno ocorre no espalhamento Raman com uma maior correlação na contribuição induzida por colisão. A separação na escala temporal entre a dinâmica reorientacional e induzida por colisão determinada na simulação é menor em relação ao experimento. Tempos de correlação da contribuição induzida por colisão são maiores nas misturas em relação aos líquidos puros no espalhamento Rayleigh, conforme o experimento, e estão relacionados a contribuições significativas das funções de correlação entre os componentes CS2 e benzeno a tempo longo. Funções de correlação temporal do momento dipolar coletivo são determinadas a partir do modelo dipolo induzido por quadrupolo e analisadas em termos de contribuições isotrópicas, anisotrópicas e cruzadas, como também de contribuições dos componentes. A relação entre estes termos é concordante com os parâmetros moleculares de anisotropia e quadrupolo dos componentes. Os resultados da simulação indicam absorbância de excesso para as misturas em uma ordem semelhante a do experimento. O tempo de correlação maior na mistura de fração molar de benzeno igual a 0,25, também encontrado no experimento, está relacionado a elevada contribuição a tempo longo da função de correlação entre dipolos induzidos em moléculas de CS2 por moléculas de C6H6. Os espectros calculados na simulação e os espectros experimentais do espalhamento de luz despolarizado Rayleigh apresentam boa concordância, validando os modelos de potenciais de interação e de indução usados. No entanto, diferenças são encontradas no infravermelho longínquo. Modi cações no modelo simplificado de indução são propostas.
Resumo:
Esta pesquisa visa a modelagem de clusters de computadores, utilizando um modelo analítico simples que é representado por um grafo valorado denominado grafo da arquitetura. Para ilustrar tal metodologia, exemplificou-se a modelagem do cluster Myrinet/SCI do Instituto de Informática da UFRGS, que é do tipo heterogêneo e multiprocessado. A pesquisa visa também o estudo de métodos e tecnologias de software para o particionamento de grafos de aplicações e seu respectivo mapeamento sobre grafos de arquiteturas. Encontrar boas partições de grafos pode contribuir com a redução da comunicação entre processadores em uma máquina paralela. Para tal, utilizou-se o grafo da aplicação HIDRA, um dos trabalhos do GMCPAD, que modela o transporte de substâncias no Lago Guaíba. Um fator importante é o crescente avanço da oferta de recursos de alto desempenho como os clusters de computadores. Os clusters podem ser homogêneos, quando possuem um arquitetura com nós de mesma característica como: velocidade de processamento, quantidade de memória RAM e possuem a mesma rede de interconexão interligando-os. Eles também podem ser heterogêneos, quando alguns dos componentes dos nós diferem em capacidade ou tecnologia. A tendência é de clusters homogêneos se tornarem em clusters heterogêneos, como conseqüência das expansões e atualizações. Efetuar um particionamento que distribua a carga em clusters heterogêneos de acordo com o poder computacional de cada nó não é uma tarefa fácil, pois nenhum processador deve ficar ocioso e, tampouco, outros devem ficar sobrecarregados Vários métodos de particionamento e mapeamento de grafos foram estudados e três ferramentas (Chaco, Jostle e o Scotch) foram testadas com a aplicação e com a arquitetura modeladas. Foram realizados, ainda, vários experimentos modificando parâmetros de entrada das ferramentas e os resultados foram analisados. Foram considerados melhores resultados aqueles que apresentaram o menor número de corte de arestas, uma vez que esse parâmetro pode representar a comunicação entre os processadores de uma máquina paralela, e executaram o particionamento/mapeamento no menor tempo. O software Chaco e o software Jostle foram eficientes no balanceamento de carga por gerarem partições com praticamente o mesmo tamanho, sendo os resultados adequados para arquiteturas homogêneas. O software Scotch foi o único que permitiu o mapeamento do grafo da aplicação sobre o grafo da arquitetura com fidelidade, destacando-se também por executar particionamento com melhor qualidade e pela execução dos experimentos em um tempo significativamente menor que as outras ferramentas pesquisadas.
Resumo:
Neste trabalho foram desenvolvidos parâmetros de campo de força dos ânions tetrafenilborato (BPh4 -) e hexafluorfosfato (PF6 -) dentro da metodologia AMBER para a simulação computacional por dinâmica molecular de Líquidos Iônicos formados por estes ânions e cátions do tipo dialquilimidazólio, o 1-n-butil-3-metilimidazólio (BMI+), o 1-etil-3-metilimidazólio (EMI+) e o 1,3-dimetilimidazólio (MMI+). A validação destes parâmetros foi realizada por comparação entre as freqüências dos modos normais obtido por cálculo ab initio com aquelas obtidas por mecânica molecular, juntamente com uma comparação entre as estruturas moleculares e momentos multipolares obtidos pelas duas metodologias. Seguiu-se então a validação por comparação dos resultados dos cálculos de dinâmica molecular com dados experimentais, como densidades, entalpias de vaporização, condutividade elétrica, estrutura radial e espacial e também dados de difração de nêutrons. Foi atingida uma concordância bastante grande entre dados experimentais e cálculo teórico principalmente no que diz respeito à estrutura dos Líquidos Iônicos e foi possível racionalizar em termos de tamanho do grupo alquila do cátion (n-butil, metil ou etil) e do tamanho do ânion tanto propriedades estruturais deste líquidos quanto características dinâmicas dos mesmos.
Resumo:
A competição entre as empresas pela busca de mercado tem levado ao aprimoramento de suas atividades e melhorias em seus processos produtivos. Este trabalho apresenta a análise do processo produtivo de uma empresa produtora de embalagens de papelão ondulado através da técnica da simulação computacional. O simulador ProModel foi utilizado no desenvolvimento do estudo e se mostrou adequado para a modelagem do processo produtivo e geração de resultados. Com a sua capacidade de animação, criação de macros e geração de relatórios, ficou facilitado o desenvolvimento e analise de cenários. Isto permitiu que o foco do estudo ficasse sobre a análise dos resultados e simulação de cenários e não na programação para criação e rodagem do modelo de simulação. A partir da modelagem do processo real de trabalho foi possível identificar restrições de capacidades no sistema, o que levou à criação de cenários onde oportunidades de melhoria pudessem ser avaliadas. A revelação de que a parcial utilização do equipamento denominado Onduladeira, o qual gerava perdas por ociosidade nas impressoras, acabou se mostrando como o gargalo do processo produtivo é o mais indicado ponto de melhoria. Com o incremento de produtividade sobre este equipamento, definido a partir de análises dos cenários, obteve-se como resultado a utilização de 100% dos demais equipamentos do processo produtivo. Análises e comparações de resultados entre os cenários e as conclusões do estudo são apresentadas no final do trabalho.
Resumo:
As atividades dos Institutos de Pesquisa são a Pesquisa, o Desenvolvimento e a Inovação (PD&I), onde as tecnologias, produtos e serviços, constituem-se no produto final a ser disponibilizado à sociedade. No setor florestal, isto é bem marcante nos Institutos de Pesquisa Mistos que, ao contrário dos Institutos Públicos de Pesquisa, tem suas atividades de pesquisa e desenvolvimento direcionadas prioritariamente a solução de problemas imediatos dos sistemas de produção de madeira e o aumento da produtividade dos povoamentos florestais, para o atendimento das empresas associadas. Com o objetivo de identificar as possíveis diferenças nos modelos de geração, difusão e transferência de tecnologia dos IPPs e IPMs e qual o modelo atualmente em uso por esses institutos é que o presente estudo foi idealizado e implementado. Com o apoio de uma survey em uma fase inicial, foi construído um estudo de casos envolvendo os institutos de pesquisas florestais mais demandados pelos clientes/usuários dos IPPs e IPMs e realizada uma análise comparativa entre IPPs e IPMs, atuando na região Sul. A survey foi utilizada para viabilizar conhecer os clientes/usuários dos IPPs e IPMs. Em uma segunda fase, a principal da pesquisa, com a utilização da metodologia de estudo de casos, apoiada nos resultados da survey, foram coletados dados junto aos IPPs e IPMs para o conhecimento do processo de geração, difusão e transferência de tecnologia desses institutos e, dessa forma, conhecer os diferentes modelos de transferência de tecnologia, atualmente em uso pelos IPPs e IPMs. Foram considerados no estudo as questões pertinentes, levando em conta as características percebidas com a inovação, a existência ou não de ações colaborativas para a realização de PD&I, a sustentabilidade ambiental das pesquisas e a influência e ação dos stakeholders e do Sistema Nacional de Inovação neste processo. Os resultados alcançados demonstraram a existência de uma postura mais competitiva que colaborativa, tanto entre os usuários das pesquisas como no relacionamento entre os próprios institutos de pesquisa. Outro resultado interessante foi à identificação, na opinião desses usuários de um grau de satisfação maior em relação aos IPPs que aos IPMs, fato que surpreende pela própria característica da relação entre os IPMs e seus associados. A análise conjunta do Sistema Nacional de Inovação permitiu concluir que, instituição importante desse sistema tem atuado mais de uma forma limitadora que facilitadora das ações dos IPPs e IPMs, principalmente nos aspectos regulatórios e fiscalizadores da atividade florestal, em detrimento de ações estimuladoras em prol do desenvolvimento econômico, social e do agronegócio florestal da região Sul, resultados que também levam a concluir a influência do SNI no direcionamento do modelo de pesquisa desses institutos mais para um modelo mercadológico que tecnológico.
Resumo:
O objetivo deste trabalho é a definição de um conjunto de roteiros para o ensino de arquitetura de computadores com enfoque em arquiteturas superescalares. O procedimento é baseado em simulação e verificação da influência dos parâmetros arquiteturais dos processadores, em termos funcionais e de desempenho. É dada ênfase a conceitos como memória cache, predição de desvio, execução fora de ordem, unidades funcionais e etc. Através do estudo e avaliação dos parâmetros que constituem estes conceitos, procurava-se através dos roteiros identificar as configurações com melhor desempenho. Para a implementação destes roteiros é dotado o conjunto de ferramentas de simulação SimpleScalar. Este conjunto, além de estar disponibilizado em código aberto na página oficial das ferramentas, traz como vantagem a possibilidade de alteração do código para fins de pesquisa. Este trabalho e os roteiros que o compõem têm como objetivos auxiliar professores e estimular os alunos através de simulações, como forma didática de testar conceitos vistos em sala de aula. Os roteiros são apresentados com os respectivos resultados de simulação e incrementados com comentários e sugestões de um conjunto de perguntas e respostas para que o trabalho possa ter continuidade necessária, partindo da sala de aula para a simulação, busca de respostas e culminando com um relatório final a ser avaliado.
Resumo:
Sob a premissa de que a geometria do perfil deposicional das clinoformas pode conter informações sobre a composição textural dos sedimentos que as compõem, bem como sobre a energia da coluna d’água, foi desenvolvido um modelo computacional para a análise teórica dos fatores controladores do tipo de curvatura dos foresets das clinoformas, e, por extensão dos taludes submarinos. Um modelo análogo de suspensão dinâmica foi implementado experimentalmente com um programa em código Matlab, denominado MAXWELL, e é classificado como um modelo estratigráfico, bidimensional, analítico, determinístico, dinâmico, parcialmente dedutivo e parcialmente baseado em regras. Contém um modelo de escoamento de fluido em linhas de corrente, e trata indiretamente a tensão de cisalhamento no domínio de um sistema fechado bifásico líquido-vapor análogo, a partir a proposta de analogias entre os processos de evaporação e de suspensão de sedimentos. É uma abordagem baseada na competência de transporte do fluxo d’água, pois considera temperatura e velocidade de fluxo combinado onda-corrente como variáveis controladoras análogas da intensidade de transferência de energia. Os processos deposicionais marinhos são reduzidos a um fenômeno da superfície deposicional, que é considerada análoga a uma interface líquidovapor dentro de um sistema fechado. A equação de distribuição estatística de velocidades moleculares de Maxwell é usada para calcular a proporção de moléculas na fase líquida, considerada análoga à proporção de sedimentos depositados, bem como a proporção na fase vapor, tomada como análoga à proporção de sedimentos em suspensão. O estado energético do sistema é parametrizado por três potenciais: energia interna, como função do tamanho de grão (areia, silte ou argila); energia térmica do meio, como função da energia hidrodinâmica, e energia gravitacional, como função do declive topográfico As simulações indicam que os principais fatores controladores do perfil deposicional das clinoformas, e por extensão, dos taludes submarinos em geral, são a energia hidrodinâmica da coluna d’água e a granulometria (ou coesão) do sedimento, que podem ser consideradas dois parâmetros comutáveis, isto é, grãos grossos ou coesos podem produzir sobre a geometria das clinoformas o mesmo efeito da baixa energia hidrodinâmica, e vice-versa. Com base no fator de decaimento da energia hidrodinâmica com o aumento da batimetria, foram definidas três ordens de grandeza da intensidade da energia da coluna d’água: baixa energia (10–1), alta x energia (10-2) e muito alta energia (10-3). Com base nesse critério, foram caracterizados quatro tipos de perfis deposicionais de clinoformas: dois tipos sigmoidais e dois tipos exponenciais. Os tipos sigmoidais podem ser de alta energia ou de muito alta energia, e distinguem-se pela granulometria do sedimento e pela distribuição de declividades em relação à dimensão na direção horizontal. Os perfis de tipo exponencial podem ser tanto de baixa energia, quanto de alta energia. A subida relativa do nível do mar afeta o tipo geométrico do perfil deposicional apenas de forma indireta, a partir da retenção da fração grossa do influxo sedimentar na plataforma ou topset. Os principais fatores controladores do ângulo de declividade do perfil das clinoformas são a granulometria do sedimento, a energia hidrodinâmica, a profundidade d’água da bacia e o desvio lateral da corrente de fundo. A dedução da litofácies a partir da geometria das clinoformas parece promissora apenas para os tipos teóricos sigmoidais, que são distintos na forma e no conteúdo sedimentar.
Resumo:
Atender os cidadãos de forma satisfatória tem sido uma das grandes dificuldades dos órgãos públicos e também um de seus principais desafios. A administração pública brasileira, baseada em um sistema burocrático, que, na sua maioria é falho e ineficiente, traz a luz do mundo globalizado, uma série de situações negativas para todo o aparato estatal. Existem inúmeros instrumentos de controle da gestão pública objetivando sua eficiência e eficácia, enquanto promotora de desenvolvimento econômico e fornecedora de serviços públicos essenciais, ou não. O presente trabalho tem o objetivo de realizar pesquisa de satisfação junto à sociedade do município de Eldorado do Sul, como forma de subsidiar os gestores locais no realinhamento de ações nas áreas que, segundo a ótica do cidadão-usuário, aparecem com maiores insatisfações. Pesquisas de opinião pública são ótimos instrumentos disponíveis às empresas como forma de melhor conhecer e agir no mercado; paralelamente, na administração pública, como forma de instrumento de apoio à tomada de decisão, ainda é pouco utilizado pelos agentes de decisão. A pesquisa de satisfação foi realizada na zona-urbana do município, com 19.242 habitantes e teve uma amostra de 113 casos. As áreas pesquisadas foram: saúde, educação, assistência social, obras viárias e imagem de governo. Os resultados demonstraram o nível de satisfação dos cidadãos- usuários nas mais diversas variáveis de cada área abordada, tendo a área de Educação aparecida com maior satisfação entre os serviços públicos; a área de saúde, ao contrário, como de maior insatisfação; a imagem do governo, por sua vez, aparece bastante fragilizada frente à satisfação do cidadão. A partir destas análises, os gestores têm um bom instrumento de avaliação de políticas públicas, podendo assim, tomar medidas de correção em ações.
Resumo:
O presente estudo valida, para uso no Brasil, um instrumento desenvolvido por Hamme (2003) para a avaliação da competência emocional em grupos, conceituada como “a habilidade para desenvolver normas para administrar os processos emocionais no sentido de cultivar confiança, identidade grupal e eficácia grupal” (DRUSKAT e WOLFF, 2001b). O conhecimento é criado e expandido através de interações sociais, onde a administração eficaz das emoções é essencial para o desempenho do grupo. Em função da demanda contemporânea por novas formas de cooperação criativa e produtiva, aumenta também a necessidade de compreensão dos fatores que facilitam e dificultam o trabalho em equipe, justificando a validação de um questionário para avaliar competências emocionais grupais que possibilite focar intervenções, visando a alteração dos baixos desempenhos. Verificada uma confiabilidade interna satisfatória do instrumento, realizou-se uma survey com 191 respondentes de 34 grupos em organizações, localizadas em Porto Alegre e região metropolitana. Verificam-se carências nas competências Criação de recursos para trabalhar com a emoção, Confronto dos membros que rompem as normas e Compreensão organizacional; destacam-se positivamente Solução pró-ativa de problemas, Criação de relações externas e Criação de um ambiente afirmativo. Compreensão organizacional e Comportamento atencioso sobressaem-se nos EUA e não no Brasil, já Criação de relações externas, Criação de um ambiente afirmativo e Compreensão interpessoal, ao contrário, aparecem elevados no Brasil e não nos EUA. Ratificam-se cinco das seis dimensões iniciais, sendo que duas delas constituíram uma única. Comparam-se os grupos com maiores e menores escores. O instrumento validado poderá ser utilizado posteriormente e os dados aprofundados em estudos futuros, tais como sugerido nas considerações finais.
Resumo:
A eficácia da estratégia de uma empresa é decidida, em última análise, pela maneira como os consumidores a percebem. Resultados operacionais, tais como vendas e lucros, são medidas que dependem do nível de valor agregado criado para os consumidores. Quanto mais alto esse valor, tanto melhor a estratégia. A vantagem competitiva se atinge criando mais valor que os concorrentes e o valor é definido pela percepção do consumidor. Esse trabalho tem por objetivo formular estratégias competitivas para o negócio de Poliuretano Termoplástico, na empresa FCC Fornecedora. O método de trabalho utilizado consistiu, inicialmente, na realização de uma pesquisa de satisfação de clientes. A seguir foi realizada a identificação das fragilidades e potencialidades do negócio, através da avaliação dos ambientes interno e externo, visando assim, à identificação de um conjunto de ações de melhoria coerentes às perspectivas do mercado. Através da utilização de uma matriz importância versus desempenho, a qual foi elaborada antes e após a implementação das ações, foi possível identificar que os atributos relacionados à qualidade e flexibilidade apresentaram significativo incremento em desempenho.