999 resultados para gerenciamento
Resumo:
Esse estudo tem por finalidade contribuir para a discussão e o aprimoramento da gestão econômica e do desenvolvimento de ferramentas de apoio à decisão estratégica para empresas de serviços de saúde suplementar. Com base nos fundamentos teóricos sobre serviços, serviços de saúde suplementar, gerenciamento estratégico de custos e sistemas ABC/ABM, o estudo propõe um modelo de sistema de gestão de custos indiretos em planos de saúde sob a óptica do ABC/ABM, que visa proporcionar aos gestores uma visão ampla sobre o desempenho econômico dos planos e dos clientes. Assim, este estudo pretende colaborar com o desenvolvimento desse setor, que tem sofrido nos últimos anos o impacto da evolução da tecnologia e da medicina, provocando a constante elevação dos custos da assistência à saúde. Com a finalidade de justificar o estudo, o modelo é testado com a sua implementação em uma operadora de planos de saúde, possibilitando a discussão sobre as conclusões obtidas em relação ao problema abordado.
Resumo:
Na presente dissertação foi apresentada, pela primeira vez para o mercado brasileiro, uma aplicação da análise de componentes principais para a identificação dos fatores que influenciam o comportamento da estrutura temporal de cupom cambial brasileira, tendo como amostra cotações de ajuste dos contratos futuros de DDI e de FRA (Forward Rate Agreement) de cupom cambial da BM&F, cotações de fechamento do Dólar à vista e cotações de venda da Ptax800, para o período entre 02/01/2002 e 29/12/2005. Através da aplicação da técnica de análise de componentes principais para as curvas de cupom cambial limpo à vista e a termo foi possível observar superioridade no poder explicativo da última com relação à primeira, com três componentes principais sendo responsáveis por mais de 94% da variabilidade explicada na aplicação da análise de componentes principais à curva a termo de cupom cambial. A superioridade dos resultados obtidos na análise da curva a termo de cupom cambial também pôde ser observada na interpretação visual dos componentes de nível, inclinação e curvatura (interpretação esta que não pôde ser claramente obtida na análise dos gráficos referentes à curva à vista de cupom cambial). Este trabalho também teve como objetivo a análise da efetividade de uma aplicação de imunização do risco de variação nas taxas de cupom cambial baseada nos resultados anteriormente obtidos com a análise de componentes principais da curva a termo de cupom cambial. A estratégia de imunização realizada demonstrou alta efetividade na comparação entre os resultados da carteira objeto de imunização (carteira arbitrária de swaps DólarxCDI) e os resultados da carteira instrumento de imunização (contratos futuros de FRA de cupom cambial da BM&F). Este resultado é de grande importância para o gerenciamento de carteiras que possuam títulos expostos ao risco de variações na curva de cupom cambial.
Resumo:
A presente dissertação tem como objeto de estudo a superfície de volatilidade implícita de opções européias da paridade Real / Dólar no mercado brasileiro. Este trabalho não tenta explicar as deformações ou os desvios da volatilidade implícita com relação à hipótese de volatilidade constante do modelo de Black & Scholes (1973), mas trata a volatilidade implícita como uma variável financeira interessante por si só, procurando analisar a dinâmica de sua superfície. Para a análise desta superfície, o presente estudo propõe a utilização de uma ferramenta empregada em estudos empíricos de diversos ramos da ciência: a Análise de Componentes Principais – ACP (Principal Component Analysis). As mudanças na superfície de volatilidade alteram o apreçamento das opções de uma carteira. Desta forma, constituem um fator de risco que precisa ser estudado e entendido para o desenvolvimento de estratégias de imunização e de técnicas de gerenciamento de risco, dentre elas o cálculo de Valor em Risco (V@R – Value at Risk). De posse dos resultados obtidos com a análise de componentes principais da superfície de volatilidade implícita, o presente estudo tem por objetivo obter valores limite de variação desta volatilidade implícita, como forma de estimar as conseqüentes variações extremas nos valores de uma carteira de opções. Para tanto, baseia-se em estudos sobre a aplicação da análise de componentes principais da superfície de volatilidade implícita desenvolvidos por Alexander (2001). Estes estudos, por sua vez, são derivados de estudo sobre a dinâmica de curvas de volatilidade proposto por Derman (1999). Para se verificar a eficiência da metodologia proposta, os valores extremos obtidos são testados de acordo com os critérios de teste retroativo propostos pela emenda ao comitê da Basiléia de 1996.
Resumo:
O objetivo deste trabalho é analisar o desempenho de estimadores de volatilidade que utilizam valores extremos (máximo, mínimo, abertura e fechamento) para ativos no mercado brasileiro. Discute-se o viés dos estimadores usando como referências o estimador clássico, a volatilidade realizada e a volatilidade implícita de 1 mês da série de opções no dinheiro (ATM - at the money); discute-se a eficiência quanto à previsibilidade da volatilidade futura usando o estimador clássico e a volatilidade implícita defasados um período para frente como variáveis dependentes e a eficiência em si, isto é, quanto ao tamanho da variância do estima-dor. Como representantes de ativos brasileiros, foram escolhidos a paridade BRL/USD spot e o Índice Bovespa. Além de bastante líquidos, esses dois ativos têm bastante importância no mercado brasileiro, seja como benchmark para investimentos, bem como ativos-base para muitos derivativos operados na Bolsa de Mercadorias e Futuros (BM&F) e na Bolsa de Va-lores de São Paulo (Bovespa). A volatilidade do ativo-base é uma das variáveis para o apre-çamento de derivativos como opções; muitas estratégias são montadas, no mercado financei-ro, utilizando-a como referência. A volatilidade também é bastante usada no gerenciamento de riscos, em modelos como o Value at Risk (VaR), por exemplo.
Resumo:
Várias metodologias de mensuração de risco de mercado foram desenvolvidas e aprimoradas ao longo das últimas décadas. Enquanto algumas metodologias usam abordagens não-paramétricas, outras usam paramétricas. Algumas metodologias são mais teóricas, enquanto outras são mais práticas, usando recursos computacionais através de simulações. Enquanto algumas metodologias preservam sua originalidade, outras metodologias têm abordagens híbridas, juntando características de 2 ou mais metodologias. Neste trabalho, fizemos uma comparação de metodologias de mensuração de risco de mercado para o mercado financeiro brasileiro. Avaliamos os resultados das metodologias não-paramétricas e paramétricas de mensuração de VaR aplicados em uma carteira de renda fixa, renda variável e renda mista durante o período de 2000 a 2006. As metodologias não-paramétricas avaliadas foram: Simulação Histórica pesos fixos, Simulação Histórica Antitética pesos fixos, Simulação Histórica exponencial e Análise de Cenário. E as metodologias paramétricas avaliadas foram: VaR Delta-Normal pesos fixos, VaR Delta-Normal exponencial (EWMA), Simulação de Monte Carlo pesos fixos e Simulação de Monte Carlo exponencial. A comparação destas metodologias foi feita com base em medidas estatísticas de conservadorismo, precisão e eficiência.
Resumo:
O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.
Resumo:
O planejamento dos recursos hídricos é uma tarefa complexa pois trata diretamente dos interesses de diversos setores da sociedade e gera freqüentemente conflitos pelo uso. Em se tratando de bacias hidrográficas esta relação de interesses se mostra bastante latente pois verifica-se toda a sorte de atividades humanas que se distribuem no espaço, ao mesmo tempo em que se observa o declínio dos recursos ambientais. Assim sendo torna-se evidente a necessidade de se compreender as inter-relações entre as forças que estimulam o processo produtivo na bacia hidrográfica. A tarefa exige um estudo mais amplo da bacia, no qual se considere as relações entre as diversas ações empreendidas pelo homem nesta unidade do espaço geográfico. Neste sentido a alteração do uso do solo se apresenta como um indicador das principais forças que promovem o desenvolvimento de uma região. Compreender como se dá este processo e capturar o padrão de evolução destas atividades no espaço da bacia significa, dentro do contexto dos recursos hídricos, possibilitar um melhor planejamento e gerenciamento das águas, tanto no aspecto qualitativo quanto quantitativo. Esta dissertação discute uma metodologia para simular o padrão de alteração de classes de uso do solo em uma bacia hidrográfica de médio porte. Para isso foram utilizadas técnicas de geoprocessamento, sensoriamento remoto e modelagem matemática. Foram considerados agentes motivadores da alteração do uso do solo a declividade do terreno e as distâncias das rodovias, dos centros urbanos e dos cursos d’água. Os resultados obtidos mostraram que a bacia de estudo avança no sentido de uma ação de degradação cada vez mais intensa em algumas regiões, caracterizada pela ocupação de áreas nativas e pela provável remoção da mata ciliar ao longo dos cursos d’água. Observou-se também que existe uma inércia maior com relação às alterações justamente nas regiões mais afastadas do centro urbano e das rodovias federais.
Resumo:
Técnicas atuais de Gerenciamento da Drenagem Urbana preconizam que a drenagem da água da precipitação seja realizada com o uso de dispositivos de controle que agem na fonte do escoamento superficial. Tais dispositivos têm o objetivo de recuperar a capacidade natural de armazenamento do solo, reduzida devido aos impactos da urbanização. Com o desvio do escoamento das áreas impermeáveis para esses dispositivos, o solo recupera as condições de escoamento anteriores à urbanização. A presente dissertação descreve um experimento inédito no Brasil, onde foi aplicada a técnica do Pavimento Permeável. Foi montado um aparato experimental que possibilita o monitoramento do desempenho do dispositivo, com o objetivo principal de analisar a viabilidade técnica da utilização de um pavimento permeável de baixo custo e tecnologia simples, no controle da geração de escoamento superficial na fonte. Com o trabalho, permitiuse uma maior difusão do conhecimento e propagação da técnica, ainda pouco dominada pelos engenheiros e contratantes. A obra consta de um lote de estacionamento de aproximadamente 264m2, que foi dividido em duas partes iguais, onde foram utilizados os seguintes revestimentos: asfalto poroso, de granulometria aberta; blocos vazados intertravados de concreto. O experimento foi projetado para permitir o monitoramento quali-quantitativo dos escoamentos nos dois tipos de pavimento, com relação à redução no escoamento superficial, quando sujeitos às condições de tráfego encontradas na prática, no lote de estacionamento situado próximo ao bloco de ensino do IPH/UFRGS. São discutidos aspectos relacionados às condições de funcionamento, adequação dos materiais empregados, eficiência do dispositivo e custos envolvidos. A avaliação da eficiência hidráulica-hidrológica do dispositivo foi feita através do monitoramento e análise de dados de precipitação, armazenamento no reservatório, escoamento superficial e umidade no solo subjacente. O pavimento permeável se mostrou uma técnica eficiente de controle na fonte do escoamento superficial. Foram obtidas taxas médias de 5% de escoamento superficial para a superfície com revestimento asfáltico, e de 2,3% para o revestimento em blocos vazados intertravados. Os dados de armazenamento mostraram que em nenhum evento o volume armazenado superou 25% da capacidade máxima do reservatório. Ainda com base nesses dados, verificou-se que a metodologia de dimensionamento utilizada super-dimensionou a estrutura reservatório. A importância do dimensionamento preciso da estrutura é evidenciada pela estimativa dos custos, onde se verifica que o reservatório de britas contribui para uma significativa parcela dos custos totais.
Resumo:
A evolução das redes de computadores criou a necessidade de novos serviços de rede que fornecessem qualidade de serviços nos fluxos de dados dos usuários. Nesse contexto, uma nova área de pesquisa surgiu, o gerenciamento de QoS, onde foram apresentadas novas tarefas para o gerenciamento de recursos de rede que fornecem QoS. Uma delas, a descoberta de QoS, é responsável por identificar alvos numa rede de computadores. Um alvo é uma entidade capaz de implementar funcionalidades para o fornecimento de QoS. Essa dissertação apresenta uma proposta de modelo para a descoberta de QoS. O modelo é composto por duas partes: metodologia e arquitetura. A metodologia define os procedimentos para a realização da descoberta de QoS, enquanto a arquitetura define entidades que implementam tais procedimentos bem como o relacionamento entre essas entidades. O modelo proposto também tem por objetivo ser extensível, escalável e distribuído. Além disso, um protótipo baseado no modelo é apresentado.
Resumo:
O crescente aumento pela exigência de funcionalidades na implementação dos atuais sistemas de automação predial, vem provocando um aumento da complexidade de projeto e de gerenciamento desses sistemas. O grande desafio que se apresenta atualmente é como, a partir de dispositivos isolados e subsistemas, conseguir sistemas totalmente integrados, os quais permitam economia no investimento inicial, na operação e na manutenção dos sistemas de automação, garantindo um aumento no desempenho geral da edificação Acredita-se que uma etapa importante para avaliar a real necessidade da integração seja projetar o sistema de automação sem foco em uma tecnologia específica, o que não ocorre atualmente, uma vez que, pela carência de ferramentas de apoio ao projeto, as etapas de especificação e projeto geralmente já estão focadas em uma tecnologia disponível para implementação. Este trabalho busca preencher a lacuna deixada pela carência dessas ferramentas, tendo por finalidade a especificação de um framework orientado a objetos para o desenvolvimento de aplicações de automação predial e residencial que permita modelar estes sistemas de forma independente da tecnologia que ele irá utilizar, possibilitando o mapeamento posterior para a mais adequada ou disponível. Serviram como base para o framework proposto a análise de vários padrões abertos disponíveis para implementação de sistemas de automação predial e a especificação ISO/IEC10746, o modelo de referência para processamento distribuído aberto, usado como suporte a metodologia de projeto proposta. O trabalho também discute o mapeamento dos conceitos definidos para uma arquitetura alvo, apresentado um estudo de caso para validação da metodologia proposta.
Resumo:
Identificar, compartilhar e gerenciar os riscos de contratar são preocupações que impedem o estabelicmento e a administração das Parcerias Públicos Particulares (PPP). Porem, gerentes das entidades públicas, bancos de formento, construtoras e seguradoras pesquisam e utilizam muitas técnicas para enfrentar a avaliação e gerenciamento dos riscos. A transferência de risco é uma indicação dos chamados benefícios que são inspirados pelos PPP, contudo devido às realidades contratuais e conceptuais, a entidade de cede o risco (o partido público) permanece quase sempre como o portador final do risco. Conseqüentemente, o partido público retem um interesse de resistência na gerência total destes riscos cedidos. Esta dissertação explora alguns defeitos das aproximações comuns a conceituar a gestão de risco no contexto de um PPP. Focalizando os conceitos da interdependência e da reciprocidade e usando na decisão para transferir o risco do projeto, esta dissertação molda a decisão para transferir o risco nos termos das realidades interdependentes de relacionamentos sistemáticos, alargam os conceitos técnicos do risco e da avaliação de risco, considerando o uso reflexivo das diferenças na analise de um estudo de caso. O autor explora estes conceitos em uma análise da decisão de um gerente de risco da empresa de construção civil brasileira Construtora Norberto Odebrecht (ODB) para projetar uma facilidade inovadora da ligação de garantia com Inter-American Development Bank (BID) e uma seguradora, American International Group (AIG), um negócio que ganhe o reconhecimento Trade Finance Magazine’s 2007 deal of the year. O autor mostra que por compreender a transferência de risco nos termos abordados nesta dissertação, um atore que transfere o risco pode identificar e criar mais oportunidades de estabelecer relacionamentos em longo prazo, através dos processos que a literatura atual do PPP ainda não considere. Os resultados devem fornecer contribuições para a pesquisas sobre a transferência do risco do projeto, na cooperação entre organizações e na seleção do sócio do projeto do potencial.
Resumo:
O sistema produtivo orgânico está sujeito a uma série de variáveis, as quais afetam o processo decisório do gestor, pois indicam características e probabilidade de resultados, como em qualquer sistema. A necessidade de uma fundamentação informacional confiável e organizada, para auxiliar o gerenciamento da produção orgânica, foi o fato gerador dessa pesquisa. Assim, por exemplo, para definir qual variedade convém plantar, é preciso conhecer o solo, o clima, a capacidade de liberação de nutrientes, etc, a fim de escolher a varietal mais adequada às condições específicas do local e obter a melhor produtividade possível. A produção orgânica busca interagir, convivendo com a heterogeneidade encontrada no ecossistema, evitando fortes impactos ambientais, embora aumentando o número de variáveis, se comparado à produção industrial. Através do método ABC – custeio baseado em atividades, foram planificadas e analisadas as atividades do sistema produtivo de alface orgânica na empresa Porto Verde, responsável por produção e comercialização de verduras orgânicas. Para implantar o método ABC no sistema estudado, foi desenvolvido e testado um modelo de aplicação do ABC na produção de alface orgânica, de modo que em casos semelhantes possa ser repetida a pesquisa. A análise dos dados permitiu quantificar comparações entre cultivos, onde conhecimento dos defeitos e vantagens de cada um auxiliam o gestor no processo decisório. Comparativamente é possível identificar aprimoramentos a serem feitos nos mais diversos cultivos, que possuem suas características distintas. Isto se explica, não apenas no nível operacional de remediar situações ainda durante o cultivo, como também no nível estratégico, subsidiando o planejamento de futuros cultivos.
Resumo:
As rápidas mudanças que se desenvolvem no planeta varrem conceitos antigos, alteram estratégias de empresas e mudam o comportamento de governos e nações. O agronegócio não fica incólume neste intenso processo. As políticas agrícolas e a estrutura do setor passam por ajustes e revisões. Dentro desta linha de pensamento, um cenário que se torna cada vez mais evidente é a competição entre cadeias, além da competição entre empresas de forma isolada. Nesta perspectiva, o gerenciamento da cadeia de abastecimento pode ser considerado um importante vetor na competitividade da cadeia, no momento em que preconiza a customização das atividades que agregam valor, integrando cada vez mais clientes e fornecedores. Mas para a efetividade deste gerenciamento, a gestão da informação ao longo da cadeia assume importância maior ainda, em relação ao seu uso nas empresas de forma isolada. Dentro do ambiente de mudanças do agronegócio, após a abertura da economia brasileira de 1990, a cadeia de abastecimento do arroz vem passando por intensas transformações para se manter competitiva. Dentre estas, surge o arroz orgânico como forma de segmentar mercados consumidores através da diferenciação, e o que é mais importante, a adição de valor ao produto, desde a produção rural. Por se tratar o arroz orgânico de um produto diferenciado, pressupôs-se que a cadeia de abastecimento para este produto, apresente diferenças da cadeia de abastecimento para o arroz commodity. Considerando isto é que se objetivou com esta pesquisa “analisar o processamento da informação na cadeia de abastecimento do arroz com transações de dois tipos de produtos: arroz commodity e arroz orgânico”. O método científico utilizado foi o estudo de caso, onde foram levantados dados e fatos dos agentes que formam os elos da cadeia de abastecimento do arroz commodity e do arroz orgânico, para subsidiar as análises necessárias a atingir o objetivo proposto. As principais conclusões a que se chegou são: quanto à cadeia, esta apresenta diferenças que vão desde as relacionadas aos produtos, até as transações realizadas entre os agentes da cadeia. Quanto à informação ao longo da cadeia, o agente de produção do arroz commodity e do arroz orgânico, é o elo que menos utiliza informações sistematizadas em suas decisões. Também, que existem diferenças nos fluxos de informações ao longo da cadeia de abastecimento quando ocorrem transações com arroz commodity e quando com arroz orgânico. Estas diferenças vão desde as informações trocadas, o conteúdo e objetivos com que são trocadas, o sentido e o envolvimento dos departamentos dos agentes da cadeia. Pode-se acrescentar ainda, que em transações com arroz orgânico houve maior diálogo entre os agentes ao longo da cadeia, que foi mais representativo no segmento Produção x Beneficiamento.
Resumo:
A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.
Resumo:
Pesquisas de ordem ambiental têm sido objeto de estudos de diversas áreas do conhecimento. No âmbito da Engenharia Civil, o foco tem se voltado no gerenciamento e redução do volume de resíduos gerados, bem como no aprimoramento dos materiais e sistemas utilizados. Conseqüência direta disso são os recentes avanços no desenvolvimento de novos materiais e no aproveitamento de resíduos de outros setores produtivos como subprodutos de valor agregado na cadeia produtiva da construção civil. Desse modo, estudar as possibilidades de reciclagem de resíduos em materiais de construção adquire uma nova dimensão, que extrapola a intenção pura e simples de desenvolver um novo produto. Dentro de uma abordagem holística, deve-se pensar em trabalhos que envolvam reciclagem como contribuintes na criação de subprodutos com valor agregado, bem como suscitadores de discussões mais amplas de desenvolvimento sustentado. O setor de blocos de concreto para pavimentação, por sua vez, tem demonstrado um grande potencial de expansão de mercado, tanto na pavimentação de vias de tráfego intenso como também na urbanização de cidades como elementos de paisagismo. Feitas tais considerações, este trabalho objetiva avaliar as potencialidades de utilização de escórias granuladas de fundição, resíduos da produção de ferro fundido, aqui denominadas EGF, na fabricação de blocos intertravados de concreto para pavimentação A partir de contextualização do tema, procura-se avaliar as vantagens da EGF nestes blocos, como substituição parcial do cimento e também como substituição parcial do agregado miúdo. Para ambas as situações, foram realizados ensaios de resistência mecânica à compressão, desgaste por abrasão e absorção de água, em concretos com diferentes teores de substituição (10, 30 e 50%). O teor de 10% de EGF como substituição parcial de cimento foi o que mais se aproximou do desempenho dos blocos referência. Os resultados também demonstram que não há diferenças significativas entre os blocos referência e o blocos com EGF, quanto ao desgaste por abrasão e absorção de água.