1000 resultados para Medida de velocidade
Resumo:
o objetivo principal da pesquisa é analisar a influência conjunta do tamanho e da velocidade de deformação (ou velocidade de alongamento) nas propriedades mecânicas do aço, procurando determinar a possível existência de acoplamento produzido com a variação conjunta dos dois parâmetros. A pesquisa inclui a revisão bibliográfica, a análise teórica do assunto e um estudo experimental com 130 corpos de prova de diferentes tamanhos, extraídos duma única chapa grossa de aço, ensaiados com diferentes velocidades de deformação, obtendo resultados de distintas variáveis (resistência à tração, deformação de ruptura, energia consumida por unidade de volume, deformação correspondente à resistência à tração e redução da área na zona de escoamento). As principais conclusões da análise teórica são: a) Levando em consideração que o conceito de comprimento característico do material é de fundamental importância para interpretar o efeito de tamanho, se determina a forma geral da função f que define o fenômeno, para materiais com um e dois comprimentos característicos. b) Por analogía, para analisar o efeito produzido pela velocidade de deformação se pode supor a existência de uma, o mais de uma, velocidade de deformação característica do material, resultando uma função f que tem a mesma forma geral que no efeito de tamanho. c) Os atuais modelos que interpretam os efeitos de tamanho e de velocidade de deformação podem ser expressados na forma das expressões gerais encontradas. d) Também se determina a forma geral da função.f que define o efeito conjunto de tamanho e de velocidade de deformação quando não existe acoplamento das duas variáveis e no caso geral de um material com um comprimento e uma velocidade de deformação característica Os principais resultados do estudo experimental são: a) A variação das propriedades quando varia o tamanho, a velocidade de deformação, a posição na espessura e a região da qual é extraído o corpo de prova. b) Existe acoplamento dos dois efeitos claramente significativo para a resistência à tração e a deformação correspondente à resistência à tração, apenas significativo para a deformação de ruptura e a energia consumida por unidade de volume e não significativo para a redução da área na zona de escoamento. c) Do estudo experimental da resistência à tração resulta que o acoplamento dos dois efeitos é tal que quando aumenta a velocidade de deformação e diminui o tamanho o efeito conjunto se acentua e quando diminui a velocidade de deformação e aumenta o tamanho o efeito conjunto se atenua. d) Com base nos critérios existentes que analisam os dois efeitos por separado é deíinido um novo critério para a resistência à tração, incorporando termos que permitem interpretar o acoplamento dos dois efeitos, obtendo um melhor resultado que reduz a soma de quadrados dos resíduos em 20 % . As conclusões da tese proporcionam maior informação teórica e experimental dos efeitos de tamanho e de velocidade de deformação nas propriedades mecânicas dos materiais que podem contribuir para adotar decisões na consideração destes efeitos nas estruturas.
Resumo:
O entendimento do processo de fabricação por usinagem passa pelo estudo de fenômenos de formação de cavaco, esforços de corte, qualidade superficial do material usinado, mecanismos de desgaste de ferramenta e a influência de parâmetros de corte e tipo de material usado sobre essas variáveis. Neste contexto, o objetivo principal deste trabalho é analisar os efeitos do desgaste de ferramenta sobre as forças de corte e a rugosidade dos componentes usinados. O procedimento adotado foi a realização de ensaios de usinabilidade de longa duração em torneamento cilíndrico externo, durante os quais foram medidos desgaste de flanco, força de corte, força de avanço e rugosidade média dos componentes usinados. Os ensaios foram realizados para os aços ABNT 1040 e 1045 usando ferramentas de metal duro com revestimento duplo (TiN-Al2O3). Os resultados de vida de ferramenta foram analisados através da equação de Taylor, com maiores vidas de ferramenta observadas para o aço ABNT 1040 em todas as velocidades de corte testadas. As demais variáveis medidas foram analisadas em função do tempo de usinagem, desgaste de flanco máximo e acabamento superficial No domínio do tempo, foram encontradas correlações fortes para o desgaste de flanco máximo, força de corte e força de avanço para ambos os materiais. A relação entre a rugosidade média e o tempo de corte observada foi mais “estável” para o aço ABNT 1040. Contudo, variações no comportamento da rugosidade média foram observadas na velocidade de corte inferior usada na usinagem do aço ABNT 1045, devido ao desgaste mais lento do raio de ponta de ferramenta. Não se observou relação entre as forças de usinagem e a rugosidade média. A relação entre a força de corte e o desgaste de flanco máximo apresentou forte correlação para ambos os materiais, assim como a relação entre a força de avanço e o desgaste de flanco máximo, sendo realizada regressão linear para ambas as relações. Foi observada fraca influência da velocidade de corte nas relações força-desgaste de flanco, o que sugere que uma única equação pode descrever estas relações para toda a faixa de condições de corte estudada. Os resultados da análise de regressão permitem a determinação do desgaste de flanco máximo em função da força de corte com um erro médio de 15% para os aços ABNT 1040 e 1045. Para a previsão do desgaste de flanco em função da força de avanço, o erro médio encontrado foi de 19% para o aço ABNT 1040 e 15% para o aço ABNT 1045.
Resumo:
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.
Resumo:
O presente trabalho busca entender a importância dos veículos de securitização enquanto ferramenta de capitalização para empresas pequenas e médias, bem como elucidar como essa forma de capitalização afeta o desempenho e o valor da empresa, sob a ótica das teorias de Finanças Corporativas. Esta dissertação busca ainda mostrar que o uso desses veículos elevará o índice de capital de terceiros sobre capital próprio nas empresas brasileiras, e de qualquer outro país que venha a instituir o ferramental de securitização. Da mesma forma, pretende-se demonstrar que, com a instauração de tais instrumentos, ocorre uma ampliação na velocidade de crescimento de empresas eficientes e uma maior aproximação da Teoria I de Modigliani e Miller, a realidade. O presente trabalho resume os principais fatores que influenciam na determinação da relação entre capital próprio e de terceiros. Busca, também, compreender como esses tópicos se alteram na medida em que são instituídos veículos de securitização.
Resumo:
O ferrato(VI) de potássio, composto fortemente oxidante, foi testado em uma coluna de absorção de gases a fim de remover o NO presente em gases oriundos de fontes fixas de queima de combustíveis fósseis. O poder oxidativo do ferrato(VI) e seu comportamento através da cinética de decaimento do NO foram avaliados com o propósito de melhor entender a reação de oxidação. O sistema lavador de gases foi constituído por três subsistemas: o primeiro, um cilindro contendo uma mistura de NO/N2 com concentrações de NO de 50 e 98 ppm; o segundo, os lavadores de gases, constituído por dois reatores/lavadores com capacidade de 1.000 mL que foram completados com 600 mL de solução lavadora e com 400 mL de anéis de Rasching de vidro e um terceiro, reator/lavador que continha 400 mL da mesma solução dos demais, sem os anéis; o terceiro subsistema, constituído por equipamentos analisadores de NO e NO2. Os equipamentos de medição foram os da marca Oldham, modelo TX 2000, para NO, com escala de medida de 0-100 ppm NO e TX 2000, para NO2, com escala de medida de 0-30 ppm NO2. O ferrato(VI) de potássio foi obtido via úmida e analisado por volumetria de oxidaçãoredução. Os testes de oxidação foram realizados à temperatura de 25oC ± 0,5oC e pressão de uma atmosfera. Inicialmente, testou-se técnicas padrões de remoção de NO de gases a frio. Hidróxido de sódio e hidróxido de potássio tem sido empregados comercialmente na remoção de NOx. As soluções de hidróxido de potássio e de sódio apresentaram a mesma remoção de NO quando a concentração inicial do NO no gás foi de 50 ppm. A maior eficiência de remoção de NO deu-se para a razão molar de 5 OH / 1 NO em cinco minutos de tempo de detenção, utilizando solução de ferrato(VI): 86% para a concentração inicial de 50 ppm e 85% para a concentração inicial de 98 ppm. Os resultados experimentais mostram que a solução de ferrato(VI) de potássio apresentou eficiência de remoção 25% superior à das outras soluções testadas. Apesar das reações de oxidação do NO serem bastante complexas, em função dos resultados analíticos realizados em termos de nitritos e nitratos, pode -se concluir que o NO é oxidado a NO2 e este passa a NO2 - e NO3 2- em solução, confirmando o mecanismo proposto por diversos autores. A abordagem cinética mostrou que a reação de oxidação pelo íon ferrato(VI) é de primeira ordem em relação ao NO e a constante média de velocidade de reação resultante dos dados experimentais foi de 9,80 x 10-4 s-1. A viabilidade técnica do uso do ferrato(VI) de potássio como oxidante do NOx em torres absorvedoras de gases foi comprovada, pois o composto mostrou-se um eficiente oxidante para o NO nas condições testadas.
Resumo:
Este trabalho analisa, através do emprego de simulador físico, os efeitos da adição do nióbio no aço SAE 1141 e seu comportamento como refinador de grão e endurecedor por precipitação, nas altas temperaturas de forjamento e tempos de reaquecimento aplicados industrialmente. Analisa também qual a influência das deformações e velocidades de resfriamento sobre o tamanho de grão austenítico, microestrutura, dureza, cinética da precipitação e propriedades finais. Na definição dos parâmetros de simulação foram observadas rotinas de produção de peças forjadas comercialmente, a literatura técnica, e possíveis alterações que otimizassem as propriedades do aço em estudo. Para tanto foram definidas as temperaturas de forjamento 1100, 1200 e 1250°C, a taxa de deformação de 1/s, as deformações de 30, 50 e 70%, e as velocidades de resfriamento de 36, 60, 100 e 150°C/min. Os resultados indicaram que a velocidade de resfriamento tem papel preponderante na microestrutura final, que variou de um agregado de ferrita e perlita para bainita (às vezes com alguma martensita) a medida em que a velocidade de resfriamento aumenta. A simulação térmica indicou que tamanho de grão austenítico aumenta a medida em que se eleva a temperatura de reaquecimento e que existe apenas um pequeno efeito ancorador de grão do nióbio nesse quesito, quando não estiver presente alguma deformação Foi observado, através da simulação física que, com a presença de deformação, principalmente para as temperaturas menores de reaquecimento, a precipitação induzida por deformação parece ancorar o crescimento dos grãos recristalizados, resultando num tamanho de grão austenítico menor. Esse trabalho constitui parte integrante do projeto de desenvolvimento da tecnologia dos aços microligados, num esforço conjunto do Laboratório de Metalurgia Física – LAMEF, através do Grupo de Desenvolvimento de Aços Microligados, da Universidade Federal do Rio Grande do Sul, em parceria com a Aços Finos Piratini e DANA – Albarus, com o apoio da CAPES.
Resumo:
Este trabalho utilizou a medida da uréia sérica para a predição do valor biológico de proteína para cães. Foram utilizados nove cães filhotes, que foram submetidos a três diferentes experimentos. No primeiro experimento o objetivo foi determinar o pico máximo de uréia plasmática após a alimentação. Os animais foram alimentados com uma dieta contendo 30% de proteína. Após a alimentação os animais foram submetidos a cinco coletas de sangue, realizadas em um espaço de 1h entre cada coleta. Este experimento determinou, de forma significativa, que o pico máximo de uréia após a alimentação é 3:01h. Portanto este foi o horário para a coleta nos experimentos subseqüentes. No segundo experimento os animais foram alimentados com dietas contendo níveis crescentes de proteína, objetivando relacionar diferentes níveis de proteína, com valores de uréia sérica. Foram utilizadas dietas contendo 19, 24, 30, 36, e 41% de proteína. Foi demonstrado, de forma significativa (P<0,001), um crescimento linear nos níveis de uréia plasmática a medida em que aumentou o teor de proteína. O terceiro experimento relacionou diferentes níveis de inclusão de aminoácidos com os seus respectivos níveis resultantes de uréia plasmática. Foram utilizadas relações met-cis/lisina de 0,58, 0,62, 0,66 e 0,70. Foi demonstrado, de forma significativa (P<0,0001), que aumentando-se à inclusão de aminoácidos, diminuíram linearmente os níveis de uréia sérica, supondo que níveis maiores de inclusão de aminoácidos possam vir a ser benéficos para cães em crescimento.
Resumo:
Neste trabalho elaboramos cinco atividades experimentais que envolvem o uso do microcomputador como instrumento de medida no laboratório didático de Física. As atividades são do tipo aberto, de modo que os alunos tenham a oportunidade de explorar, testar e discutir soluções para todo o processo de medida, desde o uso de sensores nos sistemas de detecção, à conversão analógica/digital, passando pelos softwares. Somente depois de medidas manuais, o aluno passa à aquisição automática. Há guias impressos para alunos, com questões, desafios e sugestões de tarefas a serem executadas, e um texto de apoio para professores, contendo embasamento teórico e técnico indispensáveis para a compreensão do processo de aquisição automática. Os tópicos tratados são: sensores, medidas de tempo, e ondas mecânicas transversais (em cordas) e longitudinais (sonoras). O embasamento teórico para o desenvolvimento da proposta está apoiado na teoria sócio-interacionista de Vigotsky, na qual o desenvolvimento cognitivo não pode ser entendido sem referência ao contexto social, seus signos e instrumentos. Todas atividades foram testadas em condições de sala de aula em turmas de ensino médio e tecnológico da Unidade de Ensino do CEFET/RS, em 2003, e no curso de extensão Física para o Ensino Médio II, do Instituto de Física da UFRGS, em 2004. O produto educacional deste trabalho consiste em um texto de apoio para professores do ensino médio sobre o uso do microcomputador como um instrumento de medida, guias para alunos das cinco atividades experimentais envolvendo aquisição automática de dados e um hipertexto, disponível na web, baseado em animações do tipo Java Applet (Physlet).
Resumo:
A medida da translucência nucal (TN) entre 11 e 14 semanas de gestação é um exame ultra-sonográfico que mede a camada líquida na região cervical posterior do feto, sendo observado um aumento de espessura nas anomalias cromossômicas, especialmente na trissomia 21. Com sua crescente utilização, outras anormalidades fetais têm sido descritas em associação a um aumento da TN. O objetivo deste trabalho foi avaliar o desempenho da medida da TN na detecção de diferentes anomalias fetais e outros efeitos adversos para a gestação. Realizou-se de um estudo observacional, no período de 1996 a 2004, com gestantes avaliadas no Ambulatório de Aconselhamento Genético para Diagnóstico Pré-natal do Hospital de Clínicas de Porto Alegre por risco aumentado de anomalia congênita, e que haviam realizado a medida da TN. Foram consideradas adequadas as TN realizadas de acordo com a padronização da Fundação de Medicina Fetal de Londres, e aumentadas aquelas TN com valor cima do percentil 95 para idade gestacional. Das 443 gestantes avaliadas, 38 seguimentos foram perdidos, 4 gestações estavam em curso na análise final dos dados, finalizando 401 gestações com desfecho conhecido. Em 275 gestações com TN adequada, a medida aumentada foi significativamente associada a anormalidades congênitas em geral (p 0,000000), cromossomopatias (p 0,000059) e perdas gestacionais (p 0,000000), sendo aumentada em oito dos 14 casos de cromossomopatia e em 6/7 dos casos com Síndrome de Down. Por outro lado, no grupo das TN inadequadas (126 casos), a associação entre TN aumentada não foi significativa para defeitos congênitos em geral (p 0,641396), nem para cromossomopatias (p 0,329194) ou perdas gestacionais (p 0,096092). Especificamente com relação aos erros inatos do metabolismo (EIM) no feto, foram localizados relatos e séries de casos com TN aumentada em dez diferentes EIM. Nas dezenove gestantes com história familiar de EIM e com medida da TN, houve um caso de uma menina afetada por MPS I com TN aumentada, e um de Raquitismo Resistente à Vitamina D com TN normal. Nos outros 17 casos, a medida da TN foi normal e não havia evidência de um EIM. Entre as novas associações de TN aumentada com síndromes genéticas, relatamos um paciente com Síndrome de Artrogripose, Anomalia renal e Colestase (ARC), cuja análise molecular na Universidade de Birmingham identificou uma mutação sem sentido (1518C>T) em homozigose no gene VPS33B. Concluiu-se que o desempenho da TN na detecção de anomalias congênitas depende da qualidade do exame, sendo que uma medida adequada aumentada está significativamente associada a defeitos congênitos, cromossomopatias e a outros desfechos gestacionais adversos, e que a sensibilidade da TN é especialmente elevada na detecção da síndrome de Down.
Resumo:
Over the last 40 years there has been a profusion of studies about the ccumulation of technological capacities in firms from developing economies. However, there remain few studies that examine, on a combined basis, the relationship among: the trajectories of technological capacities accumulation; the underlying learning mechanisms; and, the implications of organizational factors for these two variables. Still scarcer are the studies that examine the relationship among these variables along time and based on a comparative case study. This dissertation examines the relationship among the trajectory of accumulation of innovative capacities in complex project management, the learning mechanisms underlying these technological capacities and the intra-organizational factors that influence these learning echanisms. That set of relationships is examined through a comparative and a long-term (1988-2008) case study in a capital goods firm (for the pulp and paper industry) and a pulp mill in Brazil. Based on first-hand quantitative and qualitative empiric evidence, gathered through extensive field research, this dissertation found: 1. Both firms accumulated innovative capacity in project management at the international frontier level (Level 6). However, there was variability between the firms in terms of the nature and speed of accumulation of those capacities. It was also observed that, at this level of innovation, the innovative capacities of both firms are not confined to their organizational boundaries, but they are distributed beyond their boundaries. 2. So that these companies could accumulate those levels of innovative capacities it was necessary to manage several learning mechanisms: leveraging of external knowledge and its internalization in terms of internal apacities of the firm. In other words, as the companies accumulated more innovative levels of capacities for project management, it was necessary to manage different cycles of technological learning. 3. Further, the relationship between the ccumulation of technological capacities and learning was affected positively by intra-organizational factors, such as 'authority disposition', 'mutability of work roles' and 'intensity of internal crises', and negatively by the factor 'singularity of goals'. This dissertation revealed divergent results between firms in two of the four factors studied. These results contribute to advance our understanding of the complexity and variability involved in the process of accumulation of innovative capacities in firms from developing economies. This highlights the growing importance of the organizational and the human resource dimensions of innovation and technological capacity as the company approaches the international frontier. The results suggest to managers that: (i) the good performance in project management in the two firms studied did not occur simply as a result of the pulp and paper Brazilian industry growth, rather as a result of the deliberate construction and accumulation of the capacities through an intensive and coordinated cyclical process of technological learning, (ii) to develop innovative capabilities in project management, besides looking for learning mechanisms they should also look at the organizational factors that influence the learning mechanisms directly, (iii) performance of pulp mill¿s projects is better when projects are implemented together with technology suppliers than when performed only by the mill. This dissertation concludes that capital goods firms have been having a fundamental role for the innovative capabilities accumulation in project management of pulp mills in Brazil (and vice-versa) for a long time. This contradicts some authors' propositions that affirm that: a) equipment suppliers for the pulp and paper industry have been creating little, if any, development of processes or engineering projects in Brazil; b) firms in the pulp and paper industry have little capacity for machinery and equipments projects only taking place in few technological activities, being internal or external to the firm. Finally, some studies are proposed for future research.
Resumo:
The Internet has taken the world by storm. It has eliminated the barriers of technology, and unlocked the doors to electronic commerce and the 'Virtual Economy'. It has given us a glimpse into the future of 'Business' itself, and it has created a bewildering variety of choices in our personal and professional lives. It has taken on a life of its own, and we are all frantically trying to keep up. Many overwhelmed companies are asking questions like: 'What should our Internet Strategy be?' Or 'How do we put our business on the Internet like everybody else is doing?' or 'How do we use this thing to make money without spending any?'. These questions may seem reasonable on the surface, but they miss the point because they focus on the technologies rather than the core issues of conducting day-to-day business. The Internet can indeed offer fast returns in marketing reach, speed, director consumer sales and so on, and many companies are using it to good advantage, but the highest and best use of any such technology is to support, enhance and even re-invent the fundamentals of general business practice. When the initial excitement is over, and companies gain experience and confidence with the new business models, this larger view will begin to assert itself. Companies will then start to position their 'Internet Strategies' in context of where the business world itself is going over time, and how they can prepare for what is to come. Until now, the business world has been very fragmented, its collective progress limited (in part) by the inability to communicate within and between companies. Now that the technical remedy seems to be at hand and standards are beginning to emerge, we are starting to see a trend toward consolidation, cooperation, and economic synergy. Companies are improving their internal business processes with Intranets, and Electronic Commerce initiatives have sprung up using EDI, the World Wide Web, E-Mail, secure credit card payments and other tools. Companies are using the Internet to talk to each other and to sell their goods and services to the end consumer. Like Berlin, the walls are coming down because they have to. Electronic 'Communities of Common Interest' are beginning to surface, with the goal of supporting and aligning similar industries (such as Government, Insurance, Transportation and Health care) or similar business functions (such as Purchasing, Payments, and Human Resources). As these communities grow and mature, their initial scope will broaden and their spheres of influence will expand. They will begin to overlap into other communities, creating a synergistic effect and reshaping the conduct of business. The business world will undergo a gradual evolution toward globalization, driven by economic imperatives and natural selection in the marketplace, and facilitated by Electronic Commerce and Internet technologies. The business world 'beyond 2000' will have a substantially different look and feel than that which we see today.
Resumo:
Este artigo examina a hipótese de convergência de renda per capita entre os estados brasileiros no período de 1970 a 2005. Comentam-se os resultados encontrados para sigmaconvergência medida através de indicadores de desigualdade, como o índice de Theil e coeficiente de variação. Para testar a existência ou não de convergência aplica-se além da metodologia tradicional de beta convergência baseada em regressões de cross-section, a técnica de estimação de GMM em primeira diferença para painel dinâmico. Além disso, com a finalidade de obter a distribuição de renda de longo prazo da economia, utiliza-se a metodologia de cadeia de Markov proposta por Quah (1993). A conclusão do estudo é de que os estados brasileiros já estão muito próximos ao seu steady-state. A velocidade de convergência quando se utiliza o método de GMM eleva-se para 15%, enquanto os resultados obtidos para estudos de cross-section giram por volta de 1%.
Resumo:
Por meio de um estudo quantitativo, identificou-se que em uma amostra de PMEs industriais exportadoras do estado de São Paulo, a idade de entrada internacional é uma força moderadora, que atua negativamente sobre a relação positiva entre velocidade e crescimento internacionais. Essas relações são fruto da constatação de que as empresas que entraram mais cedo no mercado internacional cresceram mais e mais rapidamente que as firmas que fizeram isso quando mais maduras.
Resumo:
Nos últimos anos, os profissionais que atuam na área da engenharia rodoviária têm se dedicado à busca de tratamentos e soluções de engenharia que conduzam a melhores condições de segurança na malha viária. Entre as soluções de engenharia capazes de contribuir de forma efetiva para a segurança viária, estão as Guias Sonoras. As Guias Sonoras são ranhuras ou saliências que marcam o pavimento das rodovias alertando motoristas desatentos. Este trabalho teve por objetivo sistematizar os conhecimentos existentes sobre o uso de Guias Sonoras no país e no mundo, afim de divulgar um dispositivo de baixo custo e de simples aplicação e manutenção. O estudo aborda questões referentes ao custo do dispositivo, aos seus aspectos construtivos e à sua durabilidade, bem como o seu potencial na redução de acidentes. Foi realizada um ampla pesquisa bibliográfica e um estudo de caso. No estudo de caso realizado, buscou-se (a) verificar a existência de locais com características geométricas que resultam em uma maior propensão à ocorrência de acidentes do tipo saída de pista, principal evento evitável pelo uso das Guias Sonoras,e (b) comparar os custos de implantação do dispositivo com os custos dos acidentes evitáveis pelas Guias Sonoras. O estudo de caso mostrou que acidentes do tipo saída de pista representam aproximadamente 30% do total de acidentes de uma rodovia típica. Esse percentual é compatível com o verificado na revisão bibliográfica. A análise dos segmentos nos quais este tipo de acidente ocorria de forma mais freqüente revelou uma tendência à sua ocorrência em aclives/declives e/ou curvas. De acordo com o comparativo feito entre custos dos acidentes e custos de implantação de Guias Sonoras, o custo de um acidente apenas com feridos equivale à execução de 3,8 quilômetros de Guias Sonoras nos acostamentos da rodovia. Já, o custo de um acidente com vítima fatal equivale à execução de 31 quilômetros de Guias Sonoras. Adicionalmente, constatou-se que o investimento necessário para a implantação do dispositivo nos acostamentos do trecho analisado seria menor do que os custos de acidentes de saída de pista ocorridos no trecho no período de 3 anos.