887 resultados para Geometria computacional


Relevância:

10.00% 10.00%

Publicador:

Resumo:

As pontes rodoviárias mistas (aço-concreto) estão sujeitadas às ações dinâmicas variáveis, por exemplo, devido ao tráfego de veículos sobre a superfície irregular do pavimento. Estas ações dinâmicas podem gerar a nucleação de fraturas ou mesmo a sua propagação sobre a estrutura. A correta consideração desses aspectos objetivou o desenvolvimento de uma metodologia de análise, com a finalidade de avaliar os níveis dos esforços e tensões oriundos do tráfego dos veículos sobre a superfície irregular do pavimento e, bem como, proceder uma verificação à fadiga de obras de arte rodoviárias em aço e mistas (aço-concreto). Para tal, as técnicas para a contagem de ciclos de tensão e a aplicação das regras de dano acumulado foram analisadas através de curvas do tipo S-N, associadas a diversas normas de projeto. A ponte rodoviária mista (aço-concreto) investigada neste estudo é constituída por quatro vigas de aço longitudinais e por um tabuleiro de concreto armado. O modelo numérico-computacional, desenvolvido para a análise dinâmica da ponte, foi concebido com base em técnicas usuais de discretização através do método dos elementos finitos. Simulam-se as almas das vigas de aço e as lajes de concreto do tabuleiro através de elementos finitos de casca. As mesas dessas vigas, transversinas e os enrijecedores são modelados por elementos de viga tridimensionais. Os veículos são representados a partir de sistemas "massa-mola-amortecedor". O tráfego dessas viaturas é considerado mediante a simulação de comboios semi-infinitos, deslocando-se com velocidade constante sobre a ponte. As conclusões da presente investigação versam acerca da vida útil de serviço dos elementos estruturais de pontes mistas (aço-concreto).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A experiência dos engenheiros estruturais e os conhecimentos adquiridos pelo uso de materiais e novas tecnologias, têm ocasionado estruturas de aço e mistas (aço-concreto) de passarelas cada vez mais ousadas. Este fato tem gerado estruturas de passarelas esbeltas, e consequentemente, alterando os seus estados de limite de serviço e último associados ao seu projeto. Uma consequência direta desta tendência de projeto é o aumento considerável das vibrações das estruturas. Portanto, a presente investigação foi realizada com base em um modelo de carregamento mais realista, desenvolvido para incorporar os efeitos dinâmicos induzidos pela caminhada de pessoas. O modelo de carregamento considera a subida e a descida da massa efetiva do corpo em cada passo. A posição da carga dinâmica também foi alterada de acordo com a posição do pedestre sobre a estrutura e a função do tempo gerada, possui uma variação espacial e temporal. O efeito do calcanhar do pedestre também foi incorporado na análise. O modelo estrutural investigado baseia-se em uma passarela tubular (aço-concreto), medindo 82,5m. A estrutura é composta por três vãos (32,5 m, 20,0 m e 17,5 m, respectivamente) e dois balanços (7,5 m e 5,0 m, respectivamente). O sistema estrutural é constituído por perfis de aço tubular e uma laje de concreto, e é atualmente utilizada para travessia de pedestres. Esta investigação é realizada com base em resultados experimentais, relacionando a resposta dinâmica da passarela com as obtidas via modelos de elementos finitos. O modelo computacional proposto adota as técnicas de refinamento de malha, usualmente presente em simulações pelo método de elementos finitos. O modelo de elementos finitos foi desenvolvido e validado com resultados experimentais. Este modelo de passarela tubular permitiu uma avaliação dinâmica completa, investigando especialmente ao conforto humano e seus limites de utilização associados à vibração. A resposta dinâmica do sistema, em termos de acelerações de pico, foi obtida e comparada com os valores limites propostos por diversos autores e padrões de projeto. As acelerações de pico encontradas na presente análise indicou que a passarela tubular investigada apresentou problemas relacionados com o conforto humano. Por isso, foi detectado que este tipo de estrutura pode atingir níveis de vibrações excessivas que podem comprometer o conforto do usuário na passarela e especialmente a sua segurança.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recentemente a utilização de estruturas mistas, aço concreto, vem ganhando espaço nas construções. Isso deve-se principalmente a economia de tempo em sua execução. Além disto, nesta solução a utilização do aço e do concreto otimiza as características estruturais de seus elementos: a resistência a tração do aço e a compressão do concreto. A transferência dos esforços entre os dois materiais possui grande influência no desempenho de uma estrutura mista, sendo comum a utilização de conectores de cisalhamento na região da interface entre estes dois materiais. O Eurocode 4 define um ensaio experimental denominado push-out de modo a determinar a resistência e ductilidade de conectores de cisalhamento. Seu desempenho é influenciado pelas resistências do concreto a compressão, as dimensões e taxa de armadura da laje de concreto, dimensões do perfil de aço, a disposição e a geometria dos conectores e pelas características dos aços utilizados no conector, no perfil e nas barras de reforço. Nota-se com isso uma grande quantidade de variáveis que influenciam o ensaio. Assim, o presente trabalho apresenta o desenvolvimento de um modelo em elementos finitos com base no programa ANSYS para simulação de ensaios push-out. Os resultados numéricos apresentados neste trabalho foram calibrados com resultados obtidos em ensaios experimentais existentes na literatura de ensaios push-out para conectores do tipo pino com cabeça (stud) e conectores tipo perfobond. Estes últimos apresentam elevada resistência sendo influenciados por inúmeros fatores como: número e diâmetro dos furos no conector e a inclusão ou não de barras de reforço extras nestes furos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O reservatório do Lobo, localizado no estado de São Paulo, é um sistema dinâmico no qual se desenvolve um ciclo diurno de estratificação e mistura, de modo similar ao que tem sido observado em outros lagos tropicais. Utilizou-se simulação 3D computacional com os softwares ELCOM (Estuary and Lake Computer Model) acoplado ao CAEDYM (Computacional Aquatic Ecosystem Dynamics Model), ambos desenvolvidos pelo CWR (Center for Water Research) da Universidade da Austrália. Foram realizadas cinco simulações: Piloto Primavera baseada em dados reais da estação no ano primavera no reservatório para o ano de 2007; Primavera-P em que as concentrações de fósforo total, fosfato inorgânico e fosfato total dissolvido foram aumentadas em 100% no reservatório (coluna de água e sedimento) e nos rios tributários; Primavera-V na qual a intensidade dos ventos foi aumentada em 50%; Primavera-T onde a temperatura da água (reservatório e tributários) e do ar foram aumentadas em 10C e, Primavera-X, onde a temperatura da água (reservatório e tributários) e do ar sofreu aumento em 10C, as concentrações de fósforo total, fosfato inorgânico e fosfato total dissolvido foram aumentadas em 100% e a velocidade do vento aumentada em 50%. A concentração de clorofila a foi representada pelos grupos cianobactérias e clorofíceas. O espaço de tempo das simulações representou 90 dias. As clorofíceas apresentaram maior desenvolvimento populacional do que as cianobactérias em todas as simulações. No reservatório, a mistura vertical é ocasionada diariamente pelo vento ou por processos convectivos causados pela perda de calor no corpo de água. A oxigenação do reservatório é maior com a ocorrência de ventos e de grupos fotossintéticos. As concentrações totais de fósforo e nitrogênio apresentaram aumento em todas as simulações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo geral apresentar uma ferramenta computacional auxiliar na gestão dos serviços farmacêuticos bem como alguns resultados alcançados com a sua aplicação na sistematização do atendimento aos usuários do Centro de Atenção Psicossocial álcool e drogas (CAPS ad) do município de Vitória-ES, conhecido como Centro de Prevenção e Tratamento de Toxicômanos (CPTT). O Programa de Gestão em Farmácia Pública (PGFP) Módulo Saúde Mental possui um formato de banco de dados relacional, desenvolvido sob a plataforma Access e possui interface com o gerador de planilhas e gráficos do tipo Excel , aplicáveis a outras farmácias de unidades do tipo CAPS ad. Desde 2004 vem sendo utilizado e aperfeiçoado com uma proposta de informatizar a administração da farmácia, possibilitando a instrumentalização do farmacêutico via emissão de relatórios para a gestão técnica, operacional e estratégica, além de propiciar a avaliação do serviço baseando-se em indicadores sócio demográficos, de morbidade e específicos da Assistência Farmacêutica voltados para o campo da toxicodependência. Para ilustrar o uso do PGFP são apresentados dados pertencentes a 489 prontuários de usuários cadastrados na farmácia no período de janeiro de 2007 a dezembro de 2008, além de 50 prescrições médicas sistematicamente selecionadas para cada ano, coletadas a partir do sistema. Com isso, foi possível elaborar o perfil demográfico, sóciosanitário dos usuários além de aspectos relacionados a Assistência Farmacêutica local. Foi utilizado o programa computacional SPSS 11.5 for Windows para a análise estatística exploratória descritiva (distribuição de freqüências) e inferencial (teste qui-quadrado) dos dados contidos nos prontuários. Dentre algumas dessas análises, observou-se a prevalência do Crack (44%) como substância psicoativa. Revelou que a maioria dos usuários cadastrados são homens (82,4%), com faixa etária prevalente entre 25 e 34 anos (31,7%) e com grau de escolaridade equivalente ao 1 Grau Incompleto (41,3%). Com relação aos aspectos relacionados a Assistência Farmacêutica pode-se observar um No. médio de medicamentos prescritos por receita entre 1,6 1,7 itens/receita; um percentual mínimo de 96% das receitas atendidas na farmácia; e o Clonazepam como o medicamento mais prescrito no período. São citadas algumas limitações do PGFP e dos dados apresentados. Conclui-se o presente estudo fazendo-se alusão a relevância do Programa de Gestão em Farmácia Pública (PGFP), em relação não somente ao seu potencial de uso na gestão estratégica e operacional da Assistência Farmacêutica em Saúde Mental (álcool e drogas), mas fundamentalmente, como importante ferramenta de informação que propicia a elucidação do perfil da drogadição, despertando a percepção para os aspectos ligados à saúde pública e as implicações sócio-econômicas sobre a população em estudo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese tem por objetivo propor uma estratégia de obtenção automática de parâmetros hidrodinâmicos e de transporte através da solução de problemas inversos. A obtenção dos parâmetros de um modelo físico representa um dos principais problemas em sua calibração, e isso se deve em grande parte à dificuldade na medição em campo desses parâmetros. Em particular na modelagem de rios e estuários, a altura da rugosidade e o coeficiente de difusão turbulenta representam dois dos parâmetros com maior dificuldade de medição. Nesta tese é apresentada uma técnica automatizada de estimação desses parâmetros através deum problema inverso aplicado a um modelo do estuário do rio Macaé, localizado no norte do Rio de Janeiro. Para este estudo foi utilizada a plataforma MOHID, desenvolvida na Universidade Técnica de Lisboa, e que tem tido ampla aplicação na simulação de corpos hídricos. Foi realizada uma análise de sensibilidade das respostas do modelo com relação aos parâmetros de interesse. Verificou-se que a salinidade é uma variável sensível a ambos parâmetros. O problema inverso foi então resolvido utilizando vários métodos de otimização através do acoplamento da plataforma MOHID a códigos de otimização implementados em Fortran. O acoplamento foi realizado de forma a não alterar o código fonte do MOHID, possibilitando a utilização da ferramenta computacional aqui desenvolvida em qualquer versão dessa plataforma, bem como a sua alteração para o uso com outros simuladores. Os testes realizados confirmam a eficiência da técnica e apontam as melhores abordagens para uma rápida e precisa estimação dos parâmetros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A demanda crescente por poder computacional estimulou a pesquisa e desenvolvimento de processadores digitais cada vez mais densos em termos de transistores e com clock mais rápido, porém não podendo desconsiderar aspectos limitantes como consumo, dissipação de calor, complexidade fabril e valor comercial. Em outra linha de tratamento da informação, está a computação quântica, que tem como repositório elementar de armazenamento a versão quântica do bit, o q-bit ou quantum bit, guardando a superposição de dois estados, diferentemente do bit clássico, o qual registra apenas um dos estados. Simuladores quânticos, executáveis em computadores convencionais, possibilitam a execução de algoritmos quânticos mas, devido ao fato de serem produtos de software, estão sujeitos à redução de desempenho em razão do modelo computacional e limitações de memória. Esta Dissertação trata de uma versão implementável em hardware de um coprocessador para simulação de operações quânticas, utilizando uma arquitetura dedicada à aplicação, com possibilidade de explorar o paralelismo por replicação de componentes e pipeline. A arquitetura inclui uma memória de estado quântico, na qual são armazenados os estados individuais e grupais dos q-bits; uma memória de rascunho, onde serão armazenados os operadores quânticos para dois ou mais q-bits construídos em tempo de execução; uma unidade de cálculo, responsável pela execução de produtos de números complexos, base dos produtos tensoriais e matriciais necessários à execução das operações quânticas; uma unidade de medição, necessária à determinação do estado quântico da máquina; e, uma unidade de controle, que permite controlar a operação correta dos componente da via de dados, utilizando um microprograma e alguns outros componentes auxiliares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As técnicas inversas têm sido usadas na determinação de parâmetros importantes envolvidos na concepção e desempenho de muitos processos industriais. A aplicação de métodos estocásticos tem aumentado nos últimos anos, demonstrando seu potencial no estudo e análise dos diferentes sistemas em aplicações de engenharia. As rotinas estocásticas são capazes de otimizar a solução em uma ampla gama de variáveis do domínio, sendo possível a determinação dos parâmetros de interesse simultaneamente. Neste trabalho foram adotados os métodos estocásticos Luus-Jaakola (LJ) e Random Restricted Window (R2W) na obtenção dos ótimos dos parâmetros cinéticos de adsorção no sistema de cromatografia em batelada, tendo por objetivo verificar qual método forneceria o melhor ajuste entre os resultados obtidos nas simulações computacionais e os dados experimentais. Este modelo foi resolvido empregando o método de Runge- Kutta de 4 ordem para a solução de equações diferenciais ordinárias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em um ambiente virtual, construído com o uso de tecnologia computacional, encontram-se presentes entidades virtuais inseridas em um espaço tridimensional, que é utilizado para a simulação de processos críticos, como os acidentes radiológicos. A pronta detecção de um acidente radiológico e a determinação da sua possível extensão são fatores essenciais para o planejamento de respostas imediatas e de ações de emergência. A integração das representações georeferenciadas do espaço tridimensional, com modelos baseados em agentes autônomos, com o objetivo de construir ambientes virtuais que tenham a capacidade de simular acidentes radiológicos é a proposta dessa tese. As representações georeferenciadas do espaço tridimensional candidatas são: i)as representações espaciais usadas nos sistemas de informações geográficas (SIG) e ii) a representação adotada pelo Google MapsTM. Com o uso deste ambiente pode-se: quantificar as doses recebidas pelas pessoas; ter uma distribuição espacial das pessoas contaminadas; estimar o número de indivíduos contaminados; estimar o impacto na rede de saúde; estimar impactos ambientais; gerar zonas de exclusão; construir cenários alternativos; treinar pessoal técnico para lidar com acidentes radiológicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação são apresentados resultados de simulações Monte Carlo de fluorescência de raios X (XRF), utilizando o programa GEANT4, para medidas de espessura de revestimento metálico (Ni e Zn) em base metálica (Fe). As simulações foram feitas para dois tamanhos de espessura para cada metal de revestimento, (5μm e 10μm), com passos de 0,1 μm e 0,001 μm e com 106 histórias. No cálculo da espessura do revestimento foram feitas as aproximações de feixe de raios X monoenegético, com a análise da transmissão apenas da energia do K-alfa e para uma geometria compatível com um sistema real de medição (ARTAX-200). Os resultados mostraram a eficiência da metodologia de simulação e do cálculo da espessura do revestimento, o que permitirá futuros cálculos, inclusive para multirevestimentos metálicos em base metálica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A geotecnia constitui uma disciplina relativamente recente na área da engenharia civil, e dessa disciplina faz parte um capítulo ainda menos estudado que trata de fundações submetidas a esforços de tração. O presente trabalho deriva do conjunto de provas de cargas realizado para um importante projeto de linhas de transmissão que permitiu a aferição da teoria de capacidade de carga à tração da Universidade de Grenobel, cujos estudos comparativos mostram bons resultados para fins de aplicações práticas. De posse da extensa documentação técnica produzida e documentada por esse estudo foi possível comparar os resultados obtidos pelas provas de cargas e os resultados teóricos com os resultados das modelagens 2D axisimetricas por elementos finitos. Além dessas análises, foi possível verificar a variação da resistência à tração através de análises paramétricas realizadas a partir da variação da coesão e do ângulo de atrito. Os estudos apresentados reafirmam a confiabilidade das teorias da Universidade de Grenoble, que contemplam a simplicidade desejada às aplicações de cunho prático, com resultados satisfatórios em relação àqueles obtidos nos ensaios de tração. Por outro lado, as análises paramétricas realizadas indicaram a tendência de comportamento que a resistência à tração deve apresentar para diferentes parâmetros do solo. O conhecimento dessas tendências permite ao projetista avaliar os fatores de segurança sob ponto de vista probabilístico, ou seja, permite o emprego de fatores de segurança com o conhecimento da probabilidade de ruína associada. As análises probabilísticas foram traçadas a partir do emprego de funções genéricas de várias variáveis no formato FOSM (First Order Second Moment) que fornecem soluções aproximadas para o cálculo de desvio padrão quando não existe uma amostragem representativa. Ao término das análises, obteve-se como resultado, o mapa comparativo da probabilidade de ruína para os mesmos fatores de segurança empregados com base em resistências estimadas através de diferentes métodos de cálculos (Universidade de Grenoble e modelagem computacional).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]El objetivo principal de este proyecto se centra en conseguir las características mecánicas requeridas por los componentes del chasis de los vehículos con una reducción de peso y mejora de productividad, para ellos es necesario simular el proceso de templado que se da durante la estampación en caliente de una pieza de chapa mediante utillajes con conductos de refrigeración. Para ello se ha utilizado el programa de elementos finitos ANSYS hasta obtener un proceso de embutición simulado que represente con una desviación dentro de los límites aceptables el comportamiento real de la chapa en la etapa de refrigeración. Como objetivo secundario se encuentra el afianzamiento de las bases teóricas de ciencia de materiales y la adquisición de más conocimientos relacionados con la transmisión de calor entre cuerpos sólidos, centrándose sobre todo en la distribución de temperaturas sobre la superficie de éstos. En una primera parte se tratarán los conceptos generales de la estampación en caliente y sus posibles variantes. También se explicará la necesidad del uso de nuevos materiales para la industria automovilística, así como la razón por la cual se utilizan conductos de refrigeración. A continuación, se definirá la geometría de la chapa a analizar, tanto las consecuentes geometrías de los utillajes, que tendrán diferentes distribuciones de conductos de refrigeración. Además se establecerán los criterios para realizar el análisis térmico transitorio del conjunto troquel – chapa – matriz. Una vez seleccionado el tipo de análisis se profundizará en su estudio, aplicándolo a los diferentes utillajes ya citados. Se analizarán los resultados obtenidos y los errores y se buscarán posibles alternativas. Finalmente, se procederá a sacar las conclusiones de la simulación realizada y se procederá a comparar los resultados obtenidos con las diferentes distribuciones de conductos de refrigeración en los utillajes.