45 resultados para Variação de custos médicos hospitalares
Resumo:
O principal motivo para a realização deste trabalho consistiu no desenvolvimento de tecnologia robótica, que permitisse o mergulho e ascenção de grandes profundidades de uma forma eficiente. O trabalho realizado contemplou uma fase inicial de análise e estudo dos sistemas robóticos existentes no mercado, bem como métodos utilizados identificando vantagens e desvantagens em relação ao tipo de veículo pretendido. Seguiu-se uma fase de projeto e estudo mecânico, com o intuito de desenvolver um veículo com variação de lastro através do bombeamento de óleo para um reservatório exterior, para variar o volume total do veículo, variando assim a sua flutuabilidade. Para operar a grande profundidade com AUV’s é conveniente poder efetuar o trajeto up/down de forma eficiente e a variação de lastro apresenta vantagens nesse aspeto. No entanto, contrariamente aos gliders o interesse está na possibilidade de subir e descer na vertical. Para controlar a flutuabilidade e ao mesmo tempo analisar a profundidade do veículo em tempo real, foi necessario o uso de um sistema de processamento central que adquirisse a informação do sensor de pressão e comunicasse com o sistema de variação de lastro, de modo a fazer o controlo de posicionamento vertical desejado. Do ponto de vista tecnológico procurou-se desenvolver e avaliar soluções de variação de volume intermédias entre as dos gliders (poucas gramas) e as dos ROV’s workclass (dezenas ou centenas de kilogramas). Posteriormente, foi desenvolvido um simulador em matlab (Simulink) que reflete o comportamento da descida do veículo, permitindo alterar parâmetros do veículo e analisar os seus resultados práticos, de modo a poder ajustar o veículo real. Nos resultados simulados verificamos o cálculo das velocidades limite atingidas pelo veículo com diferentes coeficientes de atrito, bem como o comportamento da variação de lastro do veículo no seu deslocamento vertical. Sistema de Variação de Lastro para Controlo de Movimento Vertical de Veículo Subaquático Por fim, verificou-se ainda a capacidade de controlo do veículo para uma determinada profundiade, e foi feita a comparação entre estas simulações executadas com parâmetros muito próximos do ensaio real e os respetivos ensaios reais.
Resumo:
A promoção da cogeração foi um claro sinal de reconhecimento das vantagens deste sistema por parte da União Europeia. Face às preocupações de aprovisionamento energético e escassez de energia primária na Europa, foi promovida a cogeração, mediante a concessão de benefícios a nível do preço de venda da energia elétrica e de vários prémios. Contudo, estes incentivos não deixam de ter um impacto negativo no sistema, se se tiver em linha de conta que estes provocam um aumento do preço da energia elétrica para os clientes finais. Este foi o problema escolhido como objeto de estudo desta dissertação e que veio permitir concluir que, apesar de agora se pagar na fatura mensal (cliente em BTN) um valor adicional em cerca de 1€ devido à existência da cogeração, isto será benéfico futuramente, caso a política do estado Português mantenha estes apoios aos agentes da cogeração. No âmbito do regime remuneratório para a produção em cogeração, foi criada a ferramenta em Excel para simular o comportamento dos sistemas, tendo em conta as necessidades energéticas e muitas outras características. A principal função da ferramenta é a possibilidade de estimar a remuneração de uma unidade de cogeração em função da tecnologia utilizada e para diferentes condições de funcionamento.
Resumo:
Dissertação apresentada ao Instituto Superior de Administração e Contabilidade do Porto para obtenção do Grau de Mestre em Logística Orientada por: Professora Doutora Maria Clara Rodrigues Bento Vaz Fernandes
Resumo:
O registo clinico é um documento hospitalar confidencial, nele é registado todo o percurso clinico de um determinado paciente. Esse percurso é registado através da atribuição de códigos descritos num sistema de classificação, também denominados de dados da codificação. Os dados da codificação são armazenados electronicamente numa Base de Dados, e é a partir dela que certas medidas, tais como facturação hospitalar, financiamentos hospitalares anuais, tratamentos médicos, ou até mesmo dados epidemiológicos, são adotadas. Portanto torna-se fundamental a garantia da qualidade na área da codificação clinica, para isso é necessário recorrer a processos de auditorias aos registos clínicos. O processo de auditoria é uma atividade independente de avaliação, cujo objetivo visa acrescentar valor e melhorar os objetos e processos da auditoria. Atualmente uma ferramenta denominada de Programa Auditor é utilizada, contudo essa ferramenta demonstra uma tecnologia já ultrapassada. A Tese que se pretende defender é a de que, através de Sistemas Periciais, é possível realizar auditorias internas aos registos clínicos. Pretende-se ainda demonstrar que dos Sistemas Periciais e um benefício para os peritos na área, pois diminui a probabilidade de erros e torna o processo de verificação menos moroso. Neste contexto, o objetivo desta Dissertação prende-se em definir e implementar um Sistema Pericial que permita a auditoria de registos clínicos hospitalares. O Sistema Pericial dever a ainda ser capaz de traduzir o raciocínio do perito, detectando assim diversos tipos de erros que traduzem num registo clínico não conforme. Por sua vez, foi desenvolvido um protótipo de um Sistema Pericial para auditoria de registos clínicos em linguagem PROLOG. Este mesmo protótipo serviu de base à realização de uma experiência que permitiu comparar com o programa Auditor e verificar a sua aplicabilidade no dia-a-dia hospitalar.
Resumo:
Os equipamentos de medição utilizados nos hospitais têm uma função muito importante na deteção e diagnóstico de doenças como é o caso da pressão arterial. Entre esses equipamentos encontram-se os esfigmomanómetros digitais portáteis que são em muitos casos os primeiros a serem utilizados e a fornecerem um primeiro diagnóstico da pressão arterial do doente como é no caso das urgências hospitalares. Para que os diagnósticos prescritos pelos profissionais de saúde - médicos e enfermeiros seja o mais correto é necessário conhecer as condições de trabalho em que se encontram os esfigmomanómetros digitais existentes nas unidades de saúde. Sendo os esfigmomanómetros digitais equipamentos com uma importância relevante na vida do ser humano, estes deveriam fazer parte da lista de equipamentos que estão englobados na metrologia legal, situação que neste momento ainda não foi concretizada e cada hospital toma a decisão espontânea se efetua a calibração ou verificação internamente dos seus esfigmomanómetros digitais. Pretende-se com este trabalho dar a conhecer o estado ao nível dos erros de alguns esfigmomanómetros digitais existentes nos hospitais envolvidos no trabalho e desenvolver um procedimento de verificação interna dos mesmos com auxílio de um manómetro analógico calibrado e um estetoscópio duplo – método de medição auscultatório - e comparar esses resultados com a utilização de um simulador – método de medição oscilométrico.
Resumo:
Neste documento ´e feita a descrição detalhada da integração modular de um script no software OsiriX. O objectivo deste script ´e determinar o diâmetro central da artéria aorta a partir de uma Tomografia Computorizada. Para tal são abordados conceitos relacionados com a temática do processamento de imagem digital, tecnologias associadas, e.g., a norma DICOM e desenvolvimento de software. Como estudo preliminar, são analisados diversos visualizadores de imagens médica, utilizados para investigação ou mesmo comercializados. Foram realizadas duas implementações distintas do plugin. A primeira versão do plugin faz a invocação do script de processamento usando o ficheiro de estudo armazenado em disco; a segunda versão faz a passagem de dados através de um bloco de memória partilhada e utiliza o framework Java Native Interface. Por fim, é demonstrado todo o processo de aposição da Marcação CE de um dispositivo médico de classe IIa e obtenção da declaração de conformidade por parte de um Organismo Notificado. Utilizaram-se os Sistemas Operativos Mac OS X e Linux e as linguagens de programação Java, Objective-C e Python.
Resumo:
O planeamento de redes de distribuição tem como objetivo assegurar a existência de capacidade nas redes para a fornecimento de energia elétrica com bons níveis de qualidade de serviço tendo em conta os fatores económicos associados. No âmbito do trabalho apresentado na presente dissertação, foi elaborado um modelo de planeamento que determina a configuração de rede resultante da minimização de custos associados a: 1) perdas por efeito de joule; 2) investimento em novos componentes; 3) energia não entregue. A incerteza associada ao valor do consumo de cada carga é modelada através de lógica difusa. O problema de otimização definido é resolvido pelo método de decomposição de benders que contempla dois trânsitos de potências ótimos (modelo DC e modelo AC) no problema mestre e escravo respectivamente para validação de restrições. Foram também definidos critérios de paragem do método de decomposição de benders. O modelo proposto classifica-se como programação não linear inteira mista e foi implementado na ferramenta de otimização General Algebraic Modeling System (GAMS). O modelo desenvolvido tem em conta todos componentes das redes para a otimização do planeamento, conforme podemos analisar nos casos de estudo implementados. Cada caso de estudo é definido pela variação da importância que cada uma das variáveis do problema toma, tendo em vista cobrir de alguma todos os cenários de operação expetáveis. Através destes casos de estudo verifica-se as várias configurações que a rede pode tomar, tendo em conta as importâncias atribuídas a cada uma das variáveis, bem como os respetivos custos associados a cada solução. Este trabalho oferece um considerável contributo no âmbito do planeamento de redes de distribuição, pois comporta diferentes variáveis para a execução do mesmo. É também um modelo bastante robusto não perdendo o ‘norte’ no encontro de solução para redes de grande dimensão, com maior número de componentes.
Resumo:
Nos últimos anos a indústria de semicondutores, nomeadamente a produção de memórias, tem sofrido uma grande evolução. A necessidade de baixar custos de produção, assim como de produzir sistemas mais complexos e com maior capacidade, levou à criação da tecnologia WLP (Wafer Level Packaging). Esta tecnologia permite a produção de sistemas mais pequenos, simplificar o fluxo do processo e providenciar uma redução significativa do custo final do produto. A WLP é uma tecnologia de encapsulamento de circuitos integrados quando ainda fazem parte de wafers (bolachas de silício), em contraste com o método tradicional em que os sistemas são individualizados previamente antes de serem encapsulados. Com o desenvolvimento desta tecnologia, surgiu a necessidade de melhor compreender o comportamento mecânico do mold compound (MC - polímero encapsulante) mais especificamente do warpage (empeno) de wafers moldadas. O warpage é uma característica deste produto e deve-se à diferença do coeficiente de expansão térmica entre o silício e o mold compound. Este problema é observável no produto através do arqueamento das wafers moldadas. O warpage de wafers moldadas tem grande impacto na manufatura. Dependendo da quantidade e orientação do warpage, o transporte, manipulação, bem como, a processamento das wafers podem tornar-se complicados ou mesmo impossíveis, o que se traduz numa redução de volume de produção e diminuição da qualidade do produto. Esta dissertação foi desenvolvida na Nanium S.A., empresa portuguesa líder mundial na tecnologia de WLP em wafers de 300mm e aborda a utilização da metodologia Taguchi, no estudo da variabilidade do processo de debond para o produto X. A escolha do processo e produto baseou-se numa análise estatística da variação e do impacto do warpage ao longo doprocesso produtivo. A metodologia Taguchi é uma metodologia de controlo de qualidade e permite uma aproximação sistemática num dado processo, combinando gráficos de controlo, controlo do processo/produto, e desenho do processo para alcançar um processo robusto. Os resultados deste método e a sua correta implementação permitem obter poupanças significativas nos processos com um impacto financeiro significativo. A realização deste projeto permitiu estudar e quantificar o warpage ao longo da linha de produção e minorar o impacto desta característica no processo de debond. Este projecto permitiu ainda a discussão e o alinhamento entre as diferentes áreas de produção no que toca ao controlo e a melhoria de processos. Conseguiu–se demonstrar que o método Taguchi é um método eficiente no que toca ao estudo da variabilidade de um processo e otimização de parâmetros. A sua aplicação ao processo de debond permitiu melhorar ou a fiabilidade do processo em termos de garantia da qualidade do produto, como ao nível do aumento de produção.
Resumo:
Projeto apresentado ao Instituto Superior de Contabilidade e Administração do Porto para a obtenção do Grau de Mestre em Gestão das Organizações, Ramo de Gestão de Empresas. Orientada pelo Professor Doutor Eduardo Manuel Lopes de Sá e Silva Coorientada pelo Mestre Adalmiro Álvaro Malheiro de Castro Andrade Pereira
Resumo:
Incêndios em Túneis rodoviários podem ter custos brutais não só em perdas de vidas humanas como também nos custos de operação e de reparação do túnel! Na maioria dos casos a libertação de fumos é a principal causa de morte pela inalação de gases tóxicos, muito à frente dos problemas causados por queimaduras devido ao incêndio. Os convencionais cabos térmicos detectam o incêndio por variação de temperatura mas com grande atraso quando comparados com detectores de fumo Fireguard.
Resumo:
O século XX, sobretudo na segunda metade, trouxe para os sistemas de informação empresariais (estes são o suporte de múltiplos modelos ligados à planificação, ao controlo e à tomada de decisões em geral) alterações espectaculares, cujo difícil domínio é o motor de novas propostas e achegas multidisciplinares. Como parte essencial dos referidos sistemas, a Contabilidade de Custos tem perseguido determinar valores unitários de bens ou serviços, de funções ou outros portadores de custos, com diferentes propósitos segundo objectivos, épocas e áreas geográficas concretas. Durante os últimos anos do século passado e no primeiro quartel deste, os cálculos ligaram-se essencialmente ao produto como forma de actuar sobre a eficiência laboral. Os engenheiros industriais (em empresas multinacionais americanas), preocupados em conseguir uma maior racionalidade na utilização dos recursos, estudaram profundamente a normalização e standardização dos materiais e equipamentos, o preestabelecimento de métodos e a medida dos tempos de trabalho. A sua investigação estendeu-se também à forma de organização mais adequada para o desenvolvimento da actividade empresarial; de tal forma que, sob a “batuta” de homens como F. W. Taylor (e o seu método de trabalho para definir tarefas e ferramentas mais adequadas a cada actividade), E. Mayo (e a sua preocupação pelas condições de trabalho em equipa) ou H. Fayol (e a sua procura sistemática das características que devem contribuir para a administração eficiente das organizações), foram-se confirmando os conteúdos actuais dos conceitos de disciplina e ordem, liderança e hierarquia, iniciativa e espírito de superação, etc; assim como novas formas de entender, organizar e realizar o trabalho, que configurarão relações laborais diferentes das herdadas da sociedade pré-industrial. Corolário de tudo foram a especialização e a departamentalização da empresa, bem como o progressivo aparecimento de uma estrutura funcional, com competências pessoais marcadas pela hierarquia. Os engenheiros, com o objectivo de racionalizarem ao máximo as tarefas produtivas, criaram as bases para o desenvolvimento do custo “standard” (padrão) e reuniram o seu estudo com os problemas da direcção geral do negócio: os padrões técnicos serão referência obrigatória para a remuneração do pessoal e a programação de existências e compras, assim como para determinar as actividades dos centros (base do cálculo dos orçamentos); e ainda se revelaram um óptimo instrumento de controlo. Acompanhando este movimento, o cálculo do custo industrial centrar-se-à nos produtos (como portadores finais dos diferentes consumos necessários para a sua obtenção) sobre a base dos padrões técnicos definidos para eles. Não obstante, na primeira metade do nosso século, e sob a pressão de uma procura crescente de informação financeira, iniciou-se a passagem da gestão de custos à contabilidade de custos: os textos de contabilidade dos anos 20 propõem o cálculo do custo de produção com uma orientação clara - valorizar as existências para a informação financeira (Balanço e Resultados no fim do exercício). Só depois da 2ª Guerra Mundial se começa a falar de gestão e, por consequência, de custos para a planificação, controlo e tomada de decisões (Johnson e Kaplan, 1987). Impõe-se uma reflexão sobre os diferentes significados que o custo tem tido ao longo do nosso século (ligando esses significados às circunstâncias que provocaram cada elaboração) para a sua construção futura.
Resumo:
Numa altura em que o setor da saúde é apontado como uma área crítica de gastos, nunca foi tão pertinente, pela falta de verbas, refletir e discutir o formato de contratação e de gestão dos cuidados de saúde. A sua fundamentação em custo, volume ou diferenciação, bem como, os indicadores que refletem o investimento, a eficiência e eficácia dos cuidados. Pretendeu-se como objetivo principal estudar a criação de valor no mercado da saúde enquanto fator diferenciador para a negociação de preços e competitividade em contexto de crise económica. Com vista a alcançar este objetivo, procedeu-se à revisão dos modelos teóricos, recorrendo a pesquisa bibliográfica. Procedeu-se também à comparação dos resultados operacionais de uma empresa enquanto prestadora de serviços de oxigenoterapia ao domicílio, tendo por base duas estratégias diferentes: redução direta de preços ou manutenção de preços com criação de valor para o cliente. Tendo em vista as duas estratégias, foram elaboradas duas propostas e posteriormente apresentadas para avaliação e votação on-line por um grupo oito gestores hospitalares. O valor em cuidados de saúde é visível nos benefícios clínicos alcançados pelo dinheiro investido. A estrutura dos atuais sistemas de saúde apenas reconhece redução de gastos, fontes de receita, volume de cuidados, sem orientação para a valorização dos resultados clínicos. Os prestadores deviam competir pela focalização na obtenção de melhores resultados clínicos, pois deve ser a essa a preocupação central dos serviços médicos. Uma boa gestão pode levar a que numa negociação de contratos, uma proposta baseada em valor possa garantir a manutenção dos preços.
Resumo:
O decréscimo das reservas de petróleo e as consequências ambientais resultantes do recurso a combustíveis fósseis nos motores a diesel têm levado à procura de combustíveis alternativos. Esta pesquisa alicerçada nas fontes de energia renovável tornou-se essencial, face à crescente procura de energia e ao limitado fornecimento de combustíveis fósseis . Resíduos de óleo de cozinha, gordura animal, entre outros resíduos de origem biológica, tais como a borra de café, são exemplos de matérias-primas para a produção de biodiesel. A sua valorização tem interesse quer pela perspetiva ambiental, quer pela económica, pois aumenta não só a flexibilidade e diversificação das matérias-primas, mas também contribui para uma estabilidade de custos e alteração nas políticas agrícolas e de uso do solo. É neste contexto que se enquadra o biodiesel e a borra de café, pretendendo-se aqui efetuar o estudo da produção, à escala laboratorial, de biodiesel a partir da borra de café, por transesterificação enzimática, visando a procura das melhores condições reacionais. Iniciando-se com a caracterização da borra de café, foram avaliados antes e após a extração do óleo da borra de café, diversos parâmetros, de entre os quais se destacam: o teor de humidade (16,97% e 6,79%), teor de cinzas (1,91 e 1,57%), teor de azoto (1,71 e 2,30%), teor de proteínas (10,7 e 14,4%), teor de carbono (70,2 e 71,7%), teor de celulose bruta (14,77 e 18,48%), teor de lenhina (31,03% e 30,97%) e poder calorifico superior (19,5 MJ/kg e 19,9 MJ/kg). Sumariamente, constatou-se que os valores da maioria dos parâmetros não difere substancialmente dos valores encontrados na literatura, tendo sido evidenciado o potencial da utilização desta biomassa, como fonte calorifica para queima e geração de energia. Sendo a caracterização do óleo extraído da borra de café um dos objetivos antecedentes à produção do biodiesel, pretendeu-se avaliar os diferentes parâmetros mais significativos. No que diz respeito à caracterização do óleo extraído, distingue-se a sua viscosidade cinemática (38,04 mm2/s), densidade 0,9032 g/cm3, poder calorífico de 37,9 kcal/kg, índice de iodo igual a 63,0 gI2/ 100 g óleo, o teor de água do óleo foi de 0,15 %, o índice de acidez igual a 44,8 mg KOH/g óleo, ponto de inflamação superior a 120 ºC e teor em ácidos gordos de 82,8%. Inicialmente foram efetuados ensaios preliminares, a fim de selecionar a lipase (Lipase RMIM, TL 100L e CALB L) e álcool (metanol ou etanol puros) mais adequados à produção de biodiesel, pelo que o rendimento de 83,5% foi obtido através da transesterificação mediada pela lipase RMIM, utilizando como álcool o etanol. Sendo outro dos objetivos a otimização do processo de transesterificação enzimática, através de um desenho composto central a três variáveis (razão molar etanol: óleo, concentração de enzima e temperatura), recorrendo ao software JMP 8.0, determinou-se como melhores condições, uma razão molar etanol: óleo 5:1, adição de 4,5% (m/m) de enzima e uma temperatura de 45 ºC, que conduziram a um rendimento experimental equivalente a 96,7 % e teor de ésteres 87,6%. Nestas condições, o rendimento teórico foi de 99,98%. Procurou-se ainda estudar o efeito da adição de água ao etanol, isto é, o efeito da variação da concentração do etanol pela adição de água, para teores de etanol de 92%, 85% e 75%. Verificou-se que até 92% decorreu um aumento da transesterificação (97,2%) para um teor de ésteres de (92,2%), pelo que para teores superiores de água adicionada (75% e 85%) ocorreu um decréscimo no teor final em ésteres (77,2% e 89,9%) e no rendimento da reação (84,3% e 91,9%). Isto indica a ocorrência da reação de hidrólise em maior extensão, que leva ao desvio do equilíbrio no sentido contrário à reação de formação dos produtos, isto é, dos ésteres. Finalmente, relativamente aos custos associados ao processo de produção de biodiesel, foram estimados para o conjunto de 27 ensaios realizados neste trabalho, e que corresponderam a 767,4 g de biodiesel produzido, sendo o custo dos reagentes superior ao custo energético, de 156,16 € e 126,02 €, respetivamente. Naturalmente que não esperamos que, a nível industrial os custos sejam desta ordem de grandeza, tanto mais que há economia de escala e que as enzimas utilizadas no processo deveriam ser reutilizadas diversas vezes.
Resumo:
O presente relatório de estágio, integrado na unidade curricular de DIPRE, para satisfação integral dos requisitos do grau de MESTRE EM ENGENHARIA CIVIL – ESPECIALIZAÇÃO EM GESTÃO DA CONSTRUÇÃO, aborda a temática de “Gestão e Direção de uma Obra”, explorando aspetos relativos ao controlo de prazos e de custos na construção, com o principal objetivo de prevenir e/ou mitigar os atrasos que, seja pela atual situação económico-financeira do país, seja pela falta de experiência dos intervenientes, continuam a existir. Aborda também, um conjunto de atividades realizadas na reabilitação dos Edifícios de Vila d’ Este – Fase II, destacando-se a aplicação do sistema ETICS (External Thermal Insulation Composite Systems), formulando e comparando rendimentos de aplicação entre equipas. Este estudo foi elaborado, não só para gerir da melhor maneira possível a aplicação do sistema em obra (reduzindo custos e prazos, sem afetar o modo de colocação do mesmo), mas também para servir de auxílio noutra obra com características semelhantes.
Resumo:
Os componentes obtidos através da conformação plástica de chapas têm uma grande importância, tanto na etapa de concepção do produto como na etapa de produção na indústria automóvel. Isto comprova-se pelo facto de, em média, cada automóvel integrar cerca de 500 componentes estampados para construir o chassis e a carroçaria [Alves 2003]. Deste total de componentes, 50 são de grandes dimensões (portas, tejadilho, painéis inferior e laterais, entre outros) e necessitam, em média, de cinco ferramentas para o seu fabrico, sendo o custo estimado para cada ferramenta de 230 000 € [Col 2000, Alves 2003]. Para além da indústria automóvel, a conformação plástica de chapas metálicas é um processo tecnológico presente nas indústrias relativas à aeroespacial, petrolífera, decoração, alimentar, entre outras. Do ponto de vista do enquadramento económico, cerca de 20% do custo total de um automóvel novo é devido à incorporação de componentes metálicos estampados. [Alves 2003]. A pressão do “Mercado Global” faz com que os custos relativos à matéria-prima, energia e mão-de-obra sejam uma constante em termos de redução do seu impacte no orçamento das empresas fornecedoras destes produtos. É neste contexto que surge a necessidade da realização deste estudo de Benchmark de Softwares, tornando-se bastante importante, quer ao nível da competitividade industrial, quer ao nível da inovação para novos produtos. A análise por elementos finitos desempenha um papel primordial no tryout virtual e otimização das ferramentas e processos de conformação plástica. Os objetivos principais deste estudo de simulação numérica são a identificação e comparação dos resultados obtidos pelo AUTOFORM e pelo PAMSTAMP, para cada uma das variáveis identificadas como as mais influentes na robustez dos processos de estampagem de chapa metálica. Estas variáveis identificadas são: consumo de material (Draw-in) após conformação; forças de conformação; valores de variação de espessura e dos valores de extensão e resultados de Springback. Os resultados obtidos são comparados com os resultados experimentais e, desta forma, avalia-se a capacidade inovadora e a eficácia de cada um dos softwares, obtendo-se assim, uma orientação mais real para o software mais indicado aos objetivos impostos pela indústria automóvel. Para este efeito, a indústria automóvel, como maior impulsionador e motor da investigação na área da simulação numérica aplicada aos processos de estampagem, tem aderido em peso ao Benchmarking. Um exemplo disto, é o que acontece nas conferências Numisheet. O Benchmark #2 da conferência Numisheet 2008 é analisado pormenorizadamente e os resultados numéricos e experimentais são comparados e apresentados. Dois materiais distintos (aço HC260LAD e liga de alumínio AC170), assim como três modelos com geometrias diferentes (com e sem freios) são apresentados neste relatório. Com vista à redução dos ciclos tentativa-erro, tem-se adotado ciclos virtuais ou numéricos e tem-se incrementado a interatividade entre as fases de concepção e projeto, num conceito muito próprio, mas cada vez mais abrangente, denominado “produção virtual”. É nesta filosofia que se insere a simulação numérica dos processos de conformação de chapa.