902 resultados para simulação


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho busca desenvolver um aço para cementação a alta temperatura através da adição de nióbio como microligante, a fim de que os compostos formados forneçam partículas de segunda fase que atuem como ancoradoras do grão austenítico, já que o processo de crescimento de grão, especialmente anormal, é conseqüência natural das temperaturas envolvidas. A elevação da temperatura tem como objetivo proporcionar um ganho em produtividade pela redução dos tempos de cementação. Procura-se também estabelecer uma comparação do aço proposto a aços de cementação convencionais (DIN 17Cr3 e SAE 5115). Utilizou-se um aço SAE 5115 com 0,034% de nióbio, que foi submetido a diferentes condições de ensaio em laboratório: deformação a frio por compressão livre em três graus de deformação (isento, 25 e 50%); com posterior aquecimento em patamares de temperatura que simulam diferentes níveis de cementação (930 , 950 , 1000 e 1050 C), bem como diferentes tempos de manutenção em temperatura, de tal forma a atingir camadas cementadas hipotéticas em torno de 1,0 mm de profundidade. Encerram-se os testes submetendo o aço estudado a um processo de produção industrial de pinos de pistão, que sofrem deformação a temperatura ambiente e cementação a 950 C por 2,5 h O aço SAE 5115 ao “Nb” mostrou um melhor desempenho no controle dos grãos austeníticos, tanto para os ensaios de simulação realizados em laboratório e comparados ao aço DIN 17Cr3, como frente ao processo de produção de pinos de pistão tendo como comparativo o aço SAE 5115. O modelo teórico de Hudd e outros (que trata os carbonitretos de nióbio como de extensiva solubilidade mútua) e o de Gladman (que define os nitretos de alumínio e de nióbio como mutuamente exclusivos), associados às equações de Wagner (para coalescimento das partículas de segunda fase), bem como à equação de Gladman e Pickering (que determina o raio crítico de partícula para uma distribuição aleatória de partículas), mostraram-se bastante adequados em prever a resposta das partículas precipitadas, partindo-se da composição química do aço, principalmente para as partículas de carbonitreto de nióbio em condições que não envolvessem níveis elevados de deformação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é dado ênfase à inclusão das incertezas na avaliação do comportamento estrutural, objetivando uma melhor representação das características do sistema e uma quantificação do significado destas incertezas no projeto. São feitas comparações entre as técnicas clássicas existentes de análise de confiabilidade, tais como FORM, Simulação Direta Monte Carlo (MC) e Simulação Monte Carlo com Amostragem por Importância Adaptativa (MCIS), e os métodos aproximados da Superfície de Resposta( RS) e de Redes Neurais Artificiais(ANN). Quando possível, as comparações são feitas salientando- se as vantagens e inconvenientes do uso de uma ou de outra técnica em problemas com complexidades crescentes. São analisadas desde formulações com funções de estado limite explícitas até formulações implícitas com variabilidade espacial de carregamento e propriedades dos materiais, incluindo campos estocásticos. É tratado, em especial, o problema da análise da confiabilidade de estruturas de concreto armado incluindo o efeito da variabilidade espacial de suas propriedades. Para tanto é proposto um modelo de elementos finitos para a representação do concreto armado que incorpora as principais características observadas neste material. Também foi desenvolvido um modelo para a geração de campos estocásticos multidimensionais não Gaussianos para as propriedades do material e que é independente da malha de elementos finitos, assim como implementadas técnicas para aceleração das avaliações estruturais presentes em qualquer das técnicas empregadas. Para o tratamento da confiabilidade através da técnica da Superfície de Resposta, o algoritmo desenvolvido por Rajashekhar et al(1993) foi implementado. Já para o tratamento através de Redes Neurais Artificias, foram desenvolvidos alguns códigos para a simulação de redes percéptron multicamada e redes com função de base radial e então implementados no algoritmo de avaliação de confiabilidade desenvolvido por Shao et al(1997). Em geral, observou-se que as técnicas de simulação tem desempenho bastante baixo em problemas mais complexos, sobressaindo-se a técnica de primeira ordem FORM e as técnicas aproximadas da Superfície de Resposta e de Redes Neurais Artificiais, embora com precisão prejudicada devido às aproximações presentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho apresenta uma avaliação dos prováveis impactos do escalonamento dos horários das aulas noturnas em uma Universidade. Neste trabalho foi investigada, a preferência dos usuários quanto às possíveis alterações nos horários de entrada de aulas, e os impactos do escalonamento na rede viária no entorno do campus. O trabalho envolveu a construção de diversos cenários de alterações nos horários de início das aulas. Os cenários foram construídos visando atender as preferências da população universitária e reduzir a interferência do pico de chegada de alunos no sistema viário. A avaliação dos impactos destes cenários no tráfego foi realizada através de simulação, com a utilização do modelo TSIS/NETSIM. As análises foram baseadas em dois indicadores de desempenho: a velocidade média e o tempo de atraso médio na rede.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tarefa de estimação de movimento, utilizada na compressão de vídeo digital, é normalmente realizada em hardware por processador dedicado, uma vez que demanda expressiva capacidade computacional. Este trabalho propõe e desenvolve uma arquitetura de hardware para realizar o cálculo dos vetores de movimento no contexto de compressão de vídeo digital. Essa arquitetura para estimação de movimento é composta pelos blocos: interface de entrada e saída (E/S), matriz de processamento com 64 elementos de processamento, unidade de comparação e unidade de controle. A arquitetura foi descrita em linguagem VHDL de maneira que o número de bits utilizados para representação da luminância dos pontos é configurável. A partir desta descrição, foi gerado um protótipo para dados representados em 4 bits utilizando um kit de desenvolvimento baseado no dispositivo FPGA XC2S150 da Xilinx. Para validação do algoritmo e da arquitetura implementada, além da simulação, foi desenvolvido um software para plataforma PC capaz de exercitar as funcionalidades do protótipo. O PC é utilizado como dispositivo controlador de E/S para esta validação, na qual uma implementação do algoritmo em software e outra em linguagem de descrição de hardware são comparadas. A máxima freqüência de trabalho do protótipo, estimada por simulação da arquitetura mapeada no FPGA XC2S150, é de 33 MHz. A esta freqüência o núcleo da arquitetura paralela de 64 elementos de processamento realiza cerca de 2,1 GOps (bilhões de operações inteiras por segundo). Esta arquitetura de hardware calcula os vetores de movimento para vídeo no formato 640x480 pontos à taxa de 107,32 quadros por segundo, ou um quadro a cada 9,3 ms. A arquitetura implementada para luminânica em 4 bits ocupa 16 pinos de E/S, 71,1% dos blocos lógicos do FPGA e 83,3% dos blocos de memória disponíveis no dispositivo XC2S150.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho trata da técnica de validação experimental de protocolos de comunicação confiável, através da injeção de falhas de comunicação. São estudadas inicialmente as técnicas de injeção de falhas, por hardware, software e simulação, e então são aprofundados os conceitos de injeção de falhas de comunicação, modelos de falha e especificação de experimentos de injeção de falhas. Em um segundo momento, são estudadas as formas de implementação de injetores de falhas em software, em suas duas formas mais comuns: no nível da aplicação e no nível do sistema operacional. São comentados os impactos da implementação de injetores no código da aplicação, por processos concorrentes à aplicação, em código utilizado pela aplicação e no meta-nível. Por fim, são estudados também que influências sofre a implementação de um injetor de falhas em um sistema operacional, e mais especificamente a de injetores de falhas de comunicação. O objetivo específico deste trabalho é implementar um injetor de falhas de comunicação bastante abrangente e flexível, situado dentro do núcleo do Sistema Operacional Linux. Para viabilizar esta implementação foi estudada também a arquitetura do Sistema Operacional Linux, sua decomposição em subsistemas e a interação entre estes. Foram estudadas também as várias técnicas de programação e mecanismos que o Sistema Operacional Linux fornece aos seus subsistemas. Estando completas a revisão bibliográfica a respeito de injeção de falhas e o estudo do código do Sistema Operacional Linux, são apresentadas a proposta e a implementação da ferramenta ComFIRM—Communication Fault Injection through Operating System Resource Modification, suas características e sua inserção dentro do núcleo do Sistema Operacional Linux. Finalizando este trabalho, são apresentados uma pequena série de testes de funcionamento e experimentos realizados com a ferramenta ComFIRM, visando demonstrar a correção de seu funcionamento, o cumprimento de seus objetivos e também sua praticidade e flexibilidade de uso. São apresentadas as conclusões deste trabalho, propostas de melhorias à ferramenta apresentada, bem como possibilidades de trabalhos futuros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O experimento foi conduzido na Estação Experimental Agronômica, UFRGS, Eldorado do Sul (30º05’22” S; 51º39’08” W), com o objetivo de avaliar o desempenho e comportamento ingestivo de ovinos em fim de gestação e início de lactação nos diferentes estágios fenológicos do azevém anual (Lolium multiflorum Lam.): vegetativo, pré-florescimento e florescimento. As maiores taxas de acúmulo diário de matéria seca (MS) foram registradas nos estágios vegetativo (70kg/ha/dia) e pré-florescimento de azevém anual (44kg/ha/dia) e as menores taxas no estágio de florescimento (30kg/ha/dia). As porcentagens de digestibilidade in vitro da matéria orgânica (80,5, 71,4 e 60,7%) e da proteína bruta (23,7, 21,2 e 19,4%) apresentaram a mesma tendência. Estes efeitos foram acompanhados por redução de folhas e aumento de colmos proporcionais de 66 e 42 para 35% e 18 e 29 para 41% nos estágios vegetativo, pré-florescimento e florescimento, respectivamente. Em resposta a estes parâmetros, observou-se variações no comportamento ingestivo dos ovinos tais como nos tempos de pastejo diário (9,65, 10,97 e 10,68h), nas taxas de bocados (52,65, 51,93 e 40,63 bocados/min) e nos tamanhos de bocados (0,064, 0,055 e 0,048g/bocado) que determinaram diferentes consumos de forragem estimado por simulação de pastejo (4,48%, 3,91% e 2,72% P.V.). Estes resultados evidenciam o alto potencial do azevém anual em termos de ganho de peso vivo nos estágios vegetativo (225kg/ha) e pré-florescimento (145kg/ha). Estes registros também evidenciam o efeito negativo da redução na qualidade da forragem no estágio de florescimento sobre o consumo voluntário e o rendimento animal (1,2kg/ha).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho consiste em um estudo para avaliar e quantificar o pico do impacto e força gerada no segmento superior em atletas da arte marcial de origem japonesa Karate Do, oriundos da seleção Gaúcha adulta e juvenil da modalidade do ano de 2001, durante a execução da técnica de gyaku tsuki sobre makiwara. Os valores dos picos de aceleração foram obtidos na região do punho e escápula utilizando-se acelerômetros piezoelétricos uniaxiais fixos nestas regiões, e os valores da força gerada durante o choque, obtidos através da instrumentação do makiwara com extensômetros. As medições no segmento superior foram realizadas no eixo longitudinal do mesmo de acordo com as recomendações das normas ISO 2631 (1974 e 1997) e ISO 5349 (1986). Um dos acelerômetros foi fixado na porção distal do rádio e o outro acima da espinha da escápula. A disposição dos acelerômetros têm por objetivo captar o nível de vibração que efetivamente chega no segmento superior pela mão e quanto da energia vibratória é absorvida pelo mesmo. Os dois sensores foram colocados superficialmente sobre a pele, diretamente acima das estruturas anatômicas acima descritas, fixos com fita adesiva. A aquisição dos dados foi realizada com uma placa conversora analógica digital, e programa de aquisição de dados em três canais desenvolvido na plataforma de programação visual HPVee. Os ensaios foram realizados simulando a maneira clássica de execução da técnica de gyaku tsuki em makiwara. O trabalho apresenta ainda um estudo sistemático de lesões associadas ao uso do makiwara e estatísticas referentes a praticantes avançados do estado do Rio Grande do Sul. Também apresenta algumas considerações anatômicas e Mecânicas da técnica estudada, para apresentar-se como material de auxílio à estudiosos da Biomecânica dos esportes e Cinesiologia, instrutores e treinadores em geral para otimizar e aperfeiçoar, ou mesmo aumentar a compreensão da prática esportiva do Karate Do. Também é apresentado um modelo biomecânico de quatro graus de liberdade usado para análise de domínio de freqüência e possível simulação futura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A paralelização de métodos de resolução de sistemas de equações lineares e não lineares é uma atividade que tem concentrado várias pesquisas nos últimos anos. Isto porque, os sistemas de equações estão presentes em diversos problemas da computação cientí ca, especialmente naqueles que empregam equações diferenciais parciais (EDPs) que modelam fenômenos físicos, e que precisam ser discretizadas para serem tratadas computacionalmente. O processo de discretização resulta em sistemas de equações que necessitam ser resolvidos a cada passo de tempo. Em geral, esses sistemas têm como características a esparsidade e um grande número de incógnitas. Devido ao porte desses sistemas é necessária uma grande quantidade de memória e velocidade de processamento, sendo adequado o uso de computação de alto desempenho na obtenção da solução dos mesmos. Dentro desse contexto, é feito neste trabalho um estudo sobre o uso de métodos de decomposição de domínio na resolução de sistemas de equações em paralelo. Esses métodos baseiam-se no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções de cada subdomínio. Uma vez que diferentes subdomínios podem ser tratados independentemente, tais métodos são atrativos para ambientes paralelos. Mais especi camente, foram implementados e analisados neste trabalho, três diferentes métodos de decomposição de domínio. Dois desses com sobreposição entre os subdomínios, e um sem sobreposição. Dentre os métodos com sobreposição foram estudados os métodos aditivo de Schwarz e multiplicativo de Schwarz. Já dentre os métodos sem sobreposição optou-se pelo método do complemento de Schur. Todas as implementações foram desenvolvidas para serem executadas em clusters de PCs multiprocessados e estão incorporadas ao modelo HIDRA, que é um modelo computacional paralelo multifísica desenvolvido no Grupo de Matemática da Computação e Processamento de Alto Desempenho (GMCPAD) para a simulação do escoamento e do transporte de substâncias em corpos de águas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo simular e analisar uma usina termelétrica a carvão em várias condições de funcionamento. A usina simulada neste trabalho é a AVV 1 localizada em Copenhague, Dinamarca. A AVV 1 é uma usina de geração de potência e aquecimento distrital que pode funcionar em várias condições de carga. A simulação da usina supracitada foi tema de um concurso de simuladores proposto no congresso ECOS 2003 realizado em Copenhague, Dinamarca. Para a realização deste trabalho foi construído um programa na linguagem FORTRAN 90. Cada componente da usina é modelado através de equações de balanço de massa e energia, e o sistema completo tem sua solução obtida pelo método de substituição sucessiva. Para viabilizar essa solução é necessário também implementar uma rotina de cálculo de propriedades do fluido de trabalho. No caso estudado, o fluido de trabalho da usina é a água e a formulação utilizada para o cálculo de suas propriedades nos diversos estados é a IAPWS IF-97. A usina é simulada em dois modos de operação: modo de condensação, onde ocorre apenas geração de eletricidade, e em modo de contrapressão, onde há geração de eletricidade e aquecimento distrital, conforme nomenclatura sugerida pela organização do concurso No modo de condensação, são feitas quatro séries de simulações variando a carga de 100% a 40%. Cada série contém um conjunto de hipóteses quanto à variação das eficiências isoentrópicas e pressões das turbinas em função da vazão mássica. No modo de contrapressão, a usina é simulada funcionando com 100% da carga. O programa desenvolvido calcula as propriedades para qualquer ponto de trabalho ao longo da planta, assim como a eficiência da mesma, a potência gerada, e todas as vazões mássicas pertinentes. Além disso, é feita também uma análise exergética da planta. A simulação demonstrou que a planta possui uma eficiência global de 42,02% com uma geração de 250,2 MW em 100% de carga no modo de condensação. Nessas mesmas condições, do ponto de vista exergético, a eficiência encontrada é de 37,21%. No modo de contrapressão, a usina apresenta uma eficiência exergética de 40,19% com um aproveitamento energético de 90,55%. Por fim, é possível também verificar a comportamento da eficiência da planta e a variação de água de resfriamento do condensador com a carga. Os resultados gerados são próximos àqueles encontrados pelos diversos pesquisadores que abordaram o problema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A confiabilidade de sistemas de processamento digital de sinais é, entre tantos fatores, diretamente proporcional à confiabilidade dos conversores analógico-digitais neles presentes para serem usados como interface com o mundo real. Este trabalho propõe um método novo de teste de conversores analógico-digitais baseado em ruído. O método proposto possibilita a detecção de falhas nos conversores em teste. Além disto, a técnica proposta é capaz de estimar simultaneamente características estáticas e dinâmicas tornando-se, portanto, inovador em relação aos demais métodos presentes na literatura. A proposta, a simulação e a implementação do método são apresentadas ao longo desta dissertação. A comparação dos resultados obtidos com um método padrão de teste de ADCs, o método do histograma, comprovam a eficácia do método.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho visa a investigação dos aspectos microestruturais, de cunho significativo nas propriedades mecânicas de um aço microligado, através da utilização de técnicas de microscopia eletrônica. Variações em parâmetros de produção e processamento de aços microligados produzem efeitos microestruturais diversos, os quais influenciam diretamente nas propriedades do material. Para tanto, é de suma importância a realização de um acompanhamento da evolução microestrutural de forjados, para que se possa entender os mecanismos de reforço estrutural, e assim, buscar controlá-los. Foram simuladas as condições industriais de forjamento em amostras de aço microligado ao nióbio, SAE 1141, utilizando um simulador termomecânico Gleeble. Esse aço é empregado na produção de garfos (terminal) forjados pela indústria automobilística. As variáveis controladas na simulação foram a temperatura de pré-aquecimento, percentual de deformação e taxa de resfriamento. Os aspectos microestruturais resultantes foram analisados por microscopia de luz visível e eletrônica de varredura. Especial atenção foi dada ao estudo dos aspectos subestruturais através da técnica de microscopia eletrônica de transmissão. Foram utilizadas para tal amostras do tipo réplica de extração em filme de carbono e lâminas finas Os estudos realizados neste trabalho poderão contribuir para otimização do processo de forjamento nessa classe de aços visando garantir boas propriedades mecânicas. Análises por nano-sonda EDS indicam a presença de partículas ricas em Nb. Foi constatado que a temperatura de pré-aquecimento para forjamento desempenha papel importante, pois a temperatura mais baixa, verifica-se fina precipitação de carbonitretos e o refino de grão é mais pronunciado. Este efeito é influenciado também pelo grau de deformação a quente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma sistemática para realizar a otimização numérica de pré-formas e de matrizes em problemas de forjamento axissimétricos e em estado plano de deformações. Para este fim, desenvolveu-se um código computacional composto basicamente de três módulos: módulo de pré-processamento, módulo de análise e módulo de otimização. Cada um destes foi elaborado acrescentando rotinas em programas comerciais ou acadêmicos disponíveis no GMAp e no CEMACOM. Um programa gerenciador foi desenvolvido para controlar os módulos citados no processo de otimização. A abordagem proposta apresenta uma nova função objetivo a minimizar, a qual está baseada em uma operação booleana XOR (exclusive or) sobre os dois polígonos planos que representam a geometria desejada para o componente e a obtida na simulação, respectivamente. Esta abordagem visa eliminar possíveis problemas geométricos associados com as funções objetivo comumente utilizadas em pesquisas correlatas. O trabalho emprega análise de sensibilidade numérica, via método das diferenças finitas. As dificuldades associadas a esta técnica são estudadas e dois pontos são identificados como limitadores da abordagem para problemas de conformação mecânica (grandes deformações elastoplásticas com contato friccional): baixa eficiência e contaminação dos gradientes na presença de remalhamentos. Um novo procedimento de diferenças finitas é desenvolvido, o qual elimina as dificuldades citadas, possibilitando a sua aplicação em problemas quaisquer, com características competitivas com as da abordagem analítica Malhas não estruturadas são tratadas mediante suavizações Laplacianas, mantendo as suas topologias. No caso de otimização de pré-formas, o contorno do componente a otimizar é parametrizado por B-Splines cujos pontos de controle são adotados como variáveis de projeto. Por outro lado, no caso de otimização de matrizes, a parametrização é realizada em termos de segmentos de reta e arcos de circunferências. As variáveis de projeto adotadas são, então, as coordenadas das extremidades das retas, os raios e centros dos arcos, etc. A sistemática é fechada pela aplicação dos algoritmos de programação matemática de Krister Svanberg (Método das Assíntotas Móveis Globalmente Convergente) e de Klaus Schittkowski (Programação Quadrática Sequencial – NLPQLP). Resultados numéricos são apresentados mostrando a evolução das implementações adotadas e o ganho de eficiência obtido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, apresenta-se um estudo numérico, através do Método dos Elementos Finitos, do efeito de instalação de uma parede diafragma com tirantes, seguida de uma grande escavação em solo residual de Granito Independência. As simulações numéricas são comparadas a deslocamentos medidos em uma obra localizada no Bairro Moinhos de Vento, na cidade de Porto Alegre, Rio Grande do Sul - Brasil. Para realizar esta análise utilizou-se o programa computacional Plaxis. Este programa se destina especificamente a análises da deformabilidade e estabilidade de projetos de engenharia geotécnica, cuja simulação requer o uso de métodos numéricos que consideram linearidade e não-linearidade constitutiva, bem como dependência do tempo. Foi utilizado nas simulações o Modelo Elástico-Perfeitamente Plástico com Superfície de Ruptura de Mohr- Coulomb. Os parâmetros do solo foram determinados a partir de ensaios de SPT e CPT, e balizados através de dados obtidos na literatura. Os resultados das análises numéricas são comparados com os resultados medidos in situ, durante a execução da escavação. Foram feitas duas análises distintas, uma chamada Classe A, onde os parâmetros estimados através dos ensaios SPT e CPT foram adotados como padrão e utilizados na simulação da obra Na segunda análise, denominada análise Classe C, correspondente a uma avaliação dos valores de ângulo de atrito (φ), coesão (c) e Módulo de Elasticidade (E), procurando-se avaliar a sensibilidade das previsões. Os resultados da análise numérica Classe A apresentam uma boa aproximação dos resultados medidos em 3 dos 5 perfis analisados, sendo que as simulações reproduziram de forma qualitativa a tendência das curvas experimentais. Parâmetros de resistência e deformabilidade têm um grande influência no comportamento do modelo numérico. A variação de parâmetros de projeto, como a força de ancoragem nos tirantes e a rigidez da parede diafragma também foram testadas. Os resultados demonstram que a influência destes parâmetros é significativa na medida dos deslocamentos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A anastomose sistêmico-pulmonar é um excelente procedimento paliativo para crianças e recém-nascidos portadores de cardiopatias congênitas cianóticas com diminuição da circulação pulmonar. Neste artigo, as aproximações “Streamline Upwind/Petrov-Galerkin – SUPG” foram utilizadas na simulação de escoamento de sangue em uma anastomose sistêmico pulmonar. A Anastomose estudada neste artigo é conhecido como Blalock-Taussig modificada no qual um enxerto de tubo sintético (prótese) é interposto entre a artéria subclávia esquerda e a artéria pulmonar com o objetivo de desviar parte do fluxo sistêmico ao pulmonar. A metodologia de elementos finitos utilizada, conhecida como método SUPG, supera as dificuldades enfrentadas pelo método de Galerkin clássico em altos números de Reynolds, que são compatibilizar os subespaços de velocidade e pressão – satisfazendo deste modo a condição denominada de Babuška-Brezzi e evitar oscilações espúrias devido à natureza assimétrica da aceleração advectiva de equação de momentum – adicionando termos malha-dependentes para a formulação de Galerkin clássica. Estes termos adicionais são construídos para aumentar a estabilidade da formulação de Galerkin original sem prejudicar sua consistência. Um modelo tridimensional parametrizado, utilizando o elemento lagrangeano trilinear, foi criado a partir de medições obtidas durante procedimento cirúrgico para avaliar os efeitos dos parametros geométricos envolvidos na cirurgia (diâmetro e ângulo do enxerto e a pulsatilidade do escoamento) Os resultados apresentam que o ângulo da anastomose proximal tem sensível influência na quantidade de fluxo desviada pelo enxerto e enorme influência na porcentagem de fluxo direcionado para cada um dos pulmões. Quanto ao diâmetro do enxerto conclui-se que este é o regulador principal da porcentagem de fluxo desviada. A partir das simulações realizadas determinou-se correlações para o fator de atrito e porcentagem de fluxo sangüíneo desviado pelo enxerto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, analisamos utilização da metodologia CreditRLsk+ do Credit Suisse sua adequação ao mercado brasileiro, com objetivo de calcular risco de uma carteira de crédito. Certas hipóteses assumidas na formulação do modelo CreditRisk+ não valem para o mercado brasileiro, caracterizado, por exemplo, por uma elevada probabilidade de defcnilt. Desenvolvemos, então, uma metodologia para cálculo da distribuição de perdas através do método de Simulação de Monte Cario, alterando algumas hipóteses originais do modelo com objetivo de adaptá-lo ao nosso mercado. utilização de simulações também oferece resultados mais precisos em situações onde as carteiras possuem uma pequena população de contratos, além de eliminar possíveis problemas de convergência do método analítico, mesmo considerando as hipóteses do modelo original. Verifica-se ainda que tempo computacional pode ser menor que da metodologia original, principalmente em carteiras com elevado número de devedores de perfis distintos com alocações em diversos setores da economia. Tendo em vista as restrições acima, acreditamos que metodologia proposta seja uma alternativa para forma analítica do modelo CreditRisk+. Apresentamos exemplos de utilização resultados providos por estas simulações. ponto central deste trabalho realçar importância da utilização de metodologias alternativas de medição de risco de crédito que incorporem as particularidades do mercado brasileiro.