974 resultados para Curvas algebraicas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo dos mecanismos de fadiga por contato tem grande relevância para o estudo dos componentes mecânicos que estão sujeitos ao desgaste. O desgaste é um tipo de falha que ocorre na maioria dos componentes que trabalham em contato. Atualmente para prever o desgaste são utilizados métodos experimentais que permitem ajustar curvas semi-empíricas, ou seja, o resultado depende de vários testes que além de caros são demorados. Com o aumento da competitividade na indústria, o tempo se tornou artigo de luxo e com isso o aprimoramento dos modelos de cálculo e das simulações numéricas são muito bem justificados. O estudo aprofundado do mecanismo de fratura por contato sem dúvida pode dar subsídios para um melhor projeto do componente mecânico e assim conseguir predizer com maior precisão quando a falha por desgaste ocorrerá e assim evitar falhas catastróficas e paradas de máquinas não programadas gerando grandes prejuízos e também risco de vidas humanas Este estudo apresenta um modelo numérico utilizando o método dos elementos finitos computacional para a simulação do spalling em componentes mecânicos sujeitos à fadiga de contato. O modelo foi simplificado para duas dimensões e foi considerado estado plano de deformações. Este estudo apresenta uma aproximação na aplicação dos conceitos da Mecânica da Fratura para estimar a vida de componentes mecânicos. O resultado do modelo numérico é confrontado qualitativamente com resultados práticos. A geometria dos pits assim como as relações entre o Fator de intensidade de tensões e o tamanho da trinca é apresentado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é investigar a ancoragem das expectativas de inflação de longo prazo no Brasil, medidas por intermédio das taxas de inflação implícitas nos títulos indexados ao IPCA. Para isso, são extraídas as curvas de juros reais e nominais dos preços do mercado secundário de títulos públicos, e uma vez de posse destes valores, são calculadas as taxas de inflação implícitas observadas diariamente no mercado brasileiro. Utilizando um modelo simples, estimado por Mínimos Quadrados Ordinários (MQO) robusto, testa-se a sensibilidade de alguns vértices das taxas de inflação implícita em relação às variações mensais de indicadores macroeconômicos relevantes para a trajetória de curto prazo da inflação e política monetária. Desta maneira, pretende-se avaliar se o comportamento da inflação implícita nos preços de mercado dos títulos públicos pode oferecer evidências de que as expectativas estão bem ancoradas no Brasil, no âmbito do regime de metas de inflação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o presente estudo analisa os custos da escola rização de uma amostra de escolas do município do Rio de Janeiro e de outra do Distrito Federal, com o objetivo de determinar sua escala ótima de operação e analisar sua eficiência na utilização dos seus recursos físicos e humanos. A escala ótima, como o trabalho demonstra, e determinadÇl. pe;Lo pontQ de minimo . .das curvas de -custo, estimando o tamanho ideal para o funcionamento das escolas, de sorte a obter o máximo de eficiência e produtividade. A eficiência é analisada em termos da intensidade de uso da capacidade física instalada e da alocação adequada.dos recursos humanos, em função da natureza dos serviços escolares e do número de alunos nela matriculados. Espera-se demonstrar que o planejamento edu cacional pode aumentar a eficiência do sistema tirando proveito do que propoe a teoria microeconômica ao abordar as questões relati vas à função de produção e aos seus custos. E que, ao final, a cor reta utilização desses conceitos pode ser muito útil para ajudar a superar a desnecessária, mas muitas vezes real - dicotomia entre quantidade e qualidade. Planejamento economicamente correto pode permitir oferecer e~sino de qualidade a uma grande quantidade de crianças, adolescentes e jovens. A quantidade, antes de ser obstá culo, pode até favorecer a oferta de um ensino de boa qualidade. Evidentemente, é necessár~o competência técnica e científica para fazê-lo, secundando uma firme vontade política de fazê-lo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo estudar a transferência de calor em tubos capilares cilíndricos utilizados na técnica de separação de moléculas denominada Eletroforese Capilar. Esta técnica é usada, por exemplo, na análise de biomoléculas e no sequenciamento de DNA, onde o controle da temperatura está diretamente ligado ao desempenho destes métodos e à qualidade dos resultados. Para empregar esta técnica, tensões elétricas da ordem de 20 kV são aplicadas entre as extremidades dos tubos capilares, que possuem normalmente 50 cm de comprimento, 350 µm de diâmetro externo e 50 µm de diâmetro interno, preenchidos por uma solução aquosa. Tais tensões geram uma corrente elétrica na solução, provocando aquecimento distribuído por Efeito Joule. Os tubos capilares são construídos em quartzo amorfo e protegidos por uma camada de material polimérico (poliimida). Para implementar o controle da temperatura, os tubos capilares são colocados em contato com um fluido de resfriamento. Num primeiro momento, os estudos são realizados por simulação numérica, empregando o Método dos Volumes Finitos em rotinas escritas em FORTRAN. São simulados casos onde os tubos são recobertos por camadas cilíndricas de materiais com uma condutividade térmica relativamente boa, com o objetivo de aumentar a superfície de troca de calor com o fluido de resfriamento. Como resultado, obtêm-se curvas da temperatura no centro dos tubos capilares em função do coeficiente de transferência de calor por convecção. Um caso de interesse é quando os tubos capilares são posicionados excentricamente ao recobrimento cilíndrico Num segundo momento, é utilizado o software de simulação numérica ANSYS CFX®, onde é simulado o resfriamento dos mesmos tubos capilares expostos a um escoamento transversal de ar a 15°C. Neste caso, também são aplicados os recobrimentos cilíndricos e, além disso, opta-se por simular o resfriamento de um arranjo de vários tubos (sistema multicapilar) dispostos entre placas de vidro, no formato de um sanduíche. Como resultados mais importantes salientam-se: a) o aumento do raio do recobrimento resulta no aumento da transferência de calor, fazendo com que a temperatura no núcleo do capilar fique estacionada em valores baixos que não comprometem as separações/análises; b) chegou-se a um valor de raio crítico da ordem de 10 mm para a condição de operação mais típicas na área da Eletroforese Capilar; c) as montagens com o tubo capilar concêntrico e excêntrico ao recobrimento não apresentam diferenças significativas no perfil de temperatura da solução tampão; e finalmente d) observa-se que o uso de duas placas de material dielétrico com os capilares posicionados em forma de sanduíche entre elas permite uma eficiente dissipação do calor gerado na solução tampão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A urbanização descontrolada das cidades brasileiras tem provocado o agravamento das enchentes naturais e a ampliação de sua freqüência, além de criar novos pontos de alagamento localizados. Isto se deve à crescente impermeabilização do solo com aumento do volume pluvial escoado e redução de amortecimento. A concepção de um projeto de macrodrenagem em uma bacia urbana que considere o controle das inundações, como por exemplo, a implementação de reservatórios de amortecimento em áreas sujeitas a alagamentos, constitui-se em uma tarefa complexa e difícil devido ao grande número de alternativas possíveis, considerando todas as variáveis envolvidas, como capacidades hidráulicas existentes e necessárias das redes de drenagem, disponibilidade de áreas para construção de reservatórios, custos de desapropriação destas áreas, existência de sistemas mistos de coleta, uso de reservatórios abertos ou subterrâneos, dentre outras. Desta forma o projetista coloca-se diante de um dilema: qual o conjunto destas alternativas podem ser o mais eficiente? Este estudo promoveu a análise da aplicabilidade e eficiência de um modelo de otimização associado a modelos hidrológico-hidráulicos como instrumentos de suporte à decisão em problemas de drenagem urbana. A ferramenta desenvolvida compôs-se pelo modelo IPHS1 para a simulação hidrológica e hidráulica, pelo algoritmo de evolução SCE-UA para o processo de otimização através da minimização do custo de implantação das soluções e do módulo EXTRAN do modelo SWMM para a verificação hidráulica dos resultados obtidos e análises de riscos superiores. Os resultados mostraram-se bons e o sistema implementado adaptou-se bem às características das duas bacias analisadas: bacia do arroio do Moinho e bacia do arroio da Areia. O sistema forneceu os cenários de custos otimizados de implantação da solução com detenções distribuídas nas bacias e ampliações de redes, em um curto período de tempo e utilizando dados que seriam necessários para qualquer projeto de macrodrenagem deste tipo. Com os resultados compilados, foram obtidas funções de auxílio à tomada de decisão em planos e projetos de drenagem urbana através de curvas ajustadas aos pontos gerados nas bacias estudadas. Foi realizada a análise de sensibilidade e a avaliação das incertezas envolvidas com o modelo hidrológico utilizado com relação ao seu parâmetro principal, o Curve Number. Esta análise mostrou grandes variações nas vazões de saída das bacias e nos custos das obras com pequenas alterações nos valores de CN. Apresenta-se ainda uma análise econômica da aplicação dos valores obtidos de forma extrapolada para todo o município de Porto Alegre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O milho é um das culturas mais exigentes em nitrogênio (N). A sua aplicação na dose e época correta pode aumentar a sua eficiência de uso, diminuindo custos e danos ambientais. Foram estudadas características de planta, de dossel e de solo, como indicadores da disponibilidade de N no sistema solo-planta para predição da necessidade deste nutriente em cobertura em milho. Foram conduzidos cinco experimentos a campo e dois em casa de vegetação, nas estações de crescimento de 2002/03 e 2003/04, na Estação Experimental Agronômica e na Faculdade de Agronomia da UFRGS, em Eldorado do Sul e em Porto Alegre-RS, Brasil, respectivamente, e dois experimentos a campo no ano de 2004 no Estern Cereal and Oilseed Research Center, em Ottawa-Ontário, Canadá. Foram avaliadas, em diferentes locais e situações de manejo, características de planta, de dossel e de solo, citando-se: teores de nitrato, amônio e N mineral no solo e na folha; massa seca e área foliar da folha e da planta, teor e acúmulo de N na folha e na planta; teor relativo de clorofila na folha, medido pelo clorofilômetro, reflectância do dossel, medido por dois tipos de radiômetros e fluorescência da folha, medida pelo fluorômetro. Além disso, foram avaliados o rendimento de grãos e seus componentes e parâmetros de eficiência técnica e econômica de uso de N. Dentre as características de planta, o teor relativo de clorofila na folha, e dentre os de solo, o teor de nitrato no solo, destacaram-se entre os demais avaliados. Foram determinados níveis críticos e doses ótimas de N, bem como estabelecidas curvas de calibração para dois níveis de manejo com base nestas características para monitoramento da lavoura. No que diz respeito às características de dossel estudadas, a reflectância apresentou melhores resultados que a fluorescência como indicador do nível de N no sistema solo-planta. Os estudos realizados mostraram que dentre as caracteríticas avaliadas, atualmente, o teor relativo de clorofila na folha tem o maior potencial para auxiliar na determinação da época mais adequada para aplicação de N em cobertura em milho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esse trabalho teve por objetivo contribuir para o entendimento da evolução da demanda por etanol e gasolina no Brasil e como este crescimento deverá ser traduzido em disponibilidade de cana de açúcar. Nesse estudo foram usados dados históricos que refletem o comportamento de variáveis no passado para projetar o futuro, considerando que o comportamento permaneça similar. Com as pressões internacionais por sustentabilidade e uma busca por uma matriz energética mais limpa, o etanol passou a ser uma opção real de complemento às demais fontes, sobretudo pelo seu aspecto ambiental. Com essa visão o Brasil já na década de 70 iniciou investimentos e incentivos para a produção de etanol para veículos, impulsionando a produção de carros flex na década de 90. Apesar de altos e baixos, hoje o aumento da demanda por etanol se deve principalmente ao crescimento da produção de veículos flex fuel. Esse crescimento vertiginoso da demanda fez com que houvesse necessidade de cada vez mais etanol e infelizmente a capacidade de produção do Brasil não foi capaz de acompanhar esse movimento, gerando falta de produto e provocando a migração do etanol para a gasolina. Essa migração tipicamente ocorre quando o etanol ultrapassa a paridade de 70% do preço da gasolina. Nesse contexto, o consumo de gasolina aumenta, impactando no volume de importação que a Petrobrás realiza para suprir o mercado interno. Através da análise das curvas de paridade e comportamento do consumidor, foi possível perceber que nos próximos anos a demanda por etanol vai continuar subindo e que a oferta de cana de açúcar não cresce na mesma proporção. Isso quer dizer que o que tínhamos de folga de produção de etanol, vai representar um déficit importante a ser suprido pela gasolina, custando ainda mais para a Petrobrás manter o nível de preço com baixo impacto inflacionário. Caso não sejam feitos investimentos relevantes para aumentar a oferta de etanol, através de novas usinas ou de maior produtividade, ou de gasolina através de mais refino, certamente teremos um cenário de desbalanceamento entre oferta e demanda de etanol e gasolina no Brasil

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As sínteses, caracterizações e estudos referentes a polimerização do etileno de uma série de complexos {TpMs*}V(NtBu)Cl2 (1), {TpMs*}V(O)Cl2 (2), {TpMePh]V(NtBu)Cl2 (3) e {Tp*}V(O)Cl2 (4) são descritas. A reação destes complexos com MAO geram espécies catalíticas ativas para a polimerização do etileno. Para as reações de polimerização realizadas em tolueno a 30°C, as atividades variaram entre 71 e 1.126 kg de PE/mol[V]·h·atm. A atividade mais alta foi obtida usando o precursor catalítico 1. As curvas de DSC mostraram a formação de polietileno de alta densidade com temperaturas de fusão entre 134 e 141ºC. Visando a obtenção de catalisadores suportados, o complexo 1 foi imobilizado através do método direto sobre os seguintes suportes inorgânicos: SiO2, SiO2 modificada com MAO, SiO2-Al2O3, MCM-41, MgO e MgCl2. O teor de metal imobilizado, determinado por XRF, permaneceu entre 0,22 e 0,50 % g V/g suporte (p/p %).Os maiores teores de metal foram encontrados para os suportes com maiores áreas superficiais (SiO2–Al2O3 e MCM-41). Todos os sistemas mostraram-se ativos na polimerização do etileno na presença de MAO ou TiBA/MAO (1:1) (Al/V = 1000). A atividade catalítica mostrou-se dependente da natureza do suporte, ficando esta entre 8 e 89 kg de PE/mol[V]·h·atm. Os melhores resultados foram obtidos para sílica. Suportes ácidos ou básicos forneceram sistemas catalíticos menos ativos. Os polietilenos apresentaram pesos moleculares médios (Mw) superiores a 2.000.000 g/mol, sugerindo a produção de polímeros com ultra-alto peso molecular. Baseado nos resultados referentes a imobilização de 1, o complexo 2 foi imobilizado sobre SiO2 e SiO2 modificada com MAO. As reações de polimerização deste catalisador suportado foram realizadas em tolueno a 30ºC, utilizando MAO ou TiBA/MAO (1:1) (Al/V = 1000). Os resultados de atividade variaram entre 7 e 236 kg de PE/mol[V]·h·atm, sendo a maior atividade encontrada para o sistema suportado 2/SiO2/MAO(4,0 % Al/SiO2) na presença da mistura de cocatalisadores TiBA/MAO (1:1). Os complexos 1 e 2 foram imobilizados “in situ” utilizando SiO2 e SiO2/MAO (4,0 % em peso de Al/SiO2) como suportes, empregando 0,02 % em peso de V/g suporte. Todos os sistemas estudados foram ativos nas reações de polimerização do etileno. Para o complexo 1, a maior atividade (1.903 kg de PE/mol[V]·h·atm) foi obtida utilizando o sistema 1/SiO2/MAO (4,0 % em peso de Al/SiO2) na presença do MAO. Cabe ressaltar que, para este sistema catalítico, o uso de TMA ao invés de MAO proporciona a formação de um sistema catalítico altamente ativo (1.342 kg de PE/mol[V]·h·atm). A maior atividade (1.882 kg de PE/mol[V]·h·atm) para o complexo 2 foi encontrada quando o mesmo foi suportado “in situ” sobre SiO2, utilizando MAO como cocatalisador. O catalisador de vanádio preparado “in situ” sobre o suporte na presença do MAO apresentou uma atividade catalítica de 22 kg de PE/mol[V]·h·atm) sendo a mesma inferior àquela obtida utilizando o sistema via imobilização do catalisador “in situ”. Várias rotas sintéticas (hidrolíticas e não-hidrolíticas) objetivando a preparação “in situ” do catalisador sobre sílicas-híbridas foram empregadas, entretanto todas as tentativas falharam devido à alta reatividade do grupo NCO com alguns reagentes empregados no processo de preparação das mesmas. Uma série de catalisadores híbridos foram preparados pela combinação e imobilização seqüencial de {TpMs*}V(NtBu)Cl2 (1) e [LFeCl2] (8) (L = 2,6-bis(imino)piridila) sobre SiO2/MAO (4,0% em peso de Al/SiO2) em diferentes proporções (1:1) e (1:3). Todos os sistemas foram ativos na polimerização do etileno na presença de MAO como cocatalisador. A atividade mostrou-se dependente da natureza do complexo e da ordem de imobilização. A maior atividade foi obtida para o sistema V/Fe/SMAO-4 (1:1) (117 kg de PE/mol[M]·h·atm). Baseado nas curvas de DSC, diferentes tipos de PE podem ser obtidos dependendo da natureza do complexo imobilizado e da ordem da adição dos catalisadores no suporte. Para os sistemas híbridos, a presença do Fe determina a formação de PE com dois picos de fusão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho visa propor uma metodologia para Teste de estresse e, consequentemente, cálculo do colchão adicional de capital em risco de crédito, conforme exigência do Comitê de Supervisão Bancária. A metodologia consiste em utilizar informações macroeconômicas para determinar o comportamento da taxa de inadimplência. Dessa forma, podemos simular possíveis cenários econômicos e, com isso, a taxa de inadimplência associada a esse cenário. Para cada cenário econômico é obtida uma taxa. Cada taxa de inadimplência fornece uma curva de perdas. Simulando diversos cenários econômicos foi possível obter diversas curvas de perda e, com elas, a probabilidade de ocorrência da perda esperada e inesperada. A metodologia foi aplicada a uma carteira de crédito pessoal para pessoa física. Os resultados se mostraram bastantes eficientes para determinar a probabilidade de ocorrência do Capital Alocado. Como consequência do teste, dado um nível de confiança, foi possível determinar qual deveria ser o Capital Alocado para fazer frente às perdas acima da perda inesperada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Risco operacional precisa ser mensurado pois afeta o valor e a sobrevivência das empresas. Ocupa o foco de pesquisadores, profissionais do sistema financeiro, reguladores e supervisores bancários, no esforço de controlar esse risco. Pesquisamos quatro formas de utilizar a abordagem de distribuição de perdas para a quantificação do risco operacional. Utilizamos um conjunto de dois anos de perdas operacionais de um banco brasileiro de grande porte para fazermos a aplicação e o teste dessa abordagem em quatro variantes. A variante que utiliza exclusivamente distribuições empíricas foi a mais adequada para medir o risco operacional e calcular o capital econômico a partir dos dados disponíveis. Na variante que quantifica o risco operacional ajustando distribuições teóricas às perdas, mostramos que as curvas de Johnson são especialmente flexíveis e de pronta implementação. Também, ajustamos as curvas de Johnson à distribuição de perdas operacionais e à distribuição amostral dos valores de capital econômico. Conhecer a distribuição do capital permite que tenhamos ideia da precisão com que estimamos o capital econômico e abre o caminho para futuros estudos teóricos da distribuição do Var operacional. Encontramos a distribuição dos valores de capital econômico ao invés de calcularmos um valor único de capital. Comparamos dois métodos, utilizados para estabelecer distribuições de valores de capital. Ao conduzirmos a pesquisa, notamos ser possível justificarmos pontos de verificação da auditoria interna sobre a base de dados, a modelagem e a gestão de risco operacional. Com a pesquisa produzimos sugestões para a supervisão e regulação dos bancos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As áreas de visualização e modelagem baseados em pontos têm sido pesquisadas ativamente na computação gráfica. Pontos com atributos (por exemplo, normais) são geralmente chamados de surfels e existem vários algoritmos para a manipulação e visualização eficiente deles. Um ponto chave para a eficiência de muitos métodos é o uso de estruturas de particionamento do espaço. Geralmente octrees e KD-trees, por utilizarem cortes alinhados com os eixos são preferidas em vez das BSP-trees, mais genéricas. Neste trabalho, apresenta-se uma estrutura chamada Constrained BSP-tree (CBSP-tree), que pode ser vista como uma estrutura intermediárias entre KD-trees e BSP-trees. A CBSP-tree se caracteriza por permitir cortes arbitrários desde que seja satisfeito um critério de validade dos cortes. Esse critério pode ser redefinido de acordo com a aplicação. Isso permite uma aproximação melhor de regões curvas. Apresentam-se algoritmos para construir CBSP-trees, valendo-se da flexibilidade que a estrutura oferece, e para realizar operações booleanas usando uma nova classificação de interior/exterior.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta um estudo do comportamento térmico de um coletor solar acumulador e desenvolve uma metodologia para medir a sua eficiência diária. O coletor solar acumulador está instalado na face norte do prédio de Energia Solar da UFRGS e possui cerca de 26 m2. É constituído de uma massa espessa de concreto com uma superfície absorvente feita de tijolos, possuindo uma cobertura dupla de vidros colocada de modo a deixar um espaço para a circulação de ar. Os raios solares atravessam a cobertura de vidro e aquecem a massa absorvente de tijolo, a qual aquece o ar que é introduzido no interior da construção por efeito de termossifão. Uma das principais características do coletor solar acumulador consiste no fato de que a resposta do coletor é defasada no tempo. Este fenômeno permite que o coletor entregue calor ao ambiente mesmo após o término da radiação solar. Essa defasagem dos picos de energia térmica ocorre devido ao baixo valor da difusividade térmica do concreto. Este trabalho foi dividido em duas etapas. A primeira etapa consistiu na montagem de um calorímetro para controle e monitoração das variáveis envolvidas. No interior do calorímetro foram instaladas 36 garrafas com água. As temperaturas dos conteúdos das garrafas, do coletor solar e as radiações envolvidas foram monitoradas através de 26 sensores de temperatura de CI, 8 sensores resistivos PT100 e dois sensores de radiação fotovoltaicos. Para obter as medidas dos sensores instalados foi feita a montagem de um sistema de aquisição de dados interfaceado a um microcomputador A segunda etapa consistiu na produção de um programa computacional, escrito em linguagem Fortran 90, para simular o comportamento térmico dos diversos elementos constituintes do coletor, determinar a potência térmica do coletor solar e sua eficiência diária. Para a simulação numérica do coletor solar acumulador, adotou-se um modelo simplificado bidimensional do mesmo. Foi integrada, através do Método dos Volumes Finitos, a equação de difusão de calor transiente em 2 dimensões. Na formulação das equações lineares optou-se pelo emprego das diferenças centrais no espaço e formulação explícita no tempo. Ao todo foram produzidas 4 malhas computacionais, com distintos refinamentos e foi realizado o estudo da estabilidade numérica das diversas malhas. Através da montagem experimental obtiveram-se várias características térmicas do comportamento do sistema, entre as quais, a transmitância da cobertura, curvas de temperatura do ar fornecido ao calorímetro e curva da eficiência diária do coletor solar . Através da simulação numérica foi possível determinar a potência térmica que o coletor entrega para o laboratório, a eficiência do coletor, os campos de temperatura e a vazão mássica nos diversos canais interiores do coletor solar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi estudar o comportamento de trilhos ferroviários, avaliando parâmetros como o desempenho frente à propagação de trincas e a tenacidade à fratura que são fundamentais para sua utilização mais segura. Neste trabalho foram realizados ensaios de qualificação (caracterização mecânica e metalúrgica) de dois trilhos utilizados em ferrovias brasileiras que consistiram em análises química, macro e microestrutural, ensaios de dureza, determinação de tenacidade à fratura (KIC) e determinação de curvas da/dN x ∆K. Uma vez determinadas as características mecânicometalúrgicas dos trilhos, foram analisados o crescimento de defeitos transversais internos através de fórmulas da mecânica da fratura aplicada à fadiga, desenvolvidas por Orringer e outros, que permitem determinar: o tamanho do defeito no qual a falha no trilho pode ser esperada (quando o trem viaja sobre o mesmo) e o tempo para que o defeito cresça de um certo tamanho até um tamanho crítico (vida remanescente) no qual a falha é esperada. Também foi levada em conta a influência do nível de desgaste no boleto. Dentre os fatores que apresentaram maior influencia, destacam-se a temperatura de trabalho, o tamanho inicial do defeito e a tensão residual. Além disso, os resultados obtidos podem ser aplicados para desenvolver intervalos estratégicos de inspeção de tolerância ao dano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apesar de seu uso amplo no mercado financeiro para modelagem dos preços de ações, o modelo de Black Scholes, assim como os demais modelos de difusão, possui por hipótese limitações que não permitem a ele capturar alguns comportamentos típicos desse mercado. Visto isso, diversos autores propuseram que os preços das ações seguem modelos de saltos puros sendo sua modelagem estruturada por um processo de Lévy. Nesse contexto, este trabalho visa apresentar um estudo sobre a precificação de opções do utilizando um modelo desenvolvido por Madan e Seneta (1990) que se baseia no processo de saltos puros conhecido como variância gama (VG). Utilizando como base dados as cotações históricas diárias de ações e opções do mercado brasileiro, além do comportamento da clássica curva ‘smile’ de volatilidade, o trabalho apresenta as curvas de tendência e taxa de variância presentes no modelo de variância gama. Juntos essas três curvas podem ser utilizadas como ferramentas para explicar melhor o comportamento dos preços dos ativos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parâmetros renais quantitativos como depuração de Tc99m-MAG3, captação relativa, razão 20 minutos/máximo, razão 20 minutos/2-3 minutos, tempo de atividade máxima e tempo de eliminação decorrido até metade da atividade inicial são freqüentemente obtidos com a cintilografia renal dinâmica com Tc99m-MAG3 e diurético. No entanto, em raras situações estes parâmetros foram testados para avaliar sua utilidade clínica. O objetivo deste estudo foi avaliar se o fornecimento de dados qualitativos (curvas e imagens) e quantitativos a médicos nuclearistas com diferentes graus de experiência e treinamento melhora a acurácia diagnóstica da interpretação da cintilografia renal dinâmica com Tc99m-MAG3 e diurético quando comparada à interpretação do estudo baseada somente nos dados qualitativos. Métodos: Uma equipe de três especialistas em medicina nuclear renal revisou as cintilografias renais completas com Tc99m-MAG3 de 108 pacientes e classificou o estado funcional de cada rim em uma escala de 5 pontos (0 = definitivamente normal, 1 = provavelmente normal, 2 = equívoco, 3 = provavelmente anormal, 4 = definitivamente anormal). Cada rim foi avaliado para a presença ou ausência de obstrução em uma escala similar. O escore final dos especialistas se baseou em unanimidade ou maioria; se houvesse desacordo ≥ 2 pontos entre 2 especialistas, o escore final era determinado por uma leitura de consenso. O escore dos especialistas foi usado como padrão-ouro. Quatro grupos de 3 médicos com diferentes níveis de experiência e treinamento em medicina nuclear revisou cada um os 108 estudos (imagens e curvas) e classificou-os em uma escala de 5 pontos em relação à função e obstrução. Após um período de pelo menos uma semana, eles revisaram as mesmas 108 cintilografias em ordem randomizada com a adição dos dados quantitativos e novamente as classificou de acordo com uma escala de 5 pontos. Os escores dos médicos foram comparados ao padrão-ouro. A concordância dos médicos nuclearistas em relação ao consenso dos especialistas foi calculada através do coeficiente kappa ponderado. Resultados: Duzentos e dez rins foram avaliados. O coeficiente kappa ponderado entre os especialistas mostrou uma concordância excelente para função e obstrução. Para a avaliação de função, o kappa ponderado melhorou com a adição de dados quantitativos em todos os grupos, sendo mais evidente para os grupos 3 e 4. Com e sem dados quantitativos, o grupo mais experiente apresentou um valor de kappa ponderado mais elevado do que os grupos com menos experiência. Para a questão de obstrução, os dados quantitativos não melhoraram o desempenho dos médicos experientes (grupos 1 e 2), ao passo que melhoraram o desempenho geral dos médicos menos experientes (grupos 3 e 4). Conclusão: Dados quantitativos não auxiliaram em casos de diagnósticos complexos como obstrução quando o médico que estava interpretando não tinha experiência com o protocolo e com o uso de variáveis quantitativas. Para a avaliação de obstrução, houve uma variabilidade de 15 a 25% na interpretação, dependendo do médico que estava avaliando a cintilografia. Para os diagnósticos menos complexos, como função, os dados quantitativos melhoraram o desempenho dos médicos. Enfim, a análise do kappa ponderado mostrou, principalmente, que existe ainda uma diferença substancial entre a interpretação dos especialistas e a interpretação dos médicos nuclearistas com maior e menor experiência.