1000 resultados para Instrumentos de medição - Métodos de simulação


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Há mais de uma década, o Value-at-Risk (VaR) é utilizado por instituições financeiras e corporações não financeiras para controlar o risco de mercado de carteiras de investimentos. O fato dos métodos paramétricos assumirem a hipótese de normalidade da distribuição de retornos dos fatores de risco de mercado, leva alguns gestores de risco a utilizar métodos por simulação histórica para calcular o VaR das carteiras. A principal crítica à simulação histórica tradicional é, no entanto, dar o mesmo peso na distribuição à todos os retornos encontrados no período. Este trabalho testa o modelo de simulação histórica com atualização de volatilidade proposto por Hull e White (1998) com dados do mercado brasileiro de ações e compara seu desempenho com o modelo tradicional. Os resultados mostraram um desempenho superior do modelo de Hull e White na previsão de perdas para as carteiras e na sua velocidade de adaptação à períodos de ruptura da volatilidade do mercado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A análise do comportamento estrutural sob incêndio constitui uma parte importante da engenharia de proteção contra incêndio, especialmente no caso de estruturas de aço, por sua alta condutividade térmica e relativa esbeltez das seções. As dificuldades econômicas e práticas, associadas à avaliação do comportamento estrutural, por meio de ensaios em escala real, têm estimulado o desenvolvimento e uso de métodos de simulação numérica. Esta tese trata da simulação numérica do comportamento de estruturas de aço sob condições de incêndio e se divide em três partes. As duas primeiras partes foram desenvolvidas na Universidade de Liége, na Bélgica, usando-se o programa SAFIR como ferramenta numérica. A terceira parte foi desenvolvida de forma independente, na Universidade Federal do Rio Grande do Sul. Na primeira parte, é feito um estudo comparativo entre o uso de elementos finitos de viga e de casca, na modelagem de vigas simplesmente apoiadas, sujeitas a flambagem lateral por torção. Os esforços de torção, presentes no caso de flambagem lateral, podem levar a uma plastificação da seção transversal e à conseqüente redução da rigidez à torção da seção. Da mesma forma, a degradação das propriedades do material, com o aumento da temperatura, leva à redução da rigidez à torção Havia dúvidas se o modelo com elementos de viga, com uma rigidez à torção constante, poderia fornecer uma resposta aceitável. O estudo mostrou que uma resposta com boa precisão pode ser conseguida, usando-se elementos de viga, desde que o módulo de elasticidade transversal seja ajustado para refletir seu valor correspondente à temperatura de falha. Isso implica um processo iterativo, uma vez que a temperatura de falha não é previamente conhecida. Por outro lado, a degradação da rigidez à torção, por efeitos de plastificação, pode ser ignorada. Na segunda parte, é feita a comparação entre as modelagens bidimensional e tridimensional, de galpões industriais de um andar, sob incêndio. Comumente, a estrutura de galpões industriais é composta por pórticos-tipo, dispostos em paralelo. A análise desses galpões é comumente feita pela simulação no plano do pórtico de aço ou, simplesmente, da treliça da cobertura Na análise bidimensional, importantes efeitos fora do plano são ignorados, como a redistribuição de esforços devido à degradação do material ou à expansão térmica, ou instabilidade lateral dos elementos. A importância desses efeitos e a adequabilidade do modelo 2D para representar o comportamento real são discutidas. Na terceira parte, um modelo numérico para a simulação tridimensional do comportamento de estruturas de aço sob incêndio é apresentado. O modelo é baseado no conceito de rótulas plásticas generalizadas, com modificações para melhor representar a formação e expansão da plastificação no elemento. A descrição cinemática adotada permite obter bons resultados, mesmo com o uso de poucos elementos. A determinação do vetor de esforços internos no elemento, incluindo os efeitos da temperatura, é detalhada. O procedimento foi validado por comparação com ensaios e com modelos numéricos mais sofisticados, como o programa SAFIR. Os resultados demonstram que o procedimento proposto pode ser usado como uma forma alternativa de análise 3D de estruturas sob incêndio, com precisão razoável e baixo esforço computacional.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O trabalho procura analisar a utilização dos modelos em geral dos modelos de simulação em particular como instrumento para o treinamento de executivos em marketing. Utilizando-se de conceitos e/ou teorias geralmente aceitos na área de marketing, foi elaborado um modelo de simulação que,à luz de dados secundários relevantes da realidade brasileira, pudesse servir como instrumento para (a) treinar executivos na "prática" de marketing, (b) ensinar conceitos e teorias existentes na área de marketing, (c) representar os aspectos relevantes da realidade de marketing, e (d) treinar os executivos de marketing no processo de tomada de decisões. Colocado em teste junto a um grupo selecionado de executivos, o modelo de simulação foi considerado pelos mesmos como sendo um instrumento útil para o treinamento e/ou desenvolvimento de executivos na área de marketing

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abordagens teóricas dominantes no campo da estratégia empresarial (PORTER, 1980; BARNEY, 1991; PISANO e TEECE, 1997), de modo geral, não consideram explicitamente o comportamento corporativo político como um componente do amplo conjunto de elementos que compõem a estrutura dos processos de formulação e implementação estratégica. A pouca ênfase dada ao papel das firmas na seara política resulta em limitações para compreensão do ambiente competitivo e, consequentemente reduz o poder explicativo de estudos que se propõem a desvendar as razões do desempenho diferenciado das organizações. Salorio, Boddewyn e Dahan (2005) reforçam tal perspectiva ao observarem que firmas são organizações econômicas na medida em que em suas transações ponderam custos, benefícios, lucros, market share, mas também, enquanto organizações precisam definir e gerenciar fronteiras, bem como diferenciar e integrar seus membros, os stakerolders e suas operações. Esse envolvimento em um mix de comportamento político-econômico de barganha e não barganha leva à definição das firmas também como organizações políticas. Apesar de tal linha de pensamento ainda ter conotação de novidade para alguns, de reciclagem de antigas ideias para outros, ou, mesmo, parecer se pautar pela tentativa de retomar questões que sempre foram tratadas de forma lateral, Salorio, Boddewyn e Dahan (2005) enfatizam que “the political is always there”. O presente projeto teve objetivo central modelar ambiente simulado para testar antecedentes da atividade política corporativa (HILLMAN, KEIM e SCHULER, 2004), e como objetivos específicos: Modelar um simulador dos ambientes de negócio e político das empresas; aplicar o simulador para gerar dados sobre os antecedentes da participação política; testar antecedentes da participação política como alternativa estratégica em resposta ao baixo desempenho das firmas, a disponibilidade de recursos e a atividade política de concorrentes; testar a interação entre antecedentes de market e nonmarket para explicar a participação política. Com relação aos objetivos, o estudo pode ser caracterizado como explicativo, e quanto aos procedimentos técnicos adotados como de laboratório. O tipo de pesquisa adotado foi o de verificação de hipóteses causais assentada em uma abordagem metodológica quantitativa, cujos dados foram coletados por meio de 12 simulações, estruturadas no formato de um business game, com nove empresas em cada simulação, totalizando 108 unidades de análise. Configuram-se como sujeitos da pesquisa alunos do último ano dos cursos de graduação em administração e economia da Universidade Estadual de Londrina. As análises dos dados foram efetuadas utilizando-se o software STATA para desenvolvimento das regressões, sendo considerado como modelo estatístico a técnica de dados em painel com efeito fixo (WOOLDRIDGE, 2003), visto que o foco do estudo é a análise das informações (decisões/desempenho) das empresas ao longo do tempo. Os resultados indicam que: a) a ineficiência da firma afeta positivamente o investimento em financiamento eleitoral; b) o investimento em ações políticas corporativas ocorre no sentido de complementação às ações de market e não em contraposição, c) a maior propensão em investir em nonmarket está relacionada com desempenho inferior ao da concorrência; d) o aumento do investimento em nonmarket não está relacionado com a ação política mais ativa por parte da concorrência. Não foram encontradas evidências de que firmas com maiores sobras de recursos são mais ativas politicamente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste trabalho é estudar estes fatores isolada e interdependente de modo a procurar compor um mecanismo de simulação que permita obter elementos para quantificar as repercussões de medidas isoladas, no restante da estrutura do banco. Uma parcela considerável das informações utilizadas foi obtida a partir de levantamentos contábeis e entrevistas efetuadas em um grande banco comercial. É nossa intenção demonstrar a viabilidade da utilização prática deste modelo na previsão e acompanhamento de resultados, mantendo, a possibilidade de atualizar e testar novas hipóteses.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O estudo objetivou dimensionar o valor estratégico dos Serious Games e da Gamificação como alternativas pedagógicas em favor do aprendizado sobre Gestão Pública. De cunho exploratório e descritivo, o estudo, visa fornecer algum conhecimento sobre ferramentas alternativas de apoio ao ensino da Gestão Pública, tomando o papel dos jogos digitais como instrumentos contributivos aos educadores. A metodologia aplicada é fenomenológica, pois buscou extrair significados por intermédio dos sujeitos, a fim de obter uma maior compreensão do fenômeno de aprendizagem baseada em jogos digitais. A investigação foi conduzida por pesquisas bibliográficas e de campo, na qual a coleta de dados foi obtida por meio de entrevistas por pautas. Ao todo, a amostra contemplou 18 sujeitos envolvidos com games em educação, baseando-se em três critérios: pesquisa, desenvolvimento e aplicação. Foram analisados artigos e publicações de autores brasileiros, constatando-se a baixa produção sobre o tema, principalmente, de cunho qualitativo sobre ao assunto. Além disso, observou-se uma presença de livros e publicações em língua inglesa muito superior às produções nacionais, por essa razão, a pesquisa buscou ampliar a discussão sobre o tema. Como resultados das entrevistas, foram destacados benefícios cognitivos, pedagógicos, interacionais com base nas teorias interacionistas de Vygotsky e Piaget, nas quais os jogos digitais formam espaços de aprendizagem e interação, cabendo, contudo, aos educadores, a escolha de empregá-los ou não em salas de aula. Os resultados também revelam alguns problemas de implementação, tais como: (1) falta de investimentos em treinamento dos professores, (2) falta de infraestrutura nas instituições de ensino, (3) integração curricular, (4) acesso à infraestrutura/tecnologia em comunidades ribeirinhas fora dos grandes centros urbanos, (5) adequação ao público-alvo, pois nem todos os estudantes se interessam por jogos eletrônicos. Ao final, iniciativas do MEC têm propiciado a busca de novas ferramentas e tecnologias que venham a incrementar as práticas pedagógicas, e nesse sentido, os jogos digitais adequam-se a esta realidade exigida, pois trazem consigo novas reflexões acerca do ensino, do papel dos professores, e de novas possibilidades no ensino de Gestão Pública. O valor estratégico dos games revela-se como uma ferramenta pedagógica propiciadora de espaços de aprendizado alicerçados em: interatividade, imersão e interconectividade, responsáveis por tornarem os aluno sujeitos ativos no processo educacional.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The objective of the present work is develop a model to simulate electrical energy networks in transient and stead states, using the software ATP (Alternative Transient Program), able to be a way to join two distinct themes, present in classical methodology planning networks: short circuit analysis and load flow theory. Beyond that, using a tool for relay simulation, this paper intend to use the new developed model to investigate the influence of transient phenomenon in operation of protection relays, and calibrate the enterprise's protections relays. For testing the model, some relays, actually, installed at COSERN were used

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Agronomia (Energia na Agricultura) - FCA

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A identificação e descrição dos caracteres litológicos de uma formação são indispensáveis à avaliação de formações complexas. Com este objetivo, tem sido sistematicamente usada a combinação de ferramentas nucleares em poços não-revestidos. Os perfis resultantes podem ser considerados como a interação entre duas fases distintas: • Fase de transporte da radiação desde a fonte até um ou mais detectores, através da formação. • Fase de detecção, que consiste na coleção da radiação, sua transformação em pulsos de corrente e, finalmente, na distribuição espectral destes pulsos. Visto que a presença do detector não afeta fortemente o resultado do transporte da radiação, cada fase pode ser simulada independentemente uma da outra, o que permite introduzir um novo tipo de modelamento que desacopla as duas fases. Neste trabalho, a resposta final é simulada combinando soluções numéricas do transporte com uma biblioteca de funções resposta do detector, para diferentes energias incidentes e para cada arranjo específico de fontes e detectores. O transporte da radiação é calculado através do algoritmo de elementos finitos (FEM), na forma de fluxo escalar 2½-D, proveniente da solução numérica da aproximação de difusão para multigrupos da equação de transporte de Boltzmann, no espaço de fase, dita aproximação P1, onde a variável direção é expandida em termos dos polinômios ortogonais de Legendre. Isto determina a redução da dimensionalidade do problema, tornando-o mais compatível com o algoritmo FEM, onde o fluxo dependa exclusivamente da variável espacial e das propriedades físicas da formação. A função resposta do detector NaI(Tl) é obtida independentemente pelo método Monte Carlo (MC) em que a reconstrução da vida de uma partícula dentro do cristal cintilador é feita simulando, interação por interação, a posição, direção e energia das diferentes partículas, com a ajuda de números aleatórios aos quais estão associados leis de probabilidades adequadas. Os possíveis tipos de interação (Rayleigh, Efeito fotoelétrico, Compton e Produção de pares) são determinados similarmente. Completa-se a simulação quando as funções resposta do detector são convolvidas com o fluxo escalar, produzindo como resposta final, o espectro de altura de pulso do sistema modelado. Neste espectro serão selecionados conjuntos de canais denominados janelas de detecção. As taxas de contagens em cada janela apresentam dependências diferenciadas sobre a densidade eletrônica e a fitologia. Isto permite utilizar a combinação dessas janelas na determinação da densidade e do fator de absorção fotoelétrico das formações. De acordo com a metodologia desenvolvida, os perfis, tanto em modelos de camadas espessas quanto finas, puderam ser simulados. O desempenho do método foi testado em formações complexas, principalmente naquelas em que a presença de minerais de argila, feldspato e mica, produziram efeitos consideráveis capazes de perturbar a resposta final das ferramentas. Os resultados mostraram que as formações com densidade entre 1.8 e 4.0 g/cm3 e fatores de absorção fotoelétrico no intervalo de 1.5 a 5 barns/e-, tiveram seus caracteres físicos e litológicos perfeitamente identificados. As concentrações de Potássio, Urânio e Tório, puderam ser obtidas com a introdução de um novo sistema de calibração, capaz de corrigir os efeitos devidos à influência de altas variâncias e de correlações negativas, observadas principalmente no cálculo das concentrações em massa de Urânio e Potássio. Na simulação da resposta da sonda CNL, utilizando o algoritmo de regressão polinomial de Tittle, foi verificado que, devido à resolução vertical limitada por ela apresentada, as camadas com espessuras inferiores ao espaçamento fonte - detector mais distante tiveram os valores de porosidade aparente medidos erroneamente. Isto deve-se ao fato do algoritmo de Tittle aplicar-se exclusivamente a camadas espessas. Em virtude desse erro, foi desenvolvido um método que leva em conta um fator de contribuição determinado pela área relativa de cada camada dentro da zona de máxima informação. Assim, a porosidade de cada ponto em subsuperfície pôde ser determinada convolvendo estes fatores com os índices de porosidade locais, porém supondo cada camada suficientemente espessa a fim de adequar-se ao algoritmo de Tittle. Por fim, as limitações adicionais impostas pela presença de minerais perturbadores, foram resolvidas supondo a formação como que composta por um mineral base totalmente saturada com água, sendo os componentes restantes considerados perturbações sobre este caso base. Estes resultados permitem calcular perfis sintéticos de poço, que poderão ser utilizados em esquemas de inversão com o objetivo de obter uma avaliação quantitativa mais detalhada de formações complexas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Measurement System Analysis (MSA - Measurement System Analysis) is a statistical methodology developed to study and analyze the behavior of the measurement systems, and, therefore, allow the increased of the confidence readings performed by measuring instruments. It’s widely used in the automotive industry since the 90’s and is a mandatory requirement for the approval of the parts according to ISO Standard of the automotive sector. However, the aerospace industry doesn’t require this type of Study, once which the vast majority of aeronautics parts have characteristics (dimensions) with very tight tolerances, closed, ie, at the home of microns. This work aims to create lists of recommendations for definitions of measuring instruments in developing of control plans, which correlates tolerances fields of characteristics for different settings and acceptance of the instrument, classified as optimum, recommended and not recommended, through of the study of R&R (Repeatability and Reproducibility) in aeronautics parts. Every methodology of the experimental part was based on modern strategy of continuous improvement, the DMAIC (Define Measure Analyze Implant Control), in order to achieve better measurement method used in the control of milling aeronautics parts, identifying and reducing the variations of the measurement process. The results of the R&R Study in large part of measuring instrument manuals were considered acceptable and/or recommended, ie with values of %P/T and %RR lower than 30%, providing statistical data which have enabled the elaboration of tables of recommendations, which, from this work, have turned into very important documents and aid for Process Engineering, having in their hands a technical study able to identify which is the most appropriate instrument to get a more robust dimensional... (Complete abstract click electronic access below)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fuel cells are a very promising solution to the problems of power generation and emission of pollutant to the environment, excellent to be used in stationary application and mobile application too. The high cost of production of these devices, mainly due to the use of noble metals as anode, is a major obstacle to massive production and deployment of this technology, however the use of intermetallic phases of platinum combined with other metals less noble has been evaluated as electrodes in order to minimize production costs and still being able to significantly improve the catalytic performance of the anode. The study of intermetallic phases, exclusively done by experimental techniques is not complete and demand that other methods need to be applied to a deeper understanding of the behavior geometric properties and the electronic structure of the material, to this end the use of computer simulation methods, which have proved appropriate for a broader understanding of the geometric and electronic properties of the materials involved, so far not so well understood.. The use of computational methods provides answers to explain the behavior of the materials and allows assessing whether the intermetallic may be a good electrode. In this research project was used the Quantum-ESPRESSO package, based on the DFT theory, which provides the self-consistent field calculations with great precision, calculations of the periodic systems interatomic force, and other post-processing calculations that points to a knowledge of the geometric and electronic properties of materials, which may be related to other properties of them, even the electrocatalytic. The electronic structure is determined from the optimized geometric structure of materials by analyzing the density of states (DOS) projected onto atomic orbital, which determines the influence of the electrocatalytic properties of the material... (Complete abstract click electronic access below)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A condutividade hidráulica (K) é um dos parâmetros controladores da magnitude da velocidade da água subterrânea, e consequentemente, é um dos mais importantes parâmetros que afetam o fluxo subterrâneo e o transporte de solutos, sendo de suma importância o conhecimento da distribuição de K. Esse trabalho visa estimar valores de condutividade hidráulica em duas áreas distintas, uma no Sistema Aquífero Guarani (SAG) e outra no Sistema Aquífero Bauru (SAB) por meio de três técnicas geoestatísticas: krigagem ordinária, cokrigagem e simulação condicional por bandas rotativas. Para aumentar a base de dados de valores de K, há um tratamento estatístico dos dados conhecidos. O método de interpolação matemática (krigagem ordinária) e o estocástico (simulação condicional por bandas rotativas) são aplicados para estimar os valores de K diretamente, enquanto que os métodos de krigagem ordinária combinada com regressão linear e cokrigagem permitem incorporar valores de capacidade específica (Q/s) como variável secundária. Adicionalmente, a cada método geoestatístico foi aplicada a técnica de desagrupamento por célula para comparar a sua capacidade de melhorar a performance dos métodos, o que pode ser avaliado por meio da validação cruzada. Os resultados dessas abordagens geoestatísticas indicam que os métodos de simulação condicional por bandas rotativas com a técnica de desagrupamento e de krigagem ordinária combinada com regressão linear sem a técnica de desagrupamento são os mais adequados para as áreas do SAG (rho=0.55) e do SAB (rho=0.44), respectivamente. O tratamento estatístico e a técnica de desagrupamento usados nesse trabalho revelaram-se úteis ferramentas auxiliares para os métodos geoestatísticos.