896 resultados para Simulação de defeitos
Resumo:
Este estudo apresenta um sistema real de produção, numa fábrica de máquinas agrícolas localizada no Paraná, cuja produção é regida pela sazonalidade.É feita a análise do processo produtivo atual da peça mais complexa produzida na empresa, processo que hoje tem sua produção empurrada. Através de simulação computacional, é estudado o desempenho do sistema como ele é atualmente, e propostas alternativas com a produção sendo gerida através de kanban ou de CONWIP. São utilizados como medidas de desempenho a quantidade total produzida, inventário em processo e tempo de ciclo. Com a equalização do nível de serviços dos modelos, através do ajuste das quantidades de cartões kanban e CONWIP, torna-se possível uma comparação mais adequada dos sistemas de gestão, e escolha do que melhor se adapta à situação estudada.
Resumo:
Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.
Resumo:
É consenso na análise antitruste que o ato de concentração de empresas com participação significativa deve sofrer averiguações quanto a sua aprovação em decorrência dos efeitos prejudiciais que pode gerar sobre a concorrência na indústria. Concorrência é sempre desejável por favorecer melhores níveis de bem-estar econômico. À luz das investigações econômicas que os sistemas de defesa da concorrência realizam, este trabalho analisa as mensurações da simulação de efeitos unilaterais de concentrações horizontais. As avaliações realizadas testam a utilização do modelo PC-AIDS (Proportionaly Calibrated AIDS), de Epstein e Rubinfeld (2002). Dentre algumas conclusões que se extraem do uso do modelo temos que: (i) em mercados com baixa concentração econômica, o modelo avaliado para um intervalo da vizinhança da elasticidade-preço própria estimada, traz mensurações robustas, e (ii) para mercados com alta concentração econômica uma atenção maior deve ser dada à correspondência dos valores calibrados e estimados das elasticidades-preços próprias, para que não ocorra sub ou superestimação dos efeitos unilaterais do ato de concentração. Esse resultado é avaliado no caso Nestlé/Garoto.
Análise do setor da agências de internet no Brasil : uma aplicação de simulação dinâmica de sistemas
Resumo:
Esta dissertação tem por objetivo analisar a participação de mercado dos diferentes grupos estratégicos que compõem o setor de agências de internet no Brasil, bem como as mudanças decorrentes de alterações nas variáveis críticas de concorrência, tais como preço, investimento em propaganda, investimento em tecnologia e disponibilidade de mão-de-obra.
Resumo:
A sobrevivência de uma organização depende da maneira como ela estabelece sua arquitetura organizacional e estrutura de incentivos. O esforço da administração será desperdiçado, caso esta não consiga fazer com que toda a estrutura de tomada de decisões seja direcionada aos objetivos de longo prazo da empresa. Dentro da estrutura de incentivos, o sistema de preços de transferência é de extrema relevância, principalmente para o caso de organizações multidivisionais, as quais são maioria entre as maiores empresas do cenário atual. Este trabalho busca identificar e modelar uma das possíveis distorções que afetam os preços de transferência e os incentivos dele decorrentes, os quais afetam diretamente o valor da empresa. Por meio da simulação de vários métodos de custeio, calculou-se os possíveis impactos na estrutura de custo de uma empresa real, e sua conseqüente modificação nos sistema de preços de transferência existentes. A partir daí, analisou-se os impactos destes diferentes cenários nos incentivos da área comercial de diferentes unidades de negócios da empresa. A conclusão é que diferentes métodos de custeio afetam diretamente os preços de transferência. Estes, por sua vez, alteram os incentivos das áreas comerciais das diferentes unidades de negócios, afetando o desempenho da empresa, de acordo com o método de custeio utilizado. A mensagem final é que tanto a estrutura de custos quanto a de incentivos deve ser analisada em detalhe, uma vez que tais decisões impactarão diretamente no valor de mercado da organização.
Resumo:
O objetivo deste trabalho foi analisar o processo de ensino-aprendizagem de Física através de abordagens didáticas envolvendo o uso de atividades de simulação e modelagem computacionais em um ambiente de atividade colaborativa presencial. Num primeiro estudo, realizado a partir de uma metodologia quantitativa, avaliou-se o desempenho dos alunos em testes que tinham como tópico a interpretação de gráficos da Cinemática, antes e depois de trabalharem com atividades de simulação e modelagem computacionais em atividades extra-aula. Os resultados deste primeiro estudo mostram que houve melhorias estatisticamente significativas no desempenho dos alunos do grupo experimental, quando comparado aos estudantes do grupo de controle, submetidos apenas ao método tradicional de ensino. Na seqüência, foram realizados outros dois estudos dentro de uma metodologia qualitativa, em que o foco estava no processo de ensino-aprendizagem que ocorre em ambiente de sala de aula. Foi utilizada uma abordagem que envolveu, além das atividades computacionais, um método colaborativo presencial como dinâmica de base para o estabelecimento das relações interpessoais entre o professor e a turma, e os alunos entre si.A fundamentação teórica adotada esteve baseada na teoria de Ausubel sobre aprendizagem significativa e na teoria de Vygotsky sobre interação social. O referencial de Halloun sobre modelagem esquemática também foi utilizado. Os resultados sugerem que as atividades de simulação e modelagem computacionais são potencialmente facilitadoras de aprendizagem significativa em Física. Sugerem, também, que a atividade colaborativa presencial contribui positivamente para esse tipo de aprendizagem.
Resumo:
Neste trabalho, analisam-se os processos de formação de ligações de hidrogênio entre as bases Adenina. Timina, Guanina e Citosina usando o método Monte Carlo probabilístico. A possibilidade de formação de pares é inicialmente verificada considerando critério geométrico (distância e orientação das molécutlas) seguida pela análise da probabilidade energética, que é proporcional ao fator de Boltzmann. Os resultados mostram que a probabilidade de concorrência, para alguns modelos, não segue a estrutura mais provável segundo o fator de Boltzmann. Isto sugere que existe uma forte influência geométrica na formação dos pares (ligações simples e múltiplas). Tal análise fornece para a construção de modelos mais complexos bem como para o entendimento de alguns mecanismos que ocorrem em processos relacionados à mutações, visando compreender este tipo de fenômeno biológico
Resumo:
Há mais de uma década, o Value-at-Risk (VaR) é utilizado por instituições financeiras e corporações não financeiras para controlar o risco de mercado de carteiras de investimentos. O fato dos métodos paramétricos assumirem a hipótese de normalidade da distribuição de retornos dos fatores de risco de mercado, leva alguns gestores de risco a utilizar métodos por simulação histórica para calcular o VaR das carteiras. A principal crítica à simulação histórica tradicional é, no entanto, dar o mesmo peso na distribuição à todos os retornos encontrados no período. Este trabalho testa o modelo de simulação histórica com atualização de volatilidade proposto por Hull e White (1998) com dados do mercado brasileiro de ações e compara seu desempenho com o modelo tradicional. Os resultados mostraram um desempenho superior do modelo de Hull e White na previsão de perdas para as carteiras e na sua velocidade de adaptação à períodos de ruptura da volatilidade do mercado.
Resumo:
O presente trabalho propõe para o cálculo VaR o modelo de simulação histórica, com os retornos atualizados pela volatilidade realizada calculada a partir de dados intradiários. A base de dados consiste de cinco ações entre as mais líquidas do Ibovespa de distintos segmentos. Para a metodologia proposta utilizamos duas teorias da literatura empírica – simulação histórica ajustada e volatilidade realizada. Para análise e verificação do desempenho da metodologia proposta utilizamos o Teste de Kupiec e o Teste de Christoffersen.
Resumo:
Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.
Resumo:
A simulação, como ferramenta de suporte à tomada de decisão, tem sido utilizada nas mais variadas áreas do conhecimento e especialmente no projeto e dimensionamento de plantas de produção. Em geral, os simuladores para sistemas de produção consideram variáveis relativas à quantidade, tipo e disposição física de máquinas, quantidades dos estoques intermediários, e aos tempos de produção sem, no entanto, considerar os tempos reais do trabalho do ser humano envolvido no processo, apesar de a mão de obra humana ser largamente empregada nestes sistemas, afetando diretamente a sua produtividade. Uma das possíveis razões disto é a complexidade dos fatores que influenciam na produtividade do ser humano, que varia em função de fatores ambientais, fisiológicos, psicológicos ou sociais. Normalmente, os sistemas de simulação da produção representam o trabalhador humano da mesma forma como representam uma máquina, uma ferramenta ou um equipamento, cuja previsibilidade é bem maior. Esta dissertação avalia a questão humana em um simulador bastante utilizado comercialmente, e evidenciou que os fatores ergonômicos são capazes de alterar significativamente os resultados de uma simulação, justificando o desenvolvimento de rotinas computacionais capazes de representar o elemento humano e suas interações com o sistema, de forma mais fidedigna.
Resumo:
Este trabalho se insere na área de teste de sistemas de hardware. O alvo principal é o estudo do comportamento de um circuito roteador de canais telefônicos, parte integrante de um sistema de comunicação mais complexo, na presença de falhas. Neste contexto, o teste em funcionamento do referido circuito roteador é considerado. Na primeira parte deste trabalho são abordados aspectos do teste de circuitos e sistemas, do ponto de vista de sua aplicabilidade, tais como classificação, defeitos e modelos de falhas, simulação, geração de testes e projeto visando o teste. Na segunda parte, relata-se os estudos realizados para implementar o teste em funcionamento do circuito roteador. Nesta etapa são abordados a arquitetura, o modelo de falhas e a metodologia utilizada, os ensaios de detecção de falhas e as técnicas de tolerância a falhas adotadas. O projeto do circuito de chaveamento é apresentado em uma versão utilizando componentes discretos e outra utilizando dispositivos programáveis. Na conclusão deste trabalho são apresentados os resultados obtidos e as perspectivas para trabalhos futuros.
Resumo:
Resumo não disponível.
Resumo:
Neste trabalho utilizamos inicialmente as descrições dos possíveis modelos mentais construídos por estudantes de Física Geral na área de Mecânica Clássica, segundo a perspectiva teórica de Philip N. Johnson-Laird (1983), pesquisadas por Lagreca (1997 e 1999). A partir destas descrições, estendemos seus resultados de acordo com uma revisão da literatura, procurando a formação de possíveis modelos simuláveis computacionalmente. O Qsim (Kuipers, 1994) foi o algoritmo de simulação escolhido para o nosso trabalho, devido à semelhança com pesquisas analíticas encontradas sobre o pensamento dos estudantes. Para a simulação, implementamos dois modelos. O modelo newtoniano utiliza noções semelhantes às idéias de Newton, pelo menos com as forças de contato e o atrito com dependência direta com a velocidade. O modelo do impetus possui a concepção de força proporcional à velocidade com o atrito constante. Neste último caso não foi possível a construção de simulações a partir de um atrito dependente da velocidade, devido ao reconhecimento do programa de apenas uma única função crescente. Além disso, simulamos três modelos provenientes do modelo do impetus quando a situação envolve queda na presença da força gravitacional Para a simulação dos modelos, selecionamos alguns problemas para estudo. Iniciamos com o estudo do movimento horizontal e, em seguida, os problemas do páraquedista, do penhasco e do movimento balístico. Comparamos os resultados com algumas concepções dos estudantes encontradas em pesquisas analítico-qualitativas, mostrando que muitas concepções surgiam naturalmente da manipulação dos modelos nos problemas. Isto sugere que a abordagem dos modelos mentais seja mais ampla que a das concepções alternativas e que muitas dessas concepções possam ser reflexos da manipulação dos modelos em algumas situações.
Resumo:
A análise do comportamento estrutural sob incêndio constitui uma parte importante da engenharia de proteção contra incêndio, especialmente no caso de estruturas de aço, por sua alta condutividade térmica e relativa esbeltez das seções. As dificuldades econômicas e práticas, associadas à avaliação do comportamento estrutural, por meio de ensaios em escala real, têm estimulado o desenvolvimento e uso de métodos de simulação numérica. Esta tese trata da simulação numérica do comportamento de estruturas de aço sob condições de incêndio e se divide em três partes. As duas primeiras partes foram desenvolvidas na Universidade de Liége, na Bélgica, usando-se o programa SAFIR como ferramenta numérica. A terceira parte foi desenvolvida de forma independente, na Universidade Federal do Rio Grande do Sul. Na primeira parte, é feito um estudo comparativo entre o uso de elementos finitos de viga e de casca, na modelagem de vigas simplesmente apoiadas, sujeitas a flambagem lateral por torção. Os esforços de torção, presentes no caso de flambagem lateral, podem levar a uma plastificação da seção transversal e à conseqüente redução da rigidez à torção da seção. Da mesma forma, a degradação das propriedades do material, com o aumento da temperatura, leva à redução da rigidez à torção Havia dúvidas se o modelo com elementos de viga, com uma rigidez à torção constante, poderia fornecer uma resposta aceitável. O estudo mostrou que uma resposta com boa precisão pode ser conseguida, usando-se elementos de viga, desde que o módulo de elasticidade transversal seja ajustado para refletir seu valor correspondente à temperatura de falha. Isso implica um processo iterativo, uma vez que a temperatura de falha não é previamente conhecida. Por outro lado, a degradação da rigidez à torção, por efeitos de plastificação, pode ser ignorada. Na segunda parte, é feita a comparação entre as modelagens bidimensional e tridimensional, de galpões industriais de um andar, sob incêndio. Comumente, a estrutura de galpões industriais é composta por pórticos-tipo, dispostos em paralelo. A análise desses galpões é comumente feita pela simulação no plano do pórtico de aço ou, simplesmente, da treliça da cobertura Na análise bidimensional, importantes efeitos fora do plano são ignorados, como a redistribuição de esforços devido à degradação do material ou à expansão térmica, ou instabilidade lateral dos elementos. A importância desses efeitos e a adequabilidade do modelo 2D para representar o comportamento real são discutidas. Na terceira parte, um modelo numérico para a simulação tridimensional do comportamento de estruturas de aço sob incêndio é apresentado. O modelo é baseado no conceito de rótulas plásticas generalizadas, com modificações para melhor representar a formação e expansão da plastificação no elemento. A descrição cinemática adotada permite obter bons resultados, mesmo com o uso de poucos elementos. A determinação do vetor de esforços internos no elemento, incluindo os efeitos da temperatura, é detalhada. O procedimento foi validado por comparação com ensaios e com modelos numéricos mais sofisticados, como o programa SAFIR. Os resultados demonstram que o procedimento proposto pode ser usado como uma forma alternativa de análise 3D de estruturas sob incêndio, com precisão razoável e baixo esforço computacional.