81 resultados para Ferramenta de cálculo

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Até os dias de hoje, a abordagem estática tem sido a usualmente empregada para a avaliação da resposta de cabos de Linhas de Transmissão (LTs), apesar da resposta dinâmica ser, em muitos casos, reconhecidamente importante na avaliação do desempenho dos cabos. Para uma análise completa, não se pode desconhecer a natureza dinâmica da maioria dos fenômenos a que as LTs estão submetidas, sendo exemplos típicos as excitações mecânicas causadas pela ação do vento (carregamentos de baixa e alta freqüência) e a ruptura de cabos. Cabe salientar que mesmo a análise estática empregada tem sido simplificada, considerando normalmente apenas casos contemplados com soluções analíticas. A justificativa para emprego da análise estática baseia-se no menor esforço numérico exigido. Entretanto, essa justificativa já não se sustenta dado os grandes avanços na área computacional, possibilitando o estudo do desempenho de LTs na ocorrência de fenômenos que provocam carregamentos dinâmicos. Adicionalmente, há uma crescente demanda para que se obtenha um melhor entendimento de muitas questões relativas ao comportamento dinâmico das LTs, que possam explicar desempenhos observados e/ou sustentar o desenvolvimento de novas alternativas mais arrojadas de projeto e construção Entre os diversos métodos utilizados na engenharia estrutural, a integração direta das equações do movimento, através de métodos numéricos como as diferenças finitas centrais, se constitui numa poderosa ferramenta de cálculo. Esta ferramenta possibilita o tratamento de problemas envolvendo não linearidades geométricas e do material, como são os casos onde se avalia a resposta de cabos suspensos submetidos a carregamentos variáveis no tempo. Esta pesquisa objetiva a aplicação do método da integração direta das equações do movimento na análise de feixes de cabos de LT, quando submetidos à ação de carregamentos mecânicos variáveis no tempo, principalmente à excitação de ventos oriundos de fenômenos com natureza complexa (tormentas elétricas, por exemplo). É apresentado um método para determinar a resposta dinâmica de feixes que considera a interação entre o vento incidente e o movimento do condutor. A solução é obtida por integração numérica, no domínio do tempo, das equações de movimento de um modelo tridimensional não-linear discreto de feixe, as quais definem as forças nos espaçadores e cabos através de coeficientes aerodinâmicos obtidos experimentalmente. Também são apresentados modelos dos fenômenos meteorológicos mais comuns em nosso país (Brasil): tormenta extratropical (EPS) e tormenta elétrica (TS) Como ilustração, são apresentados exemplos de modelagem de vãos de LTs com condutor singelo e com feixes de condutores. Os exemplos demonstram a capacidade de avaliação de Estados Limites relacionados à distância relativa entre subcondutores, à estabilidade do feixe, à representação das suas propriedades e ao comportamento dinâmico, bem como aos carregamentos transmitidos às estruturas. A análise emprega conhecidas relações constitutivas para representar o comportamento tensão-deformação dos cabos. O enfoque utilizado possibilita a avaliação mais precisa de casos reais que ainda não podiam ser convenientemente tratados, além de permitir a extensão para estudos bem mais complexos, tais como feixes com disposições assimétricas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O tema desta dissertação de mestrado é o estudo da Customização em Massa (CM) com vistas à elaboração de um índice que meça a viabilidade da implantação de sistemas de manufatura customizados. A CM vem sendo identificada por um número crescente de organizações como uma importante estratégia competitiva. A etapa inicial desta dissertação foi a revisão bibliográfica sobre CM, Flexibilidade na Manufatura e Desdobramento da Função Qualidade (QFD), que constituem os seus temas principais. Na segunda etapa foi elaborada a metodologia que propõe o cálculo de um indicador de viabilidade de customização de produtos manufaturados. Como ferramenta para a elaboração deste índice, utilizou-se o QFD. Através do emprego da metodologia proposta é possível listar e ponderar as demandas de customização pelos clientes e, então, avaliar a viabilidade de se customizar os elementos desejados pelo cliente em termos de produto e processo (viabilidade tecnológica e flexibilidade de manufatura). Na última etapa a metodologia proposta nesta dissertação foi aplicada através de um estudo de caso, permitindo-se o esclarecimento da realização das suas etapas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho objetivou a realização de um estudo de caso sobre o tema risco de crédito. Avaliou-se o risco de crédito sob dois vetores: o risco esperado e o risco não esperado. Procede-se então a uma revisão dos principais modelos de gestão da carteira de crédito destacando-se suas características, aplicações e limitações. O modelo da autarquia é comparado aos modelos utilizados pelo mercado, os quais são apresentados em grau crescente de complexidade. O modelo de mercado utilizado neste trabalho foi constituído a partir do credit scoring, uma ferramenta estatística de pontuação de créditos derivada da aplicação da técnica estatística denominada Análise Discriminante. Este modelo resultou na boa discriminação dos clientes com necessidades emergenciais de empréstimos (bons clientes) dos clientes com situação financeira precária (maus clientes) possibilitando uma boa prevenção da probabilidade de inadimplência. A partir das classes de risco constituídas foi possível a aplicação da análise de portfolio para o cálculo da perda potencial na carteira. Assim, por meio de um estudo de caso, realizado em uma instituição financeira brasileira foram comparadas as medidas de capital e de risco de crédito estabelecidos pelo Banco Central do Brasil, através das resoluções 2.099/94 e 2.682/99, com as medidas calculadas a partir de um modelo de credit scoring. Essa comparação resultou na avaliação da eficácia da norma quanto à mensuração do risco em carteiras de crédito. Os resultados apontam o conservadorismo da autarquia no cálculo desses saldos, penalizando a instituição financeira analisada ao exigir a constituição de provisão e patrimônio líquido mínimo acima do que seria necessário. O risco calculado a partir do modelo de credit scoring para uma carteira de crédito direto ao consumidor foi cerca de 20% inferior aos montantes calculados pelo Banco Central do Brasil.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho apresenta o LIT, uma ferramenta de auxílio ao projeto de circuitos integrados analógicos que utiliza a técnica da associação trapezoidal de transistores (TAT) sobre uma matriz digital pré-difundida. A principal característica é a conversão de cada transistor simples de um circuito analógico em uma associação TAT equivalente, seguido da síntese automática do leiaute da associação séria-paralela de transistores. A ferramenta é baseada na matriz SOT (sea-of-transistors), cuja arquitetura é voltada para o projeto de circuitos digitais. A matriz é formada somente por transistores unitários de canal curto de dimensões fixas. Através da técnica TAT, entretanto, é possível criar associações série-paralelas cujo comportamento DC aproxima-se dos transistores de dimensões diferentes dos unitários. O LIT é capaz de gerar automaticamente o leiaute da matriz SOT e dos TATs, além de células analógicas básicas, como par diferencial e espelho de corrente, respeitando as regras de casamento de transistores. O cálculo dos TATs equivalentes também é realizado pela ferramenta. Ela permite a interação com o usuário no momento da escolha da melhor associação. Uma lista de possíveis associações é fornecida, cabendo ao projetista escolher a melhor. Além disso, foi incluído na ferramenta um ambiente gráfico para posicionamento das células sobre a matriz e um roteador global automático. Com isso, é possível realizar todo o fluxo de projeto de um circuito analógico com TATs dentro do mesmo ambiente, sem a necessidade de migração para outras ferramentas. Foi realizado também um estudo sobre o cálculo do TAT equivalente, sendo que dois métodos foram implementados: aproximação por resistores lineares (válida para transistores unitários de canal longo) e aproximação pelo modelo analítico da corrente de dreno através do modelo BSIM3. Três diferentes critérios para a escolha da melhor associação foram abordados e discutidos: menor diferença de corrente entre o TAT e o transistor simples, menor número de transistores unitários e menor condutância de saída. Como circuito de teste, foi realizado o projeto com TATs de um amplificador operacional de dois estágios (amplificador Miller) e a sua comparação com o mesmo projeto utilizando transistores full-custom. Os resultados demonstram que se pode obter bons resultados usando esta técnica, principalmente em termos de desempenho em freqüência. A contribuição da ferramenta LIT ao projeto de circuitos analógicos reside na redução do tempo de projeto, sendo que as tarefas mais suscetíveis a erro são automatizadas, como a geração do leiaute da matriz e das células e o roteamento global. O ambiente de projeto, totalmente gráfico, permite que mesmo projetistas analógicos menos experientes realizem projetos com rapidez e qualidade. Além disso, a ferramenta também pode ser usada para fins educacionais, já que as facilidades proporcionadas ajudam na compreensão da metodologia de projeto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pretende este trabalho dar início ao estudo do processo de forjamento isotérmico de uma peça de uma liga de alumínio (Al Mg Sil) através de alguns parâmetros como curva de escoamento, influência de lubrificantes e modelos de cálculo de força. Para a análise da curva de escoamento da liga Al Mg Sil foram realizados testes alterando-se tanto a temperatura de ensaio como a velocidade de prensagem. Os resultados obtidos foram comparados com os resultados de duas referências bibliográficas. Em relação ao forjamento apresenta-se a ferramenta utilizada nos testes e descreve-se sobre as influências de alguns lubrificantes testados. Finalizando, mostra-se os resultados obtidos experimentalmente e os resultados obtidos através da aplicação de três modelos teóricos extraídos da literatura. Conclusões e sugestões para futuros trabalhos são também apresentados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação analisa potencialidades de uso da ferramenta de simulação computacional em atividades de um Armazém Geral. Para tanto, foi realizado um estudo de caso em um Armazém Geral onde se aplicou a ferramenta segundo o método de desenvolvimento de projetos de simulação computacional proposto por Barrônio (2000). O desenvolvimento do projeto de simulação foi, então, focado na atividade de apanha separação, integrante do sub-processo de separação de pedidos. O substrato teórico utilizado envolve uma abordagem sobre a logística e caracterização de armazém geral, bem como uma revisão dos conceitos principais da ferramenta de simulação computacional. No desenvolvimento da pesquisa, identificaram-se diversas aplicações da simulação tanto no armazém geral e terminais de cargas da empresa, quanto na análise da malha de rotas da empresa. A partir da análise dos resultados da simulação, em diversos cenários desenvolvidos e do entendimento sistêmico da situação em estudo, identificou-se como oportunidade de melhoria a definição de horários fixos de parada para descanso ao longo da jornada de trabalho na atividade de apanha separação O desenvolvimento do projeto de simulação computacional contribuiu como instrumento de aprendizagem e tomada de decisões sobre a realidade organizacional. Através de experimentação no modelo computacional o grupo de trabalho pôde testar e mudar seus pressupostos e sua compreensão do mundo real, aprimorando a aprendizagem. Identificou-se ainda, que os armazéns gerais dotados de sistema de gerenciamento automatizado apresentam um grande potencial para desenvolvimento de projetos de simulação, principalmente, devido à disponibilidade de dados característicos destas organizações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho consiste no desenvolvimento de alguns avanços, teóricos e numéricos, no método LTSN visando implementar a primeira versão de um código computacional, para resolver a equação de transporte utilizando formulação LTSN na forma de multigrupos em geometria plana. Os avanços para o método LTSN estão fundamentados na solução iterativa para o sistema de equações que constituem as condições de contorno, um novo método para a busca do valor de keff baseado no método da bissecção. O desenvolvimento desta metodologia permitiu realizar o calculo muito rápido com altas ordens de quadratura e com esforço computacional muito reduzido. Juntos os avanços matemáticos e numéricos, implementados nesta primeira versão de um código fortran, tal como nos códigos já conhecidos permite solucionar a equação de transporte na forma de multigrupos, tanto para o cálculo direto como para o adjunto, com fontes arbitrárias. Este código utiliza de recursos computacionais da linguagem FORTRAN e as bibliotecas LAPACK, para a otimização de seus algoritmos, facilitando o desenvolvimento futuro. A validação deste trabalho foi feita utilizando dois problemas: um relativo ao fluxo angular e escalar, tanto para o fluxo direto como para o adjunto, cuja importância está relacionada com busca de convergência, relação de reciprocidade e comprovação da solução adjunta, e; um problema de criticalidade, para comprovar a eficácia do algoritmo de busca iterativa de keff e espessura crítica. Com este trabalho se abrem muitas possibilidades tanto teóricas como numéricas a investigar com o método LTSN.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo principal deste trabalho é apresentar um método recursivo para a determinação da resposta forçada de sistema de segunda ordem na forma de uma íntegra de concolução, proveniente da utilização de propriedades de transição da resposta impulso de tais sistemas. Descrevem-se também diversos métodos analíticos e numéricos desenvolvidos para o cálculo da resposta forçada, bem como as limitações de cada método. As vantagens do método recursivo proposto são notáveis já que não é requerido o cálculo de autovalores das matrizes nem a redução à primeira ordem, e nem o uso de hipóteses adicionais sobre natureza dos coeficientes matriciais do sistema. Como aplicação do método proposto, considera-se o cálculo da resposta dinâmica de estruturas flexíveis sujeitas a excitações arbitrárias tais como terremotos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Avaliação de Desempenho é um meio necessário e importante para o crescimento e aprimoramento contínuos, sem medição não há como gerenciar as atividades e nem controlar os resultados dos esforços empreendidos. Seu principal objetivo é apontar se as empresas estão no caminho certo para atingir as metas estabelecidas. O impacto da Avaliação de Desempenho sobre a performance das empresas é um fato cada vez mais reconhecido no cenário empresarial, mas é necessário que ela seja utilizada como parte integrante das estratégias. O método tradicional é alvo de críticas por não contemplar aspectos intangíveis na gestão das empresas. A Avaliação de Desempenho costuma ser uma análise do passado. O Painel Estratégico, modelo proposto, possui forte sedimentação em informações tangíveis, baseadas no passado, porém, apodera-se de informações baseadas nas projeções de custos, no orçamento de metas, na contabilidade, e também em informações intangíveis como satisfação de clientes, para prospectar os resultados futuros. O grande diferencial proposto pelo Painel Estratégico é: avaliar o passado, mas principalmente prospectar o futuro através das simulações. O presente trabalho enfatiza a necessidade de uma ferramenta de Avaliação de Desempenho, integrada e dinâmica, através da comparação entre o método utilizado pela empresa e o Painel Estratégico, com perspectiva de utilização, relacionando os possíveis benefícios para a gestão da empresa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A literatura sobre Teste de Software apresenta diversas estratégias e metodologias que definem critérios eficazes e automatizáveis para selecionar casos de teste capazes de detectar erros em softwares. Embora eficientes na descoberta de erros, as técnicas de seleção de casos de teste exigem que uma quantidade relativamente grande de testes seja realizada para satisfazer os seus critérios. Essa característica acarreta, em parte, um alto custo na atividade de teste, uma vez que, ao fim de cada teste deve-se verificar se o comportamento do software está ou não de acordo com os seus requisitos. Oráculo para teste de software é um mecanismo capaz de determinar se o resultado de um teste está ou não de acordo com os valores esperados. Freqüentemente, assume-se que o próprio projetista de teste é o responsável por esta tarefa. A automatização da atividade dos oráculos deu origem a oráculos automáticos, os quais são capazes de determinar o bom ou mau funcionamento do software a partir de uma fonte de informação confiável. Ao longo dos anos, a especificação formal vêm sendo largamente utilizada como fonte de informação para oráculos automáticos. Diversas estratégias vêm propondo geradores de oráculos baseados em especificações formais. Dentre as características marcantes dessas estratégias, cita-se aquelas que são aplicáveis a implementações derivadas a partir da estrutura da especificação e aquelas que geram oráculos a partir de técnicas específicas de seleção de casos. Essas características, entretanto, limitam a aplicação abrangente dos oráculos por restringi-los tanto a implementações derivadas diretamente de especificações como ao uso de técnicas específicas de seleção de casos de teste. Este trabalho apresenta um estudo sobre os geradores de oráculos para teste de software, identifica aspectos fundamentais que regem seu processo de construção e propõe uma estratégia que permite a geração de oráculos semi-automaticamente, mesmo para implementações não derivadas diretamente da estrutura da especificação. A estratégia proposta é, também, aplicável aos casos de teste derivados de qualquer técnica de seleção de casos de teste.