23 resultados para Cálculo de incertezas
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
O tema desta dissertação de mestrado é o estudo da Customização em Massa (CM) com vistas à elaboração de um índice que meça a viabilidade da implantação de sistemas de manufatura customizados. A CM vem sendo identificada por um número crescente de organizações como uma importante estratégia competitiva. A etapa inicial desta dissertação foi a revisão bibliográfica sobre CM, Flexibilidade na Manufatura e Desdobramento da Função Qualidade (QFD), que constituem os seus temas principais. Na segunda etapa foi elaborada a metodologia que propõe o cálculo de um indicador de viabilidade de customização de produtos manufaturados. Como ferramenta para a elaboração deste índice, utilizou-se o QFD. Através do emprego da metodologia proposta é possível listar e ponderar as demandas de customização pelos clientes e, então, avaliar a viabilidade de se customizar os elementos desejados pelo cliente em termos de produto e processo (viabilidade tecnológica e flexibilidade de manufatura). Na última etapa a metodologia proposta nesta dissertação foi aplicada através de um estudo de caso, permitindo-se o esclarecimento da realização das suas etapas.
Resumo:
O objetivo deste trabalho consiste no desenvolvimento de alguns avanços, teóricos e numéricos, no método LTSN visando implementar a primeira versão de um código computacional, para resolver a equação de transporte utilizando formulação LTSN na forma de multigrupos em geometria plana. Os avanços para o método LTSN estão fundamentados na solução iterativa para o sistema de equações que constituem as condições de contorno, um novo método para a busca do valor de keff baseado no método da bissecção. O desenvolvimento desta metodologia permitiu realizar o calculo muito rápido com altas ordens de quadratura e com esforço computacional muito reduzido. Juntos os avanços matemáticos e numéricos, implementados nesta primeira versão de um código fortran, tal como nos códigos já conhecidos permite solucionar a equação de transporte na forma de multigrupos, tanto para o cálculo direto como para o adjunto, com fontes arbitrárias. Este código utiliza de recursos computacionais da linguagem FORTRAN e as bibliotecas LAPACK, para a otimização de seus algoritmos, facilitando o desenvolvimento futuro. A validação deste trabalho foi feita utilizando dois problemas: um relativo ao fluxo angular e escalar, tanto para o fluxo direto como para o adjunto, cuja importância está relacionada com busca de convergência, relação de reciprocidade e comprovação da solução adjunta, e; um problema de criticalidade, para comprovar a eficácia do algoritmo de busca iterativa de keff e espessura crítica. Com este trabalho se abrem muitas possibilidades tanto teóricas como numéricas a investigar com o método LTSN.
Resumo:
O objetivo principal deste trabalho é apresentar um método recursivo para a determinação da resposta forçada de sistema de segunda ordem na forma de uma íntegra de concolução, proveniente da utilização de propriedades de transição da resposta impulso de tais sistemas. Descrevem-se também diversos métodos analíticos e numéricos desenvolvidos para o cálculo da resposta forçada, bem como as limitações de cada método. As vantagens do método recursivo proposto são notáveis já que não é requerido o cálculo de autovalores das matrizes nem a redução à primeira ordem, e nem o uso de hipóteses adicionais sobre natureza dos coeficientes matriciais do sistema. Como aplicação do método proposto, considera-se o cálculo da resposta dinâmica de estruturas flexíveis sujeitas a excitações arbitrárias tais como terremotos.
Resumo:
O presente trabalho objetivou a realização de um estudo de caso sobre o tema risco de crédito. Avaliou-se o risco de crédito sob dois vetores: o risco esperado e o risco não esperado. Procede-se então a uma revisão dos principais modelos de gestão da carteira de crédito destacando-se suas características, aplicações e limitações. O modelo da autarquia é comparado aos modelos utilizados pelo mercado, os quais são apresentados em grau crescente de complexidade. O modelo de mercado utilizado neste trabalho foi constituído a partir do credit scoring, uma ferramenta estatística de pontuação de créditos derivada da aplicação da técnica estatística denominada Análise Discriminante. Este modelo resultou na boa discriminação dos clientes com necessidades emergenciais de empréstimos (bons clientes) dos clientes com situação financeira precária (maus clientes) possibilitando uma boa prevenção da probabilidade de inadimplência. A partir das classes de risco constituídas foi possível a aplicação da análise de portfolio para o cálculo da perda potencial na carteira. Assim, por meio de um estudo de caso, realizado em uma instituição financeira brasileira foram comparadas as medidas de capital e de risco de crédito estabelecidos pelo Banco Central do Brasil, através das resoluções 2.099/94 e 2.682/99, com as medidas calculadas a partir de um modelo de credit scoring. Essa comparação resultou na avaliação da eficácia da norma quanto à mensuração do risco em carteiras de crédito. Os resultados apontam o conservadorismo da autarquia no cálculo desses saldos, penalizando a instituição financeira analisada ao exigir a constituição de provisão e patrimônio líquido mínimo acima do que seria necessário. O risco calculado a partir do modelo de credit scoring para uma carteira de crédito direto ao consumidor foi cerca de 20% inferior aos montantes calculados pelo Banco Central do Brasil.
Resumo:
A equação de complexidade de um algoritmo pode ser expressa em termos de uma equação de recorrência. A partir destas equações obtém-se uma expressão assintótica para a complexidade, provada por indução. Neste trabalho, propõem-se um esquema de solução de equações de recorrência usando equações características que são resolvidas através de um "software" de computação simbólica, resultando em uma expressão algébrica exata para a complexidade. O objetivo é obter uma forma geral de calcular a complexidade de um algoritmo desenvolvido pelo método Divisão-e-Conquista.
Resumo:
Combinando métodos computacionais da eletrostática e dinâmica molecular, este trabalho teve como objetivo descrever processos de solvatação em sistemas quimicamente importantes. Foram obtidas propriedades termodinâmicas necessárias para o entendimento do processo de solvatação. Estão descritos e testados modelos para descrever a interação soluto-solvente, possibilitando, assim, aprimorar a descrição físico-química dos processos de solvatação. Utilizaram-se programas desenvolvidos em nosso grupo e programas comerciais que permitem os cálculos de dinâmica molecular e química quântica. Uma nova abordagem para o cálculo de energia livre de solvatação foi desenvolvida proporcionando a obtenção acurada e eficiente dessa propriedade, dentro do enfoque da dinâmica molecular. Nessa nova abordagem, novas metodologias para a geração de cavidades moleculares foram propostas e avaliadas. As energias livres de solvatação obtidas estão em boa concordância com os valores experimentais.
Resumo:
Neste trabalho é realizada uma análise crítica sobre as formas de dimensionamento de estruturas de chapa dobrada, apresentando as metodologias utilizadas pelas principais normas modernas de cálculo, juntamente com metodologias não convencionais. Para realizar dita análise concentrou se a atenção num tipo de perfil simples (perfis não enrijecidos), e submetido a dois tipos de carregamento: carga axial concentrada no centro de gravidade; barra trabalhando como viga em balanço com carga aplicada no centro de corte. Foi realizado um estudo comparativo, entre as normas de cálculo NBR 14762, AISI e Eurocode 3, com outros métodos de dimensionamento, que são: o método direto desenvolvido por Schafer (1997); e duas formulações de análise por elementos finitos: uma considerando a carga de flambagem elástica; e outra empregando uma análise não linear física e geométrica, para perfis submetidos à compressão centrada e à flexão. Neste trabalho realizou-se um estudo paramétrico, registrando em gráficos e tabelas a influência de parâmetros tais como: comprimento do elemento analisado; da relação entre a alma e a mesa; da relação alma e a espessura. Através destes gráficos é possível observar as diversas formas de colapso (flambagem local, flambagem global, colapso plástico entre outras) se apresentando como críticas e interagindo entre si. Realizaram-se também dois experimentos de perfis submetidos à flexão, com o objetivo de verificar a grandeza dos valores obtidos através das diversas metodologias de cálculo. Para aplicação prática dos conceitos e métodos apresentados fez-se a verificação do dimensionamento de uma estrutura utilizada como prateleira em um almoxarifado de uma empresa metalúrgica situada na grande Porto Alegre, a qual apresentou flambagem lateral de seus elementos horizontais.
Resumo:
O custo unitário básico (CUB), foi criado em função da Lei n° 4.591 (BRASIL, 1964), que encarregou a Associação Brasileira de Normas Técnicas (ABNT), através do Banco Nacional de Habitação (BNH), de definir critérios e normas para cálculo de custos unitários de construção pelos Sindicatos das Indústrias da Construção Civil (SINDUSCON) nos Estados da Federação, para uso dos incorporadores imobiliários nas tratativas iniciais quando da viabilização junto ao Sistema Financeiro de Habitações. Com a publicação da Norma Brasileira NB 140 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 1965), ficou definido a metodologia de cálculo dos CUB para projetos-padrão de prédios habitacionais. A finalidade destes CUB é auxiliar na avaliação dos custos de incorporações imobiliárias, antes do lançamento, quando os incorporadores não dispõem dos projetos completos. A metodologia de cálculo destes CUB sofreu uma única reformulação ao longo destes quase quarenta anos, quando da edição da NBR 12.721 (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 1992). Em 1999, recebeu anexo complementar, que não fez qualquer atualização na metodologia de cálculo dos CUB, apenas estendeu a apuração destes custos para edifícios comerciais, galpões industriais e casas populares Este trabalho realizou a verificação e validação do modelo de cálculo dos CUB para prédios habitacionais, fazendo comparações entre os valores apurados pela técnica recomendada na Norma e os obtidos diretamente nos orçamentos discriminados que deram origem à metodologia de cálculo dos CUB, utilizando preços unitários de insumos no período de janeiro de 1993 a dezembro de 2000. Ao final concluiu-se que o modelo de cálculo dos CUB necessita de uma profunda reformulação para readquirir a propriedade fundamental de sua caracterização que é a de substituir o cálculo dos custos com o uso do orçamento discriminado dos projetos-padrão.
Resumo:
Em planejamento de lavra, freqüentemente as campanhas de sondagem são complementadas por falta de segurança nas estimativas. Na maioria dos casos, essas sondagens adicionais são locadas sem o uso de qualquer procedimento matemático que indique os locais mais carentes de informação. Essa dissertação propõe uma metodologia fundamentada em simulação estocástica para tratar esse problema. Com a utilização desse método, é possível que seja considerada a variabilidade entre as informações, além da configuração espacial apresentada. Essa metodologia permite gerar várias estimativas equiprováveis do atributo em questão, reproduzindo o histograma e o variograma das informações originais. A variabilidade apresentada pelos conjuntos de n valores equiprováveis, em cada bloco discretizado da jazida, é medida por meio do cálculo de índices de incerteza. Esses índices são calculados após o processo de simulação estocástica por meio da compilação das n estimativas realizadas para cada bloco. Os índices de incerteza considerados nessa dissertação são: (i) variância condicional; (ii) coeficiente de variação condicional e (iii) intervalo entre quartis. A partir da classificação desses índices de incerteza, são identificados os setores que apresentam as maiores variabilidades em suas estimativas. Com essa classificação é possível a confecção de mapas de incerteza que auxiliam na visualização dos setores/blocos mais variáveis da jazida Nesses setores, são adicionadas informações oriundas da escolha aleatória de um dos n valores equiprováveis disponíveis para cada bloco simulado. Por meio dos índices de incerteza e de acordo com a metodologia, são propostas informações adicionais na área considerada, que contribuem na diminuição das incertezas globais e locais. Essa metodologia usa técnicas extremamente robustas, com embasamento teórico muito consistente, atacando diretamente os setores/blocos que apresentam as maiores flutuabilidades nas estimativas. Um estudo de caso em uma jazida de carvão verifica a aplicabilidade do método. Esse estudo, considera a variabilidade nas estimativas de espessura de uma camada carvão.
Resumo:
Neste trabalho, foram analisadas, implementadas e mostradas as características de uma interface com estrutura de programação genérica para o ambiente Windows, criando facilidades de rapidez, confiabilidade e a apresentação de resultados aos usuários do sistema matemático Maple na criação e uso de aplicações matemáticas. A interface utilizou como modelo de implementação cálculos modais de vigas clássicas de Euler-Bernoulli. O usuário encontra, em um único sistema, cálculo para vigas clássicas, terá uma entrada de dados facilitada de variáveis que serão substituídas automaticamente no programa fonte da viga e a geração de resultados em um ambiente amigável com dados e gráficos mostrados de forma organizados.
Resumo:
Dada a escassez de informação (principalmente de vazão) nas sub-bacias urbanas, os parâmetros das metodologias usadas no dimensionamento de uma rede de macrodrenagem são estimados a partir de características físicas, introduzindo incertezas sobre os valores corretos do parâmetro. Neste trabalho são apresentados resultados que indicam o impacto que as incertezas nos parâmetros têm sobre os valores da vazão e custo da rede, e custo estimado para redução das mesmas. Foram analisados os parâmetros das metodologias dos blocos alternados utilizada na determinação da chuva de projeto; da “Curva Número” do SCS utilizada para determinação da precipitação efetiva; e de Clark e Hidrograma Unitário Triangular (SCS) empregadas para a propagação de vazão. Também foi analisado o efeito da variabilidade espacial da chuva. Da análise de sensibilidade dos parâmetros determinou-se que para simulação distribuída da bacia, o CN resultou o parâmetro mais sensível. Por exemplo, para um incremento de uma unidade no CN foram encontradas variações de entre 8 e 10% na vazão, o que representa um incremento de 5% no custo. Também foram significativas as diferenças na chuva de projeto obtidas a partir de diferentes IDFs de postos pluviométricos próximos (diferenças de até 80% na vazão ou seja 40% no custo. Mudanças no valor do tempo de concentração somente tiveram efeito significativo na simulação concentrada da bacia; já variações do parâmetro de forma no HTA do método de Clark não tiveram efeitos sobre a vazão ou custo. Por outro lado, os custos de medição de chuva e vazão, necessários para geração da informação que permitiria reduzir a incerteza resultam menores ao impacto produzido por um erro 1% no CN, ressaltando a importância de efetuar coleta contínua de dados de vazão.
Resumo:
O aumento da escala e funcionalidade dos sistemas de computação e sua crescente complexidade envolvem um aumento significante de custos e exigem recursos humanos altamente qualificados para o desenvolvimento de software. Integrando-se o uso de métodos formais ao desenvolvimento de sistemas complexos, permite-se realizar análises e verificações destes sistemas, garantindo assim sua correção. Existem diversos formalismos que permitem descrever sistemas, cada qual com diferentes níveis de abstração. Quando consideramos sistemas complexos, surge a necessidade de um modelo que forneça construções abstratas que facilitem o entendimento e a especificação destes sistemas. Um modelo baseado em objetos fornece um nível de abstração que tem sido muito aplicado na prática, onde os dados e os processos que os manipulam são descritos juntos em um objeto. Gramática de Grafos Baseada em Objetos (GGBO) é um modelo baseado em objetos, que além de ser uma linguagem visual, apresenta a vantagem de as especificações adquirirem um estilo baseado em objetos, que é bastante familiar à maioria dos desenvolvedores. Porém, as GGBOs não possuem ainda ferramentas para verificação automática de propriedades desejadas nos sistemas modelados. Uma alternativa para resolver isso é definir uma tradução (que preserve a semântica) desta linguagem para outra, para a qual existam verificadores automáticos. Um formalismo bastante conhecido e estabelecido para descrição de sistemas concorrentes, para o qual existem verificadores automáticos, é o cálculo-π. Porém, sob o aspecto de especificação de sistemas complexos, GGBOs parecem ser mais adequadas como linguagem de especificação que o cálculo-π, pois são visuais, mais intuitivas e possuem um estilo baseado em objetos. Neste trabalho foi definido um formalismo (baseado nas GGBOs), denominado Gramática de Hipergrafos Baseada em Objetos e uma tradução deste formalismo para o cálculo-π, aliando assim as vantagens desses dois métodos. Além disso, para validar a tradução definida, foram feitas provas de que a semântica das gramáticas de hipergrafos baseadas em objetos é preservada na tradução.
Resumo:
O estado de Goiás deu início ao seu processo de regionalização das ações de saúde, seguindo as diretrizes do SUS e as normas preconizadas pela NOAS 2001. O Plano Diretor Regionalização (PDR) está pactuado desde 2002, entretanto ainda não se encontra em pleno funcionamento. As ações de assistência farmacêutica (AF) ainda não foram regionalizadas. Com a intenção que identificar quais ações deveriam ser regionalizadas, as maiores dificuldades para a regionalização desse setor e a necessidade de se regionalizar essas ações, questionou-se os servidores da Secretaria de Estado da Saúde SES-GO, do nível central e regional, que trabalham direta ou indiretamente com ações de AF. Utilizando a escala de Likert para medir a intenção (vontade, desejo) das atitudes desses servidores. Demonstrou–se, nesta pesquisa, a predisposição de realizar regionalmente as ações de programação anual, distribuição de medicamentos aos municípios e avaliação das ações básicas dos municípios da sua região, a neutralidade quanto a regionalização das ações de seleção de medicamentos e a dispensação de medicamentos especiais. Apenas com relação à ação de aquisição regionalizada se encontrou uma predisposição desfavorável, ainda que com a predisposição de concordar com a necessidade da regionalização da assistência farmacêutica estadual. As maiores dificuldades são a carência de recursos humanos, agenda política, programação anual e a estrutura física deficitária das administrações regionais de saúde.