1000 resultados para Simulação de defeitos
Resumo:
O objetivo deste trabalho foi avaliar o acasalamento seletivo utilizando a distribuição dos valores extremos, entre outras estratégias de acasalamento, na capacidade de otimizar o incremento fenotípico da característica sob seleção assistida por marcadores. Foi utilizada a análise multivariada de agrupamento para comparar estratégias de acasalamento, por meio da aplicação do método de Tocher. O sistema de simulação genética Genesys foi utilizado para a simulação de três genomas, cada qual com uma única característica cuja distinção estava no valor da herdabilidade, e das populações base e inicial. Cada população inicial foi submetida à seleção assistida por marcadores por 20 gerações consecutivas. Para avaliação das estratégias foi estimado o valor fenotípico, em diferentes tamanhos de família, para as três características. Em todos os cenários combinando herdabilidade e tamanho de família, o acasalamento seletivo foi superior aos demais, na capacidade de maximizar o valor fenotípico. O método de Tocher possibilitou diferenciar o acasalamento seletivo das demais estratégias por meio da formação de grupos específicos constituídos por acasalamentos seguindo a distribuição dos valores extremos. A análise multivariada convalidou incrementos fenotípicos ótimos para o acasalamento seletivo, em características quantitativas com valores de herdabilidade de 0,10; 0,40 e 0,70.
Resumo:
Objetivou-se, neste estudo, avaliar o impacto econômico da implantação das boas práticas agropecuárias (BPA), relacionadas com a qualidade higiênica sanitária do leite. A pesquisa consistiu na simulação de nove cenários, compostos por três diferentes níveis de BPA para a melhoria da qualidade do leite (baixo, médio e alto), em três diferentes situações (somente aplicação das BPAs; aplicação das BPAs e construção da sala do leite; e aplicação das BPAs, construção da sala do leite e aquisição do tanque de expansão). O rebanho leiteiro hipotético constava de 30 vacas em lactação, com média de dez litros de leite/animal/dia, ordenhadas duas vezes ao dia, em ordenhadeira tipo "balde ao pé". A receita consistiu na média da bonificação/penalização, praticadas por dez laticínios da região sudeste, considerando-se diferentes intervalos de contagem de células somáticas (CCS) e contagem bacteriana total (CBT). A inclusão das BPAs para a melhoria da qualidade do leite, quando praticadas em seu nível máximo, mostrou-se com rápido retorno do capital investido (payback) e ótima taxa interna de retorno (TIR) apenas para aqueles pecuaristas que já possuíam a sala do leite e o tanque de expansão.
Resumo:
A montagem de circuitos eletrónicos é um processo extremamente complexo, e como tal muito difícil de controlar. Ao longo do processo produtivo, é colocada solda no PCB (printed circuit board), seguidamente são colocados os componentes eletrónicos que serão depois soldados através de um sistema de convecção, sendo por fim inspecionados todos os componentes, com o intuito de detetar eventuais falhas no circuito. Esta inspeção é efetuada por uma máquina designada por AOI (automatic optical inspection), que através da captura de várias imagens do PCB, analisa cada uma, utilizando algoritmos de processamento de imagem como forma de verificar a presença, colocação e soldadura de todos os componentes. Um dos grandes problemas na classificação dos defeitos relaciona-se com a quantidade de defeitos mal classificados que passam para os processos seguintes, por análise errada por parte dos operadores. Assim, apenas com uma formação adequada, realizada continuamente, é possível garantir uma menor taxa de falhas por parte dos operadores e consequentemente um aumento na qualidade dos produtos. Através da implementação da metodologia Gage R&R para atributos, que é parte integrante da estratégia “six sigma” foi possível analisar a aptidão dos operadores, com base na repetição aleatória de várias imagens. Foi desenvolvido um software que implementa esta metodologia na formação dos operadores das máquinas AOI, de forma a verificar a sua aptidão, tendo como objetivo a melhoria do seu desempenho futuro, através da medição e quantificação das dificuldades de cada pessoa. Com esta nova sistemática foi mais fácil entender a necessidade de formação de cada operador, pois com a constante evolução dos componentes eletrónicos e com o surgimento de novos componentes, estão implícitas novas dificuldades para os operadores neste tipo de tarefa. Foi também possível reduzir o número de defeitos mal classificados de forma significativa, através da aposta na formação com o auxílio do software desenvolvido.
Resumo:
O texto se propõe a expor um. método de custeamento, análise de rentabilidade e simulação de preços a valor presente. No tocante a custos, o método escolhido foi o custeio direto aplicado a padrões físicos e custos correntes de reposição; para análise de rentabilidade é utilizado o conceito de margem de contribuição; e para fins de formação do preço de venda são propostas algumas fórmulas para cálculo dos preços de venda à vista e a prazo. Todo o argumento considera a relevância da expectativa de variações de preços, tanto no momento da elaboração das tabelas de preço de venda que vigem em um determinado período de tempo, como na avaliação da margem de contribuição em termos relativos e absolutos, com suas implicações perante o resultado da atividade empresarial.
Resumo:
Este artigo trata do fluxo de informação e material em uma cadeia de abastecimento de produtos de consumo de quatro níveis. Propõe-se que, pelo menos sob determinadas condições de contorno, os sistemas de gestão nos quais o distribuidor coordena os fluxos de informação e de produtos acabados na cadeia (aqui denominados Estoque Gerido pelo Distribuidor - EGD ou DMI) têm vantagem em comparação com o conceito tradicional de Estoque Gerido pelo Fabricante (EGF ou VMI). Além da avaliação da proposta nas dimensões estratégica e econômica, um modelo de simulação numérica é construído para o estudo do comportamento dinâmico da cadeia. Demonstrou-se que o modelo DMI proporciona posicionamento estratégico e econômico mais sólido ao distribuidor, nas condições analisadas. A análise dinâmica revelou que o modelo é estável, e a simulação permitiu à cadeia específica estudada enfrentar incrementos de 20% da demanda normal com estoques 55% menores no varejo e 33% menores no distribuidor que o modelo VMI de referência.
Resumo:
Esta pesquisa visa propor uma forma de análise sistêmica do setor calçadista que integre a abordagem de Cenário Prospectivos à Dinâmica de Sistemas. Objetiva-se com isso disponibilizar alternativas que possibilitem análise, descrição e simulação de tendências de mercado para um período de cinco anos. Para a construção dos cenários, adotou-se o método descrito por Grumbach. Após a geração dos cenários, realizou-se a integração com a modelagem hard da Dinâmica de Sistemas. Os resultados indicam que a abordagem proposta pode contribuir para apontar oportunidades e ameaças do ambiente externo, bem como pontos fortes e fracos do ambiente interno, a fim de auxiliar nas decisões estratégicas e na adoção de procedimentos adequados para proteger o mercado calçadista pesquisado.
Resumo:
Não há disciplina em qualquer ramo da ciência, seja esta natural, social, humana, descritiva, experimental ou teórica, qualitativa ou quantitativa, que não tenha sido afectada a vários níveis da instrumentalidade, conceptualização, construção de modelos, escolha de metáforas heurísticas ou ontológicas, e sentidO da investigação, em alguns casos muito profunda e decisivamente, pela influência crescente da constelação informacional computacional. A investigação baseada em simulações por computador é uma “terceira espécie de ciência”, que se soma aos tipos teórico e físico-experimental de trabalho científico. A ciber-ciência é um lugar natural para simular ciência, ou meta-ciberciência, mas todo o conhecimento científico cai no domínio da meta-ciberciência ou da filosofia da ciência computacional. A meta-ciência simula a ciência(o estudo computacional da produção do conhecimento científico); a ciber-ciência é por definição simulatória; a ciber-ciência simula a Natureza; a Natureza, segundo alguns físicos, é ela mesma uma simulação. Receber a categoria da informação nas ciências da vida e nas ciências humanas e sociais, da maneira específica como tem vindo a ocorrer, traz um considerável lastro metafísico: os humanos como máquinas, ultrapassáveis por máquinas inteligentes ou “espirituais”. A informação emerge como a alavanca de Arquimedes para as nossas intervenções n o domínio da vida e do espírito, de máquinas informacionais naturais, com evidentes implicações para a ciência política.
Resumo:
Neste texto pretendemos explorar a Realidade aumentada como meio de visualização para projectos de comunicação interactivos. Através das aplicações ARToolkit, Virtools e 3ds Max, pretendemos mostrar como criar uma plataforma interactiva portátil, que recorra ao meio ambiente e a markers para a construção do cenário de jogo. Pretendemos mostrar que o realismo da simulação, aliada à fusão dos objectos artificiais sobre o mundo real, poderá gerar empatia de interacção entre jogadores e os seus avatares.
Resumo:
Neste artigo argumenta-se que as simulações numéricas fomentam e exploram relações complexas entre o jogador e o sistema cibernético da máquina que com este se relaciona através da jogabilidade, ou seja, da real aplicação às regras de jogo de tácticas e estratégias usadas pelo participante durante o seu trajecto na aplicação lúdica. Considera-se que o espaço mágico imposto pelo tabuleiro de jogo é mais do que um espaço de confusão entre real e artificial mas antes se apresenta como uma cortina ou interface entre o corpo próprio do participante e a simulação digital inerente ao sistema computacional.
Resumo:
Este artigo procura promover um enquadramento metodológico para o estudo estético de jogo, tarefa que se afigura de enorme dificuldade devido à inflexão da área do jogo em múltiplos sentidos. Dada a excessiva abrangência do conceito de “jogos de computador”, o autor defende a sua substituição por “jogos em ambiente virtual”, termo esse que inclui todos os jogos de simulação e exclui aqueles que são apenas digitais. Existem três dimensões que caracterizam todos os jogos em ambiente virtual, nomeadamente a jogabilidade, a estrutura e o cenário de jogo. Cada uma destas dimensões poderá ajudar a definir áreas de investigação mais precisas. Contudo, o estudo aprofundado do jogo tem obrigatoriamente que assentar na sua prática, sendo que o investigador poderá mesmo confundir-se com um dos seguintes tipos de jogador: social, mata dor, conquistador ou explorador. O estudioso do jogo, tal como qualquer outro jogador, faz, habitualmente, a apologia do jogo não-linear, onde se pode contornar níveis predefinidos por forma a progredir mais rapidamente. Assim, aquilo que poderá ser considerado uma falta de ética na prática de jogo será essencial para uma análise académica que recorre a estratégias não lineares de jogo, por forma a melhor apreender a sua verdadeira dimensão.
Resumo:
O artigo analisa os principais empreendimentos de infraestrutura (logística, energética e social e urbana) do Programa de Aceleração do Crescimento (PAC) no período de 2007 a 2010. A problemática do estudo foi: como o planejamento do PAC baiano contribuiu para o desenvolvimento do Estado? O artigo demonstra, por meio de dados quantitativos, o impacto e o desempenho do PAC para o desenvolvimento da Bahia. Para a realização dessa abordagem quantitativa, informações foram extraídas de dados secundários. Conclui-se que, em média, 76,93% dos projetos do PAC baiano não foram finalizados, mas, mesmo assim, ao associá-lo ao Produto Interno Bruto (PIB), utilizando uma simulação regressiva, antes, durante e depois dos anos de 2007 até 2010, percebe-se sua influência e interferência no processo de crescimento regional da Bahia.
Resumo:
O Balanced Scorecard (BSC) tem vindo a revelar-se um conceito popular como ferramenta de suporte à descrição e implementação da estratégia organizacional. Esta abordagem propõe que os gestores se foquem no desenvolvimento e utilização dum número reduzido de indicadores críticos de desempenho, financeiros e não financeiros, que combinam diferentes disciplinas e perspectivas da organização e que estão articulados numa cadeia causal que explica de forma consistente o desempenho futuro de acordo com a estratégia formulada. Contudo, diversas dúvidas e críticas tem emergido relativamente à qualidade do processo de desenvolvimento do BSC e que colocam em causa a consistência e a validade da estrutura de indicadores que constitui o instrumento fundamental para o controlo da implementação da estratégia. Com o propósito de ultrapassar estes problemas, uma abordagem baseada na modelação e simulação dinâmica (dinâmica de sistemas) é proposta como suporte ao processo de desenvolvimento do BSC. Esta abordagem permite acelerar e melhorar a aprendizagem dos gestores acerca do processo de criação futura de valor que está associado à estratégia formulada e respectiva implementação, contribuindo assim para a validade e consistência da estrutura de indicadores do BSC.
Resumo:
O Balanced Scorecard (BSC) tem vindo a revelar-se um conceito popular como ferramenta de suporte à descrição e implementação da estratégia organizacional. Esta abordagem propõe que os gestores se foquem no desenvolvimento e utilização dum número reduzido de indicadores críticos de desempenho, financeiros e não financeiros, que combinam diferentes disciplinas e perspectivas da organização e que estão articulados numa cadeia causal que explica de forma consistente o desempenho futuro de acordo com a estratégia formulada. Contudo, diversas dúvidas e críticas tem emergido relativamente à qualidade do processo de desenvolvimento do BSC e que colocam em causa a consistência e a validade da estrutura de indicadores que constitui o instrumento fundamental para o controlo da implementação da estratégia. Com o propósito de ultrapassar estes problemas, uma abordagem baseada na modelação e simulação dinâmica (dinâmica de sistemas) é proposta como suporte ao processo de desenvolvimento do BSC. Esta abordagem permite acelerar e melhorar a aprendizagem dos gestores acerca do processo de criação futura de valor que está associado à estratégia formulada e respectiva implementação, contribuindo assim para a validade e consistência da estrutura de indicadores do BSC.
Resumo:
RESUMO: Hoje em dia o software tornou-se num elemento útil na vida das pessoas e das empresas. Existe cada vez mais a necessidade de utilização de aplicações de qualidade, com o objectivo das empresas se diferenciarem no mercado. As empresas produtoras de software procuram aumentar a qualidade nos seus processos de desenvolvimento, com o objectivo de garantir a qualidade do produto final. A dimensão e complexidade do software aumentam a probabilidade do aparecimento de não-conformidades nestes produtos, resultando daí o interesse pela actividade de testes de software ao longo de todo o seu processo de concepção, desenvolvimento e manutenção. Muitos projectos de desenvolvimento de software são entregues com atraso por se verificar que na data prevista para a sua conclusão não têm um desempenho satisfatório ou por não serem confiáveis, ou ainda por serem difíceis de manter. Um bom planeamento das actividades de produção de software significa usualmente um aumento da eficiência de todo o processo produtivo, pois poderá diminuir a quantidade de defeitos e os custos que decorrem da sua correcção, aumentando a confiança na utilização do software e a facilidade da sua operação e manutenção. Assim se reconhece a importância da adopção de boas práticas no desenvolvimento do software. Para isso deve-se utilizar uma abordagem sistemática e organizada com o intuito de produzir software de qualidade. Esta tese descreve os principais modelos de desenvolvimento de software, a importância da engenharia dos requisitos, os processos de testes e principais validações da qualidade de software e como algumas empresas utilizam estes princípios no seu dia-a-dia, com o intuito de produzir um produto final mais fiável. Descreve ainda alguns exemplos como complemento ao contexto da tese. ABSTRACT: Nowadays the software has become a useful element in people's lives and it is increasingly a need for the use of quality applications from companies in order to differentiate in the market. The producers of software increase quality in their development processes, in order to ensuring final product quality. The complexity and size of software, increases the probability of the emergence of non-conformities in these products, this reason increases of interest in the business of testing software throughout the process design, development and maintenance. Many software development projects are postpone because in the date for delivered it’s has not performed satisfactorily, not to be trusted, or because it’s harder to maintain. A good planning of software production activities, usually means an increase in the efficiency of all production process, because it can decrease the number of defects and the costs of it’s correction, increasing the reliability of software in use, and make it easy to operate and maintenance. In this manner, it’s recognized the importance of adopting best practices in software development. To produce quality software, a systematic and organized approach must be used. This thesis describes the main models of software development, the importance of requirements engineering, testing processes and key validation of software quality and how some companies use these principles daily, in order to produce a final product more reliable. It also describes some examples in addition to the context of this thesis.