846 resultados para Modelagem de experimentos
Resumo:
As expectativas dos clientes são complexas e difíceis de serem alcançadas. Este trabalho apresenta uma abordagem desenvolvida para a avaliação dessas expectativas. A abordagem proposta utiliza grupos focalizados e contempla duas etapas: (i) levantamento das variáveis valorizadas pelo cliente, e (ii) quantificação do valor atribuído pelo cliente às diversas variáveis, conforme o nível de prestação de serviço oferecido. A abordagem proposta foi testada através de um estudo de caso realizado junto a uma empresa de manutenção de computadores. Além do levantamento do valor percebido pelo cliente, também foi feita a avaliação dos custos associados aos diferentes níveis de prestação do serviço. Isso possibilitou uma comparação direta entre esses dois elementos: valor percebido e custo da prestação do serviço. Após a comparação, foi possível identificar as alternativas de prestação de serviço que apresentam maior rentabilidade. Ao mesmo tempo, foram identificadas as etapas que necessitam um trabalho de redução de custo, uma vez que o custo dos serviços ultrapassa o valor percebido pelo cliente. A abordagem proposta permite a modelagem de algumas das principais preocupações das empresas de serviço: satisfação do cliente, valor percebido, custos dos serviços e rentabilidade.
Resumo:
Um dos modos de avaliar a confiabilidade de um produto é verificando o comportamento das falhas em testes de uso contínuo. Contudo, essa informação não permite saber em que data a falha ocorrerá. Para resolver esse impasse abordamos na presente dissertação a modelagem dos tempos de falha ao longo do calendário. A modelagem desses tempos permite uma melhor administração do sistema de garantia e assistência técnica, além de possibilitar a empresa estimar e monitorar a confiabilidade do produto. Para proceder com a modelagem, é preciso, inicialmente, conhecer a distribuição de três variáveis: o tempo de vida do produto, em horas de uso contínuo; o tempo de uso do produto, em horas por dia; e o intervalo de tempo entre a manufatura e a venda, em dias. Conhecendo o comportamento dessa variáveis duas alternativas de solução são apresentadas: (a) Modelagem via simulação de Monte Carlo e (b) Modelagem através de solução matemática fechada. São discutidos os casos em que há um ou vários grupos de clientes que utilizam o produto.
Resumo:
Neste trabalho tratamos da solução de um problema não linear do tipo tração-difusão, na modelagem de dispersão de insetos. Começamos estabelecendo uma lei de conservação e a partir desta, deduzimos algumas equações importantes para o desenvolvimento do nosso estudo, tais como a equação de convecção, de difusão e simultaneamente convecção e difusão. Se considerarmos uma escala de tempo que possibilite a adição ou retirada de indivíduos no meio, conforme seja considerada reprodução, migração ou morte, podemos acrescentar ao processo difusivo um termo de reação, obtendo então, a equação do tipo reação-difusão. Se o temp de reação for deendendee da densidade populacional e do tipo logístico, obtém-se a equação de Fischer. Dessa equação abordamos alguns aspectos, tais como, determinação dos estados estacionários, análise da estabillidade dos mesmos, representação gráfica no plano de fase e por último investigamos a existência de solução do tipo onda viajante. Abordamos, também, alguns exemplos apresentados na literatura, envolvendo equação da difusão com coeficiente constante e com coeficiente dependente da densidade populacional. Além disso, apresentamos o resultados obtidos com a modelagem em tempo discreto, a partir de um trabalho experimental com besouros marcados para o experimento e depois liberados Banks et al (1985) , em que os autores admitiram uma variação temporal e a partir dos dados obtidos fizeram uma estimativa para o coeficiente de difusão D (t), bem como para o coeficiente de decaimento α(t) do termo de reação linear em u. Construimos curvas que se ajustam a essas alternativas e apresentamos esses coeficientes em versão continua D (t) e α(t), dependentes da variável tempo t. Através de uma abordagem numérica, os modelos foram comparadas da variável tempo t. Através de uma abordagem numérica, os modelos foram comparados para diversos casos, usando diferentes combinação de D constante e D variando no tempo, a constante e a variando no tempo. Além disso, analisamos tambén, o efeito da substituição do coeficiente de difusão D constante por D(t) na equação de Fisher.
Resumo:
Introdução. A endotelina-1, o mais potente vasoconstritor endógeno, atua através de dois receptores de afinidades distintas, conhecidos como ETA e ETB. Os receptores ETA estão localizados predominantemente na musculatura lisa vascular e são os principais mediadores do efeito vasoconstritor da endotelina-1. Diversos estudos demonstraram que a endotelina-1 exerce um papel importante na manutenção do tônus arterial basal. Entretanto, a contribuição da endotelina-1 para o tônus coronariano basal em seres humanos, especialmente em coronárias com lesões ateroscleróticas, permanece alvo de interesse. Objetivos. Os objetivos deste estudo foram avaliar a contribuição da endotelina-1 no tônus coronariano epicárdico e na microcirculação em coronárias livres de lesões obstrutivas e em coronárias com lesões ateroscleróticas e comparar o método da contagem TIMI com o Doppler intracoronário na detecção de alterações do fluxo sangüíneo em resposta à adenosina. Métodos. Um total de 16 pacientes, sendo oito destes no grupo com coronárias livres de lesões obstrutivas e oito pacientes com lesões coronarianas obstrutivas, foram incluídos neste estudo. Todos pacientes receberam a infusão seletiva intracoronária de BQ-123, um inibidor específico dos receptores ETA da endotelina-1, durante 60 minutos. Adenosina e nitroglicerina foram administradas em bolus no tronco da coronária esquerda. O efeito do BQ-123 no diâmetro coronário epicárdico foi avaliado por angiografia quantitativa realizada a cada 15 minutos ao longo da infusão da droga. O efeito na microcirculação coronária foi avaliado por variações no fluxo sangüíneo medido por guia-Doppler e pelo método da contagem TIMI. Resultados. A infusão de BQ-123 resultou em aumento de 7% do diâmetro coronário e de 19% no fluxo sangüíneo volumétrico em pacientes com artérias livres de lesões obstrutivas (P < 0,001 para comparação com basal). O aumento do calibre do vaso ocorreu de forma progressiva e uniforme ao longo do vaso. Os pacientes com lesão aterosclerótica apresentaram um aumento de 16% (P < 0,001 para comparação com artérias livres de lesões obstrutivas) no diâmetro coronário e 28% no local da estenose. A velocidade do fluxo sangüíneo em coronárias livres de lesões obstrutivas não se alterou significativamente tanto na medida por Doppler como pelo método de contagem TIMI. Houve uma correlação de 0,67 (P < 0,05) entre o método da contagem TIMI e o Doppler para detecção de alterações na velocidade do fluxo sangüíneo em resposta à adenosina. Conclusões. A infusão seletiva intracoronária do inibidor específico dos receptores ETA da endotelina-1 em seres humanos pode ser feita de maneira segura. A endotelina-1 exerce um papel importante na manutenção do tônus coronariano basal em artérias livres de lesões obstrutivas, sendo responsável pela quase totalidade do tônus constritor aumentado presente em coronárias com lesões ateroscleróticas. O método da contagem TIMI apresenta uma boa correlação com o Doppler para medida do fluxo sangüíneo em condições de hiperêmia.
Resumo:
Dentre as principais áreas que constituem a Ciência da Computação, uma das que mais influenciam o mundo atual é a Engenharia de Software, envolvida nos aspectos tecnológicos e gerenciais do processo de desenvolvimento de software. Software tornou-se a base de sustentação de inúmeras organizações dos mais diversos ramos de atuação espalhados pelo planeta, consistindo de um elemento estratégico na diferenciação de produtos e serviços atuais. Atualmente, o software está embutido em sistemas relacionados a infindável lista de diferentes ciências e tecnologias. A Tecnologia de Processo de Software surgiu em meados da década de 1980 e representou um importante passo em direção à melhoria da qualidade de software através de mecanismos que proporcionam o gerenciamento automatizado do desenvolvimento de software. Diversas teorias, conceitos, formalismos, metodologias e ferramentas surgiram nesse contexto, enfatizando a descrição formal do modelo de processo de software, para que possa ser automatizado por um ambiente integrado de desenvolvimento de software. Os modelos de processos de software descrevem o conhecimento de uma organização e, portanto, modelos que descrevem experiências bem sucedidas devem ser continuamente disseminados para reutilização em diferentes projetos. Apesar da importância desse tópico, atualmente apenas uma pequena porção do conhecimento produzido durante o desenvolvimento de software é mantido para ser reutilizado em novos projetos. Embora, à primeira vista, o desafio de descrever modelos reutilizáveis para processos de software pareça ser equivalente ao problema tratado pela tradicional área de reutilização de produtos software, isso é apenas parcialmente verdade, visto que os processos envolvem elementos relacionados com aspectos sociais, organizacionais, tecnológicos e ambientais. A crescente complexidade da atual modelagem de processos vem influenciando a investigação de tecnologias de reutilização que sejam viáveis nesse campo específico. A investigação conduzida nesse trabalho culminou na especificação de um meta-modelo que tem como objetivo principal aumentar o nível de automação fornecido na reutilização de processos, apoiando a modelagem de processos abstratos que possam ser reutilizados em diferentes contextos. O meta-modelo proposto por esse trabalho - denominado APSEE-Reuse - fornece uma série de construtores sintáticos que permitem que os diferentes aspectos desse contexto sejam descritos segundo múltiplas perspectivas, complementares entre si, contribuindo para diminuir a complexidade do modelo geral. A solução proposta destaca-se por fornecer um formalismo para modelagem de processos, o qual é integrado à uma infraestrutura de automação de processos de software, permitindo que a reutilização esteja intimamente relacionada com as outras etapas do ciclo de vida de processos. Os diferentes componentes envolvidos na definição do modelo APSEE-Reuse proposto foram especificados algebricamente, constituindo uma base semântica de alto 15 nível de abstração que deu origem a um conjunto de protótipos implementados no ambiente PROSOFT-Java. O texto ainda discute os experimentos realizados com o meta-modelo proposto na especificação de diferentes estudos de casos desenvolvidos a partir de exemplos retirados na literatura especializada, e de processos que fornecem soluções em contextos e necessidades específicas de projetos desenvolvidos no PPGC-UFRGS. Finalmente, são apresentadas considerações acerca dos trabalhos relacionados, os elementos críticos que influenciam a aplicabilidade do modelo e as atividades adicionais vislumbradas a partir do trabalho proposto.
Resumo:
Este estudo foi motivado pela possibilidade de se empregar os conhecimentos da engenharia mecânica na solução de problemas de engenharia de alimentos por métodos numéricos, assim como pela utilização da dinâmica dos fluidos computacional (CFD) em mais um campo de pesquisa. A idéia básica foi a aplicação do método de elementos finitos na solução de problemas de escoamentos envolvendo mistura de diferentes componentes. Muitos alimentos apresentam-se como fluidos, e seu comportamento material pode ser newtoniano ou não newtoniano, às vezes descrito por relações constitutivas bastante complexas. Utilizou-se uma teoria de misturas apoiada nos conceitos de mecânica do contínuo para a modelagem mecânica do que se passou a considerar como um sistema multicomponente. Necessitou-se de uma detalhada revisão sobre os postulados clássicos da mecânica para que se pudesse recolocá-los, com alguma segurança e embasamento teórico, para sistemas multicomponentes. Tendo em mãos a modelagem do balanço de momentum e massa em sistemas multicomponentes, pôde-se aproximar estas equações através do método de elementos finitos. A literatura aponta que o método clássico de Galerkin não possui a eficiência necessária para a solução das equações de escoamento, que envolvem uma formulação mista onde se faz necessário tomar compatíveis os subespaços de velocidade e pressão, e também devido à natureza assimétrica da aceleração advectiva, o que também aparece como uma dificuldade na solução de problemas de advecçãodifusão, nos casos de advecção dominante. Assim, fez-se uso do método estabilizado tipo GLS, o qual supera as dificuldades enftentadas pelo método de Galerkin clássico em altos números de Reynolds, adicionando termos dependentes da malha, construídos de forma a aumentar a estabilidade da formulação de Galerkin original sem prejudicar sua consistência. Os resultados numéricos dividem-se em três categorias: problemas de transferência de quantidade de movimento para fluidos newtonianos, problemas de transferência de quantidade de movimento para fluidos com não linearidade material e problemas de advecção e difusão de massa em misturas. A comparação de algumas aproximações obtidas com as de outros autores se mostraram concordantes. A aproximação de problemas de fluidos segundo os modelos Carreau e Casson geraram os resultados esperados. A aproximação de um problema de injeção axial com mistura de dois fluidos produziu resultados coerentes, motivando a aplicação prática da aproximação por métodos estabilizados de problemas de misturas.
Resumo:
O desenvolvimento tecnológico, aliado à grande competitividade do mercado em escala mundial, tem como conseqüências diretas a elevação dos padrões de consumo e o aumento da diversidade de opções de compra por parte dos consumidores. Desta forma as empresas têm se empenhado em desenvolver sistemas de gestão robustos, porém flexíveis, que lhes proporcionem produzir bens de melhor qualidade, com diferenciais em relação aos concorrentes. A confiabilidade de um produto apresenta, sob diferentes aspectos, impacto na satisfação do consumidor, resultando como fator fundamental na decisão de compra. Além disso, as empresas têm procurado desenvolver mecanismos que propiciem criar um canal de relacionamento mais amplo junto aos seus consumidores, utilizando-se dos programas de fidelidade que têm como uma das suas principais ferramentas a extensão da garantia de produtos. Para implementar um programa de extensão de garantia, a empresa deve estar produzindo com alto nível de confiabilidade e estar em acompanhamento contínuo do desempenho destes produtos no campo. Este acompanhamento pode ser feito a partir dos dados de falha dos produtos em garantia, que possibilitam estabelecer indicadores de performance e avaliar custos relacionados às não-conformidades observadas. Este trabalho propõe, a partir de um estudo de caso, realizar a modelagem para análise da confiabilidade de um produto refrigerador freezer, com o objetivo de identificar a distribuição das falhas e estimar a confiabilidade do produto para um período de 2 (dois) anos de uso, possibilitando assim à empresa estabelecer os custos adicionais com a extensão da garantia do produto que atualmente é de 1 (um) ano. O estudo foi delineado em duas alternativas de modelagem, sendo a primeira através da adequação, estimação e simulação do modelo de distribuição de falhas e a segunda por meio da análise bayesiana de confiabilidade envolvendo o uso de distribuições a priori e a posteriori. Os resultados observados demonstram que apesar das técnicas serem distintas, as modelagens convergiram para estimativas similares e qualitativamente coerentes com os pressupostos estabelecidos pela empresa pesquisada.
Resumo:
Em fontes de nêutrons por spallation para pesquisa de materiais, o comprimento de onda dos nêutrons é geralmente determinado pelos tempos de percurso (TOF) dos nêutrons desde a fonte até o detector. A precisão atingível é limitada pelo fato de o tempo de emissão do pulso característico do sistema alvo/moderador ser diferente de zero (a situação ideal fictícia seria a emissão se ocorresse na forma de um impulso). “Moderadores acoplados” (elementos usados para produzir feixes de alta intensidade com nêutrons de baixa energia) apresentam um decaimento de intensidade em função do tempo muito longo, ao longo de todo o espectro usado nos experimentos. Por este motivo, “moderadores desacoplados”, os quais produzem feixes com intensidade mais reduzida, são freqüentemente usados para instrumentos que requerem alta resolução. Neste trabalho, propusemos e analisamos uma nova técnica de filtragem dinâmica de feixes de nêutrons polarizados de baixa energia para experimentos que utilizam TOF na determinação do comprimento de onda. O dispositivo consiste de um sistema ótico polarizador/analisador e um inversor de spin seletivo em energia, o qual funciona por ressonância espacial do spin. Variando a condição de ressonância em sincronia com a estrutura temporal do pulso de nêutrons (através do controle de campos magnéticos), o filtro pode ajustar a resolução de energia (ou de comprimento de onda) de pulsos de banda larga em tais experimentos, separando os nêutrons com a correta relação “TOF/comprimento de onda” dos demais Um método para o cálculo de desempenho do sistema foi apresentado em um Trabalho Individual (TI) (PARIZZI et al., 2002 - i), do qual se fará aqui uma breve revisão além de amplo uso na otimização dos parâmetros a serem ajustados para o projeto do filtro. Os resultados finais mostram que ganhos consideráveis em resolução podem ser obtidos com a aplicação desta técnica em experimentos de reflectometria por tempo de percurso, sem que para tal seja necessário comprometer a intensidade do feixe usado pelo mesmo instrumento quando operado em um modo de baixa resolução, dando ao usuário do instrumento a opção de escolher a relação ótima entre intensidade e resolução para seu experimento. Como parte da conclusão desta dissertação, é apresentada uma proposta de parâmetros para a construção deste tipo de filtro e previsão de desempenho da configuração proposta, baseada no software de modelamento desenvolvido.
Modelagem de situações de punção em lajes de concreto armado através do método dos elementos finitos
Resumo:
O objetivo deste trabalho é o desenvolvimento de um programa computacional, elaborado através do método dos elementos finitos, para análise tridimensional de situações de punção em lajes de concreto armado com e sem armadura de cisalhamento. São utilizados modelos constitutivos elasto-viscoplásticos para representar o comportamento do concreto. Para a simulação do concreto submetido a um carregamento de longa duração, empregou-se o modelo de camadas superpostas. Este modelo admite que o concreto é constituído por um número conveniente de camadas com a mesma deformação, porém características materiais diferentes. A tensão total é obtida pela soma das contribuições de cada camada. A armadura é introduzida no modelo como uma linha de material mais rígido no interior do elemento de concreto. Considera-se aderência perfeita entre o concreto e o aço. Assim, os deslocamentos ao longo das barras de aço são determinados a partir dos deslocamentos nodais dos elementos de concreto. Desta forma, a matriz de rigidez da armadura tem a mesma dimensão da matriz de rigidez do elemento de concreto, as quais são somadas para a obtenção da matriz de rigidez total Para representar o comportamento após à fissuração do concreto, é utilizado o modelo de fissuras distribuídas, onde apenas as propriedades dos materiais são modificadas e a malha de elementos finitos não necessita de atualização. Sugerem-se duas formulações para a consideração da contribuição do concreto entre fissuras e da redução na capacidade de transferência de corte devido ao aumento da abertura da fissura. Este último é incluído através de uma simplificação, que consiste em atribuir ao módulo de elasticidade transversal, correspondente ao plano fissurado, um valor reduzido. Para comprovar a validade do programa computacional desenvolvido, comparam-se os resultados numéricos com valores experimentais de ensaios realizados por Coelho (1999), Trautwein (2001) e Fusco (1988). Obtiveram-se boas aproximações para lajes com e sem armadura de cisalhamento. Desta forma, o programa computacional desenvolvido pode ser empregado para generalizar resultados experimentais em lajes cogumelo com variação na resistência do concreto, na bitola das barras de armadura, no espaçamento entre as barras e no número de camadas de armadura de cisalhamento.
Resumo:
Técnicas de tolerância a falhas visam a aumentar a dependabilidade dos sistemas nos quais são empregadas. Entretanto, há necessidade de garantir a confiança na capacidade do sistema em fornecer o serviço especificado. A validação possui como objetivo propiciar essa garantia. Uma técnica de validação bastante utilizada é a injeção de falhas, que consiste na introdução controlada de falhas no sistema para observar seu comportamento. A técnica de injeção de falhas acelera a ocorrência de falhas em um sistema. Com isso, ao invés de esperar pela ocorrência espontânea das falhas, pode-se introduzi-las intencionalmente, controlando o tipo, a localização, o disparo e a duração das falhas. Injeção de falhas pode ser implementada por hardware, software ou simulação. Neste trabalho são enfocadas técnicas de injeção de falhas por software, desenvolvidas nos níveis da aplicação e do sistema operacional. O trabalho apresenta o problema da validação, através da injeção de falhas, de um protocolo de troca de pacotes. Enfoque especial é dado ao impacto resultante da inclusão de um módulo extra no protocolo, uma vez que o mesmo apresenta restrições temporais. O trabalho investiga alternativas de implementação de injetores de falhas por software que minimizem este impacto. Tais alternativas referem-se a localização do injetor de falhas no sistema, a forma de ativação das atividades do injetor de falhas e a operação de injeção de falhas em si. Um toolkit para experimentos de intrusão da injeção de falhas é apresentado. O alvo da injeção de falhas é um protocolo com característica tempo real. O toolkit desenvolvido, denominado INFIMO (INtrusiveless Fault Injector MOdule), visa a analisar, de forma experimental, a intrusão do injetor de falhas sobre o protocolo alvo. O INFIMO preocupa-se com protocolos com restrições temporais por esses constituírem um desafio sob o ponto de vista de injeção de falhas. O INFIMO suporta falhas de comunicação, as quais podem ocasionar a omissão de alguns pacotes. O INFIMO apresenta duas ferramentas de injeção de falhas: INFIMO_LIB, implementada no nível da aplicação e INFIMO_DBG implementada com auxílio de recursos do sistema operacional. Destacam-se ainda como contribuições do INFIMO a definição e a implementação do protocolo alvo para experimentos de injeção de falhas, o protocolo INFIMO_TAP. Além disso, o INFIMO apresenta métricas para avaliação da intrusão provocada pelo injetor de falhas no protocolo alvo.
Resumo:
Este estudo avalia a dinâmica de correntes de densidade conservativas através da análise da influência dos principais parâmetros que atuam no escoamento: a diferença de massa específica (Dr) entre os fluidos, a declividade do canal e o volume inicial. As correntes simuladas com soluções salinas em canal unidimensional utilizaram massa específica inicial numa faixa que variou de 1010 kg/m3 a 1045 kg/m3. Também foram conduzidos ensaios em canal bidimensional onde a declividade foi variada de –0,5º a 4º, utilizando soluções salinas de 1010 kg/m3 e 1022 kg/m3. Em ambos os canais, os volumes iniciais foram variados para verificar sua influência no escoamento. Os resultados mostraram que a variação de apenas 1% em Dr provoca um acréscimo de 25% na velocidade média da corrente, indicando que esse parâmetro é determinante na sua dinâmica. O escoamento da corrente apresenta um regime não permanente, sendo que há uma aceleração no início do movimento até que se atinja a velocidade máxima, seguido de uma desaceleração da corrente. Durante o escoamento, a velocidade de avanço da cabeça da corrente apresenta oscilações com uma freqüência principal definida. A correlação dessa freqüência com a freqüência de desprendimento de vórtices, através do número de Strouhal (St), é forte, sugerindo que na simulação física de correntes de densidade, não só o número de Froude Densimétrico deve ser respeitado, mas também o número de Strouhal.