22 resultados para Otimização de utilização de múltiplas nuvens de armazenamento
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
O elevado grau de competição imposto pelo mercado tem gerado nas empresas uma maciça movimentação em busca de melhorias contínuas e radicais nos processos de produção. Desta forma, a busca e identificação de oportunidades de melhoria constitui-se em importante mecanismo de aumento do desempenho e potencial competitivo. No entanto, a sistematização deste procedimento/abordagem esbarra na complexidade das ferramentas conhecidas e atualmente disponíveis para aplicação rotineira na análise dos processos produtivos. Uma análise ou diagnóstico consistente exige, muitas vezes, a aplicação de diversas ferramentas, tornando o processo de identificação de oportunidades e implementação de melhorias exageradamente complexo e moroso. Este estudo identificou a real necessidade de desenvolvimento de uma abordagem eficaz e ao mesmo tempo mais simples de mapeamento das oportunidades de melhoria, propondo uma metodologia de análise de sistemas de produção baseada na utilização conjugada de duas clássicas ferramentas de diagnóstico: o mapeamento da cadeia de valor e o mecanismo da função produção. O estudo parte de uma revisão bibliográfica onde são abordados os principais conceitos concernentes ao processo de diagnóstico e melhoria de sistemas de produção, base para o desenvolvimento da metodologia proposta. O método é, a seguir, testado em um estudo de caso realizado junto a uma empresa fabricante de cores para pintura automotiva.
Resumo:
É muito difícil falar sobre aquecimento de água usando energia solar, sem falar em energia de apoio, ou auxiliar. Essa indispensável energia auxiliar, que pode ser eletricidade, gás ou um outro combustível qualquer, tem por objetivo substituir a energia solar nos dias nublados, ou complementá-la nos períodos de baixa radiação solar. Sua finalidade é manter um certo volume de água quente dentro das condições mínimas de temperatura para uso imediato. Essa energia, tão importante para a eficácia do sistema, tem sempre um custo agregado que deve ser considerado no projeto. A escolha do tipo de energia auxiliar recai justamente sobre a eletricidade por sua facilidade de controle e baixo investimento inicial. O custo da energia elétrica, contudo, é hoje alto o suficiente para que a fração elétrica no consumo de energia do sistema seja importante e passe a merecer mais atenção. Esta dissertação visa a estudar estratégias para minimizar o consumo de energia elétrica auxiliar. O trabalho foi desenvolvido através da simulação do atendimento de uma residência unifamiliar, habitada por cinco pessoas, com um consumo de água quente variável ao longo do dia e igual para todos os dias do ano. Empregou-se para as simulações de todos os casos estudados, o software TRNSYS em sua versão 14.2, (KLEIN, 1997) que demonstrou eficácia e coerência nos resultados obtidos Ao longo do trabalho foram simulados mais de setecentos casos, variando-se parâmetros como área de coletores, volume do reservatório, potência elétrica, dentre outros. Com os resultados obtidos nas simulações foram elaboradas tabelas e gráficos dos quais foi possível retirar algumas conclusões relevantes tais como a dependência do consumo de energia auxiliar com o volume do reservatório, número de coletores, potência da resistência de aquecimento e sua altura, bem como a altura do termostato. A partir dos resultados deste trabalho foi possível a elaboração de uma série de recomendações relativas a estudo e a projeto de sistemas de aquecimento solar de água quente para uso doméstico, visando à otimização na utilização do sistema de energia auxiliar.
Resumo:
A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.
Resumo:
A utilização de versões permite o armazenamento de diferentes alternativas de projeto no desenvolvimento de uma aplicação. Entretanto, nem todo o histórico das alterações aplicadas sobre os dados é registrado. Modificações importantes podem ser realizadas e os valores anteriores são perdidos. O histórico completo somente é acessível através da junção de versões com um modelo temporal. Os conceitos de tempo e de versão aplicados em conjunto possibilitam a modelagem de aplicações complexas. Uma extensão que implemente simultaneamente estes dois conceitos em um banco de dados comercial não está disponível. O Modelo Temporal de Versões (TVM – Temporal Version Model) fornece a base para esta funcionalidade. O objetivo deste trabalho é projetar um extender para oferecer suporte aos conceitos de tempo e versão no sistema DB2, utilizando como base o TVM. A extensão engloba o mapeamento da hierarquia do TVM; a criação de tabelas administrativas; procedimentos para especificação das classes, atributos e relacionamentos; a definição de gatilhos e restrições para a manipulação dos dados diretamente nas tabelas criadas; e a especificação de procedimentos e UDFs para controle de versões e valores temporais e de outras UDFs que permitem consultas envolvendo os dois conceitos. Apesar do SGBD não ser totalmente orientado a objetos, como é definido no modelo utilizado (TVM), oferece mecanismos que permitem o mapeamento para um modelo objetorelacional. Através da utilização desta extensão, a união de tempo e de versões pode ser utilizada em aplicações reais.
Resumo:
Esta dissertação pretende consolidar um método quantitativo, flexível e genérico que possa ser útil na otimização experimental dos mais variados produtos e processos industriais medidos por múltiplas variáveis de resposta. O que se pretende com o método é identificar o ajuste ótimo dos fatores controláveis, ou seja, aquele que reduz os custos devido à má qualidade de um produto considerando também os custos de matéria-prima e energia gastos na fabricação desse produto. A redução dos custos gerados pela má qualidade de um produto é alcançada através da minimização dos desvios das variáveis de resposta dos seus valores alvos e maximização da robustez do produto ou processo aos fatores de ruído e a possíveis oscilações nos fatores controláveis, pois toda vez que uma variável de resposta desvia-se do seu valor alvo ou apresenta variabilidade, existe uma perda financeira experimentada pelo seu usuário. Ao longo do texto, faz-se uma revisão da literatura existente sobre o assunto, apresentam-se as etapas do método que devem ser cumpridas e algumas ferramentas consideradas eficientes no cumprimento dessas etapas. Logo após, realizam-se estudos práticos para validar o método e, baseado nesses estudos e no referencial teórico, conclui-se sobre o assunto.
Resumo:
Esta dissertação de mestrado tem por objetivo apresentar uma metodologia para planejamento e análise de experimentos com formulações, em um contexto de múltiplas variáveis de resposta, para aplicação em indústrias alimentícias de pequeno porte que se caracterizam por utilizar métodos empíricos, ou seja, tentativa e erro, no desenvolvimento de seus produtos. A utilização de Projeto de Experimentos com Formulações, como ferramenta estatística de suporte no desenvolvimento de produtos formulados, tem como objetivo otimizar o planejamento, execução e análise dos experimentos, permitindo que a seqüência de ensaios seja estruturada adequadamente, de forma a traduzir os objetivos a serem atingidos. A metodologia proposta neste trabalho apoia-se nessa ferramenta estatística e põe grande ênfase nas fases de identificação do problema e planejamento, fases nas quais a criatividade do investigador tem uma função muito importante. A metodologia proposta é ilustrada através de um estudo de caso. As etapas do estudo de caso envolvem: identificação do problema; planejamento do experimento; execução do experimento; seleção das melhores rodadas experimentais quanto a características de qualidade sensoriais através de uma análise sensorial comparativa com um produto similar líder de mercado (benchmarking); modelagem individual das variáveis de resposta e definição de uma função objetivo e otimização. A aplicação de Projetos de Experimentos fez-se através da utilização de variáveis independentes, tomando o método adaptável a situações onde há algum tipo de restrição. O desenvolvimento do produto, apresentado no estudo de caso, fez-se em um ambiente de Engenharia Simultânea, propiciado pelas características multifuncionais próprias das empresas em questão, reduzindo substancialmente o tempo de desenvolvimento do novo produto, por meio da realização das várias fases do projeto de forma simultânea.
Resumo:
Resumo não disponível.
Resumo:
A solução de preservação da Universidade de Wisconsin (UW) é considerada a solução padrão para preservação de fígados, rins e pâncreas. A frutose-1,6-bisfosfato (FBP) é uma substância que apresenta efeito protetor do fígado contra injúrias provocadas por agentes químicos e ocorridas durante o período de isquemia-reperfusão. O objetivo deste estudo foi avaliar os efeitos da FBP na composição de soluções para preservação de fígados para transplante. Neste estudo experimental, a perfusão e a preservação dos fígados foram realizadas em cada grupo com as soluções de UW, UW contendo 10 mmol/L de FBP (UWM) e FBP 10 mmol/L (FBPS), respectivamente. Os fígados foram armazenados em um recipiente plástico contendo solução de preservação a 4oC por 24 horas. As mensurações bioquímicas de AST, ALT, LDH e TBARS foram realizadas em amostras das soluções de preservação nos tempos de 0, 12, 18 e 24 horas. A análise histológica foi realizada em fígados preservados por 24 horas. O grau de preservação observado com as soluções de UW e FBPS foi similar até 18 horas de armazenamento. A adição de 10 mmol/L de FBP à solução de UW provocou um aumento das injúrias ocorridas e uma pior preservação quando comparado ao grupo armazenado em UW. A FBP protegeu os fígados contra danos causados pelos radicais livres por tempos de preservação inferiores a 18 horas. Não houve diferença significativa entre os grupos na análise histológica dos fígados preservados no tempo de 24 horas. A FBP utilizada em solução foi eficaz na preservação de fígados, podendo ser um importante constituinte para outras formulações.
Resumo:
Neste trabalho, foi realizado um estudo de óleos refrigerantes emulsionados utilizados em máquinas de usinagem da indústria metal-mecânica, com o objetivo de minimizar os gastos com reposição de óleo e o volume de resíduos contaminados pelo mesmo. Foram constatados três problemas principais na utilização do óleo refrigerante emulsionado em estudo: a presença de bactérias degradantes do óleo, a reposição da emulsão de maneira indevida e o arraste de óleo pelos cavacos e limalhas provenientes da própria usinagem. Como solução para estes três problemas principais, foi projetado um equipamento de controle e automação. Este protótipo é composto por três partes essenciais: tratamento bacteriológico prévio da água usada para emulsão do óleo, passagem da água de reposição através dos cavacos e limalhas e controle da concentração do óleo na emulsão. O protótipo foi instalado em um máquina de usinagem da Empresa AGCO do Brasil, sede Canoas e os resultados obtidos foram surpreendentes quanto às grandes possibilidades de minimização dos gastos com óleo refrigerante e do volume de resíduos contaminados por óleos.
Resumo:
Este trabalho tem como objetivo desenvolver e empregar técnicas e estruturas de dados agrupadas visando paralelizar os métodos do subespaço de Krylov, fazendo-se uso de diversas ferramentas e abordagens. A partir dos resultados é feita uma análise comparativa de desemvpenho destas ferramentas e abordagens. As paralelizações aqui desenvolvidas foram projetadas para serem executadas em um arquitetura formada por um agregado de máquinas indepentes e multiprocessadas (Cluster), ou seja , são considerados o paralelismo e intra-nodos. Para auxiliar a programação paralela em clusters foram, e estão sendo, desenvolvidas diferentes ferramentas (bibliotecas) que visam a exploração dos dois níveis de paralelismo existentes neste tipo de arquitetura. Neste trabalho emprega-se diferentes bibliotecas de troca de mensagens e de criação de threads para a exploração do paralelismo inter-nodos e intra-nodos. As bibliotecas adotadas são o DECK e o MPICH e a Pthread. Um dos itens a serem analisados nestes trabalho é acomparação do desempenho obtido com essas bibliotecas.O outro item é a análise da influência no desemepnho quando quando tulizadas múltiplas threads no paralelismo em clusters multiprocessados. Os métodos paralelizados nesse trabalho são o Gradiente Conjugação (GC) e o Resíduo Mínmo Generalizado (GMRES), quepodem ser adotados, respectivamente, para solução de sistemas de equações lineares sintéticos positivos e definidos e não simétricas. Tais sistemas surgem da discretização, por exemplo, dos modelos da hidrodinâmica e do transporte de massa que estão sendo desenvolvidos no GMCPAD. A utilização desses métodos é justificada pelo fato de serem métodos iterativos, o que os torna adequados à solução de sistemas de equações esparsas e de grande porte. Na solução desses sistemas através desses métodos iterativos paralelizados faz-se necessário o particionamento do domínio do problema, o qual deve ser feito visando um bom balanceamento de carga e minimização das fronteiras entre os sub-domínios. A estrutura de dados desenvolvida para os métodos paralelizados nesse trabalho permite que eles sejam adotados para solução de sistemas de equações gerados a partir de qualquer tipo de particionamento, pois o formato de armazenamento de dados adotado supre qualquer tipo de dependência de dados. Além disso, nesse trabalho são adotadas duas estratégias de ordenação para as comunicações, estratégias essas que podem ser importantes quando se considera a portabilidade das paralelizações para máquinas interligadas por redes de interconexão com buffer de tamanho insuficiente para evitar a ocorrência de dealock. Os resultados obtidos nessa dissertação contribuem nos trabalhos do GMCPAD, pois as paralelizações são adotadas em aplicações que estão sendo desenvolvidas no grupo.
Resumo:
Esta dissertação apresenta uma metodologia de retroalimentação do ciclo de desenvolvimento de produtos, com ênfase na fase de projeto, a partir de dados obtidos em estudos de confiabilidade. A metodologia é proposta com base no escopo da norma QS-9000, norma esta que vem sendo utilizada por fornecedores e sub-fornecedores da indústria automobilística no mundo inteiro. Um estudo de caso permitiu que a metodologia fosse implementada em uma empresa certificada na norma. São aplicadas retroalimentações em ferramentas como Desdobramento da Função Qualidade (QFD), Análise dos Modos e Efeitos de Falha de Produto (DFMEA) e de Processo (PFMEA). Os resultados obtidos demonstraram que a metodologia de retroalimentação proposta é uma ferramenta útil na maturação de um produto, através da utilização dos dados de falhas em campo, bem como no momento do desenvolvimento de um produto novo, que irá suceder o atual, através da utilização da voz do cliente e dos dados de falha em campo de forma ordenada.
Resumo:
A capacidade de encontrar e aprender as melhores trajetórias que levam a um determinado objetivo proposto num ambiente e uma característica comum a maioria dos organismos que se movimentam. Dentre outras, essa e uma das capacidades que têm sido bastante estudadas nas ultimas décadas. Uma consequência direta deste estudo e a sua aplicação em sistemas artificiais capazes de se movimentar de maneira inteligente nos mais variados tipos de ambientes. Neste trabalho, realizamos uma abordagem múltipla do problema, onde procuramos estabelecer nexos entre modelos fisiológicos, baseados no conhecimento biológico disponível, e modelos de âmbito mais prático, como aqueles existentes na área da ciência da computação, mais especificamente da robótica. Os modelos estudados foram o aprendizado biológico baseado em células de posição e o método das funções potencias para planejamento de trajetórias. O objetivo nosso era unificar as duas idéias num formalismo de redes neurais. O processo de aprendizado de trajetórias pode ser simplificado e equacionado em um modelo matemático que pode ser utilizado no projeto de sistemas de navegação autônomos. Analisando o modelo de Blum e Abbott para navegação com células de posição, mostramos que o problema pode ser formulado como uma problema de aprendizado não-supervisionado onde a estatística de movimentação no meio passa ser o ingrediente principal. Demonstramos também que a probabilidade de ocupação de um determinado ponto no ambiente pode ser visto como um potencial que tem a propriedade de não apresentar mínimos locais, o que o torna equivalente ao potencial usado em técnicas de robótica como a das funções potencias. Formas de otimização do aprendizado no contexto deste modelo foram investigadas. No âmbito do armazenamento de múltiplos mapas de navegação, mostramos que e possível projetar uma rede neural capaz de armazenar e recuperar mapas navegacionais para diferentes ambientes usando o fato que um mapa de navegação pode ser descrito como o gradiente de uma função harmônica. A grande vantagem desta abordagem e que, apesar do baixo número de sinapses, o desempenho da rede e muito bom. Finalmente, estudamos a forma de um potencial que minimiza o tempo necessário para alcançar um objetivo proposto no ambiente. Para isso propomos o problema de navegação de um robô como sendo uma partícula difundindo em uma superfície potencial com um único ponto de mínimo. O nível de erro deste sistema pode ser modelado como uma temperatura. Os resultados mostram que superfície potencial tem uma estrutura ramificada.
Resumo:
Atualmente, o desenho urbano tem sido realizado dentro de um âmbito restrito do conhecimento. Este não tem considerado aspectos de drenagem da água que trazem grandes transtornos e custos para a sociedade e o ambiente. O desenvolvimento urbano brasileiro tem produzido um aumento significativo na freqüência de inundações, na produção de sedimentos e na deterioração da qualidade da água. Tal situação é decorrente, na maioria dos casos, da ocupação intensiva do solo urbano. Assim, essa abordagem demonstra, inicialmente, uma visão sobre o desenho urbano e suas interfaces; particularmente as relacionadas com a geografia, o ambiente natural e o construído. Na seqüência, pretendendo atingir o enfoque interdisciplinar, aponta vínculos entre o desenho urbano e a hidrologia através de uma análise ambiental de bairros dos municípios de Porto Alegre e Lindolfo Collor, de modo a identificar relações com a utilização de uma variável - a superfície impermeável, procurando descrever o comportamento ambiental de bacias hidrográficas urbanizadas bem como mostrar a necessidade da reserva de área para armazenar água no início do crescimento urbano. Finalizando, apresenta os principais parâmetros ou características de desenho que deverão garantir a sustentabilidade urbana e hidrológica. Apesar de prematuro, pode-se afirmar que existem indícios para que a dissertação venha suprir algumas deficiências existentes no planejamento urbano-ambientalatualmente adotado.
Resumo:
A rápida expansão da Internet vem trazendo conseqüências substanciais para a sociedade, na forma como as pessoas se relacionam, estudam, trabalham, adquirem e consomem produtos e serviços. Para as empresas é inquestionável a importância da adequação deste novo meio aos seus compostos de marketing, principalmente no sentido de estabelecer um canal de comunicação que possa conectá-las ainda mais aos seus clientes. Porém, para que esta aproximação ocorra, é necessário que sejam conhecidos os desejos e valores que norteiam e influenciam o processo de compra do consumidor online. Esta dissertação busca, justamente, uma aproximação entre estas duas questões: por um lado, as iniciativas de marketing das empresas, por meio de seus Web sites; por outro, os valores que influenciam o comportamento dos consumidores virtuais. O objetivo consiste em comparar as ações de marketing realizadas pelas empresas, por meio de seus Web sites, com o valor para o cliente manifestado pelos consumidores. Para atingir tal objetivo, optou-se por um estudo com múltiplas fontes de coletas de dados e triangulação de dados na análise. Primeiramente, foram realizadas entrevistas pessoais, individuais e em profundidade com 05 (cinco) consumidores de Internet, visando identificar os valores subjetivos relacionados ao consumo no ambiente online. Nesta fase da pesquisa foi utilizado o Modelo de Valor para o Cliente de Woodruff e Gardial (1996). Em seguida, foram analisados Web sites de empresas, a fim de detectar a coerência existente entre os pontos considerados de valor pelos consumidores e as estratégias e ações efetivamente implementadas pelas empresas. Optou-se pela utilização do modelo de Ho (1997), cujo trabalho propõe um método de avaliação de Web sites a partir da perspectiva de valor criado para o consumidor. Os resultados demonstraram que, apesar do crescimento da Internet, alguns desses valores ainda estão latentes, com pouca ou nenhuma iniciativa das empresas no sentido de supri-los.
Resumo:
O traçado de obras com características lineares num espaço geográfico tem, em princípio, um número muito grande de soluções. A seleção de traçados mais convenientes é hoje abordada pela Pesquisa Operacional por meio da Programação Dinâmica tradicional e das técnicas para resolver o problema conhecido como leastcost- path, (caminho de mínimo custo). Por sua vez, o planejamento de espaços geográficos é feito com o auxílio de técnicas de SIG (sistemas de informação geográfica). O estudo algorítmico dos caminhos de mínimo custo não é novidade e até os programas comerciais para SIG mais utilizados têm incorporado comandos que, com certas limitações, resolvem esse problema. Mas, seja qual for a abordagem, sempre é preciso conhecer a priori a funçãoobjetivo (FO), e isto não é tarefa fácil, pois devem ser conjugados objetivos de satisfação de necessidades sociais, políticas, ambientais e econômicas, o que gera um verdadeiro problema de otimização multiobjetivo e multicritério. Este trabalho teve como foco principal elaborar um modelo de decisão para ajudar na formulação da FO, adotando o paradigma multiobjetivo/multicritério, explorando inclusive o relaxamento difuso de pareceres dos decisores. Foram utilizadas apenas ferramentas computacionais (software e hardware) simples, de ampla difusão entre os engenheiros e de baixo custo, como a planilha de cálculo Excel e o programa Idrisi 32, procurando explorar suas aptidões e limitações, sem recorrer à elaboração e/ou utilização de códigos computacionais próprios, sobre os quais muitas pessoas sentem receios até não serem testados suficientemente. Foi obtido um sistema de apoio à decisão eficaz e de fácil utilização e sua possibilidade de aplicação foi testada na definição do traçado ótimo de parte da defesa norte da cidade de Resistencia (Argentina).