91 resultados para confiabilidade
Resumo:
A tecnologia de workflow vem apresentando um grande crescimento nos últimos anos. Os Workflow Management Systems (WfMS) ou Sistemas de Gerenciamento de Workflow oferecem uma abordagem sistemática para uniformizar, automatizar e gerenciar os processos de negócios. Esta tecnologia requer técnicas de engenharia de software que facilitem a construção desse tipo de sistema. Há muito vem se formando uma consciência em engenharia de software de que para a obtenção de produtos com alta qualidade e que sejam economicamente viáveis torna-se necessário um conjunto sistemático de processos, técnicas e ferramentas. A reutilização está entre as técnicas mais relevantes desse conjunto. Parte-se do princípio que, reutilizando partes bem especificadas, desenvolvidas e testadas, pode-se construir software em menor tempo e com maior confiabilidade. Muitas técnicas que favorecem a reutilização têm sido propostas ao longo dos últimos anos. Entre estas técnicas estão: engenharia de domínio, frameworks, padrões, arquitetura de software e desenvolvimento baseado em componentes. Porém, o que falta nesse contexto é uma maneira sistemática e previsível de realizar a reutilização. Assim, o enfoque de linha de produto de software surge como uma proposta sistemática de desenvolvimento de software, baseada em uma família de produtos que compartilham um conjunto gerenciado de características entre seus principais artefatos. Estes artefatos incluem uma arquitetura base e um conjunto de componentes comuns para preencher esta arquitetura. O projeto de uma arquitetura para uma família de produtos deve considerar as semelhanças e variabilidades entre os produtos desta família. Esta dissertação apresenta uma proposta de arquitetura de linha de produto para sistemas de gerenciamento de workflow. Esta arquitetura pode ser usada para facilitar o processo de produção de diferentes sistemas de gerenciamento de workflow que possuem características comuns, mas que também possuam aspectos diferentes de acordo com as necessidades da indústria. O desenvolvimento da arquitetura proposta tomou como base a arquitetura genérica e o modelo de referência da Workflow Management Coalition (WfMC) e o padrão de arquitetura Process Manager desenvolvido no contexto do projeto ExPSEE1. O processo de desenvolvimento da arquitetura seguiu o processo sugerido pelo Catalysis com algumas modificações para representar variabilidade. A arquitetura proposta foi descrita e simulada através da ADL (Architecture Description Language) Rapide. A principal contribuição deste trabalho é uma arquitetura de linha de produto para sistemas de gerenciamento de workflow. Pode-se destacar também contribuições para uma proposta de sistematização de um processo de desenvolvimento de arquitetura de linha de produto e também um melhor entendimento dos conceitos e abordagens relacionados à prática de linha de produto, uma vez que esta tecnologia é recente e vem sendo largamente aplicada nas empresas.
Resumo:
A computação de tempo real é uma das áreas mais desafiadoras e de maior demanda tecnológica da atualidade. Está diretamente ligada a aplicações que envolvem índices críticos de confiabilidade e segurança. Estas características, inerentes a esta área da computação, vêm contribuindo para o aumento da complexidade dos sistemas tempo real e seu conseqüente desenvolvimento. Isto fez com que mecanismos para facilitar especificação, delimitação e solução de problemas passem a ser itens importantes para tais aplicações. Este trabalho propõe mecanismos para atuarem no desenvolvimento de sistemas de tempo real, com o objetivo de serem empregados como ferramenta de apoio no problema da verificação de presença de inconsistências, que podem vir a ocorrer nos vários modelos gerados partir da notação da linguagem de modelagem gráfica para sistemas de tempo real - UML-RT(Unified Modeling Language for Real Time). Estes mecanismos foram projetados através da construção de um metamodelo dos conceitos presentes nos diagramas de classe, de objetos, de seqüência, de colaboração e de estados. Para construir o metamodelo, utiliza-se a notação do diagrama de classes da UML (Unified Modeling Language). Contudo, por intermédio das representações gráficas do diagrama de classes não é possível descrever toda a semântica presente em tais diagramas. Assim, regras descritas em linguagem de modelagem OCL (Object Constraint Language) são utilizadas como um formalismo adicional ao metamodelo. Com estas descrições em OCL será possível a diminuição das possíveis ambigüidades e inconsistências, além de complementar as limitações impostas pelo caráter gráfico da UML. O metamodelo projetado é mapeado para um modelo Entidade&Relacionamento. A partir deste modelo, são gerados os scripts DDL (Data Definition Language) que serão usados na criação do dicionário de dados, no banco de dados Oracle. As descrições semânticas escritas através de regras em OCL são mapeadas para triggers, que disparam no momento em que o dicionário de dados é manipulado. O MET Editor do SiMOO-RT é a ferramenta diagramática que faz o povoamento dos dados no dicionário de dados. SiMOO-RT é uma ferramenta orientada a objetos para a modelagem, simulação e geração automática de código para sistemas de tempo real.
Resumo:
A forte pressão do mercado pela contratação de melhores serviços faz com que as empresas busquem tornar-se cada vez mais competitivas; portanto, em uma doutrina voltada à competitividade, as empresas obrigam-se a tratar as questões relacionadas às estratégias de Produção e Operações como fator prioritário para competir. Esta pesquisa propôs-se a estudar o mercado de construção de obras de rede de distribuição de energia elétrica. Inicialmente foram identificados os graus de importância para o cliente, com relação a determinados critérios competitivos. Logo após, foram identificados o desempenho das empresas para os mesmos critérios. Finalmente, por meio da Matriz Importância x Desempenho, avaliou-se a adequação entre o grau de importância para o cliente e o desempenho das empresas fornecedoras. As empresas selecionadas para esta pesquisa exploratória são: 1) cliente: Companhia Paranaense de Energia – COPEL, e 2) fornecedoras: empresas da região metropolitana de Curitiba/PR, com cadastro tipo “A” na COPEL. O resultado demonstrou haver, por parte do cliente, um equilíbrio com relação ao grau de importância nas dimensões competitivas qualidade, velocidade, confiabilidade, flexibilidade, custo e inovação. Com relação às empresas fornecedoras foi possível verificar que a grande maioria dos critérios competitivos se situou na “zona de melhoramento” da Matriz Importância x Desempenho.
Resumo:
Atualmente, a necessidade de reabilitação estrutural tem se tornado cada vez mais freqüente. Desde o advento do concreto, diversas metodologias de reabilitação estrutural vêm sendo desenvolvidas e aplicadas; e têm tornado-se cada vez mais sofisticadas. A aplicação de compósitos de fibra de carbono no reforço de estruturas de concreto armado, representa o que há de mais moderno neste importante segmento da engenharia estrutural. Apesar das inúmeras vantagens de sua aplicação, a incorporação de um material, até então estranho ao meio da engenharia estrutural convencional, tem merecido especial atenção por parte dos pesquisadores envolvidos neste segmento. Este estudo tem por objetivo, portanto, explorar as principais implicações estruturais da aplicação dos compósitos de fibra de carbono no reforço externo de vigas de concreto armado. Para tanto, tornou-se necessária a implementação de um amplo programa de investigação, fundamentalmente experimental, baseada na realização de ensaios de flexão em vigas de concreto armado, reforçadas à flexão e ao cisalhamento, com dois tipos de sistemas de reforço. De modo a permitir uma análise ampla das evidências experimentais alcançadas através da condução do programa experimental, realizou-se uma profunda revisão da literatura disponível acerca do assunto. O programa experimental foi dividido em dois grupos O primeiro, composto por 14 vigas, reforçadas à flexão e o segundo, composto por 30 vigas, reforçadas ao cisalhamento. Em ambos os grupos, empregaram-se dois tipos de sistema de reforço (laminados pré-fabricados e mantas flexíveis pré-impregnadas). O procedimento de ensaio, idealizado e implementado especialmente para a condução do programa experimental da presente tese, foi totalmente controlado por computador, conferindo, assim, maior confiabilidade aos ensaios. Em cada um dos grupos, analisaram-se, além dos modos e cargas de ruptura, deformações específicas, deslocamentos e distribuição de tensões. Finalmente, estes resultados são discutidos e avaliam-se modelos analíticos que permitam simular o comportamento destas estruturas.
Resumo:
Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.
Resumo:
A melhoria nos sistemas de manutenção é cada dia mais importante para o aprimoramento das atividades de uma empresa, tanto na área de produção como em outros setores. Pode-se afirmar, então, que uma boa sistemática de manutenção colabora para que a empresa cumpra suas funções em relação à confiabilidade, flexibilidade, rapidez, qualidade, mantendo custos competitivos. O presente trabalho analisa, de acordo com um prisma teórico e prático, um esforço de implantação da Manutenção Produtiva Total (TPM-“Total Productive Maintenance”). Ele tem como principal objetivo descrever e discutir a implantação da TPM em uma empresa fabricante de massas e biscoitos. Em um primeiro momento, a implantação aconteceu em uma linha piloto. O ponto de partida foi a apresentação da TPM com seus passos para implantação e pilares que sustentam esta ferramenta. Na seqüência, descreve-se como aconteceu a implantação desta sistemática na linha piloto da empresa, discutindo as dificuldades, vantagens e desvantagens percebidas. As conclusões do trabalho apontam para resultados percebidos na linha piloto, onde a implantação ocorreu, possibilitando a percepção de melhorias para a empresa e para seus colaboradores. Foram observadas melhorias tanto no que concerne à manutenção dos equipamentos quanto ao envolvimento das pessoas em todo o processo.
Resumo:
A separação/remoção de óleos emulsificados em água foi estudada, utilizando um novo processo baseado nas técnicas de floculação pneumática em linha, seguida de separação por flotação (denominado de processo de Floculação-Flotação ou processo FF). A primeira etapa do estudo foi o projeto, construção e montagem de um sistema piloto de geração de emulsões, floculação pneumática em linha e de separação por flotação, instalado no Laboratório de Águas Oleosas, na Refinaria Alberto Pasqualini (REFAP S.A.), Canoas-RS. Após esta etapa, foram realizados estudos utilizando água oleosa sintética, visando caracterizar e otimizar os principais parâmetros da floculação pneumática, fase determinante no processo FF. Os resultados mostraram que a melhor eficiência, 93 %, foi obtida quando da utilização de um floculador tipo serpentina de 20 elementos de mistura (MS-20), uma concentração de 2 mg/L de floculante (PVA) e uma vazão de ar de 40 L/min. Esta eficiência correspondeu a uma concentração residual de óleo na água tratada de 10 mg/L. Foi demonstrado ainda que, independentemente do tipo de floculador e da vazão de água oleosa, a remoção de óleo é determinada pela perda de carga resultante da injeção de ar antes do floculador. No estudo do tratamento do efluente oleoso proveniente da saída do separador PPI (REFAP S.A.), os melhores resultados foram obtidos utilizando-se o Mafloc-489 (floculante catiônico de alto peso molecular), em uma concentração de 6 mg/L, proporcionando uma concentração residual de óleo no efluente tratado de 8 mg/L (91 % de remoção) O processo de Floculação-Flotação estudado, demonstrou ser também eficiente na remoção de outros poluentes do efluente, além do óleo. Nas melhores condições operacionais, foram removidos 87 % da turbidez, 90 % dos sólidos suspensos, 91 % do óleo e 56 % da demanda química de oxigênio (DQO), proporcionando, em apenas uma etapa de tratamento, um efluente tratado com níveis de poluentes analisados abaixo do padrão exigido pelo órgão ambiental Estadual (FEPAM). Os principais mecanismos envolvidos no processo FF estão relacionados com a irreversibilidade na adsorção do polímero sob turbulência e a conformação deste na interface óleo/água/ar. O alto grau de cisalhamento, resultado dos fluxos volumétricos de ar e água, e a maior “insolubilidade” (precipitação) do polímero na interface ar/água, facilitam a geração de grandes flocos aerados de estrutura fibrosa. Esses resultados e outros obtidos com diferentes efluentes reais e suspensões sólidas mostraram que o processo FF possui um elevado potencial como nova operação unitária de separação líquido1/líquido2, sólido/líquido ou sólido/líquido1/líquido2. As principais vantagens do FF são os baixos custos envolvidos (investimento e operacional), a simplicidade dos elementos construtivos (compactos), a confiabilidade nos resultados e sua elevada capacidade de tratamento (> 60 m3/m2/h).
Resumo:
Recentes terremotos e furacões mostraram quão vulneráveis são as estruturas às forças da natureza. Ainda em países desenvolvidos, existe alto risco a desastres naturais. Portanto, um dos principais desafios da Engenharia é a prevenção de desastres mediante o desenvolvimento de conceitos inovadores de projeto, para proteger eficientemente as estruturas, seus moradores e o conteúdo, dos efeitos destrutivos das forças ambientais. O tradicional procedimento de projeto de construções para prevenir falhas catastróficas é baseado na combinação de resistência e capacidade de deformação (ductilidade). Solicitações de baixos níveis provocadas por ventos ou sismos são freqüentemente idealizados com cargas laterais que devem ser resistidas só pela ação elástica da estrutura, enquanto que, em eventos moderados ou severos permite-se certos níveis de dano estrutural e não estrutural, mas não, colapso da mesma. Esta filosofia proporcionou a base da maioria dos códigos de construção (fundados em métodos estáticos equivalentes) desde princípios do século, com resultados satisfatórios. No entanto, a partir do estudo das características dinâmicas das estruturas surgem novos e diversos conceitos de proteção dos sistemas estruturais que tem sido desenvolvidos e ainda estão em expansão, entre os quais pode-se citar a dissipação de energia externa. Esta nova tecnologia consiste em incorporar na estrutura, elementos projetados especificamente para dissipar energia. Com isto, logra-se reduzir as deformações nos membros estruturais primários e portanto, diminui-se a demandada de ductilidade e o possível dano estrutural, garantindo uma maior segurança e vida útil da estrutura Graças a recentes esforços e ao particular interesse da comunidade científica internacional, estudos teóricos e experimentais têm sido desenvolvidos durante a última década com resultados surpreendentes. Hoje já existem sistemas de dissipação de energia aplicados com sucesso em países como Estados Unidos, Itália, Nova Zelândia, Japão e México. Recentemente este campo está-se estendendo na América do Sul. Dentro deste contexto, considerando o beneficio econômico e o melhor desempenho estrutural que implica a incorporação desta nova tecnologia, no presente trabalho abordou-se o estudo deste tipo de sistemas de proteção estrutural orientado ao uso de amortecedores metálicos. O trabalho dividiu-se em três partes principais: a) Projetar e construir um amortecedor metálico que usa as excelentes propriedades do chumbo para dissipar energia. b) Desenvolvimento de metodologias de análise e projeto de estruturas que incorporam amortecimento suplementar a fim de melhorar o seu desempenho estrutural. c) Avaliação da eficiência de sistemas externos de dissipação de energia em estruturas. A primeira parte consistiu em projetar e construir um amortecedor metálico para logo submetê-lo a numerosos testes com diferentes níveis de amplitude de deslocamento e freqüência a fim de avaliar suas propriedades mecânicas e desempenho. Os resultados são considerados altamente satisfatórios. Na segunda parte foram desenvolvidas ferramentas computacionais para pesquisa e docência na área da mecânica estrutural mediante as quais é possível simular o comportamento linear e não linear de estruturas que incorporam amortecimento suplementar Finalmente, apresenta-se um procedimento robusto para avaliar a eficiência dos sistemas dissipadores de energia baseado numa análise da confiabilidade estrutural. Através de vários exemplos com estruturas reais e teóricas se atingem os objetivos traçados no presente trabalho.
Resumo:
A busca de maior precisão nos dados hidrológicos é de fundamental importância no sentido de minimizar as incertezas inerentes aos mesmos e, conseqüentemente, aos estudos e projetos que os têm como base. A curva-chave, ferramenta importante na conversão de dados de cota em vazão, carece de estudos no sentido de aumentar a confiabilidade na sua calibragem e principalmente na sua extrapolação inferior e superior. O objetivo deste trabalho é avaliar os métodos tradicionais de extrapolação superior da curva-chave, a saber: Stevens, Logarítmico, Manning e Velocidade-Área, além de duas variações propostas para os dois últimos (Manning Log e VxA Log). Para tal foram utilizadas 100 estações fluviométricas, a partir de uma metodologia proposta e denominada de Pseudo- Extrapolação. Nesta metodologia, suprimem-se as medições na metade superior da faixa de cotas medidas e extrapola-se a curva-chave nesta faixa utilizando-se os métodos escolhidos. As vazões geradas nesta 'extrapolação' são comparadas com as da curva-chave calibrada para o total das medições. Os resultados mostraram que a metodologia de pseudo-extrapolação proposta é uma ferramenta válida para comparação entre métodos de extrapolação, até onde as características da seção transversal na faixa extrapolada sejam semelhantes às da faixa de pseudoextrapolação. Em relação aos métodos de extrapolação avaliados verificou-se que os métodos de Stevens e Manning Log mostraram resultados ligeiramente melhores que os demais e o método Logarítmico, apesar da inconstância nos erros calculados, mostrou-se como uma opção que deve ser admitida num estudo de extrapolação de curvas-chave. Além disso, as variações propostas, Manning Log e VxA Log, apresentaram resultados que merecem uma investigação mais profunda.
Resumo:
O estudo do envolvimento do consumidor representa um dos tópicos mais importantes de pesquisa para aqueles que visam entender a forma como os seres humanos realizam suas decisões de compra. O envolvimento determina a quantidade de esforços empregados no processo de tomada de decisão, e apresenta importantes implicações tanto para o âmbito acadêmico quanto para o meio gerencial. No que diz respeito ao ambiente brasileiro, no entanto, foram poucos os trabalhos que se dedicaram exclusivamente a esse tema, não havendo, até o início desta pesquisa, nenhuma escala para mensuração de envolvimento validada para este cenário. O objetivo deste estudo é a avaliação da aplicabilidade da escala de Jain & Srinivasan (1990) na cidade de Porto Alegre. Tal escala, denominada New Involvement Profile (NIP), pode ser utilizada para mensuração do envolvimento de consumidores com diferentes categorias de produtos. Para esta pesquisa, mensurou-se o envolvimento com relação aos produtos cerveja, chocolate, corte de cabelo, CD, aparelho de televisão, detergente, shampoo e pilha. A escala NIP foi reaplicada a uma amostra de 420 (quatrocentos e vinte) respondentes em diversos bairros desta cidade. A qualidade e a robustez da escala de Jain & Srinivasan (1990) foram comprovadas através de testes de confiabilidade e verificações da validade de conteúdo e de constructo, englobando validade convergente e discriminante de cada dimensão da escala. Tal avaliação foi complementada a partir da relação existente entre os níveis de envolvimento encontrados e os pressupostos teóricos acerca desse conceito – tipos e determinates, bem como da comparação entre esses níveis e aqueles obtidos pelos mesmos produtos em estudos semelhantes.
Resumo:
O setor sucroalcooleiro apresenta dois períodos distintos em sua história. O primeiro é a fase onde o Governo ditava as leis de comercialização, estoque e preço de venda. Aos produtores de açúcar e álcool competia apenas produzir. O segundo período iniciou-se na década de 90, onde o Governo saiu de cena deixando que o setor funcionasse em livre mercado. Este estudo buscou resgatar estes dois períodos e identificar quais as mudanças ocorridas referentes às dimensões competitivas da produção nas usinas produtoras de açúcar e álcool do estado do Paraná, antes e depois da desregulamentação do setor. Através de um estudo preliminar das dimensões competitivas da produção (custos, qualidade, confiabilidade, flexibilidade e inovatividade), buscou-se a elas uma aplicabilidade nas usinas produtoras de açúcar e álcool no Estado do Paraná. A coleta de dados primários envolveu duas fases. Na primeira, a investigação valeu-se de entrevistas a autoridades de entidades de classe para a formulação de um questionário a fim de caracterizar de maneira coerente quais as variáveis das dimensões competitivas que são pertinentes ao presente estudo. Na segunda fase, o assunto foi abordado através de entrevistas a 15 das 16 usinas produtoras simultaneamente de álcool e açúcar. Através de análise de conteúdo foram mensuradas percentualmente as mudanças nas dimensões competitivas sofridas com a desregulamentação do setor. Em linhas gerais, os resultados revelaram que a dimensão custos apresentou uma maior mudança com 50,37% ao excluir as variáveis que obtiveram mudanças devido a saída do Governo do mercado. Seguido pela dimensão qualidade, com 44,44%, flexibilidade com 43,33%, inovatividade com 29,52% e confiabilidade com 13,33%.
Resumo:
O principal objetivo deste trabalho é apresentar um método e métricas para a avaliação do serviço Internet mais amplamente utilizado: a World Wide Web. As características básicas e funcionamento do serviço, bem como algumas ferramentas de avaliação de desempenho, serão descritas. Estes capítulos servirão de base para os demais, onde serão apresentados o método para avaliação do serviço web e métricas usadas para análise de desempenho, disponibilidade, confiabilidade, facilidades de administração e recursos. Por fim, o método e métricas serão aplicados na Procempa – Companhia de Processamento de Dados do Município de Porto Alegre, onde será possível verificá-los na prática. Além disto, dados importantes sobre a infra-estrutura web da Procempa serão fornecidos, os quais permitem uma análise do ambiente web atual e futuro da empresa.
Resumo:
A melhoria de produtos e processos industriais pode ser realizada utilizando-se métodos de otimização experimental. Este trabalho apresenta um método estruturado para otimização envolvendo variáveis relacionadas com qualidade, comumente utilizadas, e variáveis que descrevem a confiabilidade do produto. O interesse em particular, está em sistematizar uma forma apropriada de determinar o prazo de garantia de produtos, baseado em testes de degradação acelerados. Para atingir este propósito utiliza-se projeto de experimentos conjuntamente com técnicas de avaliação sensorial, utilizada para medir o grau de degradação das amostras provindas dos testes de confiabilidade acelerados. O método é ilustrado com um estudo de caso realizado num produto fabricado em injeção de plástico. No exemplo do estudo de caso, deseja-se modelar a garantia de um piso plástico utilizado, na maternidade, para criação de suínos. Até o momento da realização da análise ocorriam reclamações de problemas com o produto dentro do prazo e garantia. O principal problema era a delaminação do produto devida a intensa fucção entre os cascos do animal e o piso. Um número elevado de reclamações durante o prazo de garantia levou ao desenvolvimento de uma nova composição do piso; o método proposto aqui é utilizado para determinar um prazo de garantia apropriado para produtos novos.
Resumo:
O desenvolvimento de protocolos distribuídos é uma tarefa complexa. Em sistemas tolerantes a falhas, a elaboração de mecanismos para detectar e mascarar defeitos representam grande parte do esforço de desenvolvimento. A técnica de simulação pode auxiliar significativamente nessa tarefa. Entretanto, existe uma carência de ferramentas de simulação para investigação de protocolos distribuídos em cenários com defeitos, particularmente com suporte a experimentos em configurações “típicas” da Internet. O objetivo deste trabalho é investigar o uso do simulador de redes NS (Network Simulator) como ambiente para simulação de sistemas distribuídos, particularmente em cenários sujeitos à ocorrência de defeitos. O NS é um simulador de redes multi-protocolos, que tem código aberto e pode ser estendido. Embora seja uma ferramenta destinada ao estudo de redes de computadores, o ajuste adequado de parâmetros e exploração de características permitiu utilizá-lo para simular defeitos em um sistema distribuído. Para isso, desenvolveu-se dois modelos de sistemas distribuídos que podem ser implementados no NS, dependendo do protocolo de transporte utilizado: um baseado em TCP e o outro baseado em UDP. Também, foram estudadas formas de modelar defeitos através do simulador. Para a simulação de defeito de colapso em um nodo, foi proposta a implementação de um método na classe de cada aplicação na qual se deseja simular defeitos. Para ilustrar como os modelos de sistemas distribuídos e de defeitos propostos podem ser utilizados, foram implementados diversos algoritmos distribuídos em sistemas síncronos e assíncronos. Algoritmos de eleição e o protocolo Primário-Backup são exemplos dessas implementações. A partir desses algoritmos, principalmente do Primário-Backup, no qual a simulação de defeitos foi realizada, foi possível constatar que o NS pode ser uma ferramenta de grande auxílio no desenvolvimento de novas técnicas de Tolerância a Falhas. Portanto, o NS pode ser estendido possibilitando que, com a utilização dos modelos apresentados nesse trabalho, simule-se defeitos em um sistema distribuído.
Resumo:
Esta dissertação apresenta o desenvolvimento de uma nova escala para mensuração de simbolismo no comportamento do consumidor. Através de uma vasta revisão de literatura, o construto simbolismo foi delimitado dentro do escopo teórico da disciplina de comportamento do consumidor. Suas origens na psicanálise e na semiótica foram especificadas, além de outras vertentes teóricas indispensáveis para a compreensão da pesquisa, como brand equity e a evolução da pesquisa em comportamento do consumidor. Delineado o construto e detectada a ausência de uma escala que o mensurasse adequadamente e em todas as suas dimensões, foi desenvolvida, seguindo o paradigma de Churchill (1979) para o desenvolvimento de novas escalas, uma nova escala para mensurar simbolismo de marca. Coletados os dados e refinadas as variáveis que compõem a escala, chegouse a uma versão final da nova escala que, testada, apresenta índices de confiabilidade e validade aceitáveis para o estudo exploratório desenvolvido. Apresenta-se, como resultado do trabalho, além da nova escala, composta de 21 itens e quatro dimensões, um modelo de simbolismo no comportamento do consumidor. Discute-se, também, as implicações teóricas e gerenciais da escala e do modelo para o avanço dos estudos de simbolismo no comportamento do consumidor.