128 resultados para Falha de equipamento
Resumo:
O desenvolvimento tecnológico, aliado à grande competitividade do mercado em escala mundial, tem como conseqüências diretas a elevação dos padrões de consumo e o aumento da diversidade de opções de compra por parte dos consumidores. Desta forma as empresas têm se empenhado em desenvolver sistemas de gestão robustos, porém flexíveis, que lhes proporcionem produzir bens de melhor qualidade, com diferenciais em relação aos concorrentes. A confiabilidade de um produto apresenta, sob diferentes aspectos, impacto na satisfação do consumidor, resultando como fator fundamental na decisão de compra. Além disso, as empresas têm procurado desenvolver mecanismos que propiciem criar um canal de relacionamento mais amplo junto aos seus consumidores, utilizando-se dos programas de fidelidade que têm como uma das suas principais ferramentas a extensão da garantia de produtos. Para implementar um programa de extensão de garantia, a empresa deve estar produzindo com alto nível de confiabilidade e estar em acompanhamento contínuo do desempenho destes produtos no campo. Este acompanhamento pode ser feito a partir dos dados de falha dos produtos em garantia, que possibilitam estabelecer indicadores de performance e avaliar custos relacionados às não-conformidades observadas. Este trabalho propõe, a partir de um estudo de caso, realizar a modelagem para análise da confiabilidade de um produto refrigerador freezer, com o objetivo de identificar a distribuição das falhas e estimar a confiabilidade do produto para um período de 2 (dois) anos de uso, possibilitando assim à empresa estabelecer os custos adicionais com a extensão da garantia do produto que atualmente é de 1 (um) ano. O estudo foi delineado em duas alternativas de modelagem, sendo a primeira através da adequação, estimação e simulação do modelo de distribuição de falhas e a segunda por meio da análise bayesiana de confiabilidade envolvendo o uso de distribuições a priori e a posteriori. Os resultados observados demonstram que apesar das técnicas serem distintas, as modelagens convergiram para estimativas similares e qualitativamente coerentes com os pressupostos estabelecidos pela empresa pesquisada.
Resumo:
Este trabalho trata da utilização de protocolos de comunicação de grupo para a disseminação de escritas em arquivos replicados. A replicação de arquivos tem como objetivo aumentar a disponibilidade dos dados mesmo mediante a ocorrência de alguma falha. Existem duas abordagens principais para a replicação de arquivos: a da cópia primária e das cópias ativas. Em ambas as abordagens é necessário que seja mantida a integridade dos dados replicados, de forma que todos cópias dos arquivos replicados estejam no mesmo estado. Essa integridade pode ser mantida pela escolha correta de uma estratégia de disseminação de escritas. Como os servidores que mantém cópias do mesmo arquivo formam um grupo de replicação, a disseminação de escritas pode ser feita através de comunicação de grupos. Neste trabalho são apresentados os sistemas de comunicação de grupo xAMp, da Universidade de Lisboa; Totem, Universidade da Califórnia; Transis da Universidade de Hebréia de Jerusalém; Horus, da Universidade de Cornell e Newtop da Universidade de Newcastle. Todos os sistemas descritos possuem características de comunicação de grupo e membership que permitem a sua utilização na disseminação de escritas para arquivos replicados. Este trabalho descreve, também, o protótipo PDERM (Protótipo para a Disseminação de Escritas em arquivos Replicados, através de Multicast), implementado para analisar o comportamento de um sistema de comunicação de grupo, o xAMp, na disseminação de escritas em arquivos replicados pela estratégia da cópia primária. Foi analisado o aspecto da manutenção da integridade das réplicas mesmo na ocorrência de falha do servidor primário.
Resumo:
o ambiente econômico atual tem imposto desafios em atividades como atendimento de pedidos de produção, com lotes e prazos de entrega cada vez menores e garantia de inexistência de erros de qualidade e entrega. Portanto, se faz imperativo um tratamento diferenciado da manutenção dos equipamentos, exigindo o uso de tecnologias que permitam, através da minimização dos tempos envolvidos em reparos, avanços contínuos na direção de "zero-quebra" e "zero-defeito". Embora a busca sempre deva ser de eliminar paradas por quebra, atacando suas causas na raiz, através de ações de melhoramento contínuo das condições das máquinas e instalações, estas ainda persistem. Seja por falta de recursos para a implantação das ações técnicas necessárias ou pela inviabilidade econômica desta implantação, as intervenções corretivas, que em quase sua totalidade estão estruturadas com base na experiência individual dos profissionais da área, continuam sendo requeridas. A empresa fica então na dependência da correta avaliação de profissionais especialistas, os quais são também suscetíveis a erros de diagnóstico, o que coloca em risco a continuidade das operações fabris. Este trabalho revisa o conceito de TPM (Total Productive Management ou Gestão Produtiva Total) aplicado a organizações, processos produtivos e resultados potenciais tangíveis e intangíveis de sua aplicação. A manutenção planejada, um dos pilares do TPM onde são focalizadas as intervenções por quebra-máquina, descreve as divisões de atividades em uma intervenção de conserto. Neste ponto são localizadas as etapas onde o CBR (Case-Based Reasoning) ou Raciocínio Baseado em Casos, pode ser utilizado a fim de minimizar o tempo total da intervenção. Um protótipo de CBR é criado para auxiliar especialistas de manutenção durante o processo de diagnóstico de causas de quebras de máquinas. Este protótipo utiliza CBR como método para armazenamento de casos pregressos de quebras de máquina. A base de casos do CBR fornece ferramentas para recuperação e reutilização destas experiências quando da recorrência da quebra de máquina, auxiliando profissionais da manutenção a executar seu trabalho O pacote de ferramentas CBR Content Navigator, Versão 3.2 desenvolvido pela Inference CorporationTM foi utilizado como: (i) repositório para modelagem e armazenamento do banco de casos, (ii) mecanismo de recuperação (ou busca) de casos na base do sistema e, (iii) ferramentas para apresentar a solução dos problemas de quebra de máquina.
Resumo:
Para alcançar o desenvolvimento sustentável a energia tem um papel chave, sendo responsável por boa parte da poluição em todas as atividades humanas. O uso de energias renováveis é altamente desejável quando se quer reduzir ou eliminar essa poluição sem perder a oportunidade de desenvolvimento de uma atividade produtiva qualquer. No presente trabalho delimitou-se a região alvo como sendo o extremo nordeste do estado, conhecida como “Campos de cima da Serra”, a qual possui características comuns que facilitam a aplicação do estudo. Estudou-se duas alternativas que atendem as condições de sustentabilidade, por serem renováveis, e o atendimento em pequena escala, fator predominante para que se possa viabilizar pequenos empreendimentos em locais de difícil acesso e baixa densidade demográfica, características comuns da região em estudo. A utilização de resíduos em pequenas serrarias tem características e dificuldades peculiares que foram analisadas com cuidado para oferecer a melhor alternativa do ponto de vista técnico, econômico e ambiental. O conhecimento do porte, do tipo de madeira produzida e, consequentemente, do tipo de resíduo gerado, além das necessidades energéticas das empresas, é fundamental para selecionar a melhor alternativa e determinar a tecnologia mais adequada. O presente estudo mostrou que essa tecnologia é a gaseificação do resíduo e a utilização do gás produzido num motor de combustão interna. Obteve-se um gás combustível possível de ser utilizado, desde que sua limpeza seja feita adequadamente. Nas residências da região é muito comum a utilização do fogão a lenha devido ao clima frio. Ao mesmo tempo se observa que o aquecimento de água para o banho é feito com chuveiro elétrico, equipamento barato, mas de alta demanda de potência. Essa característica prejudica o abastecimento de energia elétrica da região, já com dificuldades por ser ponta de rede. Estudou-se um equipamento auxiliar que pode ser usado em conjunto com o fogão a lenha para aquecer água nas residências, liberando energia elétrica para outras cargas mais nobres e diminuindo os níveis de queda de tensão principalmente no horário de ponta. O estudo determinou a potência útil do equipamento e identificou possíveis dificuldades que devem ser evitadas. A análise das perdas mais significativas permite que se otimize o sistema a partir dos dados levantados.
Resumo:
A caracterização de desempenho e uma atividade fundamental na area de controle industrial. Por se tratar, na maior parte das vezes, de aplicações de tempo real, a caracterização de desempenho torna-se ainda mais necessária e importante. Entretanto, atualmente não há nenhuma metodologia estabelecida para realizar esta caracterização. Não há nem mesmo um conjunto de parâmetros que devem ser avaliados em um equipamento de controle utilizado em processos industriais. Para tentar suprir esta carência, este trabalho apresenta uma proposta de métricas e workloads para serem utilizados na avaliação de desempenho de sistemas de controle baseados em CLPs e CPUs Industriais. O processo de avaliação de desempenho e discutido em todas as etapas, desde o estudo da aplicação at e a execução dos passos de caracterização de desempenho. Para ilustrar a aplicação das métricas, técnicas e procedimentos propostos, são avaliadas três CPUs Industriais, e os resultados s~ao apresentados ao nal do trabalho. Espera-se assim estar contribuindo para o estabelecimento de uma metodologia padronizada para avaliação de desempenho de equipamentos de controle industrial.
Resumo:
Este trabalho trata do desenvolvimento de um equipamento de desbastamento iônico aplicado ao afinamento de amostras para análise com a técnica de microscopia eletrônica de transmissão (MET). A técnica de MET é uma das mais importantes para a caracterização da microestrutura de praticamente todas as classes de materiais sólidos. Contudo, esta técnica requer amostras suficientemente finas (espessuras típicas da ordem de 100 nm) para que os elétrons transmitidos proporcionem informação relevante da microestrutura. Com exceção do sistema de vácuo, todos os demais componentes do equipamento (fonte de íons, câmara de vácuo, fonte de alta tensão e suporte mecânico das amostras) foram construídos na UFRGS. O equipamento foi testado através da preparação de amostras de silício. As amostras obtidas apresentam áreas de observação amplas e suficientemente finas permitindo uma caracterização microestrutural detalhada mesmo com feixes de elétrons acelerados com potencial de 120 kV. Além disso, os valores de taxa de desbaste em torno de 1,5 mm/h foram obtidos em amostras bombardeadas com íons de Ar+ acelerados com um potencial de 6 kV. Tais resultados mostram que o equipamento tem uma performance semelhante a um equipamento comercial A segunda contribuição do trabalho foi a de introduzir um estudo sistemático sobre a formação de camadas amorfas e a produção de átomos auto intersticiais dentro da região cristalina das amostras de silício. Trata-se de um assunto atual pois tais efeitos ainda não são bem conhecidos. Apesar do estudo ter sido realizado em um material específico (Si), os resultados obtidos podem ser aproveitados como modelo para outros materiais. A formação de camadas amorfas foi caracterizada em função dos parâmetros: ângulo de incidência e energia do feixe de íons de Ar+ e temperatura da amostra durante a irradiação. A produção e/ou injeção de átomos auto intersticiais na região cristalina foi estudada em função do ângulo de incidência e da energia do feixe de íons. Os resultados mostram que a espessura da camada amorfa cresce com o aumento da energia e do ângulo de incidência do feixe e com a diminuição da temperatura do alvo. A taxa de produção de átomos intersticiais dentro da região cristalina apresenta um máximo para ângulos em torno de 15° independentemente da energia do feixe de íons.
Resumo:
Faz-se um estudo da construção de uma bomba de calor residencial de baixo custo utilizando um condicionador de ar do tipo janela. Com tal equipamento operando fora das condições de projeto é preciso fazer uma avaliação das novas condições de operação, onde os evaporadores passam a ser objetivo de estudo do presente trabalho. A análise foi conduzida de duas formas. Uma tomada de dados experimental, feita em duas épocas distintas do ano, nas condições mais severas de consumo, no inverno, e nas condições mais severas de temperatura, no verão. A outra, uma análise teórica, gerando dados que podem ser comparados com a literatura. Inicialmente, é feita uma avaliação do coeficiente de performance visando a competitividade do equipamento no que tange o custo operacional. Como objetivo principal é avaliada a troca de calor nos evaporadores e os parâmetros que a influenciam, bem como o comportamento do fluido refrigerante na entra e saída. Foi preciso desenvolver uma metodologia para trocadores aletados que apresentam mudança de fase já que esta não é vista com facilidade na literatura. Faz-se uso do método NUT e- , que é adaptado de forma a ser função somente dos dados psicrométricos do ar. Para a efetividade média externa e o coeficiente de convecção externo é utilizada a metodologia desenvolvida por Schmidt em 1949 Como resultados, observou-se que o coeficiente de performance fica na faixa dos equipamentos comercias (2,6 na média anual) e o custo operacional é competitivo com o uso do gás liquefeito de petróleo, em aquecedores de passagem. A efetividade do trocador e o coeficiente de convecção externo apresentam um valor baixo, atribuído a grande área de troca de calor externa. O coeficiente de contato, apresenta um valor alto se comparado ao coeficiente de convecção externo. Quanto ao fluido refrigerante, este apresenta condições normais nas saídas dos evaporadores e título baixo na entrada de um dos evaporadores. Também é observado que um dos evaporadores apresenta baixo uso efetivo, sendo o problema atribuído a baixa vazão de refrigerante.
Resumo:
Neste trabalho, foi realizado um estudo de óleos refrigerantes emulsionados utilizados em máquinas de usinagem da indústria metal-mecânica, com o objetivo de minimizar os gastos com reposição de óleo e o volume de resíduos contaminados pelo mesmo. Foram constatados três problemas principais na utilização do óleo refrigerante emulsionado em estudo: a presença de bactérias degradantes do óleo, a reposição da emulsão de maneira indevida e o arraste de óleo pelos cavacos e limalhas provenientes da própria usinagem. Como solução para estes três problemas principais, foi projetado um equipamento de controle e automação. Este protótipo é composto por três partes essenciais: tratamento bacteriológico prévio da água usada para emulsão do óleo, passagem da água de reposição através dos cavacos e limalhas e controle da concentração do óleo na emulsão. O protótipo foi instalado em um máquina de usinagem da Empresa AGCO do Brasil, sede Canoas e os resultados obtidos foram surpreendentes quanto às grandes possibilidades de minimização dos gastos com óleo refrigerante e do volume de resíduos contaminados por óleos.
Resumo:
As ações decorrentes das decisões estratégicas têm seu impacto num horizonte de tempo relativamente longo. Por vezes as decisões estratégicas são tomadas com base em análises subjetivas, ou em percepções de quem conduz a empresa. Neste trabalho procura-se identificar quais são os critérios importantes no processo de comercialização de equipamentos de refrigeração de grande porte, e saber qual o desempenho da empresa Springer Carrier nestes mesmos critérios. Foi realizada uma revisão bibliográfica buscando a identificação de atributos competitivos, a elaboração e implementação de uma pesquisa destes atributos e, por fim, a elaboração de uma Matriz Importância x Desempenho. Os resultados destacam a importância da dimensão competitiva confiabilidade. Tanto confiabilidade de entrega do equipamento, como confiabilidade de funcionamento foram destacados pelos pesquisados. Além da confiabilidade, foi salientada a importância da dimensão competitiva qualidade, pelo destaque dado ao atributo eficiência energética. Além disso, um resultado paralelo, decorrente do processo de pesquisa, traz a possibilidade de uma variação na metodologia proposta por Slack para a determinação da importância dos atributos.
Resumo:
Esta dissertação é estruturada em três partes. Na primeira, revisa-se a noção de filtro sensorial, com enfoque particular no paradigma do P50, uma técnica eletroneurofisiológica de extremo valor para a investigação da neurobiologia básica subjacente aos defeitos de processamento sensorial que caracterizam algumas doenças mentais, e mais particularmente a esquizofrenia, sobre a qual dedica-se especial interesse. Na segunda, revisa-se a hipótese, proposta recentemente por Lara e Souza (2000), de hipofunção adenosinérgica como disfunção bioquímica básica na esquizofrenia, à luz das evidências mais recentes. Na terceira, desenvolve-se um trabalho experimental original com o intuito de investigar a hipótese hipoadenosinérgica da esquizofrenia. Trata-se de um desafio farmacológico, de um ensaio clínico cruzado onde 13 voluntários hígidos foram submetidos a tratamento com teofilina (um antagonista não-seletivo dos receptores de adenosina do tipo A1 e A2A) e a placebo, em dois momentos diferentes, tendo se avaliado os seus potenciais evocados de acordo com o paradigma do P50 antes (em seu valor basal) e após o tratamento, levantando-se uma curva de efeito com base no tempo. Paralelamente, avaliaram-se 17 pacientes com diagnóstico estabelecido de esquizofrenia, clinicamente estáveis, em acompanhamento ambulatorial e em uso de medicação neuroléptica típica, com a intenção de fornecer um grupo adicional de comparação e de replicar os achados prévios de falha de supressão do componente P50 na esquizofrenia, um aspecto fundamental para demonstrar o domínio da metodologia experimental, que foi aqui empregada pela primeira vez em nosso meio. Este estudo foi capaz de mostrar que a indução de um estado transitório de hipofunção adenosinérgica em indivíduos normais, mostra perda da supressão. Em outras palavras, que déficits no processamento da informação auditiva, que não existiam nos indivíduos normais, foram provocados pela utilização de teofilina, que, bloqueando os receptores de adenosina A1 e A2A, provocou um estado hipoadenosinérgico transitório. A disfunção provocada pela teofilina foi da mesma ordem de grandeza da verificada nos pacientes com esquizofrenia. Estes resultados fornecem evidência que corroboram o modelo de hipofunção adenosinérgica para a esquizofrenia.
Resumo:
O uso da recuperação de processos para obter sistemas computacionais tolerantes a falhas não é um assunto novo. Entretanto, a discussão de algoritmos para a recuperação em sistemas distribuídos, notadamente aqueles que se enquadram na categoria assíncrona, ainda encontra pontos em aberto. Este é o contexto do presente trabalho. Este trabalho apresenta um novo algoritmo de recuperação por retorno, em sistemas distribuídos. O algoritmo proposto é do tipo coordenado, e seus mecanismos componentes determinam que seja classificado como um algoritmo baseado em índices (index-based coordinated). Desta forma, a tolerância a falhas é obtida através do estabelecimento de linhas de recuperação, o que possibilita um retorno consideravelmente rápido, em caso de falha. Seu desenvolvimento foi feito com o objetivo de minimizar o impacto ao desempenho do sistema, tanto quando este estiver operando livre de falhas como quando ocorrerem as falhas. Além disso, os mecanismos componentes do algoritmo foram escolhidos visando facilitar a futura tarefa de implementação. A satisfação dos objetivos decorre principalmente de uma importante característica assegurada pelos mecanismos propostos no algoritmo: o não bloqueio da aplicação, enquanto é estabelecida uma nova linha de recuperação. Esta característica, associada ao rápido retorno, oferece uma solução promissora, em termos de eficiência, para a recuperação, um vez que o impacto no desempenho tende a ser reduzido, quando o sistema encontra-se operando em ambas condições: livre de erros ou sob falha. Diferentemente da maioria dos algoritmos coordenados encontrados na literatura, o algoritmo proposto neste trabalho trata as mensagens perdidas. A partir da análise das características das aplicações, bem como dos canais de comunicação, quando estes interagem com o algoritmo de recuperação, concluiu-se que os procedimentos usados para recuperação de processos devem prever o tratamento desta categoria de mensagens. Assim, o algoritmo proposto foi incrementado com um mecanismo para tratamento das mensagens que têm o potencial de tornarem-se perdidas, em caso de retorno, ou seja, evita a existência de mensagens perdidas. Uma das decisões tomadas durante o desenvolvimento do algoritmo foi a de permitir um processamento não determinístico. Na realidade, esta escolha visou o aumento do espectro das falhas que poderiam ser tratadas pela recuperação. Tradicionalmente, a recuperação por retorno é empregada para tolerar falhas temporárias. Entretanto, a diversidade de ambiente, freqüente nos SDs, também pode ser usada para tolerar algumas falhas permanentes. Para verificar a correção do algoritmo, decidiu-se empregar um formalismo existente. Assim, a lógica temporal de Lamport (TLA) foi usada na especificação dos mecanismos do algoritmo bem como em sua demonstração de correção. O tratamento referente às mensagens perdidas, atrav´es do uso de mensagens de resposta, associado com o uso de uma lógica temporal, levou à necessidade de rever os critérios de consistência. Esta revisão gerou um conjunto de fórmulas de consistência ajustadas à existência de mensagens de diferentes classes: mensagens da aplicação e mensagens de resposta.
Resumo:
Neste trabalho é apresentado um método para medição de deslocamentos sem contato, utilizando sensores magnetoresistivos, os quais são sensibilizados pela variação do campo magnético produzido por um imã permanente em deslocamento no espaço. Os sensores magnetoresistivos possuem, internamente, uma ponte de Wheathestone, onde a resistência varia conforme varia o campo magnético, de modo que o circuito mais indicado para este caso é um amplificador e um filtro para cada sensor. O principal objetivo do trabalho é a obtenção de uma técnica para medir deslocamentos sem contato, e estender os resultados para medida de movimentos mandibulares. A montagem consiste de duas placas de celeron, distantes 30mm uma da outra e unidas por parafusos de polietileno. Em cada uma destas placas foram dispostos quatro sensores, num total de oito, sendo que para cada um deles existe um circuito de amplificação e filtragem do sinal de saída. Sob uma chapa de alumínio foi fixado este equipamento e uma mesa de calibração em 3D, a qual, após a obtenção da matriz de calibração, foi substituída por um emulador de movimento mandibular. Os parâmetros do modelo foram estimados através do método dos mínimos quadrados com auxílio do software Matlab, Release 12. Este software também foi utilizado para o sistema de aquisição de dados durante a realização dos experimentos. A imprecisão dos resultados obtidos na determinação dos deslocamentos, está na ordem de décimos de milímetros. O trabalho apresenta, também, o mapeamento do campo magnético do magneto utilizado nos experimentos através do software FEM2000 – Método de elementos finitos aplicado ao eletromagnetismo.
Resumo:
Atualmente observa-se que uma grande parte das estruturas de concreto armado estão apresentando problemas relacionados à corrosão das armaduras, principalmente aquela iniciada pelos íons cloreto. Nesse sentido, muitos estudos estão sendo realizados a fim de prever o tempo necessário para que os íons cloreto atinjam a armadura, iniciando assim a propagação do processo corrosivo. Existem alguns parâmetros relacionados ao concreto e ao meio ambiente que exercem uma grande influência na penetração de íons cloreto. Entre os fatores relacionados ao concreto, verifica-se que o coeficiente de difusão de cloretos, a concentração superficial de cloretos, a relação água/cimento, a espessura de cobrimento, a presença e a quantidade de adições são alguns parâmetros que interferem na vida útil de projeto das estruturas. Já em relação às condições ambientais, os principais fatores que afetam a vida útil são a umidade relativa e a temperatura de exposição. Assim, procurou-se avaliar o efeito de tais variáveis na vida útil das estruturas, considerando as mesmas como grandezas aleatórias, apresentando um determinado valor médio e um desvio-padrão característico. Essas variáveis aleatórias foram inseridas em alguns modelos matemáticos que são empregados para a previsão da vida útil das estruturas − 2ª Lei de Fick e os modelos propostos por UJI et al. (1990) e por MEJLBRO (1996). A partir daí, realizou-se uma análise de confiabilidade a partir de um método de simulação numérica (Simulação de Monte Carlo) a fim de se determinar a probabilidade de falha no tempo para concretos feitos com diferentes tipos de cimento e adições, quando inseridos em condições ambientais distintas A fim de contribuir no processo de previsão da vida útil das estruturas quando inseridas em ambientes contendo cloretos, foi desenvolvido um modelo matemático baseado na análise em Grupos Focalizados (ou Focus Groups). Algumas das principais características do modelo proposto são a lógica empregada no seu desenvolvimento e a grande facilidade de aplicação do mesmo. O comportamento do modelo se mostrou consistente com os resultados de investigações experimentais realizadas por outros pesquisadores, onde o mesmo foi aplicado em um estudo de caso para verificar a resposta em relação à penetração de cloretos em alguns pontos de uma estrutura de concreto armado inserida em área salina.
Resumo:
O presente trabalho estuda a obtenção de número estrutural em pavimentos flexíveis existentes. O estudo foi realizado em trechos pertencentes a duas regiões do Rio Grande do Sul, com a mesma formação geológica. De posse dos dados de levantamentos das deflexões obtidos com um equipamento tipo FWD (Falling Weight Deflectometer) e, com valores das espessuras dos pavimentos fornecidas pelo DAER-RS, foram realizadas retroanálises de todas as bacias de deformação levantadas, para cada ponto dos trechos estudados. Encontrados os Módulos de Resiliência de cada camada dos pavimentos, foram determinados, através das correlações da AASHTO (American Association of State Highway and Transportation Officials), os coeficientes estruturais e conseqüentemente os números estruturais para cada camada de pavimento. Por outro lado, determinou-se o raio de curvatura, para cada ponto levantado pelo equipamento, através da parábola de segundo grau utilizada pelo DNER (Departamento Nacional de Estradas de Rodagens). Verificou-se que os valores de número estrutural dos pavimentos e os raios de curvatura variam em proporções semelhantes, permitindo então a identificação de correlações entre os mesmos. As correlações entre raio de curvatura e número estrutural apresentadas neste trabalho facilitam a obtenção do número estrutural, sem utilizar retroanálises.
Resumo:
O desenvolvimento de artefatos de software é um processo de engenharia, como todo processo de engenharia, envolve uma série de etapas que devem ser conduzidas através de uma metodologia apropriada. Para que um determinado software alcance seus objetivos, as características conceituais e arquiteturais devem ser bem definidas antes da implementação. Aplicações baseadas em hiperdocumentos possuem uma característica específica que é a definição de seus aspectos navegacionais. A navegação é uma etapa crítica no processo de definição de softwares baseados em hiperdocumentos, pois ela conduz o usuário durante uma sessão de visita ao conteúdo de um site. Uma falha no processo de especificação da navegação causa uma perda de contexto, desorientando o usuário no espaço da aplicação. Existem diversas metodologias para o tratamento das características de navegação de aplicações baseadas em hiperdocumentos. As principais metodologias encontradas na literatura foram estudadas e analisadas neste trabalho. Foi realizada uma análise comparativa entre as metodologias, traçando suas abordagens e etapas. O estudo das abordagens de especificação de hiperdocumentos foi uma etapa preliminar servindo como base de estudo para o objetivo deste trabalho. O foco é a construção de uma ferramenta gráfica de especificação conceitual de hiperdocumentos, segundo uma metodologia de modelagem de software baseado em hiperdocumentos. O método adotado foi o OOHDM (Object-Oriented Hypermedia Design Model), por cercar todas as etapas de um processo de desenvolvimento de aplicações, com uma atenção particular à navegação. A ferramenta implementa uma interface gráfica onde o usuário poderá modelar a aplicação através da criação de modelos. O processo de especificação compreende três modelos: modelagem conceitual, modelagem navegacional e de interface. As características da aplicação são definidas em um processo incremental, que começa na definição conceitual e finaliza nas características de interface. A ferramenta gera um protótipo da aplicação em XML. Para a apresentação das páginas em um navegador Web, utilizou-se XSLT para a conversão das informações no formato XML para HTML. Os modelos criados através das etapas de especificação abstrata da aplicação são exportados em OOHDM-ML. Um estudo de caso foi implementado para validação da ferramenta. Como principal contribuição deste trabalho, pode-se citar a construção de um ambiente gráfico de especificação abstrata de hiperdocumentos e um ambiente de implementação de protótipos e exportação de modelos. Com isso, pretende-se orientar, conduzir e disciplinar o trabalho do usuário durante o processo de especificação de aplicações.