895 resultados para Sistemas baseados : Conhecimento


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Neste trabalho discutimos vários sistemas de dígitos verificadores utilizados no Brasil, muitos deles semelhantes a esquemas usados mundialmente, e fazemos uma análise da sua capacidade de detectar os diversos tipos de erros que são comuns na entrada de dados em sistemas computacionais. A análise nos mostra que os esquemas escolhidos constituem decisões subotimizadas e quase nunca obtêm a melhor taxa de detecção de erros possível. Os sistemas de dígitos verificadores são baseados em três teorias da álgebra: aritmética modular, teoria de grupos e quasigrupos. Para os sistemas baseados em aritmética modular, apresentamos várias melhorias que podem ser introduzidas. Desenvolvemos um novo esquema ótimo baseado em aritmética modular base 10 com três permutações para identificadores de tamanho maior do que sete. Descrevemos também o esquema Verhoeff, já antigo, mas pouquíssimo utilizado e que também é uma alternativa de melhoria para identificadores de tamanho até sete. Desenvolvemos ainda, esquemas ótimos para qualquer base modular prima que detectam todos os tipos de erros considerados. A dissertação faz uso ainda de elementos da estatística, no estudo das probabilidades de detecção de erros e de algoritmos, na obtenção de esquemas ótimos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O uso de sistemas computacionais para armazenamento, tratamento de dados e produção de informação, disseminou-se de maneira crescente nos últimos anos, e neste cenário estão incluídos os Sistemas de Informações Geográficas, os SIGs. A utilização de informação geográfica com acesso por computador é hoje a realidade de ambientes corporativos, entidades governamentais, escolas e residências. Esta dissertação apresenta uma proposta de modelagem de elementos de zoneamento urbano, baseada em uma ontologia de domínio. Ontologias são representadas como classes e atributos de um dado domínio. Na proposta apresentada, estas classes são exportadas para o formato XMI, resguardando as definições de classes, atributos e relacionamentos do domínio analisado e compondo um repositório de classes, permitindo, teoricamente, sua reutilização. Como exemplo da proposta, foi construída uma ontologia do Zoneamento Urbano do município de Macaé-RJ, seguindo a proposta do Plano Diretor Municipal, usando o editor Protégé. A ontologia construída foi exportada para o formato XMI, sendo a seguir criado um diagrama de classes, obtido através da importação das classes pelo software para modelagem de sistemas baseados no paradigma da OO, ArgoUML. Tal importação permite que a ontologia construída fique disponível na forma de um pacote de classes, que pode ser utilizado por aplicações que se baseiem no paradigma da OO para o desenvolvimento de sistemas de informação. Como forma de mostrar a utilização destas classes foi desenvolvido um protótipo utilizando o software ALOV Map, que oferece a visualização destas classes, na Web, como mapas temáticos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho está inserido no campo da Geomática e se concentra, mais especificamente, no estudo de métodos para exploração e seleção de rotas em espaços geográficos sem delimitação prévia de vias trafegáveis. As atividades que poderiam se beneficiar de estudos desse tipo estão inseridas em áreas da engenharia, logística e robótica. Buscou-se, com as pesquisas realizadas nesse trabalho, elaborar um modelo computacional capaz de consultar as informações de um terreno, explorar uma grande quantidade de rotas viáveis e selecionar aquelas rotas que oferecessem as melhores condições de trajetória entre dois pontos de um mapa. Foi construído um sistema a partir do modelo computacional proposto para validar sua eficiência e aplicabilidade em diferentes casos de estudo. Para que esse sistema fosse construído, foram combinados conceitos de sistemas baseados em agentes, lógica nebulosa e planejamento de rotas em robótica. As informações de um terreno foram organizadas, consumidas e apresentadas pelo sistema criado, utilizando mapas digitais. Todas as funcionalidades do sistema foram construídas por meio de software livre. Como resultado, esse trabalho de pesquisa disponibiliza um sistema eficiente para o estudo, o planejamento ou a simulação de rotas sobre mapas digitais, a partir de um módulo de inferência nebuloso aplicado à classificação de rotas e um módulo de exploração de rotas baseado em agentes autônomos. A perspectiva para futuras aplicações utilizando o modelo computacional apresentado nesse trabalho é bastante abrangente. Acredita-se que, a partir dos resultados alcançados, esse sistema possa ajudar a reduzir custos e automatizar equipamentos em diversas atividades humanas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho centra-se na investigação da possibilidade de se conseguir um semicondutor magnético diluído (SMD) baseado em ZnO. Foi levado a cabo um estudo detalhado das propriedades magnéticas e estruturais de estruturas de ZnO, nomeadamente nanofios (NFs), nanocristais (NCs) e filmes finos, dopadas com metais de transição (MTs). Foram usadas várias técnicas experimentais para caracterizar estas estruturas, designadamente difracção de raios-X, microscopia electrónica de varrimento, ressonância magnética, SQUID, e medidas de transporte. Foram incorporados substitucionalmente nos sítios do Zn iões de Mn2+ e Co2+ em ambos os NFs e NCs de ZnO. Revelou-se para ambos os iões dopantes, que a incorporação é heterogénea, uma vez que parte do sinal de ressonância paramagnética electrónica (RPE) vem de iões de MTs em ambientes distorcidos ou enriquecidos com MTs. A partir das intensidades relativas dos espectros de RPE e de modificações da superfície, demonstra-se ainda que os NCs exibem uma estrutura core-shell. Os resultados, evidenciam que, com o aumento da concentração de MTs, a dimensão dos NCs diminui e aumentam as distorções da rede. Finalmente, no caso dos NCs dopados com Mn, obteve-se o resultado singular de que a espessura da shell é da ordem de 0.3 nm e de que existe uma acumulação de Mn na mesma. Com o objectivo de esclarecer o papel dos portadores de carga na medição das interacções ferromagnéticas, foram co-dopados filmes de ZnO com Mn e Al ou com Co e Al. Os filmes dopados com Mn, revelaram-se simplesmente paramagnéticos, com os iões de Mn substitucionais nos sítios do Zn. Por outro lado, os filmes dopados com Co exibem ferromagnetismo fraco não intrínseco, provavelmente devido a decomposição spinodal. Foram ainda efectuados estudos comparativos com filmes de ligas de Zn1-xFexO. Como era de esperar, detectaram-se segundas fases de espinela e de óxido de ferro nestas ligas; todas as amostras exibiam curvas de histerese a 300 K. Estes resultados suportam a hipótese de que as segundas fases são responsáveis pelo comportamento magnético observado em muitos sistemas baseados em ZnO. Não se observou nenhuma evidência de ferromagnetismo mediado por portadores de carga. As experiências mostram que a análise de RPE permite demonstrar directamente se e onde estão incorporados os iões de MTs e evidenciam a importância dos efeitos de superfície para dimensões menores que ~15 nm, para as quais se formam estruturas core-shell. As investigações realizadas no âmbito desta tese demonstram que nenhuma das amostras de ZnO estudadas exibiram propriedades de um SMD intrínseco e que, no futuro, são necessários estudos teóricos e experimentais detalhados das interacções de troca entre os iões de MTs e os átomos do ZnO para determinar a origem das propriedades magnéticas observadas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A presente dissertação descreve a síntese e o estudo de propriedades fotofísicas e biológicas de sistemas baseados em ftalocianinas. Os sistemas sintetizados consistem em ftalocianinas contendo unidades de D-galactose, ciclodextrinas, [60]fulereno ou porfirinas. Na primeira parte da dissertação aborda-se a síntese de ftalocianinas substituídas com unidades de D-galactose, com o intuito de serem utilizadas como fotossensibilizadores em terapia fotodinâmica. A eficiência de geração de oxigénio singuleto induzida pelas glicoftalocianinas, bem como a sua actividade fotodinâmica in vitro em células HeLa são avaliadas. Adicionalmente são descritos os estudos de MALDI-MS/MS de dois pares de glicoftalocianinas isoméricas. Numa segunda parte, descrevem-se a síntese e a caracterização de sistemas supramoleculares de ftalocianinas ligadas a ciclodextrinas ou [60]fulereno. Foram desenvolvidas metodologias sintéticas para obter complexos ftalocianínicos de ruténio(II) substituídos axialmente com derivados de ciclodextrinas, e complexos ftalocianínicos de zinco(II) ligados covalentemente a ciclodextrinas. Descreve-se também a síntese de uma díade ftalocianina- [60]fulereno. A estratégia sintética envolve um peculiar primeiro passo, uma reacção de aminação redutiva, no qual se obtém uma ftalocianina funcionalizada com glicina, seguida da habitual reacção de cicloadição 1,3- dipolar. Na terceira parte, abordam-se sistemas dador-aceitador de díades porfirinaftalocianina, como modelos promissores para mimetizar sistemas fotossintéticos naturais. Diferentes tipos de díades porfirina-ftalocianina, ligadas através do grupo fenilo da posição meso ou da posição β-pirrólica da porfirina, são sintetizadas e caracterizadas. As abordagens sintéticas envolvem reacções de aminação catalisadas por paládio e reacções de condensação cruzada de dois ftalonitrilos adequadamente substituídos. Também se descrevem processos de transferência de energia e electrónica fotoinduzidos que se formam a partir das díades porfirina-ftalocianina.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho propõe-se a divulgar as mais significativas técnicas de esquemas cooperativos, de forma a ultrapassar alguns dos problemas dos sistemas móveis sem fios da próxima geração, estendendo a área de cobertura destes sistemas, assim como a sua capacidade e fiabilidade. O estudo de diversos esquemas cooperativos é efetuado em termos de capacidade e de taxa de erros, fazendo variar o número de relays e de antenas em cada elemento do sistema. Diversos algoritmos com aplicação em sistemas cooperativos são desenvolvidos e propostos ao longo desta tese, como códigos espaço-frequência aplicados de forma distribuída nos relays, para sistemas baseados na tecnologia OFDM e sob diversos cenários próximos da realidade. Os sistemas cooperativos são particularmente úteis em situações em que o caminho direto entre dois terminais não está acessível ou tem uma fraca qualidade de transmissão. Tendo este aspeto em consideração, e pretendendo ter a máxima eficiência espetral e máxima diversidade, um algoritmo com precodificação é também proposto para múltiplos relays, cada um equipado com uma ou duas antenas. A formulação matemática associada aos algoritmos propostos é apresentada, assim como a derivação da probabilidade de erro teórica. O desempenho dos sistemas assistidos por relays usando os algoritmos propostos é comparado em relação a outros esquemas cooperativos equivalentes e a esquemas não-cooperativos, considerando cenários com diferentes qualidades de canal, daí advindo importantes conclusões em relação a estes sistemas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho descreve o desenvolvimento e aplicação de sistemas baseados em detetores gasosos microestruturados, para imagiologia de fluorescência de raios-X por dispersão em energia (EDXRF). A técnica de imagiologia por fluorescência de raios-X assume-se como uma técnica poderosa, não-destrutiva, em análises da distribuição espacial de elementos em materiais. Os sistemas para imagiologia de EDXRF desenvolvidos são constituídos por: um tubo de raios-X, usado para excitar os elementos da amostra; um detetor gasoso microestruturado; e uma lente pinhole que foca a radiação de fluorescência no plano do detetor formando assim a imagem e permitindo a sua ampliação. Por outro lado é estudada a influência do diâmetro da abertura do pinhole bem como do fator de ampliação obtido para a imagem, na resolução em posição do sistema. Foram usados dois conceitos diferentes de detetores gasosos microestruturados. O primeiro, baseado na microestrutura designada por 2D-Micro-Hole & Strip Plate (2D-MHSP) com uma área ativa de 3 3 cm2, enquanto que o segundo, baseado na estrutura 2D-Thick-COBRA (2D-THCOBRA) apresenta uma área ativa de deteção de 10 10 cm2. Estes detetores de raios-X de baixo custo têm a particularidade de funcionar em regime de fotão único permitindo a determinação da energia e posição de interação de cada fotão que chega ao detetor. Deste modo permitem detetar a energia dos fotões X de fluorescência, bem como obter imagens 2D da distribuição desses fotões X para o intervalo de energias desejado. São por isso adequados a aplicações de imagiologia de EDXRF. Os detetores desenvolvidos mostraram resoluções em energia de 17% e 22% para fotões incidentes com uma energia de 5.9 keV, respectivamente para o detetor 2D-MHSP e 2D-THCOBRA e resoluções em posição adequadas para um vasto número de aplicações. Ao longo deste trabalho é detalhado o desenvolvimento, o estudo das características e do desempenho de cada um dos detetores, e sua influência na performance final de cada sistema proposto. Numa fase mais avançada apresentam-se os resultados correspondentes à aplicação dos dois sistemas a diversas amostras, incluindo algumas do nosso património cultural e também uma amostra biológica.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho começa por analisar a evolução dos sistemas ao longo de vários períodos históricos, bem como os conceitos e tipologias que os sustentam, no quadro da problemática e da conceptualização teórica do ensino superior. A origem da universidade na idade média, na Europa e em outras partes do mundo, fundamenta-se, principalmente, na procura do saber e nas condicionantes socioeconómicas da época. A evolução da universidade sustentada pela narrativa da modernidade, resultou em modelos diferenciados de ensino superior, que mantinham, no entanto, a razão e a epistemologia do conhecimento académico, como fatores unificadores. O modelo utilizado para traduzir a referida evolução, é proposto por Scott (1995) e configura a relação que se estabelece entre a universidade e outras formas de ensino superior. Na sequência do desenvolvimento dos sistemas, suscitados pelas relações entre os diversos atores envolvidos no ensino superior, procurou-se evidenciar a relação entre o Estado o mercado e os académicos, bem como outros atores sociopolíticos, institucionais e da sociedade civil. O quadro de análise dos mecanismos de coordenação destas envolventes, baseou-se no “Triângulo de Clark”, complementado com o modelo da “Metáfora da Flutuação”. Desde o início da década de 80 do século XX, que a missão, o modo de organização e o funcionamento das IES têm vindo a ser questionadas, como resultado das mudanças económicas de cariz neoliberal. Este cenário, propiciador de crises e de transformações, não tem impedido, porém, de manter o papel fundamental da universidade como produtora e difusora do conhecimento. No contexto da globalização e da cada vez maior influência do mercado no ensino superior, procura-se impor um modelo hegemonizado de racionalidade económica, competitividade e eficiência - o managerialismo. Não obstante alguns êxitos, esta ideologia não tem sido completamente bem-sucedida. Aliás, à tentativa da globalização de gerar uma ordem uniformista, têm sido contrapostos modelos de recontextualização que procuram refletir as realidades locais. Embora num reduzido número de países, África, registou formas de ensino superior endógenas, no período pré-colonial. Depois do espectro colonial que mantém, ainda hoje, a sua influência, os sistemas debatem-se na atualidade com diferentes dilemas, originados pelas correntes da globalização. Porém, o ensino superior em África assume um papel central no contexto do desenvolvimento dos diferentes países contribuindo, igualmente, para a construção da Nação e da sua identidade. Esta dimensão, não é impeditiva do seu envolvimento, nos desafios da sociedade e da economia do conhecimento, buscando, ao mesmo tempo, modelos e práticas equilibradoras, que proporcionem uma resposta satisfatória às necessidades sociais e económicas, nacionais e regionais. Ao enquadrar o sistema de ensino superior em Moçambique merecem destaque as etapas do processo histórico, nomeadamente o surgimento dos estudos gerais universitários como primeira forma de ensino superior mais tarde transformada em universidade, a mudança de paradigma após a independência nacional, a abertura ao setor privado e, ainda, a expansão do sistema. A discussão sobre políticas e estratégias é sustentada pela análise dos respetivos planos estratégicos bem como, pela compreensão das leis fundamentais e respetivos documentos reguladores. Este conjunto de instrumentos concorre para a reforma do sistema, que se procura implementar em Moçambique. Nesta sequência, é de salientar o debate público realizado em torno das qualificações e graus oficialmente estabelecidos, que parece constituir uma problemática ainda não completamente resolvida. Numa outra parte do trabalho, procede-se à apresentação e análise dos resultados de uma investigação sobre o ensino superior em Moçambique. Seguindo uma metodologia de análise qualitativa, foi possível estruturar a informação obtida, em diferentes dimensões e categorias. A informação foi recolhida e tratada, a partir de entrevistas efetuadas a diferentes grupos de atores, direta ou indiretamente relacionados com o ensino superior em Moçambique. Os resultados da análise conduziram à sistematização de um conjunto de linhas de força e ao traçar de conclusões, contributivas para a melhoria do quadro de referência sobre políticas, conceções e práticas do ensino superior em Moçambique.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Thesis submitted in the fulfilment of the requirements for the Degree of Master in Electronic and Telecomunications Engineering

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Aágua, na epiderme, deve distribuir-se de acordo com a estrutura histológica que se conhece para este tecido, admitindo-se que as células em diferenciação, desde a camada basal (100% de água) ao estrato córneo (cerca de 10% de água) possuam distintos conteúdos hídricos. O objectivo do presente estudo foi esclarecer, se métodos especialmente concebidos, como é o caso do sistema MoistureMeter- D®, conseguem detectar a água profunda da epiderme. Foram seleccionados 13 voluntários, nos quais se marcaram aleatoriamente 3 sítios de aplicação na face ventral do antebraço para aplicação de (a) um penso com a solução de Lauril Sulfato de Sódio (LSS) a 3,5%, (b) um penso sem qualquer solução (controlo positivo) e (c) uma área de controlo sem penso (controlo negativo). Após 24h, os pensos foram removidos, procedendo-se à medição da hidratação através de metodologias não invasivas, com o auxílio dos sistemas MoistureMeter-D® e MoistureMeter-SC®, sistemas baseados na medição da variação da “capacitância” epidérmica, utilizando diferentes frequências de medição, respectivamente, 300 MHz e 1,25MHz.A perda trans-epidérmica de água (PTEA) e o eritema, foram também medidos nos sítios estudados (Tewameter TM300 e Chromameter CR3000, respectivamente). Os dados foram estatisticamente avaliados (descritiva e não paramétrica) adoptando-seumnível de confiança de 95%. Os resultados obtidos revelam a alteração da função de barreira da pele e presença de edema no sítio tratado com LSS, conforme se encontra descrito na literatura. Em relação à medição da hidratação da epiderme, os resultados não evidenciaram diferenças significativas entre os sítios estudados, quando medidos pelo MoistureMeter-D®. Contudo, verificou-se uma maior hidratação superficial no local da aplicação do provocador, conforme se encontra descrito mna literatura. Os presentes resultados sugerem que, apesar das especificações do fabricante, o sistema em causa não detecta as variações mais profundas de conteúdo hídrico descritas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho visa definir um modelo de alocação dos recursos da produção para centros de trabalho em sistemas baseados em job shop, usando a abordagem heurística para garantir uma boa alocação dos recursos. São levados em conta a complexidade de um ambiente de produção, seus aspectos temporais e os modelos de Job Shop Scheduling atualmente em uso. Com isso são examinados os aspectos conceituais deste ambiente e proposto um modelo de alocação de recursos para auxiliar no planejamento operacional do mesmo. Pode-se definir os recursos como todos os elementos necessários à execução das diversas atividades de um processo produtivo, tais como equipamentos, máquinas, mão-de-obra, etc. Por sua vez, os recursos são limitados por natureza, quanto à quantidade de unidades disponíveis, às suas funcionalidades e à capacidade produtiva. O processo de alocação dos recursos pressupõe a designação dos recursos mais satisfatórios para a execução de cada uma das atividades que fazem parte de um projeto. O modelo proposto é baseado no uso de heurísticas para resolver o escalonamento nos centros de trabalho, também chamados de células de produção, usando restrições e regras entre as ordens de fabricação (peças) e as máquinas, para encontrar uma solução satisfatória ao problema. O resultado final é uma ferramenta de apoio à decisão no processo de manufatura, permitindo a visualização do melhor escalonamento de produção, visando a redução do ciclo e setup de produção no processo, com base nas informações locais do ambiente fabril. O sistema está implementado numa empresa de componentes hidráulicos, inicialmente no centro de trabalho de corte, composto por quatro máquinas que realizam o corte de diversos tipos de matérias-primas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

As maiores dificuldades encontradas no teste de software estão relacionadas à definição dos dados de teste e a decisão de quando encerrar os testes. Uma das formas encontradas para minimizar tais dificuldades está centrada na utilização de critérios de cobertura. O principal objetivo dos critérios de cobertura é tornar o processo de testes mais rápido e preciso, fornecendo informações que determinem o que testar em um software para garantir sua qualidade. A modelagem é um dos elementos de maior importância nas atividades relacionadas ao desenvolvimento de software. Os modelos são construídos principalmente para melhor se entender o sistema, descrever a estrutura e comportamento desejados, visualizar a arquitetura e documentar as decisões tomadas durante o seu desenvolvimento. Atualmente, o sistema de notação mais utilizado para a modelagem de sistemas baseados nos conceitos de orientação a objetos é a Linguagem de Modelagem Unificada – UML [LAR 99]. Nesta notação, um sistema é descrito por um conjunto de diagramas que apresentam diferentes aspectos do sistema. As informações disponibilizadas por estes diagramas propiciam, já nas fases iniciais do desenvolvimento da aplicação (análise e projeto), o planejamento dos casos de teste e a definição de critérios de cobertura. Observa-se que nestas fases a maioria das informações necessárias para o teste já estão disponíveis, como por exemplo, a definição das classes com seus atributos, métodos e relacionamentos, a representação da interação existente entre objetos para a realização de um cenário e a descrição dos possíveis estados e transições de um objeto em resposta a eventos externos e internos. Este trabalho propõe um conjunto de diretrizes e critérios de cobertura de teste, tendo como base as especificações diagramáticas UML. As diretrizes estabelecem um conjunto de instruções para que o teste seja feito e os critérios de cobertura identificam os pontos principais e serem considerados durante o teste. Na definição das diretrizes e dos critérios foram avaliadas as informações disponibilizadas pelos diagramas de classes, seqüência, colaboração e estados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A execução de testes é um passo essencial na adoção de novos protocolos de comunicação e sistemas distribuídos. A forma com que estes se comportam na presença de falhas, tão comuns em ambientes geograficamente distribuídos, deve ser conhecida e considerada. Testes sob condições de falha devem ser realizados e as implementações devem trabalhar dentro de sua especificação nestas condições, garantindo explicitamente o funcionamento dos seus mecanismos de detecção e recuperação de erros. Para a realização de tais testes, uma técnica poderosa é a injeção de falhas. Ferramentas de injeção de falhas permitem ao projetista ou engenheiro de testes medir a eficiência dos mecanismos de um sistema antes que o mesmo seja colocado em operação efetiva. Este trabalho apresenta o projeto, desenvolvimento e teste do injetor de falhas FIRMAMENT. Esta ferramenta executa, dentro do núcleo do sistema operacional, microprogramas, ou faultlets, sobre cada mensagem processada para a emulação de situações de falha de comunicação, utilizando uma abordagem de scripts. A ferramenta é implementada como um módulo de núcleo do sistema operacional Linux, tendo acesso total aos fluxos de entrada e saída de pacotes de forma limpa e não intrusiva, permitindo o teste de sistemas baseados nos protocolos IPv4 e IPv6. Seu desempenho é significativo, já que a ferramenta evita que os mecanismos de injeção de falhas sejam invocados nos fluxos que não sejam de interesse aos testes, bem como dispensa a cópia de dados dos pacotes de comunicação a serem inspecionados e manipulados. A aplicabilidade da ferramenta, dada pela sua facilidade de integração a um ambiente de produção, é conseqüência de sua disponibilidade como um módulo de núcleo, podendo ser carregada como um plugin em um núcleo não modificado. As instruções por FIRMAMENT suportadas lhe dão alto poder de expressão dos cenários de falhas. Estas instruções permitem a inspeção e seleção de mensagens de forma determinística ou estatística. Além disso, fornecem diversas ações a serem realizadas sobre os pacotes de comunicação e sobre as variáveis internas do injetor, fazendo-o imitar o comportamento de falhas reais, como descarte e duplicação de mensagens, atraso na sua entrega e modificação de seu conteúdo. Estas características tornam a ferramenta apropriada para a realização de experimentos sobre protocolos e sistemas distribuídos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The pumping of fluids in pipelines is the most economic and safe form of transporting fluids. That explains why in Europe there was in 1999 about 30.000 Km [7] of pipelines of several diameters, transporting millíons of cubic meters of crude oil end refined products, belonging to COCAWE (assaciation of companies of petroleum of Europe for health, environment and safety, that joint several petroleum companies). In Brazil they are about 18.000 Km of pipelines transporting millions of cubic meters of liquids and gases. In 1999, nine accidents were registered to COCAWE. Among those accidents one brought a fatal victim. The oil loss was of 171 m3, equivalent to O,2 parts per million of the total of the transported volume. Same considering the facts mentioned the costs involved in ao accident can be high. An accident of great proportions can bríng loss of human lives, severe environmental darnages, loss of drained product, loss . for dismissed profit and damages to the image of the company high recovery cost. In consonance with that and in some cases for legal demands, the companies are, more and more, investing in systems of Leak detection in pipelines based on computer algorithm that operate in real time, seeking wíth that to minimize still more the drained volumes. This decreases the impacts at the environment and the costs. In general way, all the systems based on softWare present some type of false alarm. In general a commitment exists betWeen the sensibílity of the system and the number of false alarms. This work has as objective make a review of thé existent methods and to concentrate in the analysis of a specific system, that is, the system based on hydraulic noise, Pressure Point Analyzis (PPA). We will show which are the most important aspects that must be considered in the implementation of a Leak Detection System (LDS), from the initial phase of the analysis of risks passing by the project bases, design, choice of the necessary field instrumentation to several LDS, implementation and tests. We Will make na analysis of events (noises) originating from the flow system that can be generator of false alarms and we will present a computer algorithm that restricts those noises automatically