109 resultados para Axiomatização dos Reais
Resumo:
Crescimento espacial tem sido um dos importantes fenômenos observados nas cidades contemporâneas, sendo a identificação de processos e padrões, de suas causas e conseqüências, um desafio para a ciência. Nesse caminho, esta pesquisa propõe um modelo de simulação de crescimento urbano dedicado a realizar simulações, incluindo de modo integrado fatores urbanos, naturais e institucionais, promovendo simultaneidade entre crescimento externo e interno a um espaço urbano preexistente, representados e modelados utilizando integradamente grafos, autômato celular e geotecnologias. Experimentos com modos de crescimento (axial, polar e difuso) e com cenários alternativos estão implementados, bem como são investigadas questões urbanas de conversão de território, de distribuição dos estoques construídos, de formação de periferias e vazios, de obsolescência e revitalização, de mono e policentralidade, de abrangência de funções urbanas e de influência da distância, de renaturalização e preservação ambiental, de limites de crescimento e problemas ambientais intra-urbanos, de ponderação de atributos, de crescimento difuso, fragmentação e compacidade. Estão também incluídas possibilidades de compressão de dados e alternativas de visualização de resultados, alcançando estudos exploratórios sobre forma urbana e sustentabilidade. O trabalho está dedicado inicialmente a fundamentar, construir e apresentar o modelo de simulação de crescimento denominado SACI – Simulador do Ambiente da Cidade®, depois a realizar simulações num caso real, em Pelotas, RS, quando são demonstrados os procedimentos de calibração, terminando com experimentos escolhidos para avançar na discussão do fenômeno do crescimento urbano. Esforços estão realizados para oferecer um instrumento de simulação com possibilidade de uso para além dos interesses exclusivos desta investigação, particularmente no campo do ensino e da prática do planejamento urbano municipal. Sendo assim, este argumento se dedica simultaneamente a documentar a trajetória de construção de um modelo de simulação de crescimento urbano, a explicitar sua aplicabilidade em casos de cidades reais e a contribuir para a compreensão teórica da dinâmica urbana e ambiental na cidade.
Resumo:
Aduelas protendidas externamente utilizadas em pontes contrastam com as clássicas construções monolíticas, consistindo de “pequenos” segmentos pré-moldados protendidos por cordoalhas externas. Há muitas vantagens na utilização deste tipo de composição, como rapidez e versatilidade na construção, alto controle de qualidade e economia. No presente trabalho, discute-se uma formulação, baseada no método dos elementos finitos, para simular o comportamento de estruturas compostas por aduelas externamente protendidas. Esta formulação permite tanto a análise de situações de serviço, onde as seções permanecem completamente comprimidas, como também de situações últimas, onde se considera a abertura das juntas e a transferência de esforços através das mesmas. O modelo computacional utiliza dois procedimentos distintos, baseados em um modelo elasto-viscoplástico. No primeiro, determina-se a resposta da estrutura ao longo do tempo, considerando-se, nesta etapa, que o material possui comportamento viscoelástico. No segundo, busca-se a resposta da estrutura para um carregamento instantâneo, considerando-se o material com um comportamento elastoplástico. As juntas entre as aduelas são representadas através de elementos de contato unidimensionais. Os nós de cada elemento de contato coincidem com os nós do elemento de concreto que a ele foi associado.Um modelo de camadas superpostas é utilizado para representar o comportamento viscoelástico do concreto e da armadura protendida Para representar o concreto fissurado, utiliza-se um modelo de fissuras distribuídas, que leva em conta a contribuição do concreto entre fissuras. A armadura passiva é introduzida na análise através de um modelo incorporado e a armadura de protensão não aderente é disposta em elementos fictícios, paralelos aos elementos reais da estrutura. Para verificar a adequação do modelo computacional, compararam-se resultados numéricos com valores experimentais disponíveis na literatura.
Resumo:
Com o advento dos sensores hiperespectrais se tornou possível em sensoriamento remoto, uma serie de diferentes aplicações. Uma delas, é a possibilidade de se discriminar classes com comportamentos espectrais quase idênticas. Porém um dos principais problemas encontrados quando se trabalha com dados de alta dimensionalidade, é a dificuldade em estimar os inúmeros parâmetros que se fazem necessários. Em situações reais é comum não se ter disponibilidade de tamanho de amostra suficiente, por exemplo, para se estimar a matriz de covariâncias de forma confiável. O sensor AVIRIS fornece uma riqueza de informações sobre os alvos, são 224 bandas cobrindo o espectro eletromagnético, o que permite a observação do comportamento espectral dos alvos de forma muito detalhada. No entanto surge a dificuldade de se contar com uma amostra suficiente para se estimar a matriz de covariâncias de uma determinada classe quando trabalhamos com dados do sensor AVIRIS, para se ter uma idéia é preciso estimar 25.200 parâmetros somente na matriz de covariâncias, o que necessitaria de uma amostra praticamente impraticável na realidade. Surge então a necessidade de se buscar formas de redução da dimensionalidade, sem que haja perda significativa de informação. Esse tipo de problema vem sendo alvo de inúmeros estudos na comunidade acadêmica internacional. Em nosso trabalho pretendemos sugerir a redução da dimensionalidade através do uso de uma ferramenta da geoestatística denominada semivariograma. Investigaremos se os parâmetros calculados para determinadas partições do transecto de bandas do sensor AVIRIS são capazes de gerar valores médios distintos para classes com comportamentos espectrais muito semelhantes, o que por sua vez, facilitaria a classificação/discriminação destas classes.
Resumo:
Os equipamentos fotográficos digitais têm inovado a aerofotogrametria no que diz respeito à rapidez na coleta de informações geográficas referenciadas bem como o baixo custo da operação em comparação com os sistemas aerofotogramétricos convencionais. Na geração de produtos cartográficos, utilizando sistemas fotográficos digitais ou convencionais, o conhecimento dos parâmetros que definem a geometria interna da câmara é de fundamental importância. Este trabalho descreve uma das principais metodologias utilizadas atualmente para calibração analítica de câmaras. A câmara utilizada nesse trabalho é uma Kodak DCS460, e pertence à Fundação Universidade Federal do Rio Grande. O processo de calibração foi realizado na Universidade Federal do Paraná, com apoio do Programa de Pós-Graduação em Ciências Geodésicas, e o método utilizado foi o Método das Câmaras Convergentes Através do método paramétrico com injunções, o modelo final utilizado computacionalmente recupera os parâmetros intrínsecos como distância focal calibrada, posição do ponto principal, constantes da distorção radial simétrica e descentrada, bem como a matriz variância-covariância dos resultados obtidos no ajustamento. Os resultados da calibração foram analisados na matriz variância-covariância e foram satisfatórios. Para aplicação dos parâmetros em dados reais, uma imagem da região de Porto Alegre foi utilizada como objeto de estudo para geração de uma ortofoto, que é uma imagem corrigida geometricamente das distorções causadas pela variação de posição e altitude da plataforma. O Modelo Digital do Terreno é uma peça fundamental na geração de uma ortofoto e foi gerado a partir das curvas de nível fornecidas pela Prefeitura Municipal de Porto Alegre. Duas ortofotos foram geradas, a primeira levando em conta apenas o valor nominal da distância focal, e a segunda os parâmetros gerados no processo de calibração. Os resultados obtidos para a focal nominal apresentam resíduos maiores que os determinados com a distância focal calibrada, mostrando a necessidade de aplicação do método de calibração, como queria demonstrar.
Resumo:
Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.
Resumo:
Este trabalho apresenta um modelamento computacional dos diversos componentes de um ciclo de Rankine regenerativo em operação transiente, utilizando as leis fundamentais de balanço de massa e energia, além de algumas equações constitutivas. O cálculo das propriedades termodinâmicas foi realizado através de rotinas desenvolvidas no Grupo de Estudos Térmicos e Energéticos (GESTE) da UFRGS. Os componentes com comportamento inercial são o condensador e o tanque de água de alimentação. Os demais respondem instantaneamente. O método de solução das equações algébricas é seqüencial e o avanço no tempo é totalmente implícito. Primeiramente o sistema é colocado em regime permanente, a partir do qual é introduzida uma mudança de carga na turbina em um determinado intervalo de tempo. Algumas variáveis prescritas foram obtidas a partir de dados reais de uma usina termelétrica. A partir desse modelamento foi possível investigar o comportamento dinâmico do condensador e do tanque de alimentação e de que maneira estes efeitos eram percebidos pelos demais componentes. Os resultados obtidos demonstram que ambos possuem um comportamento dinâmico, sendo que o condensador apresenta uma constante de tempo menor que o tanque de alimentação. O condensador, por rejeitar o calor necessário, acaba por perceber rapidamente as oscilações introduzidas no ciclo Além disto é apresentado um método para determinação de coeficientes globais de troca térmica em condensadores e regeneradores. Os resultados obtidos neste trabalho foram utilizados na modelagem desses componentes durante a construção de um simulador em regime permanente da UTE Presidente Médici - Fase B. Também foi realizada uma pesquisa sobre os diversos programas simuladores de plantas de potência, assim como uma discussão das vantagens introduzidas por simuladores dinâmicos e em regime permanente nas decisões de engenharia.
Resumo:
Busca-se como objetivo geral, através da estimação de uma equação de demanda por moeda de longo prazo para o Brasil, período 1980-2001, testar a sua estabilidade, o que implica analisar a evolução dos coeficientes ao longo do tempo, bem como mensurar o desempenho acerca do grau de previsibilidade de demanda futura por encaixes reais, comparando sua eficiência no prognóstico com aquelas que se obteriam utilizando técnicas de estimação Mínimos Quadrados Ordinários (MQO) e Mínimos Quadrados Ordinários Recursivos (MQOR), ambas de caráter não adaptativo. Além disso, como resultado da análise percuciente das trajetórias dos parâmetros, a política monetária exercida no período é recuperada. Os resultados rejeitam a hipótese nula de estabilidade da demanda de moeda, encontrando-se que os parâmetros apresentam flutuações importantes não ilustradas pelo procedimento MQO, tendo se destacado o período 1986-1992 como o mais instável. Como era de se esperar, nos testes de capacidade de previsão, a estimação por meio do Filtro de Kalman supera as demais técnicas, evidenciando a ocorrência de mudanças nos regimes de política.
Resumo:
Diretorio TesteAs recentes mudanças de estrutura no sistema elétrico (geração, transmissão, distribuição e comercialização de energia) têm motivado o uso da geração distribuída e, em particular, pequenos produtores independentes conectados ao sistemas de distribuição e subtransmissão. Sendo recente, ainda há muitas lacunas quanto ao entendimento do impacto desta nova topologia na estabilidade e outros índices de desempenho do sistema. O presente trabalho está focado na conexão dos produtores independentes aos sistemas de distribuição e subtransmissão e visa contribuir quanto ao estudo teórico-prático deste problema, com ênfase nos aspectos de modelagem dos componentes do sistema. Este estudo faz parte do projeto de pesquisa “Impacto de Produtores Independentes e Autoprodutores Conectados aos sistemas de distribuição e subtransmissão", desenvolvido pela UFRGS com financiamento da CEEE. Como as unidades de geração distribuída são conectadas às redes de distribuição e transmissão, a distância entre estes geradores e as cargas é menor comparativamente às usinas de grande porte. Existe ainda a questão dos produtores independentes serem de potências menores e, portanto, mais suscetíveis às variações de carga da rede em que estão ligados. Devido a estes e outros fatores, uma melhor análise dos modelos estáticos e dinâmicos dos diversos componentes do sistema de potência dentro desta nova topologia se faz necessária. Um dos aspectos considerados neste trabalho, foi o estudo da influência da resistência da linha na análise da geração distribuída nas linhas de distribuição. Esta foi uma das contribuições deste trabalho e foi realizada por meio de simulações considerando vários modelos de geradores e cargas. Outra contribuição foi a construção do sistema consistindo de um protótipo de um produtor independente conectado a rede de distribuição, composto de um gerador de 100kVA conectado à rede elétrica, contendo cargas resistivas e indutivas, podendo serem ligadas/desligadas, emulando condições de operação similares às reais. A construção do protótipo também envolveu um sistema para simulação, um sistema supervisório para operação e realização de ensaios, e os algoritmos necessários para tal. Este sistema permite a simulação dinâmica de modelos de sistemas elétricos de potência em diversos cenários e a verificação experimental do comportamento dos grupos geradores em diversas condições de operação, incluindo a análise de desempenho estático, ensaios de curto circuito e as variações de despacho ativo e reativo de potência. Obtendo com isso uma melhor identificação e quantificação do impacto dos produtores independentes e autoprodutores na análise de sistemas elétricos de potência.
Resumo:
O principal objetivo deste trabalho é estabelecer caminhos apropriados para a estimativa da eficiência de pratos valvulados com downcomer e pratos dualflow em colunas de destilação industriais. O conhecimento da eficiência tem importância fundamental no projeto e na avaliação do desempenho de colunas de destilação. Pesquisando a literatura, pôde ser identificada uma árvore de alternativas para compor o modelo de eficiência de prato, dependendo dos modelos de transferência de massa, do modelo de distribuição das vazões de líquido e vapor sobre o prato, do modelo de arraste de líquido, do modelo de equilíbrio da mistura multi-componente, dos modelos de propriedades físicas, do modelo da altura da espuma sobre o prato e da definição de eficiência. Neste trabalho, diferentes métodos para a predição da eficiência em pratos valvulados e pratos dualflow foram compostos e comparados contra dados de três colunas de destilação industriais sob diferentes condições operacionais. Os modelos foram inseridos no simulador Aspen Plus 12.1, em linguagem Fortran, junto com dados geométricos dos pratos, propriedades dos fluidos e dados de operação das colunas de destilação industriais. Para cada coluna foi escolhido o melhor pacote termodinâmico pela verificação dos perfis de temperatura e composições de topo e fundo obtidos via simulação contra os valores reais correspondentes das colunas de destilação industriais. Foi feita uma modificação no parâmetro da fração de furos que estão em jetting no modelo hidráulico da dispersão acima do prato de Garcia (1999). Essa modificação produziu resultados melhores na predição da fração de furos em jetting e eficiência dos pratos dualflow e resultados similares aos de Garcia (1999) para a eficiência dos pratos valvulados.
Resumo:
Neste trabalho é descrito um método automático para o cálculo das dimensões de caixas, em tempo real, a partir de uma única imagem obtida com projeção perspectiva. Conhecendo a orientação da caixa no espaço tridimensional e sua distância em relação à câmera, as coordenadas 3D de seus vértices podem ser estimadas e suas dimensões calculadas. Na técnica proposta, são utilizados conceitos de geometria projetiva para estimar a orientação espacial da caixa de interesse a partir de sua silhueta. Já a distância da caixa em relação à câmera é estimada por meio da projeção de feixes de laser sobre uma das faces visíveis da caixa. Esta abordagem pode ser aplicada quando duas ou três faces da caixa de interesse são visíveis simultaneamente na imagem, mesmo quando a caixa encontra-se parcialmente oclusa por outros objetos na cena. Entre as contribuições deste trabalho está o desenvolvimento de um eficiente processo de votação para a transformada de Hough, onde os pixels de uma imagem binária são processados em grupos ao invés de individualmente, como ocorre no método convencional. Também é apresentado um modelo estatístico para a remoção de fundo de cena. Nesse modelo, a cor de fundo é representada sob diferentes condições de iluminação por meio da delimitação de uma região no espaço de cores RGB. O modelo proposto não requer parametrização e é próprio para o uso em aplicações que requeiram câmeras móveis. Para a validação das técnicas descritas neste trabalho, foi construído um protótipo de scanner que calcula as dimensões de caixas a partir de imagens em tempo real. Com o auxilio do scanner, foram capturadas imagens e calculadas as dimensões de diversas caixas reais e sintéticas. As caixas sintéticas foram utilizadas em um ambiente controlado para a validação das técnicas propostas Um dos aspectos importantes deste trabalho é a análise da confiabilidade das medidas obtidas por meio da técnica proposta. Com o objetivo de estudar a propagação de erros ao longo do processo de cálculo das medidas, foi aplicado um método analítico baseado na Teoria de Erros. Também são apresentados estudos estatísticos envolvendo medições realizadas com o protótipo. Estes estudos levam em conta a diferença entre as medidas calculadas pelo sistema e as medidas reais das caixas. A análise dos resultados permite concluir que o método proposto é acurado e preciso.
Resumo:
Seguindo o trabalho de S. Gudder, fazemos uma construção de cadeias de Markov quânticas a partir de matrizes complexas, unitárias, estocásticas e analisamos o conceito de interferência nesse contexto, dando atenção para uma cadeia que chamamos de moeda quântica. Estamos interessados na entropia de cadeias de Markov reais, no princípio variacional para energia livre associado e em uma possível construção análoga no caso complexo. Este trabalho visa também dar uma introdução matematicamente rigorosa de certos aspectos de mecânica quântica
Resumo:
A evapotranspiração (ET) abrange todos os processos que envolvem a mudança de fase líquida ou sólida para vapor de água. Globalmente, suas principais componentes são a evaporação nos oceanos, corpos d’água e solo e a transpiração pela cobertura vegetal. O conhecimento da ET da superfície terrestre para a atmosfera é muito importante para a resolução de inúmeras questões relacionadas aos recursos hídricos. Dentre essas questões, destacam-se planejamento de bacias hidrográficas e, em especial, o manejo da irrigação. Esse tipo de informação é igualmente relevante para estudos climáticos uma vez que, por meio da ET, ocorre redistribuição de umidade e calor da superfície para a atmosfera.As metodologias convencionais de estimativa da ET, em geral, apresentam muitas incertezas. Essas incertezas aumentam muito quando o interesse é o comportamento espacial da mesma. A única tecnologia que permite acessar esse tipo de informação, de forma eficiente e econômica, é o sensoriamento remoto. Por meio de dados derivados de imagens de satélite é possível calcular o balanço de energia de uma região e acessar as reais taxas de ET. A literatura internacional apresenta alguns modelos para estimar a ET por meio de sensoriamento remoto. A verificação dessas estimativas é feita por medidas dos termos do balanço de energia realizadas por sensores colocados em torres meteorológicas. Esse tipo de informação, no entanto, é de alto custo e de difícil aquisição. Após revisão de literatura, foram escolhidos os algoritmos SEBAL (Surface Energy Balance Algorithm for Land) e SSEBI (Simplified Surface Energy Balance Index). O primeiro foi adotado por ser um dos mais utilizados e o segundo pela sua simplicidade.Dessa maneira, a partir de 44 imagens de satélite, praticamente livres de cobertura de nuvens, do sensor AVHRR (Advanced Very High Resolution Radiometer), a bordo do satélite NOAA-14, e dados climatológicos de algumas estações, foram geradas séries de coberturas de ET real para o Estado do Rio Grande do Sul em nível diário, durante o ano de 1998. Para efeito de simplificação, na análise dos resultados foram escolhidas algumas áreas representativas das principais classes de cobertura do Estado: área cultivada, campo, área urbana, banhado, lagoa e floresta. Os resultados demonstraram que, para o SEBAL, asperdas médias anuais (mm ano-1) ocorrem, em ordem decrescente nas classes banhado (827), lagoa (732), floresta (686), área cultivada (458), campo (453) e área urbana (276). Para o S-SEBI, esta ordem é a seguinte: floresta (918), banhado (870), lagoa (669), área cultivada (425), campo (403) e área urbana (363). Ficou evidente que as classes com as menores influências antrópicas apresentaram as maiores taxas de ET. Outra observação feita é que, em média, as estimativas do S-SEBI superestimam a ET em relação ao SEBAL, na porção leste do Estado, e o oposto na porção oeste. Foi verificado, ainda, um eixo de decréscimo da ET na primeira metade do ano da porção noroeste para sudeste, e posterior crescimento na segunda metade do ano, em sentido oposto.As verificações foram feitas de forma indireta por meio de um balanço hídrico anual simplificado em algumas bacias hidrográficas do Estado, por meio de valores de ET real para a cultura do milho em algumas localidades do Estado e medidas de evaporação de tanque do tipo Classe A. Em geral, os resultados foram considerados coerentes, o que confere à metodologia utilizada um grande potencial de uso, uma vez que possibilita acessar a distribuição espacial da ET.
Resumo:
Passados dez anos da sua criação, é inconteste a relevância do Pronaf como fonte de recursos para o financiamento e para o fornecimento de liquidez para os agricultores familiares. Mas persistem dificuldades de acesso, particularmente ao Pronaf Investimento, justamente a modalidade que permite que estes agricultores realizem investimentos na sua estrutura produtiva, decisivos para a sua reprodução social. Com o objetivo de contribuir com o debate acerca do financiamento do desenvolvimento rural, este trabalho analisou o processo de intermediação financeira do Pronaf Investimento realizado através do Sistema BNDES, envolvendo o BRDE, cooperativas de crédito rural como instituições financeiras repassadoras e cooperativas de produção agropecuária como avalistas das operações de financiamento dos agricultores. Foi procedida uma avaliação do desempenho do Pronaf e, em seguida, relatadas as restrições ao acesso de Pronaf Investimento causadas pela insuficiência de limites operacionais por parte das cooperativas de crédito rural e sua relação com as regras do Sistema Financeiro Nacional derivadas do Acordo de Capital da Basiléia. Por fim, foram relatadas três operações de financiamento envolvendo cooperativas de crédito rural, cooperativas de produção agropecuária e o BRDE. As hipóteses inicialmente aventadas foram confirmadas. Os dirigentes das cooperativas de crédito rural apontaram a insuficiência de limites operacionais por parte das suas respectivas cooperativas como a mais significativa restrição ao acesso de Pronaf Investimento e as operações analisadas permitiram a superação destes limites, assim como a elevação do montante disponível de recursos de R$ 1,205 milhão de reais para R$ 4,855 milhões de reais. Portanto, pode-se afirmar que é possível superar a principal restrição ao acesso de Pronaf Investimento onde atuam cooperativas de crédito rural, qual seja, o limite operacional estabelecido pelas regras derivadas do Acordo de Capital da Basiléia, e que esta superação propicia um aumento do repasse de Pronaf Investimento, fator decisivo para o financiamento da agricultura familiar.
Resumo:
A execução de testes é um passo essencial na adoção de novos protocolos de comunicação e sistemas distribuídos. A forma com que estes se comportam na presença de falhas, tão comuns em ambientes geograficamente distribuídos, deve ser conhecida e considerada. Testes sob condições de falha devem ser realizados e as implementações devem trabalhar dentro de sua especificação nestas condições, garantindo explicitamente o funcionamento dos seus mecanismos de detecção e recuperação de erros. Para a realização de tais testes, uma técnica poderosa é a injeção de falhas. Ferramentas de injeção de falhas permitem ao projetista ou engenheiro de testes medir a eficiência dos mecanismos de um sistema antes que o mesmo seja colocado em operação efetiva. Este trabalho apresenta o projeto, desenvolvimento e teste do injetor de falhas FIRMAMENT. Esta ferramenta executa, dentro do núcleo do sistema operacional, microprogramas, ou faultlets, sobre cada mensagem processada para a emulação de situações de falha de comunicação, utilizando uma abordagem de scripts. A ferramenta é implementada como um módulo de núcleo do sistema operacional Linux, tendo acesso total aos fluxos de entrada e saída de pacotes de forma limpa e não intrusiva, permitindo o teste de sistemas baseados nos protocolos IPv4 e IPv6. Seu desempenho é significativo, já que a ferramenta evita que os mecanismos de injeção de falhas sejam invocados nos fluxos que não sejam de interesse aos testes, bem como dispensa a cópia de dados dos pacotes de comunicação a serem inspecionados e manipulados. A aplicabilidade da ferramenta, dada pela sua facilidade de integração a um ambiente de produção, é conseqüência de sua disponibilidade como um módulo de núcleo, podendo ser carregada como um plugin em um núcleo não modificado. As instruções por FIRMAMENT suportadas lhe dão alto poder de expressão dos cenários de falhas. Estas instruções permitem a inspeção e seleção de mensagens de forma determinística ou estatística. Além disso, fornecem diversas ações a serem realizadas sobre os pacotes de comunicação e sobre as variáveis internas do injetor, fazendo-o imitar o comportamento de falhas reais, como descarte e duplicação de mensagens, atraso na sua entrega e modificação de seu conteúdo. Estas características tornam a ferramenta apropriada para a realização de experimentos sobre protocolos e sistemas distribuídos.
Resumo:
Este trabalho visa a disponibilização de um ambiente de alto desempenho, do tipo cluster de computadores, com alta exatidão, obtida através da utilização da biblioteca C–XSC. A alta exatidão na solução de um problema é obtida através da realização de cálculos intermediários sem arredondamentos como se fossem em precisão infinita. Ao final do cálculo, o resultado deve ser representado na máquina. O resultado exato real e o resultado representado diferem apenas por um único arredondamento. Esses cálculos em alta exatidão devem estar disponíveis para algumas operações aritméticas básicas, em especial as que possibilitam a realização de somatório e de produto escalar. Com isso, deseja-se utilizar o alto desempenho através de um ambiente de cluster onde se tem vários nodos executando tarefas ou cálculos. A comunicação será realizada por troca de mensagens usando a biblioteca de comunicação MPI. Para se obter a alta exatidão neste tipo de ambiente, extensões ou adaptações nos programas paralelos tiveram que ser disponibilizadas para garantir que a qualidade do resultado final realizado em um cluster, onde vários nodos colaboram para o resultado final do cálculo, mantivesse a mesma qualidade do resultado que é obtido em uma única máquina (ou nodo) de um ambiente de alta exatidão. Para validar o ambiente proposto foram realizados testes básicos abordando o cálculo do produto escalar, a multiplicação entre matrizes, a implementação de solvers intervalares para matrizes densas e bandas e a implementação de alguns métodos numéricos para a resolução de sistemas de equações lineares com a característica da alta exatidão. Destes testes foram realizadas análises e comparações a respeito do desempenho e da exatidão obtidos com e sem o uso da biblioteca C–XSC, tanto em programas seqüenciais como em programas paralelos. Com a conseqüente implementação dessas rotinas e métodos será aberto um vasto campo de pesquisa no que se refere ao estudo de aplicações reais de grande porte que necessitem durante a sua resolução (ou em parte dela) da realização de operações aritméticas com uma exatidão melhor do que a obtida usualmente pelas ferramentas computacionais tradicionais.