921 resultados para Jabuticaba - Processamento


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Todos os processos industriais são forçados a cumprir especificações de produto através da inserção de rigorosos parâmetros de controle, principaJmente devido à globalização do mercado. A tendência mundial indica que cada vez mais a cor passa a ser um parâmetro primordial para a colocação do produto no mercado. Neste contexto, uma das dificuldades da indústria mineral é a inexistência de equipamentos adequados para a medição da cor de polpas de minério durante o processamento mineral. Isto se verifica principalmente para os minerais industriais que são caracterizados, na maioria das vezes, em termos de índices de alvura e amarelamento. Este traballio tem como objetivo principal avaliar o uso do equipamento Colorcell, utilizado e desenvolvido pela empresa Renner-HerrmaIlll para a produção de tintas, na indústria de processamento mineral. Os ensaios foram realizados com um equipamento similar ao original. Para se compreender as variáveis operacionais do equipamento utilizou-se um produto à base de carbonato de cálcio natural. Após a delimitação das variáveis e definição de uma metodologia de trabalho, foram caracterizados outros minerais utilizados nas indústrias de tintas, papel e plásticos. O sistema Colorcell também foi utilizado para o controle do processamento de caulim de uma empresa da região sul do Brasil. Ensaios em laboratório permitiram o ajuste de um modelo cinético para a etapa de alvejamento da empresa. A tecnologia Colorcell indica que além dos resultados benéficos ao controle de processo é possível correlacionar a caracterização colorimétrica em polpa com o método tradicional de medição de cor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho foi desenvolvido com o objetivo de fornecer uma avaliação do grau de satisfação do cliente bancário, pessoa-física, com a utilização das tecnologias da informação e do auto-atendimento na realização dos serviços bancários, na cidade de Lajeado. Foram consideradas como tecnologias da informação os terminais de auto -atendimento, Automated Teller Machines (ATMs) para saques e depósitos, cash-dispenser, terminais de depósitos, terminais de extratos e saldos e dispensadores de cheques, localizados em agências, salas de auto-atendimento, quiosques em locais públicos e em pontos de atendimento. O método seguido foi o proposto por ROSSI & SLONGO (1998), com duas etapas distintas, uma exploratória e a outra descritiva. Os indicadores de satisfação foram selecionados através de levantamento de dados secundários e entrevistas de profundidade. A pesquisa foi realizada nos meses de junho e julho de 2001, nas salas de auto-serviço do Banco do Brasil. Os clientes entrevistados deveriam ter realizado alguma transação nos terminais de auto-atendimento. Para as análises da pesquisa, foram considerados fatores sobre pontos de auto-atendimento, processamento de transações, comunicação com clientes, segurança e erros relacionados a computadores. Concluiu-se que o Banco do Brasil está muito bem posicionado quanto à satisfação de seus clientes no que se refere ao autoatendimento. Todos com uma satisfação próxima ao nível máximo. Através de técnicas estatísticas, identificou-se que o indicador que trata da “ rapidez e facilidade para retirar dinheiro” recebeu o maior índice de satisfação, assim como o bloco comunicação com clientes; e o indicador “emissão dos comprovantes das transações realizadas ” recebeu o maior índice de importância, assim como o bloco comunicação com os clientes. Assim, analisou-se, definiu-se e realizou-se um modelo para avaliação da satisfação do cliente com as tecnologias da informação nos serviços bancários.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Internet, apesar de sua grande popularização, é ainda uma incógnita sob o ponto de vista de seu alcance comercial e de suas implicações no estudo do Comportamento do Consumidor. Numerosos estudos estão sendo desenvolvidos, porém dentro de um contexto teórico clássico de Marketing, isto é, posicionando-a como um instrumento “midiático”. Diferentemente, este trabalho procura vê-la como um canal de marketing, analisando-a através da resposta de 726 usuários da Companhia de Processamento de Dados do Rio Grande do Sul – PROCERGS, provedor de acesso à Internet do Rio Grande do Sul. Foi possível identificar sete dimensões características do processo de compra na rede: 1) comodidade, 2) atendimento, 3) conteúdo informacional do site, 4) apresentação e interface da home page, 5) segurança, 6) taxa e tempo de entrega e 7) oferta de produtos. O estudo mostra que a oferta de produtos e a comodidade são os fatores que influenciam a decisão de compra, enquanto que a apresentação/interface da home page, a segurança e o atendimento são os fatores mais preponderantes na decisão de NÃO compra. Também são apresentadas as diferenças percebidas pelos usuários entre a compra realizada na Internet e a efetuada nos canais tradicionais. A avaliação da Internet como canal de compra é finalizada com a identificação dos atributos determinantes da compra pela rede.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação, apresenta-se um estudo de caso, focando-se duas áreas distintas em empresa industrial do ramo automobilístico, situada na região metropolitana de Curitiba, no estado do Paraná e localizada na região sul-brasileira. Neste estudo, buscou-se identificar os fatores dificultadores e os facilitadores presentes na implementação e manutenção do modelo de trabalho por processos com Equipes Autogerenciadas (EAGs), a partir da percepção dos seus membros. Para efeito de ambientação deste tema, na fase exploratória da pesquisa também foram envolvidos os coordenadores e gerentes das áreas da empresa objeto do estudo. A investigação é de natureza qualitativa, valendo-se também do auxílio dos recursos de processamento estatístico de dados. Inicialmente se conduziu uma pesquisa exploratória seguida de uma pesquisa descritiva, esta, estruturada a partir dos dados obtidos na fase exploratória e do referencial teórico utilizado. O estudo teve o tema como unidade de registro, o que possibilitou a comparação dos resultados encontrados, à luz de alguns pressupostos teóricos. Os resultados da pesquisa apontam para a predominância de fatores dificultadores presentes nas áreas pesquisadas e referentes ao modelo de trabalho com EAGs, devendo-se estar atento à expectativa de incremento do empoderamento das mesmas, bem como do devido reconhecimento, por parte da empresa, em relação às responsabilidades e habilidades adicionais adquiridas pelos membros das mesmas EAGs. Sugere-se que o treinamento em habilidades comportamentais, bem como a melhoria do atual sistema de divulgação das informações também sejam revisados e desenvolvidos pela Empresa junto às áreas estudadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos a realizar diferentes tarefas. Estes sistemas são capazes de reconhecer padrões em imagens complexas. Técnicas de visão computacional têm encontrado crescente aplicação em estudos e sistemas de controle e monitoração de tráfego de automóveis. Uma das áreas de pesquisa que tem sido objeto de estudo por diferentes grupos é a leitura automática de placas de matrículas como forma de detectar transgressores, encontrar carros roubados ou efetuar estudos de origem/destino [BAR99]. Com o constante crescimento do volume de tráfego de automóvel e a limitada capacidade dos sensores convencionais, especialistas da área recorrem a técnicas de identificação automática de veículos para obter dados relativos ao escoamento de tráfego. A identificação automática de veículos tem tido essencialmente duas abordagens distintas: a utilização de transponders e a utilização de técnicas de visão computacional [INI85] . Estas são essencialmente úteis em casos em que não é viável obrigar os motoristas a instalar transponders em seus automóveis. No entanto, essas técnicas são mais sensíveis às condições atmosféricas e de iluminação tais como nevoeiros, chuva intensa, luz noturna, reflexos em superfícies, etc. Este trabalho apresenta um estudo de diversas técnicas de processamento de imagem objetivando o aperfeiçoamento de um sistema de identificação automática de placas de veículos. Este aperfeiçoamento está relacionado com a diminuição do tempo de execução necessário à localização e reconhecimento dos caracteres contidos nas placas dos veículos bem como a melhorar a taxa de sucesso no seu reconhecimento. A primeira versão do sistema de identificação da placas de veículos descrito em [SOU2000], desenvolvido no CPG-EE da UFRGS, denominado SIAV 1.0, localiza e extrai 91,3% das placas corretamente mas apresenta uma taxa de reconhecimento das placas de 37,3%, assim como um tempo de processamento não satisfatório. Neste trabalho, cujo sistema desenvolvido é denominado SIAV 2.0, a imagem é previamente processada através da aplicação de técnicas de realce da imagem. O principal objetivo das técnicas de realce é processar a imagem de modo que o resultado seja mais apropriado para uma aplicação específica do que a imagem original [GON93]. O sistema busca melhorar a qualidade da imagem eliminando ou suavizando sombras e reflexos presentes na cena em virtude da iluminação não controlada. Visando um menor tempo de execução durante o tratamento e análise da imagem um estudo estatístico baseado na distribuição gaussiana foi realizado de maneira a restringir a área de análise a ser processada. O SIAV possui duas redes neurais como ferramentas de reconhecimento de caracteres. A partir da análise dos diferentes modelos de redes neurais empregados na atualidade, foi desenvolvida uma nova arquitetura de rede a ser utilizada pelo SIAV 2.0 que oferece uma taxa de reconhecimento superior a rede neural usada no SIAV 1.0. Visando um melhor tempo de execução, a implementação em hardware dedicado para este modelo é abordado. Os testes foram realizados com três bancos de imagens obtidas por câmeras diferentes, inclusive por dispositivo "pardal" comercial. Estes testes foram realizados para verificar a efetividade dos algoritmos aperfeiçoados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresentamos mecanismos de formação e de degradação térmica de filmes fi- nos (espessura da ordem de 10 nm) de diferentes dielétricos sobre substrato de silício monocristalino. Tendo em vista a aplicação dessas estruturas em MOSFETs (transistores de efeito de campo metal-óxido-semicondutor), estudamos o consagrado óxido de silício (SiO2), os atuais substitutos oxinitretos de silício (SiOxNy) e o possível substituto futuro óxido de alumínio (Al2O3). Nossos resultados experimentais baseiam-se em técnicas preparativas de substituição isotópica e de caracterização física com feixes de íons (análise com reações nucleares) ou raios- X (espectroscopia de fotoelétrons). Observamos que: (a) átomos de silício não apresentam difusão de longo alcance (além de ~ 2 nm) durante o crescimento de SiO2 por oxidação térmica do silício em O2; (b) nitretação hipertérmica é capaz de produzir filmes finos de oxinitreto de silício com até dez vezes mais nitrogênio que o resultante do processamento térmico usual, sendo que esse nitrogênio tende a se acumular na interface SiOxNy/Si; e (c) átomos de oxigênio, alumínio e silício migram e promovem reações químicas durante o recozimento térmico de estruturas Al2O3/SiO2/Si em presença de O2. Desenvolvemos um modelo de difusão-reação que poderá vir a permitir o estabelecimento de condições ótimas de processamento térmico para filmes finos de Al2O3 sobre silício a serem empregados na fabricação de MOSFETs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em função da importância do processo de jigagem no beneficiamento de carvão no Brasil, onde 95% da produção bruta, ROM, é beneficiada em jigues para a obtenção de carvão energético ou carvão pré-lavado, e da inexistência de um trabalho sistemático de caracterização deste processo, esta dissertação apresenta um estudo detalhado do desempenho de jigues no beneficiamento de carvão nacional, através do levantamento dos critérios de avaliação de performance dependentes e independentes derivados das curvas de partição e análises densimétricas dos diversos produtos. São desenvolvidos "softwares" para o processamento dos diversos dados levantados "in situ", com aplicação nas áreas de cálculo de balanços de massas e metalúrgico, processamento de análises densimétricas, cálculo de coeficientes de partição, modelamento matemático de curvas de partição e cálculo dos critérios de avaliação de performance. Conclue-se que, de um modo geral, o processo de jigagem é mal empregado no Brasil, conduzindo obtenção de produtos de baixa recuperação. Isto ocorre basicamente em função das características peculiares do carvão nacional e do fato que, no Brasil, utiliza-se jigues de fabricação estrangeira, dimensionados para outros tipos de carvões de melhor qualidade. Este trabalho pretende alertar aos profissionais da área e oferece algumas sugestões com o objetivo de melhorar a baixa eficiência do beneficiamento de carvão observada em diversos lavadores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As tecnologias que criaram as ferrovias, a concentração de mercados urbanos, o surgimento da produção em massa, a eletrificação e a introdução do motor de combustão interna compuseram uma longa cadeia de forças responsáveis pelo impacto na reestruturação dos negócios, na economia política como um todo e, naturalmente, na relação do homem com o seu trabalho. A tecnologia da informação (TI) pode ser considerada a mais recente e influente das tecnologias inseridas na sociedade, trazendo consigo uma série de impactos bem como a necessidade de pesquisas para o melhor entendimento desse novo fenômeno. O presente estudo teve como objetivo avaliar a percepção de bancários em relação ao impacto da TI sobre seu trabalho. Para tanto, foi adaptado e validado para o contexto brasileiro um instrumento de pesquisa criado por Torkzadeh e Doll capaz de medir a percepção do usuário em relação ao impacto da TI sobre seu trabalho individual e, para ampliar os estudos sobre o impacto da TI, foi elaborada e validado um instrumento de avaliação do impacto da TI sobre o processo decisório individual. A pesquisa classifica-se como um estudo exploratório descritivo, utilizando o método estatístico no que se refere à obtenção, ao processamento e à validação dos dados. A coleta de dados obedeceu à concepção dos estudos transversais, ao passo que a estratégia para a obtenção dos mesmos baseou-se na realização de 411 entrevistas com funcionários do banco que se encontravam trabalhando, durante o período da pesquisa (dezembro de 2002), na rede de agências ou na sede administrativa de dez capitais brasileiras, selecionadas para esta survey. A presente pesquisa obteve como resultado do instrumento adaptado de Torkzadeh e Doll (1999) uma significante diferença estatística entre as médias das variáveis de análise e confirmou a percepção de que a TI causa impacto em primeiro lugar na produtividade; em segundo, na satisfação dos clientes; em terceiro, no controle gerencial; e, por último, na inovação. O instrumento sobre processo decisório demonstrou uma diferente e maior percepção de impacto da TI sobre a fase denominada concepção e uma semelhante e menor percepção de impacto sobre as demais fases do processo (implementação, inteligência e escolha).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A filtragem de imagens visando a redução do ruído é uma tarefa muito importante em processamento de imagens, e encontra diversas aplicações. Para que a filtração seja eficiente, ela deve atenuar apenas o ruído na imagem, sem afetar estruturas importantes, como as bordas. Há na literatura uma grande variedade de técnicas propostas para filçtragem de imagens com preservação de bordas, com as mais variadas abordagens, deentrte as quais podem ser citadas a convolução com máscaras, modelos probabilísticos, redes neurais, minimização de funcionais e equações diferenciais parciais. A transformada wavelet é uma ferramenta matemática que permite a decomposição de sinais e imagens em múltiplas resoluções. Essa decomposição é chamada de representação em wavelets, e pode ser calculada atrravés de um algorítmo piramidal baseado em convoluções com filtros passa-bandas e passa-baixas. Com essa transformada, as bordas podem ser calculadas em múltiplas resoluções. Além disso, como filtros passa-baixas são utilizados na decomposição, a atenuação do ruído é um processo intrínseco à transformada. Várias técnicas baseadas na transformada wavelet têm sido propostas nos últimos anos, com resultados promissores. Essas técnicas exploram várias características da transformada wavelet, tais como a magnitude de coeficientes e sua evolução ao longo das escalas. Neste trabalho, essas características da transformada wavelet são exploradas para a obtenção de novas técnicas de filtragem com preservação das bordas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho apresenta o estudo e implementação de um algoritmo numérico para análise de escoamentos turbulentos, tridimensionais, transientes, incompressíveis e isotérmicos, através da Simulação de Grande Escalas, empregando o Método de Elementos Finitos. A modelagem matemática do problema baseia-se nas equações de conservação de massa e quantidade de movimento de um fluido quase-incompressível. Adota-se um esquema de Taylor-Galerkin, com integração reduzida e fórmulas analíticas das funções de interpolação, para o elemento hexaédrico de oito nós, com funções lineares para as componentes de velocidade e constante no elemento para a pressão. Para abordar o problema da turbulência, emprega-se a Simulação de Grandes Escalas, com modelo para escalas inferiores à resolução da malha. Foram implementados o modelo clássico de Smagorinsky e o modelo dinâmico de viscosidade turbulenta, inicialmente proposto por Germano et al, 1991. Uma nova metodologia, denominada filtragem por elementos finitos independentes, é proposta e empregada, para o processo de segunda filtragem do modelo dinâmico. O esquema, que utiliza elementos finitos independentes envolvendo cada nó da malha original, apresentou bons resultados com um baixo custo computacional adicional. São apresentados resultados para problemas clássicos, que demonstram a validade do sistema desenvolvido. A aplicabilidade do esquema utilizado, para análise de escoamentos caracterizados por elevados números de Reynolds, é discutida no capítulo final. São apresentadas sugestões para aprimorar o esquema, visando superar as dificuldades encontradas com respeito ao tempo total de processamento, para análise de escoamentos tridimensionais, turbulentos e transientes .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho descreve uma implementação de um modelo de escalonamento para a linguagem de programação DPC++. Esta linguagem, desenvolvida no Instituto de Informática da UFRGS, possibilita que uma aplicação orientada a objetos seja distribuída entre vários processadores através de objetos distribuídos. Muito mais que uma simples biblioteca de comunicação, o DPC ++ torna a troca de mensagens totalmente transparente aos objetos. A integração do DPC++ com o DECK, também em desenvolvimento, trará grandes inovações ao DPC++, principalmente pelo uso de theads. O escalonador proposto para este modelo utiliza estes recursos para implantar os chamados processos espiões, que monitoram a carga de uma máquina, enviando seus resultados ao escalonador. O escalonador implementado possui, desta forma, dois módulos: objetos espiões implementados como um serviço do DECK e o escalonador propriamente dito, incluído no objeto Diretório, parte integrante do DPC++.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação é estruturada em três partes. Na primeira, revisa-se a noção de filtro sensorial, com enfoque particular no paradigma do P50, uma técnica eletroneurofisiológica de extremo valor para a investigação da neurobiologia básica subjacente aos defeitos de processamento sensorial que caracterizam algumas doenças mentais, e mais particularmente a esquizofrenia, sobre a qual dedica-se especial interesse. Na segunda, revisa-se a hipótese, proposta recentemente por Lara e Souza (2000), de hipofunção adenosinérgica como disfunção bioquímica básica na esquizofrenia, à luz das evidências mais recentes. Na terceira, desenvolve-se um trabalho experimental original com o intuito de investigar a hipótese hipoadenosinérgica da esquizofrenia. Trata-se de um desafio farmacológico, de um ensaio clínico cruzado onde 13 voluntários hígidos foram submetidos a tratamento com teofilina (um antagonista não-seletivo dos receptores de adenosina do tipo A1 e A2A) e a placebo, em dois momentos diferentes, tendo se avaliado os seus potenciais evocados de acordo com o paradigma do P50 antes (em seu valor basal) e após o tratamento, levantando-se uma curva de efeito com base no tempo. Paralelamente, avaliaram-se 17 pacientes com diagnóstico estabelecido de esquizofrenia, clinicamente estáveis, em acompanhamento ambulatorial e em uso de medicação neuroléptica típica, com a intenção de fornecer um grupo adicional de comparação e de replicar os achados prévios de falha de supressão do componente P50 na esquizofrenia, um aspecto fundamental para demonstrar o domínio da metodologia experimental, que foi aqui empregada pela primeira vez em nosso meio. Este estudo foi capaz de mostrar que a indução de um estado transitório de hipofunção adenosinérgica em indivíduos normais, mostra perda da supressão. Em outras palavras, que déficits no processamento da informação auditiva, que não existiam nos indivíduos normais, foram provocados pela utilização de teofilina, que, bloqueando os receptores de adenosina A1 e A2A, provocou um estado hipoadenosinérgico transitório. A disfunção provocada pela teofilina foi da mesma ordem de grandeza da verificada nos pacientes com esquizofrenia. Estes resultados fornecem evidência que corroboram o modelo de hipofunção adenosinérgica para a esquizofrenia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso da recuperação de processos para obter sistemas computacionais tolerantes a falhas não é um assunto novo. Entretanto, a discussão de algoritmos para a recuperação em sistemas distribuídos, notadamente aqueles que se enquadram na categoria assíncrona, ainda encontra pontos em aberto. Este é o contexto do presente trabalho. Este trabalho apresenta um novo algoritmo de recuperação por retorno, em sistemas distribuídos. O algoritmo proposto é do tipo coordenado, e seus mecanismos componentes determinam que seja classificado como um algoritmo baseado em índices (index-based coordinated). Desta forma, a tolerância a falhas é obtida através do estabelecimento de linhas de recuperação, o que possibilita um retorno consideravelmente rápido, em caso de falha. Seu desenvolvimento foi feito com o objetivo de minimizar o impacto ao desempenho do sistema, tanto quando este estiver operando livre de falhas como quando ocorrerem as falhas. Além disso, os mecanismos componentes do algoritmo foram escolhidos visando facilitar a futura tarefa de implementação. A satisfação dos objetivos decorre principalmente de uma importante característica assegurada pelos mecanismos propostos no algoritmo: o não bloqueio da aplicação, enquanto é estabelecida uma nova linha de recuperação. Esta característica, associada ao rápido retorno, oferece uma solução promissora, em termos de eficiência, para a recuperação, um vez que o impacto no desempenho tende a ser reduzido, quando o sistema encontra-se operando em ambas condições: livre de erros ou sob falha. Diferentemente da maioria dos algoritmos coordenados encontrados na literatura, o algoritmo proposto neste trabalho trata as mensagens perdidas. A partir da análise das características das aplicações, bem como dos canais de comunicação, quando estes interagem com o algoritmo de recuperação, concluiu-se que os procedimentos usados para recuperação de processos devem prever o tratamento desta categoria de mensagens. Assim, o algoritmo proposto foi incrementado com um mecanismo para tratamento das mensagens que têm o potencial de tornarem-se perdidas, em caso de retorno, ou seja, evita a existência de mensagens perdidas. Uma das decisões tomadas durante o desenvolvimento do algoritmo foi a de permitir um processamento não determinístico. Na realidade, esta escolha visou o aumento do espectro das falhas que poderiam ser tratadas pela recuperação. Tradicionalmente, a recuperação por retorno é empregada para tolerar falhas temporárias. Entretanto, a diversidade de ambiente, freqüente nos SDs, também pode ser usada para tolerar algumas falhas permanentes. Para verificar a correção do algoritmo, decidiu-se empregar um formalismo existente. Assim, a lógica temporal de Lamport (TLA) foi usada na especificação dos mecanismos do algoritmo bem como em sua demonstração de correção. O tratamento referente às mensagens perdidas, atrav´es do uso de mensagens de resposta, associado com o uso de uma lógica temporal, levou à necessidade de rever os critérios de consistência. Esta revisão gerou um conjunto de fórmulas de consistência ajustadas à existência de mensagens de diferentes classes: mensagens da aplicação e mensagens de resposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O gerenciamento de recursos hídricos visa solucionar conflitos resultantes do uso intensivo da água, resultado do crescimento econômico e populacional, bem como assegurar que a água, recurso natural, finito e insubstituível à vida, se mantenha com oferta adequada e preserve as funções hidrológicas, biológicas e químicas dos ecossistemas. Um dos instrumentos de suporte para esta atividade é a “outorga de uso”, licença emitida pelo Estado, para que o usuário possa derivar determinados volumes de água para atender suas necessidades. Para a instrução de um processo de outorga, é necessário o cotejo de duas grandezas fundamentais: a disponibilidade hídrica (oferta) e a demanda. A demanda pode ser estimada a partir do cadastramento de usuários, dinâmico e contínuo no tempo. A disponibilidade hídrica varia no tempo e no espaço e é estimada a partir da avaliação do regime hidrológico da bacia. Esta é a informação básica de apoio à decisão e possui diversas interpretações, função de particularidades jurídicas, sociais, ambientais e econômicas de cada região. Sendo assim, o objetivo da presente tese se insere na fase inicial de instrução do processo de outorga (planejamento) e a contribuição se concentra na avaliação de aspectos técnicos e conceituais que embasam duas etapas relativas à (i) avaliação de disponibilidades hídricas para outorga, definidas por curvas de permanência de vazões e considerando os aspectos de variabilidade, sazonalidade, aleatoriedade e erros de estimativas; (ii) gerenciamento da outorga, considerando o equacionamento do problema de outorga para atendimento da demanda, bem como a avaliação da influência de diferentes aspectos no atendimento da demanda e na conservação ambiental, através do balanço hídrico do sistema. Para o desenvolvimento da pesquisa foram utilizados dados fluviométricos existentes das bacias dos rios Vacacaí, Vacacaí-Mirim, Pardo, Pardinho e Baixo Jacuí, pertencentes à bacia do rio Guaíba, no Rio Grande do Sul. Os estudos com simulação de outorga foram aplicados às seções de referência definidas em estudo anterior na bacia do Baixo Jacuí. Foram estudados dois critérios para obtenção da curva de permanência de vazões. O primeiro aceita a hipótese de que a curva representa o risco ou probabilidade no período da amostra. Neste critério, tradicionalmente utilizado em hidrologia, a freqüência de excedência é calculada pelo processamento conjunto de toda série histórica de vazões. O segundo critério aceita a hipótese de que cada ano é um evento hidrológico independente e prevê o cálculo de uma curva de permanência de vazões para cada ano. Neste critério, a disponibilidade hídrica é caracterizada pela média das curvas e respectivo intervalo de confiança, o qual representa a variabilidade interanual das vazões. Para consideração da sazonalidade, foi adotado o critério de cálculo das curvas de permanência obtidas para cada mês do ano. Para o cotejo entre a disponibilidade hídrica (vazão de referência) e a demanda, foi utilizado um modelo de balanço hídrico otimizado, considerando todo sistema e vazões de referência como disponibilidade, desenvolvido em planilha eletrônica. A aplicação do modelo, considerando a variabilidade e sazonalidade da disponibilidade hídrica e diferentes critérios de outorga, permitiu avaliar oito diferentes aspectos do problema de outorga e concluir pela adequabilidade da técnica para seu planejamento, bem como análise de cenários futuros e cenários de racionamento. A grande diferença entre os valores outorgados com as disponibilidades estimadas pelos critérios da série toda e do ano a ano, indica que ambos devem ser considerados no planejamento da outorga, embora não sejam concorrentes entre si e a escolha entre eles reflita o risco a ser selecionado pelos planejadores para a outorga. Posteriormente, foi realizada uma análise do desempenho do modelo de proporção de áreas e de uma versão modificada deste, para transferência de informações fluviométricas de uma seção com dados para outra sem, a partir de uma pequena amostragem no local. Os resultados mostraram que o modelo modificado é uma técnica potencialmente mais adequada, para a síntese de informações em locais com poucos dados, do que a simples proporção de áreas e de técnicas de regionalização. Isso porque consegue sintetizar a influência de particularidades relativas a fatores antropogênicos, geomorfológicos e pedológicos. Foram realizadas, também, simulações de verificação das conseqüências ambientais das outorgas planejadas com o modelo otimizado, que mostraram que o critério de outorga, baseado em vazões de referência, é pouco agressivo ao ambiente. Isso devido à fraca influência na alteração do padrão de pulsos hidrológicos dos rios, devendo-se, porém, tomar cuidado quando do seu uso em sistemas sujeitos a obras de regularização.