130 resultados para Herdeiros necessários
Resumo:
O segmento de fast food está em expansão e, ao mesmo tempo, sofrendo alterações em seus processos operacionais. Para o estudo do segmento em Campo Grande, MS, é necessária a análise da dimensão nacional do segmento. Essa dissertação investiga a estrutura competitiva atual do segmento de fast food nesta cidade, sob a ótica dos conceitos de Michael E. Porter (1980), com o complemento da identificação dos recursos e competências necessários para uma operação de sucesso no segmento. Além disso, são descritos os possíveis desdobramentos na evolução do setor, na visão de especialistas do segmento.
Resumo:
Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.
Resumo:
Este trabalho consistiu no desenvolvimento de revestimentos protetores contra carburização em ligas HP-40Nb, utilizadas na em fornos de pirólise para produção de olefinas, e do desenvolvimento de aparatos e técnicas para o teste, avaliação e caracterização destes revestimentos em ambientes fortemente carburizantes. Foram testados vários tipos de revestimentos, podendo estes ser resumidos em três grupos: i) camada de difusão de elementos específicos para o interior do metal (Al, Cu e Sn); ii) recobrimento com liga metálica (Ni-50Cr e Ni-5Al) e iii) recobrimento cerâmico (Al2O3, Cr2O3 e Al2O3 - TiO2). Além de revestimentos e camadas de difusão, um quarto tipo de material foi testado em sua resistência à carburização: ligas do tipo Fe-Cr- Al. A fim de testar os revestimentos e materiais desenvolvidos foram testados vários meios carburizantes. O que se mostrou mais adequado foi a mistura gasosa de hidrogênio e n-hexano, a uma temperatura de 1050°C. Foi construído um aparato exclusivamente para estes ensaios de carburização, o qual também foi utilizado para realizar os tratamentos de difusão necessários para produzir alguns dos revestimentos. A avaliação da resistência a carburização dos revestimentos e materiais foi feita por medição da profundidade de avanço da zona de precipitação de carbetos causada pela carburização, feito com auxílio de microscópio ótico. Os resultados dos ensaios mostraram que as camadas de difusão de alumínio, o revestimento da liga Ni-50Cr, o revestimento cerâmico de Al2O3 e as ligas Fe-Cr-Al tiveram bom ou ótimo desempenho como barreiras contra a carburização. Os outros revestimentos ou permitiram a penetração de carbono no metal base ou causaram uma deposição exagerada de coque na superfície dos corpos de prova.
Resumo:
O objetivo do presente trabalho conduzido na Estação Experimental Agronômica da Universidade Federal do Rio Grande do Sul em Eldorado do Sul, RS, em um solo Podzólico Vermelho Amarelo, foi avaliar nove cultivares de melancia (Citrullus lanatus) buscando identificar cultivares de melhor adaptação à região, possibilitando o cultivo em anos sucessivos na mesma área, pois os produtores devido a problemas fitossanitários buscam a cada cultivo novas áreas para produzir. A semeadura no espaçamento 3,0m x 1,5m, foi feita em novembro, com ressemeadura em dezembro de 2000. As cultivares foram avaliadas quanto à produtividade e ocorrência de doenças. Em termos de produtividade, a cultivar Vista F1, com 10,8 t.ha-1, foi significativamente mais produtiva que a cultivar Vitória F1 (2,6 t.ha-1). Quanto a ocorrência de doenças, a cultivar Athens F1 apresentou o menor número de plantas com sintomas de antracnose (Colletotrichum orbiculare), com 5,4 plantas, diferindo estatisticamente das cultivares Vista F1, Crimson Select, Crimson Magic F1, com 9,2, 8,6, 8,5 plantas, respectivamente, e das cultivares Vitória F1, Arriba F1 e Verona F1, com 8,1 plantas com sintomas. O peso 6,4 Kg por fruto da cultivar Crimson Magic F1 foi significativamente maior que o peso de frutos das cultivares Vitória F1 (4,4 Kg) e Crimson Sweet (4,4 Kg). O peso de melancias das demais cultivares foi intermediário e não diferiu estatisticamente do peso médio da cultivar Crimson Magic F1. Na classificação dos frutos por peso, somente as cultivares Athens F1 e Vista F1 apresentaram frutos com peso acima de 10 Kg, frutos na categoria especial. As cultivares Verona F1, Crimson Magic F1 e Vista F1 apresentaram a melhor performance em relação ao número de frutos na categoria 1, isto é, frutos com peso entre 6 e 10 Kg . As cultivares Vista F1 e Crimson Magic F1 destacaram-se na produtividade e a cultivar Athens F1 destacou-se na resistência a antracnose. Estas cultivares são promissoras, mas são necessários novos ensaios para consolidar estes resultados.
Resumo:
O presente trabalho está baseado na abordagem de gestão por competências, principalmente nos estudos sobre competências organizacionais e gerenciais. Desenvolve-se sob a lógica de que as competências organizacionais estão fundamentadas nas competências gerenciais e que as competências organizacionais são diretrizes ao desenvolvimento das competências gerenciais. A pesquisa tem como principal objetivo estudar a aplicação da gestão de competências organizacionais básicas e gerenciais em uma empresa pública tendo como referência a estratégia empresarial da mesma. O estudo foi dividido nas seguintes etapas: caracterização das diretrizes estratégicas; desenvolvimento de competências organizacionais básicas; desenvolvimento de competências gerenciais; estabelecimento de vínculos entre as competências gerenciais e os cargos da organização e estudo sobre os principais recursos de competências necessários. O estudo foi realizado no Porto de Itajaí, Itajaí – SC. A metodologia de pesquisa foi exploratória, de natureza qualitativa, com base em entrevistas semiestruturadas junto a gestores e usuários do Porto de Itajaí, em pesquisa documental e em observação direta. Ao final, conclui-se a viabilidade da aplicação dos conceitos de gestão por competências em empresas públicas com restrições na contratação e remuneração dos funcionários, devido à legislação que regulamenta o funcionalismo público.
Resumo:
Introdução: Os potenciais evocados auditivos e visuais são propostos como exames úteis no diagnóstico da encefalopatia hepática subclínica. Entretanto não existem estudos demonstrando a sua utilidade na população de pacientes pediátricos. Este estudo foi realizado na tentativa de avaliar diferentes tipos de potenciais na detecção da encefalopatia hepática subclínica na população pediátrica candidata a transplante hepático. Métodos: Realizou-se um estudo de caso controle onde potenciais evocados auditivos e visuais foram realizados em 15 pacientes pediátricos candidatos a transplante hepático que não apresentavam sinais clínicos de encefalopatia hepática. As latências de onda obtidas, nesses exames, foram comparadas com 16 controles saudáveis com faixas etárias similares. Exames laboratoriais de função hepática e eletroencefalograma foram, também, realizados para examinar as suas correlações com os resultados dos potenciais evocados. Resultados: Não foram encontradas diferenças, estatisticamente significativas entre os pacientes e os controles nos potenciais evocados auditivos, porém no potencial evocado visual, os pacientes candidatos a transplante hepático demonstraram latências N1 (N75) significativamente prolongadas quando comparadas com os controles. Não houve atraso significativo nas outras ondas. Por outro lado, latências prolongadas no potencial evocado auditivo tiveram uma correlação positiva com anormalidades no eletroencefalograma, apenas entre crianças com patologia hepática. Tal correlação não foi observada no potencial evocado visual. Conclusões: Os potenciais evocados podem ser usados na detecção de alterações relacionadas à encefalopatia hepática nos pacientes pediátricos, todavia outros estudos são necessários para determinar as suas especificidades e sensibilidades.
Resumo:
O presente trabalho trata da Administração Baseada em Valor (VBM do inglês Value Based Management), que é uma ferramenta de auxílio à administração de empresas, que busca a identificação de value drivers, que são controles internos a serem monitorados, que devem abranger os principais pontos vistos pelo mercado como criadores de valor, pois o objetivo central da VBM é a majoração de valor para o acionista. A VBM também se utiliza do fluxo de caixa descontado (DCF do inglês Discounted Cash Flow). O objetivo central desta dissertação é fazer uma análise comparativa da estrutura interna de funcionamento e acompanhamento e dos controles de uma organização do segmento de telecomunicações com a filosofia da VBM, identificando o distanciamento de uma para com a outra. A empresa pesquisada é a Dígitro Tecnologia Ltda., de Florianópolis, que não utiliza a VBM. É uma pesquisa quantitativa e foi desenvolvida através do método de estudo de caso. Sua investigação foi dividida em três pontos principais: (1) a identificação, na empresa, da estrutura básica necessária para a implantação da Administração Baseada em Valor, (2) os itens necessários para se montar um DCF e (3) os controles internos possuídos pela organização, que possam servir como value drivers ou suas intenções de implantar controles. O estudo de caso foi único e exploratório, contando com a aplicação de entrevistas semi-estruturadas, observação direta e coleta de documentos. Conclui-se que a organização pesquisada está distante da filosofia da VBM, porém, com intenção de utilizar-se de inúmeros conceitos da Administração Baseada em Valor para auxiliar sua gestão.
Resumo:
O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.
Resumo:
Este trabalho apresenta uma arquitetura para Ambientes de Desenvolvimento de Software (ADS). Esta arquitetura é baseada em produtos comerciais de prateleira (COTS), principalmente em um Sistema de Gerência de Workflow – SGW (Microsoft Exchange 2000 Server – E2K) - e tem como plataforma de funcionamento a Internet, integrando também algumas ferramentas que fazem parte do grande conjunto de aplicativos que é utilizado no processo de desenvolvimento de software. O desenvolvimento de um protótipo (WOSDIE – WOrkflow-based Software Development Integrated Environment) baseado na arquitetura apresentada é descrito em detalhes, mostrando as etapas de construção, funções implementadas e dispositivos necessários para a integração de um SGW, ferramentas de desenvolvimento, banco de dados (WSS – Web Storage System) e outros, para a construção de um ADS. O processo de software aplicado no WOSDIE foi extraído do RUP (Rational Unified Process – Processo Unificado Rational). Este processo foi modelado na ferramenta Workflow Designer, que permite a modelagem dos processos de workflow dentro do E2K. A ativação de ferramentas a partir de um navegador Web e o armazenamento dos artefatos produzidos em um projeto de software também são abordados. O E2K faz o monitoramento dos eventos que ocorrem dentro do ambiente WOSDIE, definindo, a partir das condições modeladas no Workflow Designer, quais atividades devem ser iniciadas após o término de alguma atividade anterior e quem é o responsável pela execução destas novas atividades (assinalamento de atividades). A arquitetura proposta e o protótipo WOSDIE são avaliados segundo alguns critérios retirados de vários trabalhos. Estas avaliações mostram em mais detalhes as características da arquitetura proposta e proporcionam uma descrição das vantagens e problemas associados ao WOSDIE.
Resumo:
O objetivo desta dissertação é a elaboração de uma técnica da aplicação do formalismo de Autômatos Finitos com Saída (Máquina de Mealy e Máquina de Moore) como um modelo estrutural para a organização de hiperdocumentos instrucionais, em destacar especial, Avaliação e Exercício. Esse objetivo é motivado pela organização e agilização do processo de avaliação proporcionado ao professor e ao aluno. Existem diferentes técnicas de ensino utilizadas na Internet, algumas dessas continuam sendo projetadas com o uso de metodologias tradicionais de desenvolvimento, outras têm a capacidade de modelar de forma integrada e consistente alguns aspectos necessários para uma aplicação WEB. Para alcançar o objetivo proposto, foram realizadas pesquisas nas várias áreas abrangidas pelo tema em evidência, tanto relativo ao processo tradicional (aplicação de prova utilizando metodologia tradicional), como o desenvolvimento de software mediado por computador e uso da Internet em si. A modelagem de desenvolvimento para Internet deve integrar características de técnicas de projeto de sistemas de hipermídia devido à natureza hipertextual da Internet. O uso de hiperdocumento como autômatos com saída está na forma básica de representação de hipertexto, em que cada fragmento de informação é associado a um nodo ou a um link (estado/transições) do grafo. Sendo assim, os arcos direcionados representam relacionamentos entre os nodos ou links, ou seja, uma passagem do nodo origem para o nodo destino. As n-uplas dos autômatos apresentam uma correspondência as estruturas de hiperdocumentos na WEB, seu estado/transição inicial corresponde a sua primeira página e suas transições definidas na função programa, funcionam como ligações lógicas, quando selecionadas durante a navegação do hipertexto. Entretanto, faz-se necessário um levantamento dos modelos de hipertextos e das ferramentas de implementação disponíveis para a Internet, a fim de que seja capaz de suportar as peculiaridades do ambiente. Tudo isso deve ser integrado preferencialmente em um paradigma de desenvolvimento amplamente aceito, para que os projetistas não tenham muitas dificuldades em assimilar os conceitos propostos. A proposta apresentada nesta dissertação, batizada de Hyper-Automaton (hipertexto e autômato), consiste na integração de um Curso na WEB, utilizando formalismo de Autômatos Finitos com Saída para a modelagem dos conceitos necessários e definição das fases adequadas para completar a especificação de Sistema Exercício e Avaliação, bem como a especificação da Geração Automática dos Exercícios e Avaliações baseadas em autômatos para a WEB. Os modelos criados abrangem conceitos de Máquina de Mealy, Máquina de Moore e Aplicações de Hiperdocumentos e Ferramentas de Programação para Internet, os mesmos já testados em caso real. Os parâmetros apurados, nos testes, serviram a uma seqüência de etapas importantes para modelar e complementar a especificação do sistema projetado. Com os parâmetros e etapas de modelagem, a metodologia Hyper-Automaton consegue integrar, de forma consistente, as vantagens de várias técnicas específicas de modelagem de documentos e sistemas de hipermídia. Essas vantagens, aliadas ao suporte às ferramentas de desenvolvimento para Internet, garantem que a metodologia fique adequada para a modelagem de Sistemas com aplicação de métodos de autômatos para exercícios e avaliação na WEB.
Resumo:
Nos últimos 70 anos têm sido apresentadas várias propostas para caracteriza ção da noção intuitiva de computabilidade. O modelo de Computação mais conhecido para expressar a noção intuitiva de algoritmo é a Máquina de Turing. Esse trabalho apresenta máquinas abstratas que representam diferentes formas de comportamento computacional, sendo possível abordar a diversidade entre a Teoria da Computação Clássica (Máquina de Turing) e a Teoria da Computa- ção Interativa (Máquina de Turing Persistente). Com a evolução dos sistemas de computação, surgiu a necessidade de estender a de nição de Máquina de Turing para tratar uma diversidade de novas situações, esses problemas conduziram a uma mudança de paradigma. Neste contexto foi desenvolvido a Máquina de Turing Persistente, que é capaz de fundamentar a Teoria da Computação Interativa. Máquinas de Turing Persistentes (PeTM) são modelos que expressam comportamento interativo, esse modelo é uma extensão da Máquina de Turing. O presente trabalho tem como objetivo explorar paralelismo na Máquina de Turing Persistente, através da formalização de uma extensão paralela da PeTM e o estudo dos efeitos sobre essa extensão, variando o número de tas de trabalho. Contribui- ções desse trabalho incluem a de nição de uma máquina de Turing Persistente Paralela para modelar computação interativa e uma exposição de conceitos fundamentais e necessários para o entendimento desse novo paradigma. Os métodos e conceitos apresentados para formalização da computação na Máquina de Turing Persistente Paralela desenvolvidos nessa dissertação, podem servir como base para uma melhor compreensão da Teoria da Computação Interativa e da forma como o paralelismo pode ser especi cado em modelos teóricos.
Resumo:
Este trabalho apresenta um estudo de caso de mineração de dados no varejo. O negócio em questão é a comercialização de móveis e materiais de construção. A mineração foi realizada sobre informações geradas das transações de vendas por um período de 8 meses. Informações cadastrais de clientes também foram usadas e cruzadas com informações de venda, visando obter resultados que possam ser convertidos em ações que, por conseqüência, gerem lucro para a empresa. Toda a modelagem, preparação e transformação dos dados, foi feita visando facilitar a aplicação das técnicas de mineração que as ferramentas de mineração de dados proporcionam para a descoberta de conhecimento. O processo foi detalhado para uma melhor compreensão dos resultados obtidos. A metodologia CRISP usada no trabalho também é discutida, levando-se em conta as dificuldades e facilidades que se apresentaram durante as fases do processo de obtenção dos resultados. Também são analisados os pontos positivos e negativos das ferramentas de mineração utilizadas, o IBM Intelligent Miner e o WEKA - Waikato Environment for Knowledge Analysis, bem como de todos os outros softwares necessários para a realização do trabalho. Ao final, os resultados obtidos são apresentados e discutidos, sendo também apresentada a opinião dos proprietários da empresa sobre tais resultados e qual valor cada um deles poderá agregar ao negócio.
Resumo:
O desenvolvimento de projetos de interfaces gráficas está apoiado em guias de recomendações. Estes guias apresentam regras genéricas aos projetos de Interfaces Homem Computador–IHC. Entretanto, aplicações particulares, como as educacionais, não encontram regras específicas que atendam as necessidades do usuário-alvo. Ainda, a análise comparativa entre guias disponíveis aponta contradições entre as recomendações genéricas com aquelas específicas aplicadas a um determinado ambiente. A necessidade de um modelo de referência para a construção de interfaces gráficas amigáveis ao usuário e a escassez e contradições de recomendações específicas às aplicações educacionais motivaram o trabalho de pesquisa prática junto aos usuáriosalvo. Para a identificação das recomendações sobre aspectos gráficos básicos e elementos de navegação necessários a uma efetiva interação com interfaces dedicadas a aplicações educacionais, foi desenvolvido um instrumento de pesquisa que permitiu a investigação das preferências relativas aos aspectos pesquisados junto ao público-alvo. Os dados coletados foram tratados estatisticamente e os resultados obtidos contrariam tanto critérios adotados em interfaces de sistemas de ensino disponíveis na Internet como algumas recomendações sobre os mesmos disponíveis na literatura. Os resultados obtidos apontam, também, para a preferência dos usuários por elementos de navegação que não são referidos nos guias de recomendações consultados. A análise dos resultados possibilitou a geração de um modelo básico que recomenda preferências sobre aspectos gráficos básicos, como aplicação de cores em fontes e fundos de tela, tipologia de fontes para textos e paginação, e também, sobre componentes de navegação, como posicionamento e preferência por tipo de recurso de navegação. O modelo proposto está fundamentado nas recomendações de Nielsen [NIE 00], o qual recomenda que as necessidades dos usuários na interatividade com a interface sejam identificadas junto a estes usuários. As recomendações apresentadas neste trabalho foram utilizadas, inicialmente, nos ambientes educacionais desenvolvidos dentro dos projetos Tapejara [TAP 00] e LaVia [LAV 00].
Resumo:
Dentre as profundas modificações experimentadas na Sociedade e, em especial, as que se produzem no mundo do trabalho, observamos movimentos em direção a formas de trabalho flexível, entre as quais se insere o Teletrabalho. Sem ser propriamente novo no cenário mundial, no Brasil ele surge com maior expressão recentemente, passando a ocupar espaços na mídia em geral e nos ambientes universitários. Todavia, são poucas as referências acadêmicas brasileiras ao assunto e estudos se fazem necessários. Com a pretensão de contribuir com conhecimentos a respeito do assunto, sob o prisma da realidade brasileira e de uma situação particular, o estudo utilizou referências teóricas e empíricas para examinar a viabilidade do Teletrabalho na Companhia de Processamento de Dados do Município de Porto Alegre. Abrangeu a análise de condições organizacionais, técnicas, humanas, legais e sindicais compreendidas na proposta e incluiu, igualmente, uma sugestão para um projeto de demonstração. O estudo, notadamente qualitativo, valoriza as perspectivas de segmentos potencialmente envolvidos num processo de adoção de Teletrabalho pela Empresa, como elemento para a sua compreensão. Foi desenvolvido mediante a realização de entrevistas com representantes dos sindicatos da categoria, dos funcionários e chefias, Diretoria da Empresa e especialistas em assuntos jurídicos e segurança de informações. O estudo concluiu ser a introdução do Teletrabalho viável em parte, num sistema de voluntariado, em regime de tempo parcial e, pelo menos inicialmente, em ambientes de telecentros. Mesmo existindo uma série de condições favoráveis, o atendimento de certos prérequisitos e o equacionamento de dúvidas e dificuldades são essenciais para promover uma implementação adequada, considerando as condições internas da Empresa, seu papel institucional e o contexto social onde está inserida. A pesquisa, na verdade, pode ser considerada um passo inicial dentro de um processo mais amplo, que integra o domínio da tecnologia do Teletrabalho para uso interno na Empresa, se assim for desejado, ou como uma alternativa para proposição de novos serviços a clientes e à comunidade.
Resumo:
O presente trabalho está dividido em três etapas distintas: estudo de parâmetros que afetam o processo de rejuvenescimento de membranas de osmose reversa (OR), análise da influência do pH e da temperatura na performance da membrana e estudo do efeito das cloraminas nas membranas de poliamida (PA). Os experimentos foram realizados em uma unidade de OR de bancada que pode operar com dois tipos de módulos: um para membrana plana e outro para membrana em espiral. A performance das membranas foi avaliada medindo-se a retenção e o fluxo de permeado, utilizando-se soluções contendo 2000 ppm de NaCl e, também, água de alimentação de um sistema de OR industrial. Com o objetivo de aplicar o processo de rejuvenescimento na unidade de OR industrial, estudou-se o efeito da vazão de alimentação da solução de ácido tânico e o estado de limpeza das membranas na eficiência do rejuvenescimento. Os resultados experimentais mostraram que tanto a vazão de alimentação como a limpeza das membranas são parâmetros importantes. Em vazões maiores da solução de ácido tânico, observou-se um aumento maior na retenção de sais após o processo de rejuvenescimento. Nas membranas que não foram adequadamente limpas, a eficiência do rejuvenescimento foi baixa O estudo do pH e da temperatura foi feito para avaliar a influência destes fatores na quantidade e qualidade do permeado. A temperatura foi estudada por se tratar de um parâmetro não controlado na indústria, variando de acordo com as condições climáticas locais. A faixa de temperatura investigada foi de 11,5 a 40 °C. O pH foi estudado porque em alguns sistemas industriais são adicionados produtos químicos na corrente de alimentação da OR com o objetivo de tornar o meio menos propício à corrosão. A faixa de pH estudada foi de 5 a 10. Os resultados obtidos mostraram que a temperatura e o pH são parâmetros que devem ser controlados e otimizados nos sistemas de OR, pois atuam diretamente na performance das membranas. A queda da temperatura diminuiu o fluxo de permeado em até três vezes e o seu aumentou acarretou uma diminuição na retenção de até 8 % em temperatura de 40°. A mudança no pH acarretou mudanças diferentes na performance da membrana, dependendo da solução utilizada A terceira etapa foi realizada para avaliar o efeito das cloraminas nas membranas de PA. Nesta etapa, foi desenvolvida uma técnica para obtenção de soluções ricas em monocloraminas, isentas de cloro livre. Também foram realizados testes onde a membrana foi submetida ao contato com a solução de cloraminas. Os resultados obtidos, em relação à retenção e ao fluxo de permeado não permitem conclusões precisas, portanto mais experimentos são necessários. Embora os resultados em relação ao poder oxidante das monocloraminas sobre as membranas de PA não sejam conclusivos, a metodologia desenvolvida para obtenção das soluções de cloraminas nos experimentos mostrou ser a mais adequada para a continuidade dos estudos. Não foram encontrados na literatura métodos exatos para determinação de cloro livre e cloro combinado em soluções concentradas, portanto o método de análise escolhido foi o método DPD colorimétrico. Apesar deste método apresentar interferências na leitura do cloro livre, o fato de não ter havido degradação das membranas evidencia a inexistência de cloro livre nas soluções preparadas.