234 resultados para NODO
Resumo:
Se reflexiona acerca del cine como arte sintético que ofrece un nodo de encuentro entre diversas expresiones artísticas. De su estudio, se deriva una summa de saberes que le dota de una posición privilegiada para el estudio de la cultura. La adaptación de obras literarias a la pantalla es una misión creativa; una tarea que requiere de una interpretación selectiva. Las nociones modernas sobre la intertextualidad aportan una aproximación más sofisticada en relación con la adaptación y la idea de la literatura como fuente original.
Resumo:
Determinar si las clientelas de centros escolares públicos son socialmente diferenciables; construir sobre los perfiles de las composiciones poblacionales adscritas en cada Centro un escalar que permite evaluar la posición relativa de cada colegio dentro del universo poblacional; concretar si la diferenciación de clientelas de los centros se justificaría suficientemente si sólo tuviéramos en cuenta las composiciones sociales de las zonas correspondientes; averiguar si la adscripción de alumnado a los distintos centros escolares agudiza o mantiene las diferencias zonales existentes; conocer la relación de la movilidad presentada con indicadores de estatus; establecer la incidencia de la disponibilidad de plazas de un centro respecto de su demanda potencial, en esta posible agudización de estatus del alumnado; obtener una caracterización de los comportamientos de adscripción de centros y familias, según reflejen pautas de búsqueda-evitación. 8 centros escolares públicos y 2 centros escolares privados de Cuenta, con un total de 4753 alumnos. Se utilizaron variables dependientes e independientes relacionadas con el estatus familiar. La recogida de datos se realiza a través de unos cuestionarios con los datos resultantes de la observación participante llevada a cabo por profesorado de EGB en prácticas. Se cubrieron la totalidad de los objetivos indicados, y además se estableció: el escalar jerarquizado construido entre los alumnados de todos los colegios públicos de Cuenca, muestra la pervivencia agudizadora de la adscripción diferencial, como filtro previo a la primera escolarización; el análisis de los flujos de movilidad en el nivel inicial de escolarización marca el comportamiento de sus dimensiones de evitación y atracción, y muestra sus efectos en la redistribución segmentada del alumnado entre colegios públicos; la puesta a prueba del criterio de proximidad física confirma que en la adscripción han venido actuando como elemento corrector patrones de distancia total ponderada entre el colegio y la familia, que incluye los aspectos socioeconómicos; la ubicación urbana del centro y su relación radial-social con colegios de otros nodos urbanos próximos influye en la proporción en que sus plazas son cubiertas por clientelas propias o ajenas; las modificaciones propias de la insuficiencia de capacidad, han funcionado como una modalidad de numerus clausus, y han venido actuando de forma unívoca como factor agudizador del perfil del centro; entre centros de un mismo tipo ubicados en el mismo nodo urbano o de gran contigüidad, se dan grados de evitación equivalentes para los segmentos poblacionales que coinciden o rebasan la línea marcada por el estatus del centro; esto hace que ya desde la permanencia, pueda postularse la existencia de una cota o nivel de relación entre el estatus del colegio y la familia que coincide con el nivel de no-reposición, por encima del cual los condicionantes de capacidad no actúan, y que seála el punto de inflexión entre que la movilidad aparezca como elegida por la familia o por el centro, activa/pasiva; lo más obvio es que todo esto ocurre independientemente de lo que se ha dado en llamar calidad, bien sea de equipamientos, docencia, etc., aunque es importante registrar que tiende a repercutir en el autoconcepto de los profesionales. Por lo tanto, se demuestra la existencia de una diferenciación en la composición de las poblaciones escolares que se adscriben a cada centro estudiado, así como en el propio reclutamiento del alumnado que accede a estos centros. Ligados a esta adscripción diferencial se encuentran factores de proximidad físico-social del alumnado al centro, determinados, a su vez, por aspectos socioeconómicos. Es posible observar comportamientos de búsqueda y evitación tanto por parte de los centros en la aceptación de los alumnos, como por parte de la familia en la elección de aquellos.
Resumo:
El proyecto IDE Menorca tiene como objetivo facilitar el acceso y uso de la información territorial existente sobre Menorca. Se integra como nodo local de la IDEIB, y constituye la infraestructura de difusión de la información territorial del sistema de información corporativo común del Consell Insular de Menorca y los ocho ayuntamientos de la isla. El proyecto ha constado de cinco fases: 1. Migración de la cartografía de ficheros a una base de datos espacial, 2. Diseño e implementación de la arquitectura física del sistema 3. Modelo lógico y puesta en funcionamiento de los servicios OGC 4. Desarrollo de la aplicación de visualizador IDE 5. Creación del catálogo de metadatos
Resumo:
Muchas de las nuevas aplicaciones emergentes de Internet tales como TV sobre Internet, Radio sobre Internet,Video Streamming multi-punto, entre otras, necesitan los siguientes requerimientos de recursos: ancho de banda consumido, retardo extremo-a-extremo, tasa de paquetes perdidos, etc. Por lo anterior, es necesario formular una propuesta que especifique y provea para este tipo de aplicaciones los recursos necesarios para su buen funcionamiento. En esta tesis, proponemos un esquema de ingeniería de tráfico multi-objetivo a través del uso de diferentes árboles de distribución para muchos flujos multicast. En este caso, estamos usando la aproximación de múltiples caminos para cada nodo egreso y de esta forma obtener la aproximación de múltiples árboles y a través de esta forma crear diferentes árboles multicast. Sin embargo, nuestra propuesta resuelve la fracción de la división del tráfico a través de múltiples árboles. La propuesta puede ser aplicada en redes MPLS estableciendo rutas explícitas en eventos multicast. En primera instancia, el objetivo es combinar los siguientes objetivos ponderados dentro de una métrica agregada: máxima utilización de los enlaces, cantidad de saltos, el ancho de banda total consumido y el retardo total extremo-a-extremo. Nosotros hemos formulado esta función multi-objetivo (modelo MHDB-S) y los resultados obtenidos muestran que varios objetivos ponderados son reducidos y la máxima utilización de los enlaces es minimizada. El problema es NP-duro, por lo tanto, un algoritmo es propuesto para optimizar los diferentes objetivos. El comportamiento que obtuvimos usando este algoritmo es similar al que obtuvimos con el modelo. Normalmente, durante la transmisión multicast los nodos egresos pueden salir o entrar del árbol y por esta razón en esta tesis proponemos un esquema de ingeniería de tráfico multi-objetivo usando diferentes árboles para grupos multicast dinámicos. (en el cual los nodos egresos pueden cambiar durante el tiempo de vida de la conexión). Si un árbol multicast es recomputado desde el principio, esto podría consumir un tiempo considerable de CPU y además todas las comuicaciones que están usando el árbol multicast serán temporalmente interrumpida. Para aliviar estos inconvenientes, proponemos un modelo de optimización (modelo dinámico MHDB-D) que utilice los árboles multicast previamente computados (modelo estático MHDB-S) adicionando nuevos nodos egreso. Usando el método de la suma ponderada para resolver el modelo analítico, no necesariamente es correcto, porque es posible tener un espacio de solución no convexo y por esta razón algunas soluciones pueden no ser encontradas. Adicionalmente, otros tipos de objetivos fueron encontrados en diferentes trabajos de investigación. Por las razones mencionadas anteriormente, un nuevo modelo llamado GMM es propuesto y para dar solución a este problema un nuevo algoritmo usando Algoritmos Evolutivos Multi-Objetivos es propuesto. Este algoritmo esta inspirado por el algoritmo Strength Pareto Evolutionary Algorithm (SPEA). Para dar una solución al caso dinámico con este modelo generalizado, nosotros hemos propuesto un nuevo modelo dinámico y una solución computacional usando Breadth First Search (BFS) probabilístico. Finalmente, para evaluar nuestro esquema de optimización propuesto, ejecutamos diferentes pruebas y simulaciones. Las principales contribuciones de esta tesis son la taxonomía, los modelos de optimización multi-objetivo para los casos estático y dinámico en transmisiones multicast (MHDB-S y MHDB-D), los algoritmos para dar solución computacional a los modelos. Finalmente, los modelos generalizados también para los casos estático y dinámico (GMM y GMM Dinámico) y las propuestas computacionales para dar slución usando MOEA y BFS probabilístico.
Resumo:
Este estudio da cuenta que la politología boliviana es parte de aquella estructura epistémica en América Latina que hace de nodo en la reproducción del poder colonial condicionando el espacio de lo posible de la política en Bolivia por la vía de la subalternización de saberes y formas de organización política, sobre todo, en un país que se caracteriza por su complejidad social, cultural y política. En este sentido, en lo específico el estudio estribó a estudiar a la ciencia política boliviana como una estructura institucional, es decir, una red compuesta por instituciones intelectuales/académicas (Instituto Latinoamericano de Investigaciones Sociales -ILDIS-Bolivia, Centro Boliviano de Estudios Multidisciplinarios-CEBEM, Fundación boliviana para la capacitación democrática- FUNDEMOS, Fundación Milenio, el Centro de Estudios de la Realidad Económica y Social-CERES, el Programa de Naciones Unidas para el Desarrollo PNUD-Bolivia, la Fundación Boliviana para la Democracia Multipartidaria-FBDM y el Instituto Prisma) todas ellas de algún modo se adscriben a la perspectiva teórica de la corriente institucionalista o a la del Pensamiento ILDIS. La politología boliviana legitimó científicamente la reproducción de la colonialidad del poder y las formas de explotación/dominación emergentes del orden democrático (neo) liberal. A posteriori, con la impronta de los indígenas en el poder al despuntar del siglo XXI, reprodujo la colonialidad del saber en su rol inferiorizador de otras formas de hacer política independientemente del canon de la democracia de occidente.
Resumo:
Estruturas de informações organizadas hierarquicamente estão presentes em muitas áreas. Pode-se citar como exemplos diagramas organizacionais, árvores genealógicas, manuais, estruturas de diretórios, catálogos de bibliotecas, etc. Na última década, várias técnicas têm sido desenvolvidas a fim de permitir a navegação em espaços de informações organizados dessa forma. Essas técnicas buscam proporcionar uma melhor percepção de alguns atributos ou fornecer mecanismos de interação adicionais que vão além da tradicional navegação com barras de rolagem ou câmeras 3D em visualização bi e tridimensional, respectivamente. Dentre as várias alternativas de representação utilizadas nas diversas técnicas para dados hierárquicos destacam-se dois grandes grupos: as que utilizam a abordagem de preenchimento do espaço e as baseadas em diagramas de nodos e arestas. Na primeira o espaço disponível para a representação da estrutura é subdividido recursivamente, de forma que cada subárea representa um nodo da hierarquia. Na segunda, os nodos são representados por figuras geométricas e os relacionamentos, por linhas. Outro critério utilizado para classificá-las é a estratégia que cada uma aplica para exibir os detalhes presentes na estrutura. Algumas técnicas utilizam o método Foco+Contexto de modo a fornecer uma representação visual inteira do espaço de informações, bem como uma visão detalhada de itens selecionados na mesma área de exibição. Outras utilizam a abordagem Visão Geral+Detalhe que possui a característica de exibir essas duas partes (conjunto total e subconjunto de interesse) em áreas separadas. O objetivo do presente trabalho é investigar a integração dessas duas abordagens a partir da proposta da técnica Bifocal Tree. Esta estrutura utiliza um diagrama de nodos e arestas e incorpora os conceitos existentes na abordagem Foco+Contexto guardando, porém uma divisão mais perceptível da visão de contexto e de detalhe. Ela introduz o uso de um segundo foco proporcionando duas áreas de visualização onde são exibidos dois sub-diagramas conectados entre si. Um corresponde à subárvore que contém o trecho da estrutura de interesse do usuário, enquanto o outro representa o contexto da hierarquia visualizada. Possui ainda alguns mecanismos de interação a fim de facilitar a navegação e a obtenção das informações exibidas na estrutura. Experimentos baseados em tarefas realizadas por usuários com a Bifocal Tree, o Microsoft Windows Explorer e o browser MagniFind foram utilizados para a avaliação da técnica demonstrando suas vantagens em algumas situações.
Resumo:
O desenvolvimento de protocolos distribuídos é uma tarefa complexa. Em sistemas tolerantes a falhas, a elaboração de mecanismos para detectar e mascarar defeitos representam grande parte do esforço de desenvolvimento. A técnica de simulação pode auxiliar significativamente nessa tarefa. Entretanto, existe uma carência de ferramentas de simulação para investigação de protocolos distribuídos em cenários com defeitos, particularmente com suporte a experimentos em configurações “típicas” da Internet. O objetivo deste trabalho é investigar o uso do simulador de redes NS (Network Simulator) como ambiente para simulação de sistemas distribuídos, particularmente em cenários sujeitos à ocorrência de defeitos. O NS é um simulador de redes multi-protocolos, que tem código aberto e pode ser estendido. Embora seja uma ferramenta destinada ao estudo de redes de computadores, o ajuste adequado de parâmetros e exploração de características permitiu utilizá-lo para simular defeitos em um sistema distribuído. Para isso, desenvolveu-se dois modelos de sistemas distribuídos que podem ser implementados no NS, dependendo do protocolo de transporte utilizado: um baseado em TCP e o outro baseado em UDP. Também, foram estudadas formas de modelar defeitos através do simulador. Para a simulação de defeito de colapso em um nodo, foi proposta a implementação de um método na classe de cada aplicação na qual se deseja simular defeitos. Para ilustrar como os modelos de sistemas distribuídos e de defeitos propostos podem ser utilizados, foram implementados diversos algoritmos distribuídos em sistemas síncronos e assíncronos. Algoritmos de eleição e o protocolo Primário-Backup são exemplos dessas implementações. A partir desses algoritmos, principalmente do Primário-Backup, no qual a simulação de defeitos foi realizada, foi possível constatar que o NS pode ser uma ferramenta de grande auxílio no desenvolvimento de novas técnicas de Tolerância a Falhas. Portanto, o NS pode ser estendido possibilitando que, com a utilização dos modelos apresentados nesse trabalho, simule-se defeitos em um sistema distribuído.
Resumo:
O objetivo desta dissertação é a elaboração de uma técnica da aplicação do formalismo de Autômatos Finitos com Saída (Máquina de Mealy e Máquina de Moore) como um modelo estrutural para a organização de hiperdocumentos instrucionais, em destacar especial, Avaliação e Exercício. Esse objetivo é motivado pela organização e agilização do processo de avaliação proporcionado ao professor e ao aluno. Existem diferentes técnicas de ensino utilizadas na Internet, algumas dessas continuam sendo projetadas com o uso de metodologias tradicionais de desenvolvimento, outras têm a capacidade de modelar de forma integrada e consistente alguns aspectos necessários para uma aplicação WEB. Para alcançar o objetivo proposto, foram realizadas pesquisas nas várias áreas abrangidas pelo tema em evidência, tanto relativo ao processo tradicional (aplicação de prova utilizando metodologia tradicional), como o desenvolvimento de software mediado por computador e uso da Internet em si. A modelagem de desenvolvimento para Internet deve integrar características de técnicas de projeto de sistemas de hipermídia devido à natureza hipertextual da Internet. O uso de hiperdocumento como autômatos com saída está na forma básica de representação de hipertexto, em que cada fragmento de informação é associado a um nodo ou a um link (estado/transições) do grafo. Sendo assim, os arcos direcionados representam relacionamentos entre os nodos ou links, ou seja, uma passagem do nodo origem para o nodo destino. As n-uplas dos autômatos apresentam uma correspondência as estruturas de hiperdocumentos na WEB, seu estado/transição inicial corresponde a sua primeira página e suas transições definidas na função programa, funcionam como ligações lógicas, quando selecionadas durante a navegação do hipertexto. Entretanto, faz-se necessário um levantamento dos modelos de hipertextos e das ferramentas de implementação disponíveis para a Internet, a fim de que seja capaz de suportar as peculiaridades do ambiente. Tudo isso deve ser integrado preferencialmente em um paradigma de desenvolvimento amplamente aceito, para que os projetistas não tenham muitas dificuldades em assimilar os conceitos propostos. A proposta apresentada nesta dissertação, batizada de Hyper-Automaton (hipertexto e autômato), consiste na integração de um Curso na WEB, utilizando formalismo de Autômatos Finitos com Saída para a modelagem dos conceitos necessários e definição das fases adequadas para completar a especificação de Sistema Exercício e Avaliação, bem como a especificação da Geração Automática dos Exercícios e Avaliações baseadas em autômatos para a WEB. Os modelos criados abrangem conceitos de Máquina de Mealy, Máquina de Moore e Aplicações de Hiperdocumentos e Ferramentas de Programação para Internet, os mesmos já testados em caso real. Os parâmetros apurados, nos testes, serviram a uma seqüência de etapas importantes para modelar e complementar a especificação do sistema projetado. Com os parâmetros e etapas de modelagem, a metodologia Hyper-Automaton consegue integrar, de forma consistente, as vantagens de várias técnicas específicas de modelagem de documentos e sistemas de hipermídia. Essas vantagens, aliadas ao suporte às ferramentas de desenvolvimento para Internet, garantem que a metodologia fique adequada para a modelagem de Sistemas com aplicação de métodos de autômatos para exercícios e avaliação na WEB.
Resumo:
Esta tese propõe o desenvolvimento de um método de estimativa de capacitâncias e de potência consumida nos circuitos combinacionais CMOS, no nível de portas lógicas. O objetivo do método é fazer uma previsão do consumo de potência do circuito na fase de projeto lógico, o que permitirá a aplicação de técnicas de redução de potência ou até alteração do projeto antes da geração do seu leiaute. A potência dinâmica consumida por circuitos CMOS depende dos seguintes parâmetros: tensão de alimentação, freqüência de operação, capacitâncias parasitas e atividades de comutação em cada nodo do circuito. A análise desenvolvida na Tese, propõe que a potência seja dividida em duas componentes. A primeira componente está relacionada ao consumo de potência devido às capacitâncias intrínsecas dos transistores, que por sua vez estão relacionadas às dimensões dos transistores. Estas capacitâncias intrínsecas são concentradas nos nodos externos das portas e manifestam-se em função das combinações dos vetores de entrada. A segunda componente está relacionada às interconexões entre as células do circuito. Para esta etapa utiliza-se a estimativa do comprimento médio das interconexões e as dimensões tecnológicas para estimar o consumo de potência. Este comprimento médio é estimado em função do número de transistores e fanout das várias redes do circuito. Na análise que trata das capacitâncias intrínsecas dos transistores os erros encontrados na estimativa da potência dissipada estão no máximo em torno de 11% quando comparados ao SPICE. Já na estimativa das interconexões a comparação feita entre capacitâncias de interconexões estimadas no nível lógico e capacitâncias de interconexões extraídas do leiaute apresentou erros menores que 10%.
Resumo:
Atualmente, a World Wide Web (WWW) já se estabeleceu como um dos meios de divulgação mais difundidos. Sendo um meio de publicação de custo relativamente baixo, muitas iniciativas foram desenvolvidas no sentido de estendê-la e transformá-la também numa ferramenta de apoio. Assim, uma série de pesquisas foi realizada no sentido de promover e facilitar o gerenciamento das informações da WWW, que são estruturadas, em sua maioria, como conjuntos de documentos inter-relacionados. Grafos são estruturas utilizadas para a representação de objetos e seus múltiplos relacionamentos. Nesse sentido, pode-se afirmar que hiperdocumentos podem ser modelados através de grafos, onde uma página representa um nodo e um link para outra página é representado por uma aresta. Considerando estas características, e dada a crescente complexidade dos materiais publicados na WWW, desenvolveu-se, ao longo da última década, o uso de técnicas e recursos de Visualização de Grafos com larga aplicação na visualização da estrutura e da navegação na WWW. Técnicas de visualização de grafos são aplicáveis especificamente para representar visualmente estruturas que possam ser modeladas por meio de objetos relacionados, sendo investigadas técnicas para a abstração de modo a facilitar tanto o processo de compreensão do contexto da informação, quanto a apreensão dos dados relacionados. Este trabalho tem como objetivo a investigação de técnicas de Visualização de Grafos aplicadas a autômatos finitos com saída. Este direcionamento se deve ao fato de alguns autores utilizar a abordagem de autômatos finitos com saída para as estruturas de hiperdocumentos. Se for considerado que um documento da WWW (ou o estado de um autômato) é composto por fragmentos de informação (ou saídas) tais como trechos de texto, imagens, animações, etc e que este documento é relacionado a outros por meio de links (ou transições), tem-se a verificação de sua representatividade por meio destas estruturas. Em trabalho anterior, no âmbito do PPGC da UFRGS, a ferramenta Hyper-Automaton foi desenvolvida com o objetivo de estender o uso da Internet no sentido de prover uma ferramenta de apoio à publicação de materiais instrucionais. Por adotar a notação de autômatos finitos com saída, possibilita, além da criação e gerenciamento de hiperdocumentos, a reutilização de fragmentos de informação sem que haja qualquer interferência de um autômato que utilize este fragmento sobre outro. O Hyper-Automaton foi selecionado como caso de estudo motivador deste trabalho. As técnicas aqui desenvolvidas têm como intuito diminuir a complexidade visual da informação, assim como permitir a navegação através dos autômatos finitos com saída de forma que seja possível visualizar detalhes como as saídas e informações relacionadas a cada uma delas, mantendo a visualização do contexto da informação. Foram analisadas técnicas de agrupamento como forma de redução da complexidade visual, e técnicas do tipo foco+contexto, como alternativa para prover a visualização simultânea do contexto e dos detalhes da informação.
Resumo:
Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.
Resumo:
Este trabalho visa a disponibilização de um ambiente de alto desempenho, do tipo cluster de computadores, com alta exatidão, obtida através da utilização da biblioteca C–XSC. A alta exatidão na solução de um problema é obtida através da realização de cálculos intermediários sem arredondamentos como se fossem em precisão infinita. Ao final do cálculo, o resultado deve ser representado na máquina. O resultado exato real e o resultado representado diferem apenas por um único arredondamento. Esses cálculos em alta exatidão devem estar disponíveis para algumas operações aritméticas básicas, em especial as que possibilitam a realização de somatório e de produto escalar. Com isso, deseja-se utilizar o alto desempenho através de um ambiente de cluster onde se tem vários nodos executando tarefas ou cálculos. A comunicação será realizada por troca de mensagens usando a biblioteca de comunicação MPI. Para se obter a alta exatidão neste tipo de ambiente, extensões ou adaptações nos programas paralelos tiveram que ser disponibilizadas para garantir que a qualidade do resultado final realizado em um cluster, onde vários nodos colaboram para o resultado final do cálculo, mantivesse a mesma qualidade do resultado que é obtido em uma única máquina (ou nodo) de um ambiente de alta exatidão. Para validar o ambiente proposto foram realizados testes básicos abordando o cálculo do produto escalar, a multiplicação entre matrizes, a implementação de solvers intervalares para matrizes densas e bandas e a implementação de alguns métodos numéricos para a resolução de sistemas de equações lineares com a característica da alta exatidão. Destes testes foram realizadas análises e comparações a respeito do desempenho e da exatidão obtidos com e sem o uso da biblioteca C–XSC, tanto em programas seqüenciais como em programas paralelos. Com a conseqüente implementação dessas rotinas e métodos será aberto um vasto campo de pesquisa no que se refere ao estudo de aplicações reais de grande porte que necessitem durante a sua resolução (ou em parte dela) da realização de operações aritméticas com uma exatidão melhor do que a obtida usualmente pelas ferramentas computacionais tradicionais.
Resumo:
The production of water has become one of the most important wastes in the petroleum industry, specifically in the up stream segment. The treatment of this kind of effluents is complex and normally requires high costs. In this context, the electrochemical treatment emerges as an alternative methodology for treating the wastewaters. It employs electrochemical reactions to increase the capability and efficiency of the traditional chemical treatments for associated produced water. The use of electrochemical reactors can be effective with small changes in traditional treatments, generally not representing a significant additional surface area for new equipments (due to the high cost of square meter on offshore platforms) and also it can use almost the same equipments, in continuous or batch flow, without others high costs investments. Electrochemical treatment causes low environmental impact, because the process uses electrons as reagent and generates small amount of wastes. In this work, it was studied two types of electrochemical reactors: eletroflocculation and eletroflotation, with the aim of removing of Cu2+, Zn2+, phenol and BTEX mixture of produced water. In eletroflocculation, an electrical potential was applied to an aqueous solution containing NaCl. For this, it was used iron electrodes, which promote the dissolution of metal ions, generating Fe2+ and gases which, in appropriate pH, promote also clotting-flocculation reactions, removing Cu2+ and Zn2+. In eletroflotation, a carbon steel cathode and a DSA type anode (Ti/TiO2-RuO2-SnO2) were used in a NaCl solution. It was applied an electrical current, producing strong oxidant agents as Cl2 and HOCl, increasing the degradation rate of BTEX and phenol. Under different flow rates, the Zn2+ was removed by electrodeposition or by ZnOH formation, due the increasing of pH during the reaction. To better understand the electrochemical process, a statistical protocol factor (22) with central point was conducted to analyze the sensitivity of operating parameters on removing Zn2+ by eletroflotation, confirming that the current density affected the process negatively and the flow rate positively. For economical viability of these two electrochemical treatments, the energy consumption was calculated, taking in account the kWh given by ANEEL. The treatment cost obtained were quite attractive in comparison with the current treatments used in Rio Grande do Norte state. In addition, it could still be reduced for the case of using other alternative energy source such as solar, wind or gas generated directly from the Petrochemical Plant or offshore platforms
Resumo:
The aim of this work is the treatment of produced water from oil by using electrochemical technology. Produced water is a major waste generated during the process of exploration and production in the oil industry. Several approaches are being studied aiming at the treatment of this effluent; among them can be cited the biological process and chemical treatments such as advanced oxidation process and electrochemical treatments (electrooxidation, electroflotation, electrocoagulation, electrocoagulation). This work studies the application of electrochemical technology in the treatment of the synthetic produced water effluent through the action of the electron, in order to remove or transform the toxic and harmful substances from the environment by redox reactions in less toxic substances. For this reason, we used a synthetic wastewater, containing a mixture H2SO4 0,5M and 16 HPAs, which are: naphthalene, acenaphthylene, acenaphthene, fluorene, phenanthrene, anthracene, fluoranthene, pyrene, benzo (a) anthracene, chrysene, benzo(b)fluoranthene, benzo(k) fluoranthene, benzo(a)pyrene, indeno(1,2,3-cd)pyrene, dibenzo(a, h)anthracene, benzo(g, h, i)perylene. Bulk electrochemical oxidation experiments were performed using a batch electrochemical reactor containing a pair of parallel electrodes, coupled with a power supply using a magnetic stirrer for favoring the transfer mass control. As anodic material was used, a Dimensionally Stable Anode (DSA) of Ti/Pt, while as cathode was used a Ti electrode. Several samples were collected at specific times and after that, the analysis of these samples were carried out by using Gas Chromatography Coupled to Mass Spectrometry (GC - MS) in order to determine the percentage of removal. The results showed that it was possible to achieve the removal of HPAs about 80% (in some cases, more than 80%). In addition, as an indicator of the economic feasibility of electrochemical treatment the energy consumption was analyzed for each hour of electrolysis, and based on the value kWh charged by ANEEL, the costs were estimated. Thus, the treatment costs of this research were quite attractive
Resumo:
In this work, the treatment of synthetic wastewaters containing Remazol Red BR (RRB) and Novacron Blue C-D (NB) by anodic oxidation using boron doped diamond anodes (BDD) and Novacron Yellow (YN) using BDD and Platinum (Pt) anodes was investigated. Galvanostatic electrolyses of RRB and NB synthetic wastewaters have led to the complete decolorization removal at different operating conditions (current density, pH and temperature). The influence of these parameters was investigated in order to find the best conditions for dyestuff colour removal. According to the experimental results obtained, the electrochemical oxidation process is suitable for decolorizing wastewaters containing these textile dyes, due to the electrocatalytic properties of BDD and Pt anode. Energy requirements for removing colour during galvanostatic electrolyses of RRB, NB and YN synthetic solutions depends mainly on the operating conditions; for example for RRB, it passes from 3.30 kWh m-3 at 20 mA cm-2 to 4.28 kWh m-3 at 60 mA cm-2 (pH = 1); 15.23 kWh m-3 at 20 mA cm-2 to 24.75 kWh m-3 at 60 mA cm-2 (pH = 4.5); 10.80 kWh m-3 at 20 mA cm-2 to 31.5 kWh m-3 at 60 mA cm-2 (pH = 8) (data estimated per volume of treated effluent). In order to verify the Brazilian law regulations of NB and RRB synthetic solutions after electrochemical decolourisation treatment, Hazen Units values were determined and the total colour removal was achieved; remaining into the regulations. Finally, electrical energy cost for removing colour was estimated