954 resultados para modelo computacional
Resumo:
O presente trabalho vem apresentar um modelo de simulação computacional com propósito de resolver o problema do balanceamento de linhas de produção de uma fábrica de cerâmica vermelha, pertencente ao polo oleiro-cerâmico de São Miguel do Guamá. Neste sentido, inicialmente é realizada uma pesquisa bibliográfica acerca dos sistemas de eventos discretos, dos métodos de solução para balanceamento de linhas e dos conceitos envolvendo a modelagem e simulação. A metodologia aborda o estudo de caso, sendo este conduzido pelo método proposto por Chwif (1999) no qual abrange 03 (três) macros etapas na condução de um projeto de simulação, sejam a etapa de concepção, implementação e etapa de análise. Com o modelo computacional desenvolvido com base nas características atuais da linha de produção, pode-se descrever o estado atual do processo, identificar a operação gargalo bem como encaminhar propostas de melhorias a partir da construção de 03 cenários. Onde o terceiro cenário apresentou os melhores resultados e, portanto, sendo este o modelo representativo ao balanceamento. Ao final, entende-se como principais contribuições deste trabalho o fato de trazer para dentro da universidade a experiência da aplicação prática da simulação, envolvendo uma indústria de cerâmica vermelha de São Miguel do Guamá e oferecer a indústria desta região uma ferramenta potencial para melhoria de seus processos produtivos.
Resumo:
Las Redes de Procesadores Evolutivos-NEP propuestas en [Mitrana et al., 2001], son un modelo computacional bio-inspirado a partir de la evolución de poblaciones de células, definiendo a nivel sintáctico algunas propiedades biológicas. En este modelo, las células están representadas por medio de palabras que describen secuencias de ADN. Informalmente, en algún instante de tiempo, el sistema evolutivo está representado por una colección de palabras cada una de las cuales representa una célula. El espacio genotipo de las especies, es un conjunto que recoge aquellas palabras que son aceptadas como sobrevivientes (es decir, como \correctas"). Desde el punto de vista de la evolución, las células pertenecen a especies y su comunidad evoluciona de acuerdo a procesos biológicos como la mutación y la división celular. éstos procesos representan el proceso natural de evolución y ponen de manifiesto una característica intrínseca de la naturaleza: el paralelismo. En este modelo, estos procesos son vistos como operaciones sobre palabras. Formalmente, el modelo de las NEP constituyen una arquitectura paralela y distribuida de procesamiento simbólico inspirada en la Máquina de conexión [Hillis, 1981], en el Paradigma de Flujo Lógico [Errico and Jesshope, 1994] y en las Redes de Procesadores Paralelos de Lenguajes (RPPL) [Csuhaj-Varju and Salomaa, 1997]. Al modelo NEP se han ido agregando nuevas y novedosas extensiones hasta el punto que actualmente podemos hablar de una familia de Redes de Procesadores Bio-inspirados (NBP) [Mitrana et al., 2012b]. Un considerable número de trabajos a lo largo de los últimos años han demostrado la potencia computacional de la familia NBP. En general, éstos modelos son computacionalmente completos, universales y eficientes [Manea et al., 2007], [Manea et al., 2010b], [Mitrana and Martín-Vide, 2005]. De acuerdo a lo anterior, se puede afirmar que el modelo NEP ha adquirido hasta el momento un nivel de madurez considerable. Sin embargo, aunque el modelo es de inspiración biológica, sus metas siguen estando motivadas en la Teoría de Lenguajes Formales y las Ciencias de la Computación. En este sentido, los aspectos biológicos han sido abordados desde una perspectiva cualitativa y el acercamiento a la realidad biológica es de forma meramente sintáctica. Para considerar estos aspectos y lograr dicho acercamiento es necesario que el modelo NEP tenga una perspectiva más amplia que incorpore la interacción de aspectos tanto cualitativos como cuantitativos. La contribución de esta Tesis puede considerarse como un paso hacia adelante en una nueva etapa de los NEPs, donde el carácter cuantitativo del modelo es de primordial interés y donde existen posibilidades de un cambio visible en el enfoque de interés del dominio de los problemas a considerar: de las ciencias de la computación hacia la simulación/modelado biológico y viceversa, entre otros. El marco computacional que proponemos en esta Tesis extiende el modelo de las Redes de Procesadores Evolutivos (NEP) y define arquitectura inspirada en la definición de bloques funcionales del proceso de señalización celular para la solución de problemas computacionales complejos y el modelado de fenómenos celulares desde una perspectiva discreta. En particular, se proponen dos extensiones: (1) los Transductores basados en Redes de Procesadores Evolutivos (NEPT), y (2) las Redes Parametrizadas de Procesadores Evolutivos Polarizados (PNPEP). La conservación de las propiedades y el poder computacional tanto de NEPT como de PNPEP se demuestra formalmente. Varias simulaciones de procesos relacionados con la señalización celular son abordadas sintáctica y computacionalmente, con el _n de mostrar la aplicabilidad e idoneidad de estas dos extensiones. ABSTRACT Network of Evolutionary Processors -NEP was proposed in [Mitrana et al., 2001], as a computational model inspired by the evolution of cell populations, which might model some properties of evolving cell communities at the syntactical level. In this model, cells are represented by words which encode their DNA sequences. Informally, at any moment of time, the evolutionary system is described by a collection of words, where each word represents one cell. Cells belong to species and their community evolves according to mutations and division which are defined by operations on words. Only those cells accepted as survivors (correct) are represented by a word in a given set of words, called the genotype space of the species. This feature is analogous with the natural process of evolution. Formally, NEP is based on an architecture for parallel and distributed processing inspired from the Connection Machine [Hillis, 1981], the Flow Logic Paradigm [Errico and Jesshope, 1994] and the Networks of Parallel Language Processors (RPPL) [Csuhaj-Varju and Salomaa, 1997]. Since the date when NEP was proposed, several extensions and variants have appeared engendering a new set of models named Networks of Bio-inspired Processors (NBP) [Mitrana et al., 2012b]. During this time, several works have proved the computational power of NBP. Specifically, their efficiency, universality, and computational completeness have been thoroughly investigated [Manea et al., 2007, Manea et al., 2010b, Mitrana and Martín-Vide, 2005]. Therefore, we can say that the NEP model has reached its maturity. Nevertheless, although the NEP model is biologically inspired, this model is mainly motivated by mathematical and computer science goals. In this context, the biological aspects are only considered from a qualitative and syntactical perspective. In view of this lack, it is important to try to keep the NEP theory as close as possible to the biological reality, extending their perspective incorporating the interplay of qualitative and quantitative aspects. The contribution of this Thesis, can be considered as a starting point in a new era of the NEP model. Then, the quantitative character of the NEP model is mandatory and it can address completely new different types of problems with respect to the classical computational domain (e.g. from the computer science to system biology). Therefore, the computational framework that we propose extends the NEP model and defines an architecture inspired by the functional blocks from cellular signaling in order to solve complex computational problems and cellular phenomena modeled from a discrete perspective. Particularly, we propose two extensions, namely: (1) Transducers based on Network of Evolutionary Processors (NEPT), and (2) Parametrized Network of Polarized Evolutionary Processors (PNPEP). Additionally, we have formally proved that the properties and computational power of NEP is kept in both extensions. Several simulations about processes related with cellular signaling both syntactical and computationally have been considered to show the model suitability.
Resumo:
O Estado do Rio de Janeiro possui indicadores de produção muito baixos na realização de exames de câncer de mama. Na tentativa de melhorar o acesso aos exames, principalmente em regiões com baixa densidade populacional onde a aquisição de mamógrafos não é custo-efetiva, o uso da mamografia móvel é uma alternativa para aumentar a execução de exames de rastreamento de câncer de mama. O objetivo desta pesquisa é a construção de um modelo computacional para definir a alocação de mamógrafos móveis. O Modelo considera as variáveis associadas com os custos e prazos, indicando quando, onde e por quanto tempo, as unidades móveis de mamografia devem permanecer em cada cidade. O modelo foi construído no software de modelagem e simulação Anylogic, usando técnicas de modelagem baseada em agentes. O principal resultado é determinar o percurso de cada veículo disponível, para oferecer a cobertura desejada em cada cidade. Todas as entradas são parametrizadas, permitindo simular diferentes cenários e fornecer informações importantes para o processo de tomada de decisão. O horizonte de tempo, número de mamógrafos (fixos e móveis), a cobertura desejada da população, a capacidade de produção de cada dispositivo, a adesão da população urbana e rural, entre outras variáveis, foram consideradas no modelo. Os dados da Região Serrana do Rio de Janeiro foram usados nas simulações, onde menos de metade das cidades possuem mamógrafos fixos. Com o modelo proposto foi possível determinar a distribuição de cada dispositivo físico e o número ótimo de unidades móveis de mamografia para oferecer cobertura à totalidade da população no ciclo de dois anos. O número de mamógrafos para oferecer cobertura de toda a população da região poderia ser reduzido pela metade com o modelo de alocação proposto neste trabalho. A utilização de mamografia móvel, em conjunto com a rede existente de mamógrafos fixos, procura maximizar a disponibilização de exames de testes de diagnóstico de câncer de mama no estado do Rio de Janeiro. O desenvolvimento de um modelo de roteamento que aperfeiçoa a cobertura de rastreio do câncer de mama é apresentado como um complemento importante na tentativa de melhorar o acesso à população residente em áreas urbanas e rurais dos municípios.
Resumo:
O objetivo deste trabalho é desenvolver um modelo computacional, baseado no método dos elementos finitos, para o estudo de peças de concreto armado e protendido submetidas a estados planos de tensão. O estudo abrange situações de carga de curta e longa duração, onde consideram-se fluência e retração do concreto e relaxação do aço. São utilizados modelos constitutivos elasto-viscoplásticos para descrever o comportamento dos materiais. Implementou-se um modelo de camadas superpostas para melhor representar o comportamento do concreto, onde o material é composto de diversas camadas que sofrem a mesma deformação. Cada camada possui diferentes características materiais e a tensão total é obtida pela soma das diferentes contribuições de cada camada. Para a fissuração da concreto, utilizou-se um modelo de fissuras distribuídas, que leva em conta a contribuição do concreto entre fissuras. Tanto a amadura passiva como a de pratensão são introduzidas no modelo como uma linha de material mais rígido dentro do elemento de concreto. Os deslocamentos ao longo da armadura são referenciados aos deslocamentos nodais do elemento de concreto. Deste modo, obtém-se uma matriz de rigidez para a armadura com as mesmas dimensões que a matriz de rigidez do elemento de concreto, A matriz de rigidez do elemento concreto-aço é a soma das duas matrizes. Considera-se aderência perfeita entre o concreto e o aço. Os resultados obtidos com esse programa computacionai são comparados com valores experimentais disponíveis.
Resumo:
Esta dissertação analisa potencialidades de uso da ferramenta de simulação computacional em atividades de um Armazém Geral. Para tanto, foi realizado um estudo de caso em um Armazém Geral onde se aplicou a ferramenta segundo o método de desenvolvimento de projetos de simulação computacional proposto por Barrônio (2000). O desenvolvimento do projeto de simulação foi, então, focado na atividade de apanha separação, integrante do sub-processo de separação de pedidos. O substrato teórico utilizado envolve uma abordagem sobre a logística e caracterização de armazém geral, bem como uma revisão dos conceitos principais da ferramenta de simulação computacional. No desenvolvimento da pesquisa, identificaram-se diversas aplicações da simulação tanto no armazém geral e terminais de cargas da empresa, quanto na análise da malha de rotas da empresa. A partir da análise dos resultados da simulação, em diversos cenários desenvolvidos e do entendimento sistêmico da situação em estudo, identificou-se como oportunidade de melhoria a definição de horários fixos de parada para descanso ao longo da jornada de trabalho na atividade de apanha separação O desenvolvimento do projeto de simulação computacional contribuiu como instrumento de aprendizagem e tomada de decisões sobre a realidade organizacional. Através de experimentação no modelo computacional o grupo de trabalho pôde testar e mudar seus pressupostos e sua compreensão do mundo real, aprimorando a aprendizagem. Identificou-se ainda, que os armazéns gerais dotados de sistema de gerenciamento automatizado apresentam um grande potencial para desenvolvimento de projetos de simulação, principalmente, devido à disponibilidade de dados característicos destas organizações.
Resumo:
Esta dissertação situa-se no projeto de pesquisa intitulado "Um Modelo Computacional de Aprendizagem a Distância Baseada na Concepção Sócio- Interacionista". Este projeto se enquadra na visão de aprendizagem situada, isto é, na concepção de cognição como uma prática social baseada na utilização de linguagem, símbolos e signos. O objetivo é a construção de um ambiente de Educação a Distância, implementado como um sistema multiagente composto por agentes artificiais e agentes humanos, inspirando-se na teoria sócio-interacionista de Vygotsky. Nesta sociedade, todos os personagens (aprendizes e agentes artificiais) são modelados como agentes sociais integrados em um ambiente de ensino-aprendizagem. A arquitetura deste sistema é formada pelos seguintes agentes artificiais: agente diagnóstico, agente mediador, agente colaborativo, agente semiótico e agente social. Os agentes humanos que interagem com o sistema desempenham o papel de tutores, aprendizes ou ambos. Esta dissertação visa à concepção e à implementação de um dos agentes desta arquitetura: o agente semiótico. Esta concepção foi baseada na Engenharia Semiótica, em particular para a apresentação do material instrucional utilizado no processo de ensinoaprendizagem.
Resumo:
Este trabalho apresenta um modelo computacional para análise tridimensional de peças de concreto armado, utilizando o método dos elementos finitos. São utilizados modelos constitutivos elasto-viscoplásticos para representar o comportamento dos materiais, quando submetidos a cargas de curta ou longa duração. Se a estrutura está submetida a cargas de curta duração, o modelo desenvolvido fornece, quando alcançado o estado estável, a solução do problema elastoplástico. Em contrapartida, se a estrutura está submetida a cargas de longa duração, o modelo pode representar o comportamento viscoelástico com envelhecimento do concreto. Foi utilizado um modelo de camadas superpostas para assegurar uma representação adequada do comportamento real do concreto ao longo do tempo. Deste modo, admite-se que o concreto é constituído por um número conveniente de camadas, que apresentam a mesma deformação. Para a fissuração do concreto, utilizou-se um modelo de fissuras distribuídas, que leva em consideração a contribuição do concreto entre fissuras O objetivo deste estudo é a modelagem da armadura e do reforço nas peças de concreto armado, através de um modelo de aderência entre o concreto e o material adjacente. A armadura é introduzida no modelo como uma linha de material mais rígido dentro do elemento de concreto. E, a consideração da degradação da aderência é realizada através de um modelo onde os efeitos da aderência imperfeita são incluídos pela introdução de graus de liberdade para os deslocamentos relativos entre os materiais. Os resultados obtidos com este programa computacional são comparados com valores experimentais disponíveis na literatura, visando validar o modelo matemático e a metodologia numérica.
Resumo:
A Customização em massa é um conceito emergente na indústria orientada a fornecer produtos e serviços customizados através de processos flexíveis, em grandes volumes e a custos razoavelmente baixos. A customização de produtos é uma estratégia chave para conseguir a satisfação do cliente com produtos exclusivos e preços razoáveis. Este trabalho de tese propõe um modelo de customização de produtos para facilitar o projeto e colaboração do cliente no processo de selecionar a configuração de um produto. O modelo integra as técnicas de modelagem orientada a objetos, análise de decisão multi-atributo e programação linear inteira. O objetivo do modelo é dar suporte à customização de produtos/serviços, em que as escolhas do cliente são gerenciadas pela relevância relativa de um conjunto de atributos sobre um conjunto de combinações de componentes oferecidas pela empresa, e com a limitação de restrições técnicas, estéticas e financeiras, que definem interativamente projetistas e consumidores. A integração das técnicas resulta em uma representação do processo de configuração que considera, simultaneamente, a abordagem técnica, explícita e objetiva dos projetistas e a abordagem baseada em intenções e preferências do consumidor. Com o modelo desenvolvido, o cliente pode definir regras e fornecer informação que pode ser utilizada para representar o conhecimento tácito em um modelo de programação linear que otimiza a sua utilidade específica. O modelo computacional é capaz de implementar o processo cognitivo que caracteriza a configuração de produtos em um ambiente de customização em massa de forma explícita, dinâmica e flexível. Experimentos foram realizados para exemplificar como é utilizado o programa e um estudo de caso foi desenvolvido para validar o modelo.
Resumo:
Oil production and exploration techniques have evolved in the last decades in order to increase fluid flows and optimize how the required equipment are used. The base functioning of Electric Submersible Pumping (ESP) lift method is the use of an electric downhole motor to move a centrifugal pump and transport the fluids to the surface. The Electric Submersible Pumping is an option that has been gaining ground among the methods of Artificial Lift due to the ability to handle a large flow of liquid in onshore and offshore environments. The performance of a well equipped with ESP systems is intrinsically related to the centrifugal pump operation. It is the pump that has the function to turn the motor power into Head. In this present work, a computer model to analyze the three-dimensional flow in a centrifugal pump used in Electric Submersible Pumping has been developed. Through the commercial program, ANSYS® CFX®, initially using water as fluid flow, the geometry and simulation parameters have been defined in order to obtain an approximation of what occurs inside the channels of the impeller and diffuser pump in terms of flow. Three different geometry conditions were initially tested to determine which is most suitable to solving the problem. After choosing the most appropriate geometry, three mesh conditions were analyzed and the obtained values were compared to the experimental characteristic curve of Head provided by the manufacturer. The results have approached the experimental curve, the simulation time and the model convergence were satisfactory if it is considered that the studied problem involves numerical analysis. After the tests with water, oil was used in the simulations. The results were compared to a methodology used in the petroleum industry to correct viscosity. In general, for models with water and oil, the results with single-phase fluids were coherent with the experimental curves and, through three-dimensional computer models, they are a preliminary evaluation for the analysis of the two-phase flow inside the channels of centrifugal pump used in ESP systems
Resumo:
The use of Progressing Cavity Pumps (PCPs) in artificial lift applications in low deep wells is becoming more common in the oil industry, mainly, due to its ability to pump heavy oils, produce oil with large concentrations of sand, besides present high efficiency when compared to other artificial lift methods. Although this system has been widely used as an oil lift method, few investigations about its hydrodynamic behavior are presented, either experimental or numeric. Therefore, in order to increase the knowledge about the BCP operational behavior, this work presents a novel computational model for the 3-D transient flow in progressing cavity pumps, which includes the relative motion between rotor and stator, using an element based finite volume method. The model developed is able to accurately predict the volumetric efficiency and viscous looses as well as to provide detailed information of pressure and velocity fields inside the pump. In order to predict PCP performance for low viscosity fluids, advanced turbulence models were used to treat, accurately, the turbulent effects on the flow, which allowed for obtaining results consistent with experimental values encountered in literature. In addition to the 3D computational model, a simplified model was developed, based on mass balance within cavities and on simplification on the momentum equations for fully developed flow along the seal region between cavities. This simplified model, based on previous approaches encountered in literature, has the ability to predict flow rate for a given differential pressure, presenting exactness and low CPU requirements, becoming an engineering tool for quick calculations and providing adequate results, almost real-time time. The results presented in this work consider a rigid stator PCP and the models developed were validated against experimental results from open literature. The results for the 3-D model showed to be sensitive to the mesh size, such that a numerical mesh refinement study is also presented. Regarding to the simplified model, some improvements were introduced in the calculation of the friction factor, allowing the application fo the model for low viscosity fluids, which was unsuccessful in models using similar approaches, presented in previous works
Resumo:
The pumping through progressing cavities system has been more and more employed in the petroleum industry. This occurs because of its capacity of elevation of highly viscous oils or fluids with great concentration of sand or other solid particles. A Progressing Cavity Pump (PCP) consists, basically, of a rotor - a metallic device similar to an eccentric screw, and a stator - a steel tube internally covered by a double helix, which may be rigid or deformable/elastomeric. In general, it is submitted to a combination of well pressure with the pressure generated by the pumping process itself. In elastomeric PCPs, this combined effort compresses the stator and generates, or enlarges, the clearance existing between the rotor and the stator, thus reducing the closing effect between their cavities. Such opening of the sealing region produces what is known as fluid slip or slippage, reducing the efficiency of the PCP pumping system. Therefore, this research aims to develop a transient three-dimensional computational model that, based on single-lobe PCP kinematics, is able to simulate the fluid-structure interaction that occurs in the interior of metallic and elastomeric PCPs. The main goal is to evaluate the dynamic characteristics of PCP s efficiency based on detailed and instantaneous information of velocity, pressure and deformation fields in their interior. To reach these goals (development and use of the model), it was also necessary the development of a methodology for generation of dynamic, mobile and deformable, computational meshes representing fluid and structural regions of a PCP. This additional intermediary step has been characterized as the biggest challenge for the elaboration and running of the computational model due to the complex kinematic and critical geometry of this type of pump (different helix angles between rotor and stator as well as large length scale aspect ratios). The processes of dynamic generation of meshes and of simultaneous evaluation of the deformations suffered by the elastomer are fulfilled through subroutines written in Fortan 90 language that dynamically interact with the CFX/ANSYS fluid dynamic software. Since a structural elastic linear model is employed to evaluate elastomer deformations, it is not necessary to use any CAE package for structural analysis. However, an initial proposal for dynamic simulation using hyperelastic models through ANSYS software is also presented in this research. Validation of the results produced with the present methodology (mesh generation, flow simulation in metallic PCPs and simulation of fluid-structure interaction in elastomeric PCPs) is obtained through comparison with experimental results reported by the literature. It is expected that the development and application of such a computational model may provide better details of the dynamics of the flow within metallic and elastomeric PCPs, so that better control systems may be implemented in the artificial elevation area by PCP
Resumo:
El modelo computacional RAPID presenta los efectos del crecimiento de la población sobre el desarrollo. Incluye 6 sectores o módulos: demografía; economía; educación; urbanización y vivienda; salud; agricultura. El modulo principal es el demográfico. Se trata de un modelo unidireccional; todos los sectores son proyectados a partir del demografico, pero no están relacionados entre si. Es un modelo muy agregado, lo que le resta versatilidad para examinar algunos aspectos en profundidad. No obstante, presenta ventajas para ser simple, de fácil manejo, didáctico, de gran utilidad practica y requerimientos computacionales mínimos. Requiere un computador IBM- PC o compatible, sistema DOS; 128Kb de memoria RAM, capacidad gráfica y un disk-drive. Se incluye manual para el usuario, ejemplo de aplicación y lista de temas de interés que podrían ser investigados mediante este modelo.
Resumo:
Understanding consciousness is one of the most fascinating challenges of our time. From ancient civilizations to modern philosophers, questions have been asked on how one is conscious of his/her own existence and about the world that surrounds him/her. Although there is no precise definition for consciousness, there is an agreement that it is strongly related to human cognitive processes such as: thinking, reasoning, emotions, wishes. One of the key processes to the arising of the consciousness is the attention, a process capable of promoting a selection of a few stimuli from a huge amount of information that reaches us constantly. Machine consciousness is the field of the artificial intelligence that investigate the possibility of the production of conscious processes in artificial devices. This work presents a review about the theme of consciousness - in both natural and artificial aspects -, discussing this theme from the philosophical and computational perspectives, and investigates the feasibility of the adoption of an attentional schema as the base to the cognitive processing. A formal computational model is proposed for conscious agents that integrates: short and long term memories, reasoning, planning, emotion, decision making, learning, motivation and volition. Computer experiments in a mobile robotics domain under USARSim simulation environment, proposed by RoboCup, suggest that the agent can be able to use these elements to acquire experiences based on environment stimuli. The adoption of the cognitive architecture over the attentional model has potential to allow the emergence of behaviours usually associated to the consciousness in the simulated mobile robots. Further implementation under this model could potentially allow the agent to express sentience, selfawareness, self-consciousness, autonoetic consciousness, mineness and perspectivalness. By performing computation over an attentional space, the model also allows the ...
Resumo:
La informática teórica es una disciplina básica ya que la mayoría de los avances en informática se sustentan en un sólido resultado de esa materia. En los últimos a~nos debido tanto al incremento de la potencia de los ordenadores, como a la cercanía del límite físico en la miniaturización de los componentes electrónicos, resurge el interés por modelos formales de computación alternativos a la arquitectura clásica de von Neumann. Muchos de estos modelos se inspiran en la forma en la que la naturaleza resuelve eficientemente problemas muy complejos. La mayoría son computacionalmente completos e intrínsecamente paralelos. Por este motivo se les está llegando a considerar como nuevos paradigmas de computación (computación natural). Se dispone, por tanto, de un abanico de arquitecturas abstractas tan potentes como los computadores convencionales y, a veces, más eficientes: alguna de ellas mejora el rendimiento, al menos temporal, de problemas NPcompletos proporcionando costes no exponenciales. La representación formal de las redes de procesadores evolutivos requiere de construcciones, tanto independientes, como dependientes del contexto, dicho de otro modo, en general una representación formal completa de un NEP implica restricciones, tanto sintácticas, como semánticas, es decir, que muchas representaciones aparentemente (sintácticamente) correctas de casos particulares de estos dispositivos no tendrían sentido porque podrían no cumplir otras restricciones semánticas. La aplicación de evolución gramatical semántica a los NEPs pasa por la elección de un subconjunto de ellos entre los que buscar los que solucionen un problema concreto. En este trabajo se ha realizado un estudio sobre un modelo inspirado en la biología celular denominado redes de procesadores evolutivos [55, 53], esto es, redes cuyos nodos son procesadores muy simples capaces de realizar únicamente un tipo de mutación puntual (inserción, borrado o sustitución de un símbolo). Estos nodos están asociados con un filtro que está definido por alguna condición de contexto aleatorio o de pertenencia. Las redes están formadas a lo sumo de seis nodos y, teniendo los filtros definidos por una pertenencia a lenguajes regulares, son capaces de generar todos los lenguajes enumerables recursivos independientemente del grafo subyacente. Este resultado no es sorprendente ya que semejantes resultados han sido documentados en la literatura. Si se consideran redes con nodos y filtros definidos por contextos aleatorios {que parecen estar más cerca a las implementaciones biológicas{ entonces se pueden generar lenguajes más complejos como los lenguajes no independientes del contexto. Sin embargo, estos mecanismos tan simples son capaces de resolver problemas complejos en tiempo polinomial. Se ha presentado una solución lineal para un problema NP-completo, el problema de los 3-colores. Como primer aporte significativo se ha propuesto una nueva dinámica de las redes de procesadores evolutivos con un comportamiento no determinista y masivamente paralelo [55], y por tanto todo el trabajo de investigación en el área de la redes de procesadores se puede trasladar a las redes masivamente paralelas. Por ejemplo, las redes masivamente paralelas se pueden modificar de acuerdo a determinadas reglas para mover los filtros hacia las conexiones. Cada conexión se ve como un canal bidireccional de manera que los filtros de entrada y salida coinciden. A pesar de esto, estas redes son computacionalmente completas. Se pueden también implementar otro tipo de reglas para extender este modelo computacional. Se reemplazan las mutaciones puntuales asociadas a cada nodo por la operación de splicing. Este nuevo tipo de procesador se denomina procesador splicing. Este modelo computacional de Red de procesadores con splicing ANSP es semejante en cierto modo a los sistemas distribuidos en tubos de ensayo basados en splicing. Además, se ha definido un nuevo modelo [56] {Redes de procesadores evolutivos con filtros en las conexiones{ , en el cual los procesadores tan solo tienen reglas y los filtros se han trasladado a las conexiones. Dicho modelo es equivalente, bajo determinadas circunstancias, a las redes de procesadores evolutivos clásicas. Sin dichas restricciones el modelo propuesto es un superconjunto de los NEPs clásicos. La principal ventaja de mover los filtros a las conexiones radica en la simplicidad de la modelización. Otras aportaciones de este trabajo ha sido el dise~no de un simulador en Java [54, 52] para las redes de procesadores evolutivos propuestas en esta Tesis. Sobre el término "procesador evolutivo" empleado en esta Tesis, el proceso computacional descrito aquí no es exactamente un proceso evolutivo en el sentido Darwiniano. Pero las operaciones de reescritura que se han considerado pueden interpretarse como mutaciones y los procesos de filtrado se podrían ver como procesos de selección. Además, este trabajo no abarca la posible implementación biológica de estas redes, a pesar de ser de gran importancia. A lo largo de esta tesis se ha tomado como definición de la medida de complejidad para los ANSP, una que denotaremos como tama~no (considerando tama~no como el número de nodos del grafo subyacente). Se ha mostrado que cualquier lenguaje enumerable recursivo L puede ser aceptado por un ANSP en el cual el número de procesadores está linealmente acotado por la cardinalidad del alfabeto de la cinta de una máquina de Turing que reconoce dicho lenguaje L. Siguiendo el concepto de ANSP universales introducido por Manea [65], se ha demostrado que un ANSP con una estructura de grafo fija puede aceptar cualquier lenguaje enumerable recursivo. Un ANSP se puede considerar como un ente capaz de resolver problemas, además de tener otra propiedad relevante desde el punto de vista práctico: Se puede definir un ANSP universal como una subred, donde solo una cantidad limitada de parámetros es dependiente del lenguaje. La anterior característica se puede interpretar como un método para resolver cualquier problema NP en tiempo polinomial empleando un ANSP de tama~no constante, concretamente treinta y uno. Esto significa que la solución de cualquier problema NP es uniforme en el sentido de que la red, exceptuando la subred universal, se puede ver como un programa; adaptándolo a la instancia del problema a resolver, se escogerín los filtros y las reglas que no pertenecen a la subred universal. Un problema interesante desde nuestro punto de vista es el que hace referencia a como elegir el tama~no optimo de esta red.---ABSTRACT---This thesis deals with the recent research works in the area of Natural Computing {bio-inspired models{, more precisely Networks of Evolutionary Processors first developed by Victor Mitrana and they are based on P Systems whose father is Georghe Paun. In these models, they are a set of processors connected in an underlying undirected graph, such processors have an object multiset (strings) and a set of rules, named evolution rules, that transform objects inside processors[55, 53],. These objects can be sent/received using graph connections provided they accomplish constraints defined at input and output filters processors have. This symbolic model, non deterministic one (processors are not synchronized) and massive parallel one[55] (all rules can be applied in one computational step) has some important properties regarding solution of NP-problems in lineal time and of course, lineal resources. There are a great number of variants such as hybrid networks, splicing processors, etc. that provide the model a computational power equivalent to Turing machines. The origin of networks of evolutionary processors (NEP for short) is a basic architecture for parallel and distributed symbolic processing, related to the Connection Machine as well as the Logic Flow paradigm, which consists of several processors, each of them being placed in a node of a virtual complete graph, which are able to handle data associated with the respective node. All the nodes send simultaneously their data and the receiving nodes handle also simultaneously all the arriving messages, according to some strategies. In a series of papers one considers that each node may be viewed as a cell having genetic information encoded in DNA sequences which may evolve by local evolutionary events, that is point mutations. Each node is specialized just for one of these evolutionary operations. Furthermore, the data in each node is organized in the form of multisets of words (each word appears in an arbitrarily large number of copies), and all the copies are processed in parallel such that all the possible events that can take place do actually take place. Obviously, the computational process just described is not exactly an evolutionary process in the Darwinian sense. But the rewriting operations we have considered might be interpreted as mutations and the filtering process might be viewed as a selection process. Recombination is missing but it was asserted that evolutionary and functional relationships between genes can be captured by taking only local mutations into consideration. It is clear that filters associated with each node allow a strong control of the computation. Indeed, every node has an input and output filter; two nodes can exchange data if it passes the output filter of the sender and the input filter of the receiver. Moreover, if some data is sent out by some node and not able to enter any node, then it is lost. In this paper we simplify the ANSP model considered in by moving the filters from the nodes to the edges. Each edge is viewed as a two-way channel such that the input and output filters coincide. Clearly, the possibility of controlling the computation in such networks seems to be diminished. For instance, there is no possibility to loose data during the communication steps. In spite of this and of the fact that splicing is not a powerful operation (remember that splicing systems generates only regular languages) we prove here that these devices are computationally complete. As a consequence, we propose characterizations of two complexity classes, namely NP and PSPACE, in terms of accepting networks of restricted splicing processors with filtered connections. We proposed a uniform linear time solution to SAT based on ANSPFCs with linearly bounded resources. This solution should be understood correctly: we do not solve SAT in linear time and space. Since any word and auxiliary word appears in an arbitrarily large number of copies, one can generate in linear time, by parallelism and communication, an exponential number of words each of them having an exponential number of copies. However, this does not seem to be a major drawback since by PCR (Polymerase Chain Reaction) one can generate an exponential number of identical DNA molecules in a linear number of reactions. It is worth mentioning that the ANSPFC constructed above remains unchanged for any instance with the same number of variables. Therefore, the solution is uniform in the sense that the network, excepting the input and output nodes, may be viewed as a program according to the number of variables, we choose the filters, the splicing words and the rules, then we assign all possible values to the variables, and compute the formula.We proved that ANSP are computationally complete. Do the ANSPFC remain still computationally complete? If this is not the case, what other problems can be eficiently solved by these ANSPFCs? Moreover, the complexity class NP is exactly the class of all languages decided by ANSP in polynomial time. Can NP be characterized in a similar way with ANSPFCs?
Resumo:
El concepto de algoritmo es básico en informática, por lo que es crucial que los alumnos profundicen en él desde el inicio de su formación. Por tanto, contar con una herramienta que guíe a los estudiantes en su aprendizaje puede suponer una gran ayuda en su formación. La mayoría de los autores coinciden en que, para determinar la eficacia de una herramienta de visualización de algoritmos, es esencial cómo se utiliza. Así, los estudiantes que participan activamente en la visualización superan claramente a los que la contemplan de forma pasiva. Por ello, pensamos que uno de los mejores ejercicios para un alumno consiste en simular la ejecución del algoritmo que desea aprender mediante el uso de una herramienta de visualización, i. e. consiste en realizar una simulación visual de dicho algoritmo. La primera parte de esta tesis presenta los resultados de una profunda investigación sobre las características que debe reunir una herramienta de ayuda al aprendizaje de algoritmos y conceptos matemáticos para optimizar su efectividad: el conjunto de especificaciones eMathTeacher, además de un entorno de aprendizaje que integra herramientas que las cumplen: GRAPHs. Hemos estudiado cuáles son las cualidades esenciales para potenciar la eficacia de un sistema e-learning de este tipo. Esto nos ha llevado a la definición del concepto eMathTeacher, que se ha materializado en el conjunto de especificaciones eMathTeacher. Una herramienta e-learning cumple las especificaciones eMathTeacher si actúa como un profesor virtual de matemáticas, i. e. si es una herramienta de autoevaluación que ayuda a los alumnos a aprender de forma activa y autónoma conceptos o algoritmos matemáticos, corrigiendo sus errores y proporcionando pistas para encontrar la respuesta correcta, pero sin dársela explícitamente. En estas herramientas, la simulación del algoritmo no continúa hasta que el usuario introduce la respuesta correcta. Para poder reunir en un único entorno una colección de herramientas que cumplan las especificaciones eMathTeacher hemos creado GRAPHs, un entorno ampliable, basado en simulación visual, diseñado para el aprendizaje activo e independiente de los algoritmos de grafos y creado para que en él se integren simuladores de diferentes algoritmos. Además de las opciones de creación y edición del grafo y la visualización de los cambios producidos en él durante la simulación, el entorno incluye corrección paso a paso, animación del pseudocódigo del algoritmo, preguntas emergentes, manejo de las estructuras de datos del algoritmo y creación de un log de interacción en XML. Otro problema que nos planteamos en este trabajo, por su importancia en el proceso de aprendizaje, es el de la evaluación formativa. El uso de ciertos entornos e-learning genera gran cantidad de datos que deben ser interpretados para llegar a una evaluación que no se limite a un recuento de errores. Esto incluye el establecimiento de relaciones entre los datos disponibles y la generación de descripciones lingüísticas que informen al alumno sobre la evolución de su aprendizaje. Hasta ahora sólo un experto humano era capaz de hacer este tipo de evaluación. Nuestro objetivo ha sido crear un modelo computacional que simule el razonamiento del profesor y genere un informe sobre la evolución del aprendizaje que especifique el nivel de logro de cada uno de los objetivos definidos por el profesor. Como resultado del trabajo realizado, la segunda parte de esta tesis presenta el modelo granular lingüístico de la evaluación del aprendizaje, capaz de modelizar la evaluación y generar automáticamente informes de evaluación formativa. Este modelo es una particularización del modelo granular lingüístico de un fenómeno (GLMP), en cuyo desarrollo y formalización colaboramos, basado en la lógica borrosa y en la teoría computacional de las percepciones. Esta técnica, que utiliza sistemas de inferencia basados en reglas lingüísticas y es capaz de implementar criterios de evaluación complejos, se ha aplicado a dos casos: la evaluación, basada en criterios, de logs de interacción generados por GRAPHs y de cuestionarios de Moodle. Como consecuencia, se han implementado, probado y utilizado en el aula sistemas expertos que evalúan ambos tipos de ejercicios. Además de la calificación numérica, los sistemas generan informes de evaluación, en lenguaje natural, sobre los niveles de competencia alcanzados, usando sólo datos objetivos de respuestas correctas e incorrectas. Además, se han desarrollado dos aplicaciones capaces de ser configuradas para implementar los sistemas expertos mencionados. Una procesa los archivos producidos por GRAPHs y la otra, integrable en Moodle, evalúa basándose en los resultados de los cuestionarios. ABSTRACT The concept of algorithm is one of the core subjects in computer science. It is extremely important, then, for students to get a good grasp of this concept from the very start of their training. In this respect, having a tool that helps and shepherds students through the process of learning this concept can make a huge difference to their instruction. Much has been written about how helpful algorithm visualization tools can be. Most authors agree that the most important part of the learning process is how students use the visualization tool. Learners who are actively involved in visualization consistently outperform other learners who view the algorithms passively. Therefore we think that one of the best exercises to learn an algorithm is for the user to simulate the algorithm execution while using a visualization tool, thus performing a visual algorithm simulation. The first part of this thesis presents the eMathTeacher set of requirements together with an eMathTeacher-compliant tool called GRAPHs. For some years, we have been developing a theory about what the key features of an effective e-learning system for teaching mathematical concepts and algorithms are. This led to the definition of eMathTeacher concept, which has materialized in the eMathTeacher set of requirements. An e-learning tool is eMathTeacher compliant if it works as a virtual math trainer. In other words, it has to be an on-line self-assessment tool that helps students to actively and autonomously learn math concepts or algorithms, correcting their mistakes and providing them with clues to find the right answer. In an eMathTeacher-compliant tool, algorithm simulation does not continue until the user enters the correct answer. GRAPHs is an extendible environment designed for active and independent visual simulation-based learning of graph algorithms, set up to integrate tools to help the user simulate the execution of different algorithms. Apart from the options of creating and editing the graph, and visualizing the changes made to the graph during simulation, the environment also includes step-by-step correction, algorithm pseudo-code animation, pop-up questions, data structure handling and XML-based interaction log creation features. On the other hand, assessment is a key part of any learning process. Through the use of e-learning environments huge amounts of data can be output about this process. Nevertheless, this information has to be interpreted and represented in a practical way to arrive at a sound assessment that is not confined to merely counting mistakes. This includes establishing relationships between the available data and also providing instructive linguistic descriptions about learning evolution. Additionally, formative assessment should specify the level of attainment of the learning goals defined by the instructor. Till now, only human experts were capable of making such assessments. While facing this problem, our goal has been to create a computational model that simulates the instructor’s reasoning and generates an enlightening learning evolution report in natural language. The second part of this thesis presents the granular linguistic model of learning assessment to model the assessment of the learning process and implement the automated generation of a formative assessment report. The model is a particularization of the granular linguistic model of a phenomenon (GLMP) paradigm, based on fuzzy logic and the computational theory of perceptions, to the assessment phenomenon. This technique, useful for implementing complex assessment criteria using inference systems based on linguistic rules, has been applied to two particular cases: the assessment of the interaction logs generated by GRAPHs and the criterion-based assessment of Moodle quizzes. As a consequence, several expert systems to assess different algorithm simulations and Moodle quizzes have been implemented, tested and used in the classroom. Apart from the grade, the designed expert systems also generate natural language progress reports on the achieved proficiency level, based exclusively on the objective data gathered from correct and incorrect responses. In addition, two applications, capable of being configured to implement the expert systems, have been developed. One is geared up to process the files output by GRAPHs and the other one is a Moodle plug-in set up to perform the assessment based on the quizzes results.