264 resultados para rewriting
Resumo:
Este trabajo se propone presentar la transformación de la Traductología desde la perspectiva de los Estudios de Género, dos campos del conocimiento que reconocen una impronta multi e interdisciplinaria. En cuanto a la primera, el giro cultural de los ochenta marca el momento en que se incluye a la traducción dentro del conjunto de subsistemas culturales con intereses competitivos y sujetos a las ideologías predominantes (Molina Martínez, 2006: 37). Paralelamente se instala en Canadá un terreno de estudio que vincula los desarrollos transculturales y translingüísticos surgidos de los movimientos feministas de los años setenta con la producción y recepción de textos, temas que son abarcados por la investigación sobre género y traducción. En ese contexto surge la noción de traducción en femenino o reescritura en femenino cuya finalidad es subvertir el lenguaje patriarcal y reivindicar las ideas feministas (Lotbinière-Harwood, 1991). Las estrategias discursivas y textuales utilizadas para resolver los problemas de traducción relacionados con el género "suplementación o compensación, la metatextualidad, el secuestro y el pacto especular" suelen recurrir al empleo de un lenguaje con alteraciones semánticas, neologismos o innovaciones lingüísticas, cuyo propósito es cuestionar la lengua actual y, a su vez, visibilizar la presencia femenina (Castro Vázquez, 2008: 296-298). En esta ponencia, nos detendremos en discutir y ejemplificar las estrategias citadas
Resumo:
El trabajo constituye una primera aproximación a los manuscritos de Prisión perpetua, la consideración de un archivo futuro y las reflexiones teóricas y críticas que suscita ese acontecimiento. Se postula, además, la figuración de una poética basada en el mecanismo de la reescritura y en especial de un tipo de reescritura que denominamos aquí la 'estrategia de Menard', donde las recontextualizaciones de la propia obra conforman un sistema de rentabilidad narrativa que confluye en la multiplicación en el nivel de la producción textual
Resumo:
Este trabajo se propone presentar la transformación de la Traductología desde la perspectiva de los Estudios de Género, dos campos del conocimiento que reconocen una impronta multi e interdisciplinaria. En cuanto a la primera, el giro cultural de los ochenta marca el momento en que se incluye a la traducción dentro del conjunto de subsistemas culturales con intereses competitivos y sujetos a las ideologías predominantes (Molina Martínez, 2006: 37). Paralelamente se instala en Canadá un terreno de estudio que vincula los desarrollos transculturales y translingüísticos surgidos de los movimientos feministas de los años setenta con la producción y recepción de textos, temas que son abarcados por la investigación sobre género y traducción. En ese contexto surge la noción de traducción en femenino o reescritura en femenino cuya finalidad es subvertir el lenguaje patriarcal y reivindicar las ideas feministas (Lotbinière-Harwood, 1991). Las estrategias discursivas y textuales utilizadas para resolver los problemas de traducción relacionados con el género "suplementación o compensación, la metatextualidad, el secuestro y el pacto especular" suelen recurrir al empleo de un lenguaje con alteraciones semánticas, neologismos o innovaciones lingüísticas, cuyo propósito es cuestionar la lengua actual y, a su vez, visibilizar la presencia femenina (Castro Vázquez, 2008: 296-298). En esta ponencia, nos detendremos en discutir y ejemplificar las estrategias citadas
Resumo:
El artículo indaga el modo en que la lectura y la reescritura se presentan en el Primer Diario (1939- 1949) de José Lezama Lima donde se ensayan diversas estrategias de apropiación sobre la tradición, trazo de un linaje y un escritura propios que abonan asimismo la construcción y reivindicación del sujeto de la enunciación
Resumo:
En este artículo se realiza un análisis de la serie televisiva "Penny Dreadull", creada por John Logan. Esta ficción articula elementos de la literatura gótica, el cine de terror y las publicaciones periódicas que dan su título a la serie. En esa amalgama, las referencias a diferentes ficciones clásicas del terror (las de Stoker, Shelley, Wilde y otros) son constantes, como así también las refundiciones de sus tramas y personajes. Esta investigación se adentra específicamente en la intertextualidad y las producciones de sentido que se dan en esta serie a partir del trabajo sobre la base de historias ya conocidas
Resumo:
El presente artículo indaga acerca del proceso de creación de Leónidas Lamborghini a partir del concepto de margen, entendido como diferencia, valor agregado y lugar de la apropiación. A lo largo del trabajo se muestra la existencia en el proceso escritural 'a partir de textos ajenos y propios' de un espacio de creación en el que Lamborghini distorsiona, subvierte, produce plusvalor (en la apropiación) que vuelca en su propia narrativa. Asimismo y a partir de la consulta, el relevamiento y la descripción de los pre-textos de Trento se muestra cómo una parte fundamental de la génesis de la escritura de Lamborghini se encuentra en esas glosas de los márgenes de sus manuscritos
Resumo:
En este trabajo se analizan las diversas formas en que el poemario "Antigüedades mexicanas" de José Emilio Pacheco interroga el pasado y propone la construcción de una memoria a partir de distintos momentos de la historia de México, abordados desde una perspectiva irónico-crítica. Dichas antigüedades mexicanas son también modos de reescribir el archivo americano, gesto que funda la relación con la palabra poética. Construyen así una poética que entrelaza tiempo, memoria y literatura como clave de lectura para el presente.
Resumo:
Reescribir, deconstruir y resignificar el pasado de la tradición heteronormativa es una de las estrategias más usuales de la expresión de la diversidad sexual en los textos culturales. Es interesante plantear lo que ocurre con el historietista Ralf König y sus intervenciones sobre la tradición literaria y cultural de la antigüedad grecolatina clásica. Los modelos canónicos de la sexualidad son confrontados y la literatura y la tradición clásica se vuelven paródicas del binarismo y la normalidad sexual: la tematización de las relaciones intermasculinas en la antigua Grecia, los clásicos greco-latinos, la figura de Alejandro Magno y la historia del mártir san Sebastián, son todos ejemplos de tópicos y tradiciones resignificadas por König en términos queer
Resumo:
En el marco del campo de estudios sobre las relaciones entre editores y escritores (Undsel 2004), este trabajo propone el estudio de un caso singular: el de Fervor de Buenos Aires, el inaugural poemario de Jorge Luis Borges. Publicado por primera vez en 1923, fue reeditado de distintas formas y a través de diferentes editoriales. Cada una de estas distintas ediciones presenta un complejo sistema de correcciones y borramientos. En este artículo nos centraremos en el estudio del recorrido editorial del libro donde se materializa ese sistema de correcciones y borramientos
Resumo:
La principal característica de la quinta carta de las Epistolaí de Aristéneto proviene de la identidad literaria de Medea en el tercer libro de Argonautica de Apolonio Rodio. De tal manera, la carta se observa como un ejemplo interesante de un texto "re-escrito" del tercer libro del poema, el cual, abastecido por la memoria sáfica de los síntomas del amor, es considerado un punto de expansión y difusión de un núcleo teorético de la literatura erótica greco-latina.
Resumo:
El trabajo se centra en las lecturas críticas y en las reescrituras de tres autores argentinos que, por su opción estética más señalada, su opción genérica o su ubicación cronológica, no se relacionan, en principio, con el soneto. Se focaliza la atención en sus lecturas del soneto del Siglo de Oro español, especialmente de Quevedo y Garcilaso. Por otro lado, se estudia con especial atención los lugares de enunciación que construyen los escritores en cuanto críticos y las relaciones que establecen entre soneto y literatura.
Resumo:
El cálculo de relaciones binarias fue creado por De Morgan en 1860 para ser posteriormente desarrollado en gran medida por Peirce y Schröder. Tarski, Givant, Freyd y Scedrov demostraron que las álgebras relacionales son capaces de formalizar la lógica de primer orden, la lógica de orden superior así como la teoría de conjuntos. A partir de los resultados matemáticos de Tarski y Freyd, esta tesis desarrolla semánticas denotacionales y operacionales para la programación lógica con restricciones usando el álgebra relacional como base. La idea principal es la utilización del concepto de semántica ejecutable, semánticas cuya característica principal es el que la ejecución es posible utilizando el razonamiento estándar del universo semántico, este caso, razonamiento ecuacional. En el caso de este trabajo, se muestra que las álgebras relacionales distributivas con un operador de punto fijo capturan toda la teoría y metateoría estándar de la programación lógica con restricciones incluyendo los árboles utilizados en la búsqueda de demostraciones. La mayor parte de técnicas de optimización de programas, evaluación parcial e interpretación abstracta pueden ser llevadas a cabo utilizando las semánticas aquí presentadas. La demostración de la corrección de la implementación resulta extremadamente sencilla. En la primera parte de la tesis, un programa lógico con restricciones es traducido a un conjunto de términos relacionales. La interpretación estándar en la teoría de conjuntos de dichas relaciones coincide con la semántica estándar para CLP. Las consultas contra el programa traducido son llevadas a cabo mediante la reescritura de relaciones. Para concluir la primera parte, se demuestra la corrección y equivalencia operacional de esta nueva semántica, así como se define un algoritmo de unificación mediante la reescritura de relaciones. La segunda parte de la tesis desarrolla una semántica para la programación lógica con restricciones usando la teoría de alegorías—versión categórica del álgebra de relaciones—de Freyd. Para ello, se definen dos nuevos conceptos de Categoría Regular de Lawvere y _-Alegoría, en las cuales es posible interpretar un programa lógico. La ventaja fundamental que el enfoque categórico aporta es la definición de una máquina categórica que mejora e sistema de reescritura presentado en la primera parte. Gracias al uso de relaciones tabulares, la máquina modela la ejecución eficiente sin salir de un marco estrictamente formal. Utilizando la reescritura de diagramas, se define un algoritmo para el cálculo de pullbacks en Categorías Regulares de Lawvere. Los dominios de las tabulaciones aportan información sobre la utilización de memoria y variable libres, mientras que el estado compartido queda capturado por los diagramas. La especificación de la máquina induce la derivación formal de un juego de instrucciones eficiente. El marco categórico aporta otras importantes ventajas, como la posibilidad de incorporar tipos de datos algebraicos, funciones y otras extensiones a Prolog, a la vez que se conserva el carácter 100% declarativo de nuestra semántica. ABSTRACT The calculus of binary relations was introduced by De Morgan in 1860, to be greatly developed by Peirce and Schröder, as well as many others in the twentieth century. Using different formulations of relational structures, Tarski, Givant, Freyd, and Scedrov have shown how relation algebras can provide a variable-free way of formalizing first order logic, higher order logic and set theory, among other formal systems. Building on those mathematical results, we develop denotational and operational semantics for Constraint Logic Programming using relation algebra. The idea of executable semantics plays a fundamental role in this work, both as a philosophical and technical foundation. We call a semantics executable when program execution can be carried out using the regular theory and tools that define the semantic universe. Throughout this work, the use of pure algebraic reasoning is the basis of denotational and operational results, eliminating all the classical non-equational meta-theory associated to traditional semantics for Logic Programming. All algebraic reasoning, including execution, is performed in an algebraic way, to the point we could state that the denotational semantics of a CLP program is directly executable. Techniques like optimization, partial evaluation and abstract interpretation find a natural place in our algebraic models. Other properties, like correctness of the implementation or program transformation are easy to check, as they are carried out using instances of the general equational theory. In the first part of the work, we translate Constraint Logic Programs to binary relations in a modified version of the distributive relation algebras used by Tarski. Execution is carried out by a rewriting system. We prove adequacy and operational equivalence of the semantics. In the second part of the work, the relation algebraic approach is improved by using allegory theory, a categorical version of the algebra of relations developed by Freyd and Scedrov. The use of allegories lifts the semantics to typed relations, which capture the number of logical variables used by a predicate or program state in a declarative way. A logic program is interpreted in a _-allegory, which is in turn generated from a new notion of Regular Lawvere Category. As in the untyped case, program translation coincides with program interpretation. Thus, we develop a categorical machine directly from the semantics. The machine is based on relation composition, with a pullback calculation algorithm at its core. The algorithm is defined with the help of a notion of diagram rewriting. In this operational interpretation, types represent information about memory allocation and the execution mechanism is more efficient, thanks to the faithful representation of shared state by categorical projections. We finish the work by illustrating how the categorical semantics allows the incorporation into Prolog of constructs typical of Functional Programming, like abstract data types, and strict and lazy functions.
Resumo:
This paper presents and proves some fundamental results for independent and-parallelism (IAP). First, the paper treats the issues of correctness and efficiency: after defining strict and non-strict goal independence, it is proved that if strictly independent goals are executed in parallel the solutions obtained are the same as those produced by standard sequential execution. It is also shown that, in the absence of failure, the parallel proof procedure doesn't genérate any additional work (with respect to standard SLDresolution) while the actual execution time is reduced. The same results hold even if non-strictly independent goals are executed in parallel, provided a trivial rewriting of such goals is performed. In addition, and most importantly, treats the issue of compile-time generation of IAP by proposing conditions, to be written at compile-time, to efficiently check strict and non-strict goal independence at run-time and proving the sufficiency of such conditions. It is also shown how simpler conditions can be constructed if some information regarding the binding context of the goals to be executed in parallel is available to the compiler trough either local or program-level analysis. These results therefore provide a formal basis for the automatic compile-time generation of IAP. As a corollary of such results, the paper also proves that negative goals are always non-strictly independent, and that goals which share a first occurrence of an existential variable are never independent.
Resumo:
This introduction gives a general perspective of the debugging methodology and the tools developed in the ESPRIT IV project DiSCiPl Debugging Systems for Constraint Programming. It has been prepared by the editors of this volume by substantial rewriting of the DiSCiPl deliverable CP Debugging Tools [1]. This introduction is organised as follows. Section 1 outlines the DiSCiPl view of debugging, its associated debugging methodology, and motivates the kinds of tools proposed: the assertion based tools, the declarative diagnoser and the visualisation tools. Sections 2 through 4 provide a short presentation of the tools of each kind. Finally, Section 5 presents a summary of the tools developed in the project. This introduction gives only a general view of the DiSCiPl debugging methodology and tools. For details and for specific bibliographic referenees the reader is referred to the subsequent chapters.
Resumo:
Con el surgir de los problemas irresolubles de forma eficiente en tiempo polinomial en base al dato de entrada, surge la Computación Natural como alternativa a la computación clásica. En esta disciplina se trata de o bien utilizar la naturaleza como base de cómputo o bien, simular su comportamiento para obtener mejores soluciones a los problemas que los encontrados por la computación clásica. Dentro de la computación natural, y como una representación a nivel celular, surge la Computación con Membranas. La primera abstracción de las membranas que se encuentran en las células, da como resultado los P sistemas de transición. Estos sistemas, que podrían ser implementados en medios biológicos o electrónicos, son la base de estudio de esta Tesis. En primer lugar, se estudian las implementaciones que se han realizado, con el fin de centrarse en las implementaciones distribuidas, que son las que pueden aprovechar las características intrínsecas de paralelismo y no determinismo. Tras un correcto estudio del estado actual de las distintas etapas que engloban a la evolución del sistema, se concluye con que las distribuciones que buscan un equilibrio entre las dos etapas (aplicación y comunicación), son las que mejores resultados presentan. Para definir estas distribuciones, es necesario definir completamente el sistema, y cada una de las partes que influyen en su transición. Además de los trabajos de otros investigadores, y junto a ellos, se realizan variaciones a los proxies y arquitecturas de distribución, para tener completamente definidos el comportamiento dinámico de los P sistemas. A partir del conocimiento estático –configuración inicial– del P sistema, se pueden realizar distribuciones de membranas en los procesadores de un clúster para obtener buenos tiempos de evolución, con el fin de que la computación del P sistema sea realizada en el menor tiempo posible. Para realizar estas distribuciones, hay que tener presente las arquitecturas –o forma de conexión– de los procesadores del clúster. La existencia de 4 arquitecturas, hace que el proceso de distribución sea dependiente de la arquitectura a utilizar, y por tanto, aunque con significativas semejanzas, los algoritmos de distribución deben ser realizados también 4 veces. Aunque los propulsores de las arquitecturas han estudiado el tiempo óptimo de cada arquitectura, la inexistencia de distribuciones para estas arquitecturas ha llevado a que en esta Tesis se probaran las 4, hasta que sea posible determinar que en la práctica, ocurre lo mismo que en los estudios teóricos. Para realizar la distribución, no existe ningún algoritmo determinista que consiga una distribución que satisfaga las necesidades de la arquitectura para cualquier P sistema. Por ello, debido a la complejidad de dicho problema, se propone el uso de metaheurísticas de Computación Natural. En primer lugar, se propone utilizar Algoritmos Genéticos, ya que es posible realizar alguna distribución, y basada en la premisa de que con la evolución, los individuos mejoran, con la evolución de dichos algoritmos, las distribuciones también mejorarán obteniéndose tiempos cercanos al óptimo teórico. Para las arquitecturas que preservan la topología arbórea del P sistema, han sido necesarias realizar nuevas representaciones, y nuevos algoritmos de cruzamiento y mutación. A partir de un estudio más detallado de las membranas y las comunicaciones entre procesadores, se ha comprobado que los tiempos totales que se han utilizado para la distribución pueden ser mejorados e individualizados para cada membrana. Así, se han probado los mismos algoritmos, obteniendo otras distribuciones que mejoran los tiempos. De igual forma, se han planteado el uso de Optimización por Enjambres de Partículas y Evolución Gramatical con reescritura de gramáticas (variante de Evolución Gramatical que se presenta en esta Tesis), para resolver el mismo cometido, obteniendo otro tipo de distribuciones, y pudiendo realizar una comparativa de las arquitecturas. Por último, el uso de estimadores para el tiempo de aplicación y comunicación, y las variaciones en la topología de árbol de membranas que pueden producirse de forma no determinista con la evolución del P sistema, hace que se deba de monitorizar el mismo, y en caso necesario, realizar redistribuciones de membranas en procesadores, para seguir obteniendo tiempos de evolución razonables. Se explica, cómo, cuándo y dónde se deben realizar estas modificaciones y redistribuciones; y cómo es posible realizar este recálculo. Abstract Natural Computing is becoming a useful alternative to classical computational models since it its able to solve, in an efficient way, hard problems in polynomial time. This discipline is based on biological behaviour of living organisms, using nature as a basis of computation or simulating nature behaviour to obtain better solutions to problems solved by the classical computational models. Membrane Computing is a sub discipline of Natural Computing in which only the cellular representation and behaviour of nature is taken into account. Transition P Systems are the first abstract representation of membranes belonging to cells. These systems, which can be implemented in biological organisms or in electronic devices, are the main topic studied in this thesis. Implementations developed in this field so far have been studied, just to focus on distributed implementations. Such distributions are really important since they can exploit the intrinsic parallelism and non-determinism behaviour of living cells, only membranes in this case study. After a detailed survey of the current state of the art of membranes evolution and proposed algorithms, this work concludes that best results are obtained using an equal assignment of communication and rules application inside the Transition P System architecture. In order to define such optimal distribution, it is necessary to fully define the system, and each one of the elements that influence in its transition. Some changes have been made in the work of other authors: load distribution architectures, proxies definition, etc., in order to completely define the dynamic behaviour of the Transition P System. Starting from the static representation –initial configuration– of the Transition P System, distributions of membranes in several physical processors of a cluster is algorithmically done in order to get a better performance of evolution so that the computational complexity of the Transition P System is done in less time as possible. To build these distributions, the cluster architecture –or connection links– must be considered. The existence of 4 architectures, makes that the process of distribution depends on the chosen architecture, and therefore, although with significant similarities, the distribution algorithms must be implemented 4 times. Authors who proposed such architectures have studied the optimal time of each one. The non existence of membrane distributions for these architectures has led us to implement a dynamic distribution for the 4. Simulations performed in this work fix with the theoretical studies. There is not any deterministic algorithm that gets a distribution that meets the needs of the architecture for any Transition P System. Therefore, due to the complexity of the problem, the use of meta-heuristics of Natural Computing is proposed. First, Genetic Algorithm heuristic is proposed since it is possible to make a distribution based on the premise that along with evolution the individuals improve, and with the improvement of these individuals, also distributions enhance, obtaining complexity times close to theoretical optimum time. For architectures that preserve the tree topology of the Transition P System, it has been necessary to make new representations of individuals and new algorithms of crossover and mutation operations. From a more detailed study of the membranes and the communications among processors, it has been proof that the total time used for the distribution can be improved and individualized for each membrane. Thus, the same algorithms have been tested, obtaining other distributions that improve the complexity time. In the same way, using Particle Swarm Optimization and Grammatical Evolution by rewriting grammars (Grammatical Evolution variant presented in this thesis), to solve the same distribution task. New types of distributions have been obtained, and a comparison of such genetic and particle architectures has been done. Finally, the use of estimators for the time of rules application and communication, and variations in tree topology of membranes that can occur in a non-deterministic way with evolution of the Transition P System, has been done to monitor the system, and if necessary, perform a membrane redistribution on processors to obtain reasonable evolution time. How, when and where to make these changes and redistributions, and how it can perform this recalculation, is explained.