264 resultados para rewriting
Resumo:
Sensor networks are increasingly becoming one of the main sources of Big Data on the Web. However, the observations that they produce are made available with heterogeneous schemas, vocabularies and data formats, making it difficult to share and reuse these data for other purposes than those for which they were originally set up. In this thesis we address these challenges, considering how we can transform streaming raw data to rich ontology-based information that is accessible through continuous queries for streaming data. Our main contribution is an ontology-based approach for providing data access and query capabilities to streaming data sources, allowing users to express their needs at a conceptual level, independent of implementation and language-specific details. We introduce novel query rewriting and data translation techniques that rely on mapping definitions relating streaming data models to ontological concepts. Specific contributions include: • The syntax and semantics of the SPARQLStream query language for ontologybased data access, and a query rewriting approach for transforming SPARQLStream queries into streaming algebra expressions. • The design of an ontology-based streaming data access engine that can internally reuse an existing data stream engine, complex event processor or sensor middleware, using R2RML mappings for defining relationships between streaming data models and ontology concepts. Concerning the sensor metadata of such streaming data sources, we have investigated how we can use raw measurements to characterize streaming data, producing enriched data descriptions in terms of ontological models. Our specific contributions are: • A representation of sensor data time series that captures gradient information that is useful to characterize types of sensor data. • A method for classifying sensor data time series and determining the type of data, using data mining techniques, and a method for extracting semantic sensor metadata features from the time series.
Resumo:
Starting from the way the inter-cellular communication takes place by means of protein channels and also from the standard knowledge about neuron functioning, we propose a computing model called a tissue P system, which processes symbols in a multiset rewriting sense, in a net of cells similar to a neural net. Each cell has a finite state memory, processes multisets of symbol-impulses, and can send impulses (?excitations?) to the neighboring cells. Such cell nets are shown to be rather powerful: they can simulate a Turing machine even when using a small number of cells, each of them having a small number of states. Moreover, in the case when each cell works in the maximal manner and it can excite all the cells to which it can send impulses, then one can easily solve the Hamiltonian Path Problem in linear time. A new characterization of the Parikh images of ET0L languages are also obtained in this framework.
Resumo:
Sensor networks are increasingly being deployed in the environment for many different purposes. The observations that they produce are made available with heterogeneous schemas, vocabularies and data formats, making it difficult to share and reuse this data, for other purposes than those for which they were originally set up. The authors propose an ontology-based approach for providing data access and query capabilities to streaming data sources, allowing users to express their needs at a conceptual level, independent of implementation and language-specific details. In this article, the authors describe the theoretical foundations and technologies that enable exposing semantically enriched sensor metadata, and querying sensor observations through SPARQL extensions, using query rewriting and data translation techniques according to mapping languages, and managing both pull and push delivery modes.
Resumo:
In this work, we propose a variant of P system based on the rewriting of string-objects by means of evolutionary rules. The membrane structure of such a P system seems to be a very natural tool for simulating the filters in accepting networks of evolutionary processors with filtered connections. We discuss an informal construction supporting this simulation. A detailed proof is to be considered in an extended version of this work.
Resumo:
La informática teórica es una disciplina básica ya que la mayoría de los avances en informática se sustentan en un sólido resultado de esa materia. En los últimos a~nos debido tanto al incremento de la potencia de los ordenadores, como a la cercanía del límite físico en la miniaturización de los componentes electrónicos, resurge el interés por modelos formales de computación alternativos a la arquitectura clásica de von Neumann. Muchos de estos modelos se inspiran en la forma en la que la naturaleza resuelve eficientemente problemas muy complejos. La mayoría son computacionalmente completos e intrínsecamente paralelos. Por este motivo se les está llegando a considerar como nuevos paradigmas de computación (computación natural). Se dispone, por tanto, de un abanico de arquitecturas abstractas tan potentes como los computadores convencionales y, a veces, más eficientes: alguna de ellas mejora el rendimiento, al menos temporal, de problemas NPcompletos proporcionando costes no exponenciales. La representación formal de las redes de procesadores evolutivos requiere de construcciones, tanto independientes, como dependientes del contexto, dicho de otro modo, en general una representación formal completa de un NEP implica restricciones, tanto sintácticas, como semánticas, es decir, que muchas representaciones aparentemente (sintácticamente) correctas de casos particulares de estos dispositivos no tendrían sentido porque podrían no cumplir otras restricciones semánticas. La aplicación de evolución gramatical semántica a los NEPs pasa por la elección de un subconjunto de ellos entre los que buscar los que solucionen un problema concreto. En este trabajo se ha realizado un estudio sobre un modelo inspirado en la biología celular denominado redes de procesadores evolutivos [55, 53], esto es, redes cuyos nodos son procesadores muy simples capaces de realizar únicamente un tipo de mutación puntual (inserción, borrado o sustitución de un símbolo). Estos nodos están asociados con un filtro que está definido por alguna condición de contexto aleatorio o de pertenencia. Las redes están formadas a lo sumo de seis nodos y, teniendo los filtros definidos por una pertenencia a lenguajes regulares, son capaces de generar todos los lenguajes enumerables recursivos independientemente del grafo subyacente. Este resultado no es sorprendente ya que semejantes resultados han sido documentados en la literatura. Si se consideran redes con nodos y filtros definidos por contextos aleatorios {que parecen estar más cerca a las implementaciones biológicas{ entonces se pueden generar lenguajes más complejos como los lenguajes no independientes del contexto. Sin embargo, estos mecanismos tan simples son capaces de resolver problemas complejos en tiempo polinomial. Se ha presentado una solución lineal para un problema NP-completo, el problema de los 3-colores. Como primer aporte significativo se ha propuesto una nueva dinámica de las redes de procesadores evolutivos con un comportamiento no determinista y masivamente paralelo [55], y por tanto todo el trabajo de investigación en el área de la redes de procesadores se puede trasladar a las redes masivamente paralelas. Por ejemplo, las redes masivamente paralelas se pueden modificar de acuerdo a determinadas reglas para mover los filtros hacia las conexiones. Cada conexión se ve como un canal bidireccional de manera que los filtros de entrada y salida coinciden. A pesar de esto, estas redes son computacionalmente completas. Se pueden también implementar otro tipo de reglas para extender este modelo computacional. Se reemplazan las mutaciones puntuales asociadas a cada nodo por la operación de splicing. Este nuevo tipo de procesador se denomina procesador splicing. Este modelo computacional de Red de procesadores con splicing ANSP es semejante en cierto modo a los sistemas distribuidos en tubos de ensayo basados en splicing. Además, se ha definido un nuevo modelo [56] {Redes de procesadores evolutivos con filtros en las conexiones{ , en el cual los procesadores tan solo tienen reglas y los filtros se han trasladado a las conexiones. Dicho modelo es equivalente, bajo determinadas circunstancias, a las redes de procesadores evolutivos clásicas. Sin dichas restricciones el modelo propuesto es un superconjunto de los NEPs clásicos. La principal ventaja de mover los filtros a las conexiones radica en la simplicidad de la modelización. Otras aportaciones de este trabajo ha sido el dise~no de un simulador en Java [54, 52] para las redes de procesadores evolutivos propuestas en esta Tesis. Sobre el término "procesador evolutivo" empleado en esta Tesis, el proceso computacional descrito aquí no es exactamente un proceso evolutivo en el sentido Darwiniano. Pero las operaciones de reescritura que se han considerado pueden interpretarse como mutaciones y los procesos de filtrado se podrían ver como procesos de selección. Además, este trabajo no abarca la posible implementación biológica de estas redes, a pesar de ser de gran importancia. A lo largo de esta tesis se ha tomado como definición de la medida de complejidad para los ANSP, una que denotaremos como tama~no (considerando tama~no como el número de nodos del grafo subyacente). Se ha mostrado que cualquier lenguaje enumerable recursivo L puede ser aceptado por un ANSP en el cual el número de procesadores está linealmente acotado por la cardinalidad del alfabeto de la cinta de una máquina de Turing que reconoce dicho lenguaje L. Siguiendo el concepto de ANSP universales introducido por Manea [65], se ha demostrado que un ANSP con una estructura de grafo fija puede aceptar cualquier lenguaje enumerable recursivo. Un ANSP se puede considerar como un ente capaz de resolver problemas, además de tener otra propiedad relevante desde el punto de vista práctico: Se puede definir un ANSP universal como una subred, donde solo una cantidad limitada de parámetros es dependiente del lenguaje. La anterior característica se puede interpretar como un método para resolver cualquier problema NP en tiempo polinomial empleando un ANSP de tama~no constante, concretamente treinta y uno. Esto significa que la solución de cualquier problema NP es uniforme en el sentido de que la red, exceptuando la subred universal, se puede ver como un programa; adaptándolo a la instancia del problema a resolver, se escogerín los filtros y las reglas que no pertenecen a la subred universal. Un problema interesante desde nuestro punto de vista es el que hace referencia a como elegir el tama~no optimo de esta red.---ABSTRACT---This thesis deals with the recent research works in the area of Natural Computing {bio-inspired models{, more precisely Networks of Evolutionary Processors first developed by Victor Mitrana and they are based on P Systems whose father is Georghe Paun. In these models, they are a set of processors connected in an underlying undirected graph, such processors have an object multiset (strings) and a set of rules, named evolution rules, that transform objects inside processors[55, 53],. These objects can be sent/received using graph connections provided they accomplish constraints defined at input and output filters processors have. This symbolic model, non deterministic one (processors are not synchronized) and massive parallel one[55] (all rules can be applied in one computational step) has some important properties regarding solution of NP-problems in lineal time and of course, lineal resources. There are a great number of variants such as hybrid networks, splicing processors, etc. that provide the model a computational power equivalent to Turing machines. The origin of networks of evolutionary processors (NEP for short) is a basic architecture for parallel and distributed symbolic processing, related to the Connection Machine as well as the Logic Flow paradigm, which consists of several processors, each of them being placed in a node of a virtual complete graph, which are able to handle data associated with the respective node. All the nodes send simultaneously their data and the receiving nodes handle also simultaneously all the arriving messages, according to some strategies. In a series of papers one considers that each node may be viewed as a cell having genetic information encoded in DNA sequences which may evolve by local evolutionary events, that is point mutations. Each node is specialized just for one of these evolutionary operations. Furthermore, the data in each node is organized in the form of multisets of words (each word appears in an arbitrarily large number of copies), and all the copies are processed in parallel such that all the possible events that can take place do actually take place. Obviously, the computational process just described is not exactly an evolutionary process in the Darwinian sense. But the rewriting operations we have considered might be interpreted as mutations and the filtering process might be viewed as a selection process. Recombination is missing but it was asserted that evolutionary and functional relationships between genes can be captured by taking only local mutations into consideration. It is clear that filters associated with each node allow a strong control of the computation. Indeed, every node has an input and output filter; two nodes can exchange data if it passes the output filter of the sender and the input filter of the receiver. Moreover, if some data is sent out by some node and not able to enter any node, then it is lost. In this paper we simplify the ANSP model considered in by moving the filters from the nodes to the edges. Each edge is viewed as a two-way channel such that the input and output filters coincide. Clearly, the possibility of controlling the computation in such networks seems to be diminished. For instance, there is no possibility to loose data during the communication steps. In spite of this and of the fact that splicing is not a powerful operation (remember that splicing systems generates only regular languages) we prove here that these devices are computationally complete. As a consequence, we propose characterizations of two complexity classes, namely NP and PSPACE, in terms of accepting networks of restricted splicing processors with filtered connections. We proposed a uniform linear time solution to SAT based on ANSPFCs with linearly bounded resources. This solution should be understood correctly: we do not solve SAT in linear time and space. Since any word and auxiliary word appears in an arbitrarily large number of copies, one can generate in linear time, by parallelism and communication, an exponential number of words each of them having an exponential number of copies. However, this does not seem to be a major drawback since by PCR (Polymerase Chain Reaction) one can generate an exponential number of identical DNA molecules in a linear number of reactions. It is worth mentioning that the ANSPFC constructed above remains unchanged for any instance with the same number of variables. Therefore, the solution is uniform in the sense that the network, excepting the input and output nodes, may be viewed as a program according to the number of variables, we choose the filters, the splicing words and the rules, then we assign all possible values to the variables, and compute the formula.We proved that ANSP are computationally complete. Do the ANSPFC remain still computationally complete? If this is not the case, what other problems can be eficiently solved by these ANSPFCs? Moreover, the complexity class NP is exactly the class of all languages decided by ANSP in polynomial time. Can NP be characterized in a similar way with ANSPFCs?
Resumo:
A presente pesquisa busca avaliar exegeticamente o texto que se encontra na Bíblia, especificamente no livro de Números capítulos 22-24 que relata sobre um personagem conhecido como Balaão. A pesquisa tem também como objeto o estudo sobre o panteão de divindades relatado no mesmo texto, assim como também o estudo dos textos descobertos em Deir Alla, na Jordânia, que apresentam um personagem designado como Balaão, possivelmente o mesmo personagem de Nm 22-24. A motivação que levou ao desenvolvimento dessa pesquisa foi o fato de se ter deparado com os conceitos dos diversos nomes divinos exibidos no texto, além da questão do profetismo fora de Israel, assim como as possibilidades hermenêuticas que se abrem para a leitura desse texto bíblico. O conceito geral sempre foi o de que Israel era a única nação onde existiam “verdadeiros” profetas e uma adoração a um único Deus, o “monoteísmo”. O que despertou interesse foi perceber, especialmente por meio da leitura dos livros bíblicos, que o profetismo não se restringiu somente a Israel. Ele antecede à formação do antigo Israel e já existia no âmbito das terras do antigo Oriente Médio, e que Israel ainda demorou muito tempo para ser monoteísta. Quem é esse Balaão, filho de Beor? Estudaremos sobre sua pessoa e sua missão. Examinaremos os textos de Deir Alla sobre Balaão e sua natureza de personagem mediador entre o divino e o humano. Esse personagem é apresentado como um grande profeta e que era famoso como intérprete de presságios divinos. Analisaremos a importante questão sobre o panteão de deuses que são apresentados na narrativa de Balaão nomeados como: El, Elyon Elohim e Shaddai, além de Yahweh. Entendemos, a princípio, que o texto possui uma conexão com a sociedade na qual foi criado e usando da metodologia exegética, faremos uma análise da narrativa em questão, buscando compreender o sentido do texto, dentro de seu cenário histórico e social. Cenário este, que nos apresentou esse profeta, não israelita, que profere bênçãos dos deuses sobre Israel e que, além disso, pronuncia maldições sobre os inimigos desse mesmo Israel. Percebemos que, parte do texto pesquisado é apresentado sob a ótica de Israel sobre as outras nações. A pesquisa defende, portanto, que o texto de Nm 22-24, além de nos apresentar um profeta fora de Israel igual aos profetas da Bíblia, defende que, o panteão de divindades também era adorado por Israel e que tais nomes são epítetos de uma mesma divindade, no caso YHWH. Defende, também, um delineamento de um projeto de domínio político e militar de Israel sobre as nações circunvizinhas.
Resumo:
This thesis examines three different kinds of socio-political rewritings of Greek and Roman tragedies – Sarah Kane’s “Phaedra’s Love”, Tony Harrison’s “Prometheus”, and Martin Crimp’s “Cruel and Tender” – written, staged or screened in Britain (and, more precisely, England) between 1996 and 2004. Offering close readings of these re-visionary appropriations, this dissertation analyses some of the innumerable and unexpected forms that ancient tragedy can assume today. In particular, it explores how three talented British authors have subverted the conventions of the noblest literary and dramatic genre in order to (re)write contemporaneity in ways that oscillate between the personal and the public, the local and the global, the national and the transnational.
Resumo:
La serie Penny Dreadful (2014-presente) recupera personajes y tramas de novelas de terror y/o fantásticas ampliamente conocidas. La propuesta narrativa de esta serie creada por John Logan sitúa dichos elementos en la convulsionada Londres decimonónica y los fusiona, configurando así un discurso propio acerca de la "monstruosidad" de los personajes que presenta. En esta refundición, la serie ejercita una serie de reflexiones sobre la condición humana y la del monstruo. Como se plantea en la segunda temporada, al retomar el mito de Pandora y reformularlo, la distinción entre el hombre y el monstruo parece quedar en suspenso, dando lugar a una concepción de la monstruosidad diferente a la que encontramos en otras producciones televisivas contemporáneas. En este artículo analizamos las representaciones de la monstruosidad y las identidades en Penny Dreadful para ello prestaremos especial atención a los personajes y sus interacciones a lo largo de la primera y segunda temporada de la serie, así como a la relación entre la serie y sus fuentes literarias
Resumo:
La serie Penny Dreadful (2014-presente) recupera personajes y tramas de novelas de terror y/o fantásticas ampliamente conocidas. La propuesta narrativa de esta serie creada por John Logan sitúa dichos elementos en la convulsionada Londres decimonónica y los fusiona, configurando así un discurso propio acerca de la "monstruosidad" de los personajes que presenta. En esta refundición, la serie ejercita una serie de reflexiones sobre la condición humana y la del monstruo. Como se plantea en la segunda temporada, al retomar el mito de Pandora y reformularlo, la distinción entre el hombre y el monstruo parece quedar en suspenso, dando lugar a una concepción de la monstruosidad diferente a la que encontramos en otras producciones televisivas contemporáneas. En este artículo analizamos las representaciones de la monstruosidad y las identidades en Penny Dreadful para ello prestaremos especial atención a los personajes y sus interacciones a lo largo de la primera y segunda temporada de la serie, así como a la relación entre la serie y sus fuentes literarias
Resumo:
"Ueber die Legende von den sieben Schläfern, von C. J. L. Iken."; p. 288-311.
Resumo:
La serie Penny Dreadful (2014-presente) recupera personajes y tramas de novelas de terror y/o fantásticas ampliamente conocidas. La propuesta narrativa de esta serie creada por John Logan sitúa dichos elementos en la convulsionada Londres decimonónica y los fusiona, configurando así un discurso propio acerca de la "monstruosidad" de los personajes que presenta. En esta refundición, la serie ejercita una serie de reflexiones sobre la condición humana y la del monstruo. Como se plantea en la segunda temporada, al retomar el mito de Pandora y reformularlo, la distinción entre el hombre y el monstruo parece quedar en suspenso, dando lugar a una concepción de la monstruosidad diferente a la que encontramos en otras producciones televisivas contemporáneas. En este artículo analizamos las representaciones de la monstruosidad y las identidades en Penny Dreadful para ello prestaremos especial atención a los personajes y sus interacciones a lo largo de la primera y segunda temporada de la serie, así como a la relación entre la serie y sus fuentes literarias
Resumo:
Thesis (Ph.D.)--University of Washington, 2016-06
Resumo:
Dynamic binary translation is the process of translating, modifying and rewriting executable (binary) code from one machine to another at run-time. This process of low-level re-engineering consists of a reverse engineering phase followed by a forward engineering phase. UQDBT, the University of Queensland Dynamic Binary Translator, is a machine-adaptable translator. Adaptability is provided through the specification of properties of machines and their instruction sets, allowing the support of different pairs of source and target machines. Most binary translators are closely bound to a pair of machines, making analyses and code hard to reuse. Like most virtual machines, UQDBT performs generic optimizations that apply to a variety of machines. Frequently executed code is translated to native code by the use of edge weight instrumentation, which makes UQDBT converge more quickly than systems based on instruction speculation. In this paper, we describe the architecture and run-time feedback optimizations performed by the UQDBT system, and provide results obtained in the x86 and SPARC® platforms.
Resumo:
New media technologies, the digitisation of information, learning archives and heritage resources are changing the nature of the public library and museums services across the globe, and, in so doing, changing the way present and future users of these services interact with these institutions in real and virtual spaces. New digital technologies are rewriting the nature of participation, learning and engagement with the public library, and fashioning a new paradigm where virtual and physical spaces and educative and temporal environments operate symbiotically. It is with such a creatively disruptive paradigm that the £193 million Library of Birmingham project in the United Kingdom is being developed. New and old media forms and platforms are helping to fashion new public places and spaces that reaffirm the importance of public libraries as conceived in the nineteenth century. As people’s universities, the public library service offers a web of connective learning opportunities and affordances. This article considers the importance of community libraries as sites of intercultural understanding and practical social democracy. Their significance is reaffirmed through the initial findings in the first of a series of community interventions forming part of a long-term project, ‘Connecting Spaces and Places’, funded by the Royal Society of Arts.