227 resultados para Universalidad
Resumo:
Los nuevos títulos de grado en la Universidad española generados a raíz del proceso de Bolonia,inciden en una nueva dimensión: las competencias genéricas que deben adquirir los estudiantes universitarios. Pero ¿cómo armonizar el desarrollo y evaluación de dichas competencias con la actual actividad docente? En este trabajo se expone un modelo que permite la citada armonización con un mínimo de “ruido” y de esfuerzo complementario por parte de los docentes. En el modelo propuesto primero se hace una selección y una ordenación de las competencias que se quieren incorporar en un plan de estudios. Se hace una proyección de las competencias en los cuatrimestres y asignaturas del plan de estudios. La introducción de las competencias en las asignaturas asignadas se hace a través del diseño de actividades de formación, desarrollo y evaluación de la competencia. La segunda componente del modelo propuesto tiene por objeto coordinar las acciones que implementen la transversalidad de las competencias bajo desarrollo tanto en espacio como en tiempo. Por último, existen un conjunto de actividades destinadas a realizar el control de calidad del proceso propuesto. Este modelo se está implementado en las dos titulaciones de grado impartidas por la Escuela Universitaria de Informática de la Universidad Politécnica de Madrid durante el curso 2012/13. La coordinación se ha mostrado especialmente difícil dado la falta de experie ncia y el desconocimiento en este campo y las reticencias de algunos docentes a implicarse en este proceso. El modelo demuestra varias bondades: flexibilidad, aplicabilidad, extensibilidad, universalidad,globalidad y economía. ABSTRACT: The new degrees in Spanish University, generated as a result of the Bologna process, affect a new dimension: the generic competences to be acquired by university students. But, how can we harmonize the development and evaluation of these competencies with current teaching? This paper presents a model that allows the aforementioned harmonization with minimal "noise" and additional effort on the part of teachers. The proposed model first makes a selection and organization of competences that are to be incorporated into a curriculum. The following is a projection of competences in the semesters and curriculum subjects. The introduction of competences in the subjects assigned is carried out by designing activities of training, development and assessment. The second component of the proposed model is focused on coordinating actions to implement the transverse character of competences in both space and time. Finally, there are a set of activities to perform quality control of the proposed process. This model is being implemented in two degree taught by the School of Computer Science at the Universidad Politécnica de Madrid during the year 2012/13. Coordination has been particularly difficult given the lack of experience and lack of knowledge in this field and the reluctance of teachers to engage in this process.
Resumo:
Durante la actividad diaria, la sociedad actual interactúa constantemente por medio de dispositivos electrónicos y servicios de telecomunicaciones, tales como el teléfono, correo electrónico, transacciones bancarias o redes sociales de Internet. Sin saberlo, masivamente dejamos rastros de nuestra actividad en las bases de datos de empresas proveedoras de servicios. Estas nuevas fuentes de datos tienen las dimensiones necesarias para que se puedan observar patrones de comportamiento humano a grandes escalas. Como resultado, ha surgido una reciente explosión sin precedentes de estudios de sistemas sociales, dirigidos por el análisis de datos y procesos computacionales. En esta tesis desarrollamos métodos computacionales y matemáticos para analizar sistemas sociales por medio del estudio combinado de datos derivados de la actividad humana y la teoría de redes complejas. Nuestro objetivo es caracterizar y entender los sistemas emergentes de interacciones sociales en los nuevos espacios tecnológicos, tales como la red social Twitter y la telefonía móvil. Analizamos los sistemas por medio de la construcción de redes complejas y series temporales, estudiando su estructura, funcionamiento y evolución en el tiempo. También, investigamos la naturaleza de los patrones observados por medio de los mecanismos que rigen las interacciones entre individuos, así como medimos el impacto de eventos críticos en el comportamiento del sistema. Para ello, hemos propuesto modelos que explican las estructuras globales y la dinámica emergente con que fluye la información en el sistema. Para los estudios de la red social Twitter, hemos basado nuestros análisis en conversaciones puntuales, tales como protestas políticas, grandes acontecimientos o procesos electorales. A partir de los mensajes de las conversaciones, identificamos a los usuarios que participan y construimos redes de interacciones entre los mismos. Específicamente, construimos una red para representar quién recibe los mensajes de quién y otra red para representar quién propaga los mensajes de quién. En general, hemos encontrado que estas estructuras tienen propiedades complejas, tales como crecimiento explosivo y distribuciones de grado libres de escala. En base a la topología de estas redes, hemos indentificado tres tipos de usuarios que determinan el flujo de información según su actividad e influencia. Para medir la influencia de los usuarios en las conversaciones, hemos introducido una nueva medida llamada eficiencia de usuario. La eficiencia se define como el número de retransmisiones obtenidas por mensaje enviado, y mide los efectos que tienen los esfuerzos individuales sobre la reacción colectiva. Hemos observado que la distribución de esta propiedad es ubicua en varias conversaciones de Twitter, sin importar sus dimensiones ni contextos. Con lo cual, sugerimos que existe universalidad en la relación entre esfuerzos individuales y reacciones colectivas en Twitter. Para explicar los factores que determinan la emergencia de la distribución de eficiencia, hemos desarrollado un modelo computacional que simula la propagación de mensajes en la red social de Twitter, basado en el mecanismo de cascadas independientes. Este modelo nos permite medir el efecto que tienen sobre la distribución de eficiencia, tanto la topología de la red social subyacente, como la forma en que los usuarios envían mensajes. Los resultados indican que la emergencia de un grupo selecto de usuarios altamente eficientes depende de la heterogeneidad de la red subyacente y no del comportamiento individual. Por otro lado, hemos desarrollado técnicas para inferir el grado de polarización política en redes sociales. Proponemos una metodología para estimar opiniones en redes sociales y medir el grado de polarización en las opiniones obtenidas. Hemos diseñado un modelo donde estudiamos el efecto que tiene la opinión de un pequeño grupo de usuarios influyentes, llamado élite, sobre las opiniones de la mayoría de usuarios. El modelo da como resultado una distribución de opiniones sobre la cual medimos el grado de polarización. Aplicamos nuestra metodología para medir la polarización en redes de difusión de mensajes, durante una conversación en Twitter de una sociedad políticamente polarizada. Los resultados obtenidos presentan una alta correspondencia con los datos offline. Con este estudio, hemos demostrado que la metodología propuesta es capaz de determinar diferentes grados de polarización dependiendo de la estructura de la red. Finalmente, hemos estudiado el comportamiento humano a partir de datos de telefonía móvil. Por una parte, hemos caracterizado el impacto que tienen desastres naturales, como innundaciones, sobre el comportamiento colectivo. Encontramos que los patrones de comunicación se alteran de forma abrupta en las áreas afectadas por la catástofre. Con lo cual, demostramos que se podría medir el impacto en la región casi en tiempo real y sin necesidad de desplegar esfuerzos en el terreno. Por otra parte, hemos estudiado los patrones de actividad y movilidad humana para caracterizar las interacciones entre regiones de un país en desarrollo. Encontramos que las redes de llamadas y trayectorias humanas tienen estructuras de comunidades asociadas a regiones y centros urbanos. En resumen, hemos mostrado que es posible entender procesos sociales complejos por medio del análisis de datos de actividad humana y la teoría de redes complejas. A lo largo de la tesis, hemos comprobado que fenómenos sociales como la influencia, polarización política o reacción a eventos críticos quedan reflejados en los patrones estructurales y dinámicos que presentan la redes construidas a partir de datos de conversaciones en redes sociales de Internet o telefonía móvil. ABSTRACT During daily routines, we are constantly interacting with electronic devices and telecommunication services. Unconsciously, we are massively leaving traces of our activity in the service providers’ databases. These new data sources have the dimensions required to enable the observation of human behavioral patterns at large scales. As a result, there has been an unprecedented explosion of data-driven social research. In this thesis, we develop computational and mathematical methods to analyze social systems by means of the combined study of human activity data and the theory of complex networks. Our goal is to characterize and understand the emergent systems from human interactions on the new technological spaces, such as the online social network Twitter and mobile phones. We analyze systems by means of the construction of complex networks and temporal series, studying their structure, functioning and temporal evolution. We also investigate on the nature of the observed patterns, by means of the mechanisms that rule the interactions among individuals, as well as on the impact of critical events on the system’s behavior. For this purpose, we have proposed models that explain the global structures and the emergent dynamics of information flow in the system. In the studies of the online social network Twitter, we have based our analysis on specific conversations, such as political protests, important announcements and electoral processes. From the messages related to the conversations, we identify the participant users and build networks of interactions with them. We specifically build one network to represent whoreceives- whose-messages and another to represent who-propagates-whose-messages. In general, we have found that these structures have complex properties, such as explosive growth and scale-free degree distributions. Based on the topological properties of these networks, we have identified three types of user behavior that determine the information flow dynamics due to their influence. In order to measure the users’ influence on the conversations, we have introduced a new measure called user efficiency. It is defined as the number of retransmissions obtained by message posted, and it measures the effects of the individual activity on the collective reacixtions. We have observed that the probability distribution of this property is ubiquitous across several Twitter conversation, regardlessly of their dimension or social context. Therefore, we suggest that there is a universal behavior in the relationship between individual efforts and collective reactions on Twitter. In order to explain the different factors that determine the user efficiency distribution, we have developed a computational model to simulate the diffusion of messages on Twitter, based on the mechanism of independent cascades. This model, allows us to measure the impact on the emergent efficiency distribution of the underlying network topology, as well as the way that users post messages. The results indicate that the emergence of an exclusive group of highly efficient users depends upon the heterogeneity of the underlying network instead of the individual behavior. Moreover, we have also developed techniques to infer the degree of polarization in social networks. We propose a methodology to estimate opinions in social networks and to measure the degree of polarization in the obtained opinions. We have designed a model to study the effects of the opinions of a small group of influential users, called elite, on the opinions of the majority of users. The model results in an opinions distribution to which we measure the degree of polarization. We apply our methodology to measure the polarization on graphs from the messages diffusion process, during a conversation on Twitter from a polarized society. The results are in very good agreement with offline and contextual data. With this study, we have shown that our methodology is capable of detecting several degrees of polarization depending on the structure of the networks. Finally, we have also inferred the human behavior from mobile phones’ data. On the one hand, we have characterized the impact of natural disasters, like flooding, on the collective behavior. We found that the communication patterns are abruptly altered in the areas affected by the catastrophe. Therefore, we demonstrate that we could measure the impact of the disaster on the region, almost in real-time and without needing to deploy further efforts. On the other hand, we have studied human activity and mobility patterns in order to characterize regional interactions on a developing country. We found that the calls and trajectories networks present community structure associated to regional and urban areas. In summary, we have shown that it is possible to understand complex social processes by means of analyzing human activity data and the theory of complex networks. Along the thesis, we have demonstrated that social phenomena, like influence, polarization and reaction to critical events, are reflected in the structural and dynamical patterns of the networks constructed from data regarding conversations on online social networks and mobile phones.
Resumo:
El análisis del primer edificio de gran escala llevado a cabo por OMA, el Congrexpo de Lille, sirve para comprender mejor el interés desde un punto de vista teórico de Rem Koolhaas por las piezas de arquitectura de gran tamaño. El estudio del Congrexpo se centra por un lado en la relación del edificio con su entorno y por otro, en su propia estructura interna. Estos dos aspectos muestran cómo la ironía en Koolhaas va mucho más allá de la simple provocación, entendiéndose como la lógica capaz de conjugar posiciones teóricas anteriormente encontradas: Unidad o fragmentación, universalidad o especificidad, Zeitgeist o Genius loci. La atención a estas oposiciones características del conflicto entre el Movimiento Moderno y la primera postmodernidad, definen un programa ideológico moderno, aunque a la vez crítico sin ser reaccionario. Este programa se desvela a través de la profundización en el análisis del Congrexpo y del master plan del que deriva.
Resumo:
Los resultados presentados en la memoria de esta tesis doctoral se enmarcan en la denominada computación celular con membranas una nueva rama de investigación dentro de la computación natural creada por Gh. Paun en 1998, de ahí que habitualmente reciba el nombre de sistemas P. Este nuevo modelo de cómputo distribuido está inspirado en la estructura y funcionamiento de la célula. El objetivo de esta tesis ha sido analizar el poder y la eficiencia computacional de estos sistemas de computación celular. En concreto, se han analizado dos tipos de sistemas P: por un lado los sistemas P de neuronas de impulsos, y por otro los sistemas P con proteínas en las membranas. Para el primer tipo, los resultados obtenidos demuestran que es posible que estos sistemas mantengan su universalidad aunque muchas de sus características se limiten o incluso se eliminen. Para el segundo tipo, se analiza la eficiencia computacional y se demuestra que son capaces de resolver problemas de la clase de complejidad ESPACIO-P (PSPACE) en tiempo polinómico. Análisis del poder computacional: Los sistemas P de neuronas de impulsos (en adelante SN P, acrónimo procedente del inglés «Spiking Neural P Systems») son sistemas inspirados en el funcionamiento neuronal y en la forma en la que los impulsos se propagan por las redes sinápticas. Los SN P bio-inpirados poseen un numeroso abanico de características que ha cen que dichos sistemas sean universales y por tanto equivalentes, en poder computacional, a una máquina de Turing. Estos sistemas son potentes a nivel computacional, pero tal y como se definen incorporan numerosas características, quizás demasiadas. En (Ibarra et al. 2007) se demostró que en estos sistemas sus funcionalidades podrían ser limitadas sin comprometer su universalidad. Los resultados presentados en esta memoria son continuistas con la línea de trabajo de (Ibarra et al. 2007) y aportan nuevas formas normales. Esto es, nuevas variantes simplificadas de los sistemas SN P con un conjunto mínimo de funcionalidades pero que mantienen su poder computacional universal. Análisis de la eficiencia computacional: En esta tesis se ha estudiado la eficiencia computacional de los denominados sistemas P con proteínas en las membranas. Se muestra que este modelo de cómputo es equivalente a las máquinas de acceso aleatorio paralelas (PRAM) o a las máquinas de Turing alterantes ya que se demuestra que un sistema P con proteínas, es capaz de resolver un problema ESPACIOP-Completo como el QSAT(problema de satisfacibilidad de fórmulas lógicas cuantificado) en tiempo polinómico. Esta variante de sistemas P con proteínas es muy eficiente gracias al poder de las proteínas a la hora de catalizar los procesos de comunicación intercelulares. ABSTRACT The results presented at this thesis belong to membrane computing a new research branch inside of Natural computing. This new branch was created by Gh. Paun on 1998, hence usually receives the name of P Systems. This new distributed computing model is inspired on structure and functioning of cell. The aim of this thesis is to analyze the efficiency and computational power of these computational cellular systems. Specifically there have been analyzed two different classes of P systems. On the one hand it has been analyzed the Neural Spiking P Systems, and on the other hand it has been analyzed the P systems with proteins on membranes. For the first class it is shown that it is possible to reduce or restrict the characteristics of these kind of systems without loss of computational power. For the second class it is analyzed the computational efficiency solving on polynomial time PSACE problems. Computational Power Analysis: The spiking neural P systems (SN P in short) are systems inspired by the way of neural cells operate sending spikes through the synaptic networks. The bio-inspired SN Ps possess a large range of features that make these systems to be universal and therefore equivalent in computational power to a Turing machine. Such systems are computationally powerful, but by definition they incorporate a lot of features, perhaps too much. In (Ibarra et al. in 2007) it was shown that their functionality may be limited without compromising its universality. The results presented herein continue the (Ibarra et al. 2007) line of work providing new formal forms. That is, new SN P simplified variants with a minimum set of functionalities but keeping the universal computational power. Computational Efficiency Analisys: In this thesis we study the computational efficiency of P systems with proteins on membranes. We show that this computational model is equivalent to parallel random access machine (PRAM) or alternating Turing machine because, we show P Systems with proteins can solve a PSPACE-Complete problem as QSAT (Quantified Propositional Satisfiability Problem) on polynomial time. This variant of P Systems with proteins is very efficient thanks to computational power of proteins to catalyze inter-cellular communication processes.
Resumo:
Una Red de Procesadores Evolutivos o NEP (por sus siglas en ingles), es un modelo computacional inspirado por el modelo evolutivo de las celulas, específicamente por las reglas de multiplicación de las mismas. Esta inspiración hace que el modelo sea una abstracción sintactica de la manipulation de information de las celulas. En particu¬lar, una NEP define una maquina de cómputo teorica capaz de resolver problemas NP completos de manera eficiente en tóerminos de tiempo. En la praóctica, se espera que las NEP simuladas en móaquinas computacionales convencionales puedan resolver prob¬lemas reales complejos (que requieran ser altamente escalables) a cambio de una alta complejidad espacial. En el modelo NEP, las cóelulas estóan representadas por palabras que codifican sus secuencias de ADN. Informalmente, en cualquier momento de cómputo del sistema, su estado evolutivo se describe como un coleccion de palabras, donde cada una de ellas representa una celula. Estos momentos fijos de evolucion se denominan configuraciones. De manera similar al modelo biologico, las palabras (celulas) mutan y se dividen en base a bio-operaciones sencillas, pero solo aquellas palabras aptas (como ocurre de forma parecida en proceso de selection natural) seran conservadas para la siguiente configuracióon. Una NEP como herramienta de computation, define una arquitectura paralela y distribuida de procesamiento simbolico, en otras palabras, una red de procesadores de lenguajes. Desde el momento en que el modelo fue propuesto a la comunidad científica en el año 2001, múltiples variantes se han desarrollado y sus propiedades respecto a la completitud computacional, eficiencia y universalidad han sido ampliamente estudiadas y demostradas. En la actualidad, por tanto, podemos considerar que el modelo teórico NEP se encuentra en el estadio de la madurez. La motivación principal de este Proyecto de Fin de Grado, es proponer una aproxi-mación práctica que permita dar un salto del modelo teórico NEP a una implantación real que permita su ejecucion en plataformas computacionales de alto rendimiento, con el fin de solucionar problemas complejos que demanda la sociedad actual. Hasta el momento, las herramientas desarrolladas para la simulation del modelo NEP, si bien correctas y con resultados satisfactorios, normalmente estón atadas a su entorno de ejecucion, ya sea el uso de hardware específico o implementaciones particulares de un problema. En este contexto, el propósito fundamental de este trabajo es el desarrollo de Nepfix, una herramienta generica y extensible para la ejecucion de cualquier algo¬ritmo de un modelo NEP (o alguna de sus variantes), ya sea de forma local, como una aplicación tradicional, o distribuida utilizando los servicios de la nube. Nepfix es una aplicacion software desarrollada durante 7 meses y que actualmente se encuentra en su segunda iteration, una vez abandonada la fase de prototipo. Nepfix ha sido disenada como una aplicacion modular escrita en Java 8 y autocontenida, es decir, no requiere de un entorno de ejecucion específico (cualquier maquina virtual de Java es un contenedor vólido). Nepfix contiene dos componentes o móodulos. El primer móodulo corresponde a la ejecución de una NEP y es por lo tanto, el simulador. Para su desarrollo, se ha tenido en cuenta el estado actual del modelo, es decir, las definiciones de los procesadores y filtros mas comunes que conforman la familia del modelo NEP. Adicionalmente, este componente ofrece flexibilidad en la ejecucion, pudiendo ampliar las capacidades del simulador sin modificar Nepfix, usando para ello un lenguaje de scripting. Dentro del desarrollo de este componente, tambióen se ha definido un estóandar de representacióon del modelo NEP basado en el formato JSON y se propone una forma de representation y codificación de las palabras, necesaria para la comunicación entre servidores. Adicional-mente, una característica importante de este componente, es que se puede considerar una aplicacion aislada y por tanto, la estrategia de distribution y ejecución son total-mente independientes. El segundo moódulo, corresponde a la distribucióon de Nepfix en la nube. Este de-sarrollo es el resultado de un proceso de i+D, que tiene una componente científica considerable. Vale la pena resaltar el desarrollo de este modulo no solo por los resul-tados prócticos esperados, sino por el proceso de investigation que se se debe abordar con esta nueva perspectiva para la ejecución de sistemas de computación natural. La principal característica de las aplicaciones que se ejecutan en la nube es que son gestionadas por la plataforma y normalmente se encapsulan en un contenedor. En el caso de Nepfix, este contenedor es una aplicacion Spring que utiliza el protocolo HTTP o AMQP para comunicarse con el resto de instancias. Como valor añadido, Nepfix aborda dos perspectivas de implementation distintas (que han sido desarrolladas en dos iteraciones diferentes) del modelo de distribution y ejecucion, que tienen un impacto muy significativo en las capacidades y restricciones del simulador. En concreto, la primera iteration utiliza un modelo de ejecucion asincrono. En esta perspectiva asincrona, los componentes de la red NEP (procesadores y filtros) son considerados como elementos reactivos a la necesidad de procesar una palabra. Esta implementation es una optimization de una topologia comun en el modelo NEP que permite utilizar herramientas de la nube para lograr un escalado transparente (en lo ref¬erente al balance de carga entre procesadores) pero produce efectos no deseados como indeterminacion en el orden de los resultados o imposibilidad de distribuir eficiente-mente redes fuertemente interconectadas. Por otro lado, la segunda iteration corresponde al modelo de ejecucion sincrono. Los elementos de una red NEP siguen un ciclo inicio-computo-sincronizacion hasta que el problema se ha resuelto. Esta perspectiva sincrona representa fielmente al modelo teórico NEP pero el proceso de sincronizacion es costoso y requiere de infraestructura adicional. En concreto, se requiere un servidor de colas de mensajes RabbitMQ. Sin embargo, en esta perspectiva los beneficios para problemas suficientemente grandes superan a los inconvenientes, ya que la distribuciín es inmediata (no hay restricciones), aunque el proceso de escalado no es trivial. En definitiva, el concepto de Nepfix como marco computacional se puede considerar satisfactorio: la tecnología es viable y los primeros resultados confirman que las carac-terísticas que se buscaban originalmente se han conseguido. Muchos frentes quedan abiertos para futuras investigaciones. En este documento se proponen algunas aproxi-maciones a la solucion de los problemas identificados como la recuperacion de errores y la division dinamica de una NEP en diferentes subdominios. Por otra parte, otros prob-lemas, lejos del alcance de este proyecto, quedan abiertos a un futuro desarrollo como por ejemplo, la estandarización de la representación de las palabras y optimizaciones en la ejecucion del modelo síncrono. Finalmente, algunos resultados preliminares de este Proyecto de Fin de Grado han sido presentados recientemente en formato de artículo científico en la "International Work-Conference on Artificial Neural Networks (IWANN)-2015" y publicados en "Ad-vances in Computational Intelligence" volumen 9094 de "Lecture Notes in Computer Science" de Springer International Publishing. Lo anterior, es una confirmation de que este trabajo mas que un Proyecto de Fin de Grado, es solo el inicio de un trabajo que puede tener mayor repercusion en la comunidad científica. Abstract Network of Evolutionary Processors -NEP is a computational model inspired by the evolution of cell populations, which might model some properties of evolving cell communities at the syntactical level. NEP defines theoretical computing devices able to solve NP complete problems in an efficient manner. In this model, cells are represented by words which encode their DNA sequences. Informally, at any moment of time, the evolutionary system is described by a collection of words, where each word represents one cell. Cells belong to species and their community evolves according to mutations and division which are defined by operations on words. Only those cells are accepted as surviving (correct) ones which are represented by a word in a given set of words, called the genotype space of the species. This feature is analogous with the natural process of evolution. Formally, NEP is based on an architecture for parallel and distributed processing, in other words, a network of language processors. Since the date when NEP was pro¬posed, several extensions and variants have appeared engendering a new set of models named Networks of Bio-inspired Processors (NBP). During this time, several works have proved the computational power of NBP. Specifically, their efficiency, universality, and computational completeness have been thoroughly investigated. Therefore, we can say that the NEP model has reached its maturity. The main motivation for this End of Grade project (EOG project in short) is to propose a practical approximation that allows to close the gap between theoretical NEP model and a practical implementation in high performing computational platforms in order to solve some of high the high complexity problems society requires today. Up until now tools developed to simulate NEPs, while correct and successful, are usu¬ally tightly coupled to the execution environment, using specific software frameworks (Hadoop) or direct hardware usage (GPUs). Within this context the main purpose of this work is the development of Nepfix, a generic and extensible tool that aims to execute algorithms based on NEP model and compatible variants in a local way, similar to a traditional application or in a distributed cloud environment. Nepfix as an application was developed during a 7 month cycle and is undergoing its second iteration once the prototype period was abandoned. Nepfix is designed as a modular self-contained application written in Java 8, that is, no additional external dependencies are required and it does not rely on an specific execution environment, any JVM is a valid container. Nepfix is made of two components or modules. The first module corresponds to the NEP execution and therefore simulation. During the development the current state of the theoretical model was used as a reference including most common filters and processors. Additionally extensibility is provided by the use of Python as a scripting language to run custom logic. Along with the simulation a definition language for NEP has been defined based on JSON as well as a mechanisms to represent words and their possible manipulations. NEP simulator is isolated from distribution and as mentioned before different applications that include it as a dependency are possible, the distribution of NEPs is an example of this. The second module corresponds to executing Nepfix in the cloud. The development carried a heavy R&D process since this front was not explored by other research groups until now. It's important to point out that the development of this module is not focused on results at this point in time, instead we focus on feasibility and discovery of this new perspective to execute natural computing systems and NEPs specifically. The main properties of cloud applications is that they are managed by the platform and are encapsulated in a container. For Nepfix a Spring application becomes the container and the HTTP or AMQP protocols are used for communication with the rest of the instances. Different execution perspectives were studied, namely asynchronous and synchronous models were developed for solving different kind of problems using NEPs. Different limitations and restrictions manifest in both models and are explored in detail in the respective chapters. In conclusion we can consider that Nepfix as a computational framework is suc-cessful: Cloud technology is ready for the challenge and the first results reassure that the properties Nepfix project pursued were met. Many investigation branches are left open for future investigations. In this EOG implementation guidelines are proposed for some of them like error recovery or dynamic NEP splitting. On the other hand other interesting problems that were not in the scope of this project were identified during development like word representation standardization or NEP model optimizations. As a confirmation that the results of this work can be useful to the scientific com-munity a preliminary version of this project was published in The International Work- Conference on Artificial Neural Networks (IWANN) in May 2015. Development has not stopped since that point and while Nepfix in it's current state can not be consid¬ered a final product the most relevant ideas, possible problems and solutions that were produced during the seven months development cycle are worthy to be gathered and presented giving a meaning to this EOG work.
Resumo:
La búsqueda de nuevas formas de modernidad se convirtió en la cuestión principal de la obras desarrolladas por Leslie Martin, Colin St. John Wilson y James Stirling entre los años 1955 y 1970. Enmarcadas dentro de la sensibilidad surgida en la posguerra británica, su profundo sentido crítico supone una renovada interpretación de alguno fundamentos del Movimiento Moderno así como la reflexión sobre la modificación y el uso de formas que tienen sus raíces en la tradición cultural. Esta investigación se estructura en cuatro temas ampliamente debatidos y que han articulado parte de la revisión moderna a lo largo de la segunda mitad del siglo XX: » la abstracción y el realismo » la revisión de la idea funcionalista » la reconsideración de los arquetipos formales » la relación entre forma y contexto urbano se muestran como base crítica para las obras seleccionadas. La tendencia hacia el realismo surgió como respuesta a la voluntad de universalidad (y objetividad) que representó el lenguaje abstracto, del mismo modo que la revisión de la idea funcionalista pretendió superar la consideración de la obra arquitectónica como producto racional de su función y tecnología. La reconsideración de los arquetipos de la tradición, a su vez, muestra una preocupación por el significado de las formas culturales del pasado, una cuestión igualmente decisiva en la renovada atención a la estructura de la ciudad histórica. Estos temas evidencian un interés por ampliar la arquitectura moderna sin que el reconocimiento de las formas del pasado suponga un distanciamiento respecto al futuro. La idea de revisión, asimismo, se convierte en estrategia a la hora de encontrar nuevas respuestas. Si algunos de los principios del Movimiento Moderno surgen como reacción al clasicismo Beaux Arts que le precedió, las propuestas analizadas muestran la validez operativa de este enfoque para crear obras de una intensa modernidad. Su interés, por lo tanto, no solo radica en su consideración como objetos de estudio que amplían nuestro conocimiento de un período determinado, sino como tradición reciente que sirve de base crítica para la práctica actual. ABSTRACT The search of new forms of modernity became the main theme of the works developed by Leslie Martin, Colin St. John Wilson and James Stirling between 1955 and 1970. Belonging to the sensitivity emerged in postwar Britain, their deep critical sense encourages a renewed interpretation of some principles of Modern Movement and a reflection about the modification or the use of forms that are rooted in cultural tradition. This research is divided into four themes widely discussed and which has articulated part of modern review along the second half of the twentieth century: » Abstraction and realism » Review of Functionalism » The reconsideration of the formal archetypes » The relationship between form and urban context are shown as critical base for the selected works. The trend toward realism arose in response to the will of universality (and objectivity) that represented the abstract language, just as the review of Functionalism aimed to overcome the consideration of architecture's work as rational product of its function and technology. The reconsideration of traditional archetypes, in turn, shows a concern for the meaning of the cultural forms, a matter equally decisive in the renewed attention to the structure of the historical city. These themes evidence an interest to extend modern architecture, without thereby the recognition of the past forms imply a distancing regarding the future. The idea of review also becomes strategy in finding new answers. If some principles of the Modern Movement arose in reaction to Beaux-Arts classicism which preceded it, the analyzed proposals show the operational validity of this approach to create works of a strong modernity. Their interest, therefore, lies not only in its consideration as study cases that broaden our knowledge of a certain period, but as a recent tradition which serves as a critic basis for the current practice.
Resumo:
La tesis afronta el análisis del itinerario vital de Fernando Távora, una vida entregada apasionadamente a una causa de refundación estética y conceptual de una arquitectura portuguesa condenada a la mediocridad y al ostracismo en el momento en que empieza a ejercer la profesión. La investigación se adentra en todos los aspectos que convergen en su dedicación al logro de aquella misión, pues la que él mismo probablemente llamaría orteguianamente su circunstancia, resulta inseparable de su pensamiento y de su obra. Se pretende establecer la riqueza y complejidad de la figura de Fernando Távora y su importancia como punto de inflexión en la evolución de la arquitectura portuguesa, que ha llegado a alcanzar el reconocimiento internacional en las últimas décadas, fundamentalmente a partir de la consagración de Álvaro Siza Vieira y la denominada Escuela de Oporto. Desde una posición de absoluta autonomía respecto de lo que acontece dentro y fuera de las fronteras portuguesas, su labor se distinguirá por su singularidad teórica y arquitectónica, no dejando por ello de influir decisivamente en su entorno cercano. Dos manifiestos escritos, el juvenil O problema da Casa Portuguesa y el posterior Da Organização do Espaço son elementos estructurantes de un pensamiento teórico que germina en una obra construida inseparable de aquel, de cuya coherencia dan testimonio los aquí considerados verdaderos manifiestos proyectuales del arquitecto. Efectivamente, se analizarán detalladamente como tales la Casa sobre o Mar –manifiesto inicial-, el Pabellón de Tenis –manifiesto de confirmación- y la Casa dos 24 -manifiesto final-, proyectos que vieron la luz en diferentes etapas de su trayectoria y constituyen la aplicación práctica de sus teorías en una sintaxis magistral. En estos tres proyectos es donde verdaderamente la tesis cobra cuerpo, pues suponen el reflejo de la verdadera aportación del arquitecto al pensamiento arquitectónico europeo, la foto fija de la proclamación de resultados de un proyecto arquitectónico integral en momentos muy significativos de su itinerario vital, cuya complejidad se entiende a través de las fases más descriptivas de este documento. Se mostrará cómo para acometer su proyecto integral de arquitectura, una causa de regeneración de la arquitectura portuguesa a partir de la síntesis entre modernidad y tradición, entre universalidad y localidad, tomaría de sus dos personajes más admirados, Le Corbusier y Pessoa, la fuerza moral y la energía que le permitieron acometer apasionadamente tamaña misión. En una infatigable búsqueda en lo global y lo local, Távora conseguirá prestar gran atención al contexto del lugar de intervención sin renunciar a sus convicciones modernas, introduciendo la historia y el dibujo como herramientas de conocimiento del mismo y posteriormente del proceso creativo. El método proyectivo resultante de este modelo, que transmitirá a través de su ejercicio docente a sucesivas generaciones de arquitectos, se convertirá en elemento estructurante de una tendencia surgida de las aulas portuenses, que la crítica internacional acabará denominando Escuela de Oporto en un sentido más amplio. Por su importancia dentro del itinerario profesional del[os] arquitecto[s] portuense[s], las fases más destacadas de su evolución a partir de los años 50 se analizarán en paralelo a una serie de obras representativas de diferentes momentos de la trayectoria de Fernando Távora. En este itinerario vital, a pesar de la originalidad de su pensamiento y su obra, se atisban ciertos paralelismos con grandes arquitectos del siglo XX, que esta tesis afronta. Se puede distinguir entre influencias pasajeras de algunos maestros modernos en los que Távora buscaba la confirmación a sus propias teorías, similitudes con arquitectos coetáneos cuya obra conoció y a los que se encontró cercano por la convergencia de algunos de sus criterios e incluso sorprendentes coincidencias con arquitectos desconocidos para él, entre las que cabe destacar la de los maestros de la Escuela de Madrid Alejandro de la Sota y Javier Sáenz de Oiza. Por último, en una alegoría con los heterónimos de Fernando Pessoa, se analiza desde una perspectiva personal fruto de la investigación y de las entrevistas mantenidas con todos ellos, la importante labor de Álvaro Siza Vieira, Alexandre Alves Costa y su hijo José Bernardo Távora como agentes coadyuvantes en la consecución del proyecto integral de arquitectura [y vida] de Fernando Távora. Sin lugar a dudas, Álvaro Siza constituye el personaje fundamental e imprescindible para que la arquitectura portuguesa alcanzase la privilegiada consideración que en la actualidad ostenta en la escena internacional. Un arquitecto consagrado que ocupa ya, y ocupará siempre, un lugar privilegiado en la breve lista de maestros míticos e irrepetibles de la arquitectura contemporánea. Con todo, cabe afirmar con la paráfrasis bíblica que da título a la tesis que ‘En el principio era Távora...’ ABSTRACT This thesis addresses the analysis of Fernando Távora’s life journey, a life that was passionately devoted to the cause of aesthetically and conceptually overhauling Portuguese architecture, which was doomed to mediocrity and ostracism at the time when he started practicing professionally. This research delves into all aspects converging in his dedication to achieving that mission, since what he himself would probably call his circumstance – in the manner of José Ortega y Gasset – is inseparable from his thinking and his work. This thesis seeks also to establish the richness and complexity of Fernando Távora’s figure and his importance as a turning point in the evolution of Portuguese architecture, which has gone on to achieve international recognition in recent decades, especially after the consecration of Álvaro Siza Vieira and the so-called School of Oporto. From an absolutely autonomous position with regard to what is happening within and outside Portuguese borders, his work will stand out due to its theoretical and architectural uniqueness – this not being a reason to prevent its decisive influence on his close surroundings. Two written manifestos, his early O problema da Casa Portuguesa and his subsequent Da Organização do Espaço, become structural elements of the theoretical thinking that develops into works which are built in parallel with the former. The coherence of this thinking is reflected on the hereby considered the architect’s true project manifestos. Indeed, we will analyse as such the Casa sobre o Mar (initial manifesto), the Tennis Pavilion (confirmation manifesto) and Casa dos 24 (final manifesto), projects which saw the light at different stages of his career and constitute the practical application of his theories in a masterful syntax. These are the three projects where the thesis takes shape, as they become the reflection of the architect’s true contribution to the European architectural school of thought; the still picture of the results proclamation of a whole architectural project at highly significant moments in his life journey, whose complexity can be understood through this document’s most descriptive phases. This study will show how, in order to carry out his architectural project – regenerate Portuguese architecture by synthesizing modernity and tradition, universality and locality –, Távora would take the moral strength and energy from his two most admired figures, Le Corbusier and Pessoa, allowing him to passionately undertake such a colossal mission. In a tireless search within the global and the local, Távora will manage to pay more attention to the context of the intervention place without compromising his modern convictions, by introducing history and drawing as knowledge tools of the place and eventually of the creative process. The resulting projective method of this model, which he will transmit to successive generations of architects through his teaching, will become a structural element of a trend emerged from the Oporto classrooms which international critique will end up denominating School of Porto in a broader sense. Due to its importance within Porto architect[s]’ professional career, the most prominent phases of its evolution as of the 50s will be analysed in parallel to a series of representative works from different moments in Fernando Távora’s career. Despite the originality of his thinking and his work, certain parallelisms with great architects from the 20th century can be found in Távora’s life journey, which this thesis will address. Amongst temporary influences of some modern masters in whom Távora sought confirmation of his own theories, similarities can be spotted with contemporary architects whose work he knew and to whom he felt close because of the convergence of some of his views. It is also possible to see surprising coincidences with architects he did not know, such as Alejandro de la Sota and Javier Sáenz de Oiza, masters from the School of Madrid. Finally, in an allegory with Fernando Pessoa’s heteronyms, this thesis studies – from a personal perspective based on research and the interviews held with all of them – the important work of Álvaro Siza Vieira, Alexandre Alves Costa and his son Jose Bernardo Távora as auxiliaries in the achievement of Fernando Távora’s complete architectural [and life] project. Without the slightest doubt, Álvaro Siza constitutes the essential figure thanks to whom Portuguese architecture would reach the advantaged position it holds nowadays in the international arena. An acclaimed architect, Siza already holds a privileged spot in the brief list of legendary and unrepeatable masters of contemporary architecture. Nevertheless, with the biblical paraphrase that entitles this thesis it can be claimed that ‘In the beginning was Távora…’
Resumo:
Este artículo presenta un análisis de la noción de hegemonía tal como es desarrollada por Ernesto Laclau en investigaciones que comprenden desde trabajos previos a su clásico Hegemonía y estrategia socialista. Hacia una radicalización de la democracia (1985, en colaboración con Chantal Mouffe) hasta su obra importante más reciente La razón populista (2004). La hipótesis de lectura que guía el articulo es que hegemonía -desde sus orígenes en la teoría política de Laclau- funciona como una categoría que plantea la relación entre la universalidad y la particularidad pero también como tres conceptos -en tanto esta categoría adquiere un contenido particular cuando se la utiliza en diferentes campos: lo político y la lógica de constitución de lo social; el funcionamiento de una/la lógica de la política; y la constitución de las identidades colectivas
Resumo:
¿Es hoy la Administración presupuestaria una realidad diferente tras sucesos tan importantes como la reforma política (años 70 del siglo XX), la reforma de la estructura del Estado (años 80) y el cambio regular de partidos gobernantes (consolidado en los años 90)? Antes de entrar a considerar cuestiones más metodológicas y de entrar en detalles exigibles académicamente, hay que decir que se trata de un estudio político de adminis-tración pública totalmente empírico. Es un estudio del poder público, en el que se consi-dera que la administración pública ejerce el poder público y cumple una universalidad de fines, se estudia qué es la administración pública y los grupos humanos que la integran y sirven. Aspira a contribuir a dar conocimiento para administrar adecuadamente en el sec-tor público1. Se estudia la administración presupuestaria central en España en el período que va de 4 de enero de 1977 (Ley General Presupuestaria) a 5 de mayo de 1996 (cambio de Go-bierno del PSOE a Gobierno del PP). No sólo es un estudio de Ciencia de la Administra-ción porque el objeto es un sector de la Administración pública, sino porque además es un estudio flagrantemente político, con consecuencias sobre el sistema político y sobre la administración pública simultáneamente. Se puede decir que incorpora dos visiones o ángulos aparentemente opuestos: una visión macro que nos lleva al sistema político global, y una visión micro que enlaza con el trabajo cotidiano de muchos funcionarios, con la política y con la gestión, difícilmente separables...
Resumo:
La Ley General de Sanidad 14/1986 de 25 de Abril posibilitó el tránsito del antiguo modelo de Seguridad Social al actual modelo de Sistema Nacional de Salud (SNS), financiado con impuestos y de cobertura prácticamente universal. Desde entonces se han producido profundos cambios en el sistema que culminaron en el año 2002 con la descentralización total de competencias en materia de salud en las Comunidades Autónomas. La regulación nacional de competencias en materia de salud se realiza desde el Consejo Interterritorial del Sistema Nacional de Salud, organismo que agrupa a los máximos responsables autonómicos en materia de salud de cada Comunidad Autónoma y que tiene entre otras, la responsabilidad de evitar las desigualdades en servicios sanitarios dentro del territorio nacional. La creación y competencias del Consejo Interterritorial quedan recogidas en la Ley 16/2003 de 28 de mayo de Cohesión de la calidad del Sistema Nacional de Salud. La cartera de servicios comunes del SNS se establece en el Real Decreto 1030/2006 de 15 de Septiembre, actualizando el Real Decreto 63/1995 de 20 de enero sobre Ordenación de las prestaciones sanitarias, resultando del actual marco legislativo con la descentralización de competencias y gestión de los presupuestos un horizonte de posible variabilidad en los modelos de gestión de cada CCAA, que, si bien deben garantizar la universalidad de las prestaciones, también ofrece una diversidad de modalidades de gestionar los recursos en materia de salud. En cuanto al estado de salud de los españoles, destacar que la esperanza de vida al nacer se sitúa en 79,9 años, superior a la media europea, 78,3 años, y la esperanza de vida ajustada por incapacidad fue en 2002 de 72,6 años en España respecto a los 70,8 de la UE. Según cifras del propio Ministerio de Sanidad, la percepción de la salud de los ciudadanos fue positiva para un 73% de los hombres y un 63,2 de las mujeres. Alrededor del 60% de la población tiene un peso normal y la morbilidad sitúa en los primeros lugares las enfermedades del aparato circulatorio, el cáncer y las enfermedades del aparato respiratorio (CIE-9). El gasto sanitario en España, es un capítulo presupuestario importante, al situarse en torno al 7,5 del P.I.B, y los recursos e inversiones presentan aparentes desigualdades autonómicas. Los modelos de gestión y dependencia patrimonial de los recursos, variables entre Autonomías, plantean la necesidad de monitorizar un seguimiento que permita evaluar en los próximos diez años el impacto de la descentralización de competencias del Sistema. La estructura del Sistema tiene dos niveles asistenciales mayoritarios, atención primaria y especializada, absorbiendo la atención especializada la mayor parte del presupuesto. El incremento del gasto sanitario y la universalidad de las prestaciones han condicionado en gran medida la implantación de modelos de gestión diferentes a los tradicionales. Esta situación no es exclusiva del Estado Español. En los Estados del entorno de la Unión Europea, el Consejo de Ministros de Sanidad de la UE en su sesión celebrada los días 1 y 2 de Junio de 200625 concluyeron un documento que recoge los valores y principios comunes de los sistemas sanitarios de los países de la Unión Europea, resaltando los principios y valores de los sistemas sanitarios como soporte estructural de dichos estados. Como conclusión, en este momento (2007) el Sistema Nacional de Salud Español, está inmerso en un proceso de trasformación orientado a garantizar la eficiencia de las prestaciones de manera responsable, es decir, ofertar al ciudadano la mejor calidad de servicios al mínimo coste.
Resumo:
Una misma crítica de abstracción irreal y universalidad vacía se repite de Hegel hacia los románticos, y de Kierkegaard hacia estos y hacia aquel. Lo que nos proponemos en el siguiente artículo es cuestionar la consistencia conceptual de esta crítica, acercar el contenido esencial de sus respectivos pensamientos y plantear finalmente una posible continuidad especulativa, que se extendería desde el primer romanticismo a Hegel y desde éste hacia Kierkegaard, para llegar incluso hasta nosotros.
Resumo:
Este artículo presenta un análisis de la noción de hegemonía tal como es desarrollada por Ernesto Laclau en investigaciones que comprenden desde trabajos previos a su clásico Hegemonía y estrategia socialista. Hacia una radicalización de la democracia (1985, en colaboración con Chantal Mouffe) hasta su obra importante más reciente La razón populista (2004). La hipótesis de lectura que guía el articulo es que hegemonía -desde sus orígenes en la teoría política de Laclau- funciona como una categoría que plantea la relación entre la universalidad y la particularidad pero también como tres conceptos -en tanto esta categoría adquiere un contenido particular cuando se la utiliza en diferentes campos: lo político y la lógica de constitución de lo social; el funcionamiento de una/la lógica de la política; y la constitución de las identidades colectivas
Resumo:
¿Hay una universalidad de los estados de ansiedad? Los síntomas de ansiedad son de la índole más variada. Estos surgen como manifestación de los mecanismos biológicos que se desencadenan a partir de la percepción de peligro o amenaza. En la actualidad podemos afirmar que los trastornos de ansiedad son un fenómeno uniformemente distribuido en el mundo; sin embargo, la lectura de esa sintomatología presenta variaciones que dependen de diversos factores, y que impactan tanto en el diagnóstico como en la terapéutica. En esta ocasión describiremos un itinerario terapéutico de un migrante del NOA al Gran Buenos Aires que recibió el diagnóstico biomédico de Trastorno por Pánico. Analizaremos, a partir de este caso, las distintas interpretaciones que surgen a partir un mismo malestar, su relación con las creencias previas al desarrollo de la enfermedad, los motivos y las creencias que subyacen a la selección y combinación de distintas terapéuticas, así como también los distintos factores que dieron lugar a estas elecciones y preferencias
Resumo:
Reflexionando sobre la problemática desafiante si ¿podremos vivir juntos?, y la producción de conocimiento sociológico, (entendiendo al conocimiento con características de provisorio, problematizado y cuestionable), me propongo indagar en los Nuevos Diseños Curriculares de la Provincia de Buenos Aires. En los cuales aparecen explícitamente conceptos paradigmáticos claves, a saber: currículum, interculturalita, inclusión, universalidad, diversidad, sujeto pedagógico, sujetos complejos, atravesados por su historicidad, por ser inconclusos, con derechos y con Género y sexualidad (como dos características diferenciadas). Analizaré la relación y la influencia de estos nuevos discursos pedagógicos en las prácticas docentes con características discriminatoria en las clases que desarrollan el contenido: Fútbol. En este sentido es interesante como los constructos y prejuicios sociales generan tensión y divorcio entre lo prescriptivo y lo que se hace en la clase, donde las niñas, adolescentes y adultas se encuentran en situación de desigualdad y exclusión a la hora de aprender en una institución formal el deporte fútbol, donde claramente se promueve desde el sentido común la invisibilidad y el ninguneo de las mujeres en la formación y apropiación de un saber popular y cultural. El Fútbol Femenino es una realidad lo demuestran Cinco Mundiales de Fútbol, Tres Campeonatos Olímpicos, 24 años en A.F.A., 40 millones de mujeres en todo el planeta registradas en F.I.F.A.
Resumo:
¿Hay una universalidad de los estados de ansiedad? Los síntomas de ansiedad son de la índole más variada. Estos surgen como manifestación de los mecanismos biológicos que se desencadenan a partir de la percepción de peligro o amenaza. En la actualidad podemos afirmar que los trastornos de ansiedad son un fenómeno uniformemente distribuido en el mundo; sin embargo, la lectura de esa sintomatología presenta variaciones que dependen de diversos factores, y que impactan tanto en el diagnóstico como en la terapéutica. En esta ocasión describiremos un itinerario terapéutico de un migrante del NOA al Gran Buenos Aires que recibió el diagnóstico biomédico de Trastorno por Pánico. Analizaremos, a partir de este caso, las distintas interpretaciones que surgen a partir un mismo malestar, su relación con las creencias previas al desarrollo de la enfermedad, los motivos y las creencias que subyacen a la selección y combinación de distintas terapéuticas, así como también los distintos factores que dieron lugar a estas elecciones y preferencias