999 resultados para Canales de Potasio de Gran Conductancia Activados por el Calcio
Resumo:
El presente trabajo se basa en un análisis de la normativa dispuesta en materia de ordenamiento territorial y usos de suelo de los 23 partidos de la cuenca Parano- Platense que conforman el área de estudio del proyecto en el cual se encuadra el mismo1, considerando el tratamiento específico de áreas afectadas y prevención de las inundaciones. Para ello se ha tenido en cuenta: a) el análisis de la evolución de la regulación del Estado en la ocupación del suelo para el Gran Buenos Aires; b) el registro actualizado de ordenanzas en materia de ordenamiento territorial y Usos del Suelo convalidadas por Poder Ejecutivo (PE) (Nº de ordenanza y el Nº de Decreto del Poder Ejecutivo de convalidación; c) la norma específica (Nº de ordenanza / Nº de decreto del PE) por municipio / por contenido. Los datos para llevar a cabo el estudio de usos de suelo normativos se obtuvieron del nuevo Mapa Interactivo de Ordenamiento Territorial de la Provincia de Buenos Aires, que fue generado por el Ministerio de Gobierno de la Provincia de Buenos Aires, Subsecretaría de Asuntos Municipales. El análisis de la normativa vigente de cada uno de los 23 partidos que abarcan el ámbito de estudio nos permitirá definir estrategias futuras de intervención, las cuales actuarán como instrumento en materia de ordenamiento territorial desde la gestión de cada municipio.
Resumo:
Tanto el modelo de intelectual que se observa aquí, como las estéticas aludidas, corresponden, o tienen su auge, aparentemente, en una época anterior En 1942, la Comisión Nacional de Cultura otorga el Premio Nacional de Literatura a Eduardo Acevedo Díaz por Cancha larga. Este acontecimiento tuvo gran resonancia, tanto que el número 94 de la revista Sur estuvo dedicado al desagraviar a Borges, al no haberse premiado El jardín de senderos que se bifurcan. Poco tiempo después, aparece en el número 76 de Nosotros. Segunda Época un artículo sin firma, titulado "Los premios nacionales de literatura", en el que se justifica la decisión. En 1945, Borges publicará en Sur "El Aleph", donde parodia la situación bajo el título de 'Postdata del primero de marzo de 1943'. El análisis de esta polémica permite dar cuenta de un momento crucial, en el que comienzan a reestructurarse el campo intelectual y el canon en la literatura argentina. Se desplaza al nacionalismo de su lugar hegemónico y comienza a concebirse la "escritura nacional" de un modo menos mimético. De este esta manera, el nativismo regionalista, ligado a aquella tendencia, pasa a ocupar un espacio muy marginal, cercano al olvido, en la historia literaria, pese al lugar importante que ocupó en las primeras décadas del siglo XX.
Resumo:
Este trabajo es el fruto de reflexiones realizadas a partir de investigaciones sobre poblaciones desocupadas, históricamente beneficiaria de planes de empleo, quienes han sobrevivido combinando estos beneficios con trabajos informales y precarios, y con una sucesión infinita de planes sociales. Desde investigaciones encuadradas en metodologías cualitativas en el Gran La Plata y el Gran Buenos Aires, de los trabajo de campo y de los marcos conceptuales de los que partimos, es que planteamos la necesidad de discutir el concepto de identidad propio de la modernidad que ha naturalizado una concepción atrapada en la retórica de lo idéntico, lo permanente, lo encerrado y lo duradero impidiendo un pensamiento diferente por remitir a lo sólido, lo firme, lo recortado, lo estable (Gatti, 2007). Por el contrario, observamos que hay una multiplicidad de formas de entender la pertenencia a un colectivo social alejadas de una concepción clásica. Configurando una nueva construcción de identidades
Resumo:
Este trabajo esta dedicado al estudio de las estructuras macroscópicas conocidas en la literatura como filamentos o blobs que han sido observadas de manera universal en el borde de todo tipo de dispositivos de fusión por confinamiento magnético. Estos filamentos, celdas convectivas elongadas a lo largo de las líneas de campo que surgen en el plasma fuertemente turbulento que existe en este tipo de dispositivos, parecen dominar el transporte radial de partículas y energía en la región conocida como Scrape-off Layer, en la que las líneas de campo dejan de estar cerradas y el plasma es dirigido hacia la pared sólida que forma la cámara de vacío. Aunque el comportamiento y las leyes de escala de estas estructuras son relativamente bien conocidos, no existe aún una teoría generalmente aceptada acerca del mecanismo físico responsable de su formación, que constituye una de las principales incógnitas de la teoría de transporte del borde en plasmas de fusión y una cuestión de gran importancia práctica en el desarrollo de la siguiente generación de reactores de fusión (incluyendo dispositivos como ITER y DEMO), puesto que la eficiencia del confinamiento y la cantidad de energía depositadas en la pared dependen directamente de las características del transporte en el borde. El trabajo ha sido realizado desde una perspectiva eminentemente experimental, incluyendo la observación y el análisis de este tipo de estructuras en el stellarator tipo heliotrón LHD (un dispositivo de gran tamaño, capaz de generar plasmas de características cercanas a las necesarias en un reactor de fusión) y en el stellarator tipo heliac TJ-II (un dispositivo de medio tamaño, capaz de generar plasmas relativamente más fríos pero con una accesibilidad y disponibilidad de diagnósticos mayor). En particular, en LHD se observó la generación de filamentos durante las descargas realizadas en configuración de alta _ (alta presión cinética frente a magnética) mediante una cámara visible ultrarrápida, se caracterizó su comportamiento y se investigó, mediante el análisis estadístico y la comparación con modelos teóricos, el posible papel de la Criticalidad Autoorganizada en la formación de este tipo de estructuras. En TJ-II se diseñó y construyó una cabeza de sonda capaz de medir simultáneamente las fluctuaciones electrostáticas y electromagnéticas del plasma. Gracias a este nuevo diagnóstico se pudieron realizar experimentos con el fin de determinar la presencia de corriente paralela a través de los filamentos (un parámetro de gran importancia en su modelización) y relacionar los dos tipos de fluctuaciones por primera vez en un stellarator. Así mismo, también por primera vez en este tipo de dispositivo, fue posible realizar mediciones simultáneas de los tensores viscoso y magnético (Reynolds y Maxwell) de transporte de cantidad de movimiento. ABSTRACT This work has been devoted to the study of the macroscopic structures known in the literature as filaments or blobs, which have been observed universally in the edge of all kind of magnetic confinement fusion devices. These filaments, convective cells stretching along the magnetic field lines, arise from the highly turbulent plasma present in this kind of machines and seem to dominate radial transport of particles and energy in the region known as Scrapeoff Layer, in which field lines become open and plasma is directed towards the solid wall of the vacuum vessel. Although the behavior and scale laws of these structures are relatively well known, there is no generally accepted theory about the physical mechanism involved in their formation yet, which remains one of the main unsolved questions in the fusion plasmas edge transport theory and a matter of great practical importance for the development of the next generation of fusion reactors (including ITER and DEMO), since efficiency of confinement and the energy deposition levels on the wall are directly dependent of the characteristics of edge transport. This work has been realized mainly from an experimental perspective, including the observation and analysis of this kind of structures in the heliotron stellarator LHD (a large device capable of generating reactor-relevant plasma conditions) and in the heliac stellarator TJ-II (a medium-sized device, capable of relatively colder plasmas, but with greater ease of access and diagnostics availability). In particular, in LHD, the generation of filaments during high _ discharges (with high kinetic to magnetic pressure ratio) was observed by means of an ultrafast visible camera, and the behavior of this structures was characterized. Finally, the potential role of Self-Organized Criticality in the generation of filaments was investigated. In TJ-II, a probe head capable of measuring simultaneously electrostatic and electromagnetic fluctuations in the plasma was designed and built. Thanks to this new diagnostic, experiments were carried out in order to determine the presence of parallel current through filaments (one of the most important parameters in their modelization) and to related electromagnetic (EM) and electrostatic (ES) fluctuations for the first time in an stellarator. As well, also for the first time in this kind of device, measurements of the viscous and magnetic momentum transfer tensors (Reynolds and Maxwell) were performed.
Resumo:
La Región Metropolitana de Madrid (RMM) ha sufrido una gran transformación urbana en el periodo 1985-2007, en el cual ha crecido la población, ha crecido fuertemente el cuerpo físico, pero sobre todo han crecido su coste y su consumo, lo que supone que se ha vuelto más insostenible. Para tratar de comprender esta evolución asimétrica se ensayan sucesivos modelos que tratan de explicar la transformación de la realidad a través de la articulación de las formas de poder y sus políticas asociadas dentro del contexto local-metropolitano. Si se compara la transformación urbana en el periodo 1985-2007 respecto a la registrada durante el desarrollismo previo al presente periodo democrático, se encuentran similitudes, como el amplio consumo de suelo, pero el modelo desarrollista se inscribe en otras lógicas y tiene otros parámetros de contexto y es congruente ya que las últimas décadas del Régimen Franquista se caracterizan por un importantísimo aumento poblacional que se correspondía con el fuerte crecimiento industrial de la RMM. Esa congruencia relativa se pierde en el periodo estudiado, a pesar de que en 1985, se aprueba el Plan General de Ordenación Urbana de Madrid centrado en la ciudad existente y con un crecimiento contenido, y que puede considerarse un modelo abortado. Tras numerosas transformaciones políticas, económicas, sociales y urbanísticas se llega a una situación opuesta a la prevista en el citado Plan. Más de veinte años después, en 2007, se presentan no solo síntomas de agotamiento del modelo finalmente adoptado, sino su quiebra dramática tanto en su dimensión inmobiliario-financiera como del espacio del bienestar. Es precisamente la supresión de los mecanismos de regulación lo que ha caracterizado la evolución de los modelos urbanos, en correspondencia con la desregulación de las actividades económicas y de los flujos de capital propios del modelo "neoliberal". La actual crisis financiera internacional, en especial en algunos países periféricos europeos como España, ha demostrado cómo las políticas económicas que se han llevado a cabo, fuera de toda regulación, han resultado insostenibles. Pero no se trata solo de una crisis económica. En el caso español, de todas las dimensiones de la crisis, destaca la dimensión urbana, o el auge y caída del ciclo inmobiliario, debido a la urbanización intensiva del territorio en relación con el circuito secundario de la acumulación capitalista, habiendo tenido especial incidencia en algunos territorios como la RMM. En la Región Metropolitana de Madrid la situación actual es de crisis urbana, causada principalmente por el divorcio entre las necesidades y la producción de ciudad, pues no se ha basado el crecimiento en la creación de nuevos hogares, u otras cuestiones demográficas, sino en la acumulación de capital a través del crecimiento de la ciudad. Además, dicho crecimiento está conformado por una expansión urbana descontrolada, con mayores requerimientos energéticos que el modelo compacto y complejo tradicional, lo que unido a la escala de los procesos, supone un sistema urbano progresivamente ineficiente. El caso de la RMM resulta paradigmático, ya que la región ha desempeñado un papel como laboratorio de nuevas formas de gobierno y planificación que han dado un mayor protagonismo al espacio, que ha entrado en las dinámicas centrales principalmente por el apoyo al crecimiento físico, a la vez que han confluido circunstancias específicas, como un nuevo impulso al centralismo, lo que ha potenciado ciertas políticas, como considerar la ciudad como motor de crecimiento económico y de competitividad en el concierto europeo y mundial de ciudades. El estudio del papel de la planificación y sus crisis en la sucesión de los modelos, muestra su función nuclear en la propia constitución de estos —es parte fundamental de su aparato de regulación— y su valor no solo para poder entender el periodo, sino para poder proyectar otro futuro urbano. Este enfoque conduce a establecer la relación del planeamiento con las diferentes crisis económicas en el periodo de estudio lo que permite diferenciar tres momentos de dicha relación: la planificación urbanística austera bajo la influencia de la crisis fordista, la salida de la crisis a través de la imposición de un modelo urbano basado en el sobreproducción de espacio urbano, y la entrada en una crisis inmobiliaria y de financiarización en relación a la adopción de un modelo multidimensionalmente insostenible. El análisis de este periodo es la base para apuntar perspectivas que permitan transformar el gobierno urbano hacia un modelo urbano más deseable, o mejor aún, otros futuros posibles, que se enmarcan dentro de la alternativa principal que supone la sostenibilidad. Madrid's Metropolitan Region (MMR) has undergone a major urban transformation in the period 1985-2007, where the population has grown up, the built environment has grown strongly, but mostly its cost and consumption have grown, which means that it has become unsustainable. To try to understand this evolution successive asymmetric models are tested in order to explain the transformation of reality through the articulation of forms of power and its associated policies in that localmetropolitan context. Comparing the urban transformation in the period 1985-2007 to the existing during developmentalism in the current predemocratic period, both have similarities in terms of land consumption, but the previous developmentalism model is part of another logics and has got other context parameters. It is consistent since the last decades of the Franco Regime was characterized by an important population increase that corresponded to strong industrial growth of the MMR. This relative consistency is lost during the study period, although in 1985, with the approval of the Master Plan of Madrid that was focused on the existing city, with a limited growth, and it may be considered an interrupted model. After numerous political, economic, social and urban changes, there is the opposite situation to that foresight under that Plan. Over twenty years later, in 2007, there are not only signs of exhaustion of the model which was finally adopted, but also its dramatic collapse in both real estate and financial dimension of space as well. The urban transformation under analysis has relaunched the hegemony of the sectors that rule the growth of the Madrid's Metropolitan Region and it is supported by decision making and financing of the different administrations with the passivity of the social stakeholders and citizens. This has meant the removal of regulatory mechanisms that have characterized the evolution of urban models, corresponding to the deregulation of economic activities and capital flows according to "neoliberal" model. The current international financial crisis, especially in some European peripheral countries like Spain, has shown how economic policies that have been carried out, without any regulation, have proven unsustainable. But it is not only an economic crisis. In the Spanish case, of all the dimensions of the crisis, it is the urban dimension that is highlighted, or the rise and fall of real estate cycle, due to intensive urbanization of the territory in relation to the secondary circuit of capital accumulation, having had a particular impact in some territories such as the Madrid's Metropolitan Region. In Madrid's Metropolitan Region there is the current situation of urban crisis, mainly caused by the divorce between needs and the city (space) production, because no growth has been based on creating new homes, or other demographic issues, but in the capital accumulation through growth of the city. Furthermore, this growth is made up of urban sprawl, with higher energy requirements than the traditional compact and complex one, which together with the scale of processes, is increasingly an inefficient urban system. The case of Madrid's Metropolitan Region is paradigmatic, since the region has played a role as a laboratory for new forms of governance and planning have given a greater role to space, which has entered the core dynamics supported mainly by physical growth, while specific circumstances have come together as a new impulse to centralization. This has promoted policies such as considering the city as an engine of economic growth and competitiveness in the international and the European hierarchy of cities. The study of the role of planning and crisis in the succession of models, shows its nuclear role in the constitution of these models is a fundamental part of its regulatory apparatus- and also its value not only to understand the period, but to anticipate to other urban future. This approach leads to establish the relationship of planning with the various crises in the study period, allowing three different moments of that relationship: the austere urban planning under the influence of Fordist crisis, the output of the crisis through imposition of an urban model based on the overproduction of urban space, and entry into a housing crisis and financialisation in relation to the adoption of a multi-dimensionally unsustainable model. The analysis of this period is the basis for targeting prospects that translate urban governance towards a more desirable urban model, or better yet, other possible futures, which are part of the main alternative that is sustainability.
Resumo:
La seguridad en el ámbito nuclear juega un papel muy importante debido a las graves consecuencias que pueden tener los posibles accidentes, cuyos efectos se pueden extender por extensos espacios y prolongarse mucho en el tiempo. Es por eso que desde el inicio del desarrollo de la tecnología nuclear siempre se ha vigilado por mantener las instalaciones nucleares en un nivel de riesgo aceptable. En esta tesis se pretende poner de manifiesto algunas carencias del análisis de riesgo clásico que se resumen en una forma de distinguir y separar transitorios de daño y transitorios seguros pertenecientes a una misma secuencia, definiendo el llamado dominio de daño y evaluando la probabilidad de que algún transitorio perteneciente a la secuencia sea de daño, es decir, que esté contenido dentro de la región del dominio de daño, aportando la llamada probabilidad de superación para obtener la frecuencia de superación de estados finales no deseados. En la tesis se realiza en primer lugar un breve resumen de algunos reactores de alta temperatura refrigerados con gas, de los que se ha elegido al reactor de prueba de alta temperatura (HTTR) como ejemplo para mostrar la metodología. Aparte de ver el diseño de los diferentes reactores y su aportación a la investigación y desarrollo de nuevos modelos, se estudiaron algunos incidentes y se tomaron datos de algunos de ellos para ajustar las probabilidades de los sucesos a emplear en los árboles de fallos. Seguidamente se realiza un análisis simple de una secuencia, según la metodología clásica de análisis probabilista del riesgo, usando solo arboles de fallos y de sucesos, evaluando la frecuencia de daño de dicha secuencia. En el núcleo de la Tesis se describe la metodología y la aportación que se propone para obtener la cuantificación de tan solo los transitorios de daño y su aportación al estado final. Una aportación significativa es el modelado del HTTR, plasmado en el programa de simulación HTTR5+, necesario para poder aplicar la metodología, con el que se ha llevado a cabo la simulación de un transitorio de prueba, a fin de realizar la comparación con el obtenido por el fabricante (JAERI), buscando el dominio de daño y su cuantificación. Para este fin, se desarrolló un módulo que gestiona las diferentes simulaciones para delinear el dominio de daño, el cual se integró al simulador HTTR5+ para crear el programa DD-HTTR5+. Los resultados de la frecuencia de superación de la variable de daño se han comparado con los obtenidos por el método tradicional, para finalmente extraer las conclusiones de la Tesis. Uno de los resultados más significativos es que para la secuencia analizada un 40% de los transitorios que pertenecen a la secuencia son de daño y el otro 60% son transitorios seguros. Al emplear el método clásico se estaba realizando una sobreestimación de la probabilidad y frecuencia de daño. La Tesis también contiene en anexos una descripción muy detallada del HTTR, con respecto a su diseño, modos de operación, sistemas y componentes, etc. También se detallan las propiedades termofísicas del HTTR, así como las tasas de fallos y los árboles de fallos utilizados. Toda esta información fue de gran ayuda para realizar el modelo y programa de simulación HTTR5+.
Resumo:
El presente proyecto tiene como objeto el desarrollo de una herramienta de diseño de mallas de voladuras en túneles, que incluya la predicción de secuenciación de tiempos, vibraciones y fragmentación. Se ha utilizado las formulaciones propuestas por el Método Sueco de apertura de túneles y con el objetivo de desarrollar una herramienta en EXCEL, editable, adaptable y de manejo sencillo. Los resultados presentados, corroboran la aplicabilidad de la herramienta para túneles de secciones superiores a 10 m2 y presentan una buena relación en términos de secuenciación de tiempos y fragmentación. Se concluye que es una herramienta con gran aplicabilidad que supone el punto de inicio para desarrollar un conjunto de utensilios relacionados con voladuras de túneles.
Resumo:
Con los precios de la energía en escalada imparable y particularmente, el gasóleo en precios históricos, se hace indispensable que el agricultor intente ahorrar en la partida energética de su explotación agrícola. El tractor se pondrá en el punto de mira del ahorro. Curioso paradigma, el gran amigo del agricultor, el tractor, se convierte en el máximo responsable de la partida energética. Una cifra, el consumo de combustible puede llegar incluso al 50% del coste horario total en la vida de un tractor. La mayoría del parque de tractores, algunas fuentes citan cifras del 75%, consumen hasta un 20% más de lo necesario.
Resumo:
El estado Bolívar con una superficie de 238.000 Km2 se encuentra ubicado al SE de Venezuela y su capital es Ciudad Bolívar. Ocupa el 26,24% de la superficie del territorio nacional. Ciudad Guayana es la principal región del desarrollo económico del estado siendo sede de las empresas básicas de los sectores siderúrgicos y del aluminio que se encargan de la extracción, procesamiento y transformación del mineral de hierro y de la transformación de la bauxita en aluminio primario. Además, cuenta con un gran potencial hidroeléctrico, garantizando el suministro de energía eléctrica para el funcionamiento de las empresas básicas, para el parque industrial de la región, así como para el desarrollo industrial, económico y social de la nación. Con relación al sector de la industria del mineral de hierro y del aluminio, las empresas destinan más del 60 por ciento de su producción al mercado internacional. A pesar de que el sector de las Pequeñas y Medianas Industrias (PYMIS) del estado Bolívar cuenta con un mercado cercano y seguro, no se le ha propiciado un desarrollo integral en términos de orientar sus esfuerzos en innovar en nuevos productos o mejoras de procesos. Debido a la falta del personal de investigación calificado, la escasa vinculación con centros de investigación, la baja inversión en investigación, desarrollo tecnológico e innovación (I+D+i), la ausencia de la aplicación de una política pública de I+D+i y la desarticulación de los miembros del Sistema Regional de Innovación (SRI), constituyen los principales obstáculos para generar bienes y servicios con un alto valor agregado. Esta situación desequilibra y hace ineficiente el funcionamiento del SRI. La baja capacidad de las PYMIS del estado Bolívar en I+D+i, es una situación que impide generar por si sola nuevos productos o procesos para satisfacer las demandas del mercado regional. Por lo tanto, se requiere de la intervención y participación activa de la institución gubernamental responsable del diseño y aplicación de una política pública de I+D+i para dinamizar la capacidad de innovación en las PYMIS, en su articulación y vinculación con los miembros del SRI. xiii El presente proyecto se planteó como objetivo diseñar una metodología de política pública de I+D+i para liderar, coordinar y direccionar el SRI del estado Bolívar, para el desarrollo de la capacidad de innovación en el sector industrial y específicamente en las PYMIS. La presente tesis representa una investigación no experimental de tipo proyectivo que analiza la situación actual del Sistema Regional de Innovación del estado Bolívar. El análisis de los resultados se ha dividido en tres fases. En la primera se realizan diagnósticos por medio de encuestas de las PYMIS en materia de I+D+i, de los centros y laboratorios de investigación pertenecientes a las universidades de la región en el área de Materiales y de los sectores financieros público y privado. En dichas encuestas se evalúa el nivel de integración con los entes gubernamentales que definen y administran la política pública de I+D+i. En la segunda fase, con el diagnóstico y procesamiento de los resultados de la primera fase, se procede a desarrollar un análisis de las fortalezas, oportunidades, debilidades y amenazas (FODA) del Sistema Regional de Innovación, permitiendo comprender la situación actual de la relación y vinculación de las PYMIS con los centros de investigación, instituciones financieras y entes gubernamentales. Con la problemática detectada, resultó necesario el diseño de estrategias y un modelo de gestión de política pública de I+D+i para la articulación de los miembros del SRI, para el apoyo de las PYMIS. En la tercera fase se diseña la metodología de política pública de I+D+i para fortalecer la innovación en las PYMIS. La metodología se representa a través de un modelo propuesto que se relaciona con las teorías de los procesos de innovación, con los modelos de sistemas de innovación y con las reflexiones y recomendaciones hechas por diferentes investigadores e instituciones de cooperación internacional referentes a la aplicación de políticas públicas de I+D+i para dinamizar la capacidad de innovación en el sector industrial. La metodología diseñada es comparada con diferentes modelos de aplicación de política pública de I+D+i. Cada modelo se representa en una figura y se analiza su xiv situación presente y la función que desempeña el ente gubernamental en la aplicación del enfoque de política pública de I+D+i. El diseño de la metodología de política pública de I+D+i propuesta aportará nuevos conocimientos y podrá ser aplicado para apoyar el progreso de la I+D+i en las PYMIS de la región, como caso de estudio, con el fin de impulsar una economía más competitiva y reducir el grado de dependencia tecnológica. La metodología una vez evaluada podrá ser empleada en el contexto de la gran industria y en otras regiones de Venezuela y además, puede aplicarse en otros países con características similares en su tejido industrial. En la tesis doctoral se concluye que el desarrollo de la capacidad de innovación en las PYMIS depende del diseño y aplicación de la política pública de I+D+i como elemento dinamizador y articulador del SRI del estado Bolívar. xv ABSTRACT The Bolivar state with an area of 238,000 km2 is located in the SE of Venezuela and its capital is Ciudad Bolivar. It occupies a surface which is 26.24% of the national territory. Ciudad Guayana is the main area of the state's economic development and the location of the corporate headquarters of the basic steel and aluminum sectors that are responsible for the extraction, processing and transformation of iron ore and bauxite processing for primary aluminum. It also has a great hydroelectric potential, ensuring the supply of electricity for the operation of enterprises, for the regional industrial park as well as for the industrial, economic and social development of the nation. With regard to the iron ore and aluminum industry, companies allocate more than 60 percent of their production to the international market. Although the sector of Small and Medium Industries (SMIs) of the Bolivar state has a secure market, it has not been led to an integral development in terms of targeting its efforts on innovating new products or improving processes. Due to the lack of qualified research staff, poor links with research centers, low investment in research, technological development and innovation (R & D & I), the absence of the implementation of a public policy for R & D & I and the dismantling of the members of the Regional Innovation System (RIS), are the main obstacles to generate goods and services with high added value. This situation makes the RIS unbalanced and inefficient. The low capacity of Bolivar state’s SMIs in R & D & I, is a situation that cannot generate by itself new products or processes to meet regional market demands. Therefore, it requires the active involvement and participation of the government institution responsible for the design and implementation of R & D & I public policy to boost the innovation capacity in SMIs, through the connection and integration with members of the RIS. This project is intended to design a methodology aimed at public policy for R & D & I to lead, coordinate and direct the RIS of Bolivar state, for the development of innovation capacity in the industrial sector and specifically in the SMIs. xvi This thesis is an experimental investigation of projective type which analyzes the current situation of the Regional Innovation System of the Bolivar state. The analysis of the results is divided into three phases. In the first one, a diagnosis is performed through surveys of SMIs in R & D & I centers and research laboratories belonging to the universities of the region in the area of materials and public and private financial sectors. In such surveys the level of integration with government agencies that define and manage the public policy of R & D & I is assessed. In the second phase, with the diagnosis and processing of the results of the first phase, we proceed to develop an analysis of the strengths, weaknesses, opportunities and threats (SWOT) of the Regional Innovation System, allowing the comprehension of the current status of the relationship of SMIs with research centers, financial institutions and government agencies. With the problems identified it was necessary to design strategies and a model of public policy management of R & D & I for the articulation of the members of the RIS, to support the SMIs. In the third phase a public policy methodology for R & D & I is designed in order to strengthen innovation in SMIs. The methodology is shown through a proposed model that relates to the theories of the innovation process, with models of innovation systems and with the discussions and recommendations made by different researchers and institutions of international cooperation concerning the implementation of policies public for R & D & I to boost innovation capacity in the industrial sector. The methodology designed is compared with different models of public policy implementation for R & D & I. Each model is represented in a figure and its current situation and the role of the government agency in the implementation of the public policy approach to R & D & I is analyzed. The design of the proposed public policy methodology for R & D & I will provide new knowledge and can be applied to support the progress of R & D & I in the region’s SMIs, as a case study, in order to boost a more competitive economy and reduce the degree of technological dependence. After being evaluated the methodology can be used in the context of big industry and in other regions of Venezuela and can also be applied in other countries with similar characteristics in their industrial structure. xvii The thesis concludes that the development of the innovation capacity in SMIs depends on the design and implementation of the public policy for R & D & I as a catalyst and coordination mechanism of the Regional Innovation System of the Bolivar state.
Resumo:
La seguridad en redes informáticas es un área que ha sido ampliamente estudiada y objeto de una extensa investigación en los últimos años. Debido al continuo incremento en la complejidad y sofisticación de los ataques informáticos, el aumento de su velocidad de difusión, y la lentitud de reacción frente a las intrusiones existente en la actualidad, se hace patente la necesidad de mecanismos de detección y respuesta a intrusiones, que detecten y además sean capaces de bloquear el ataque, y mitiguen su impacto en la medida de lo posible. Los Sistemas de Detección de Intrusiones o IDSs son tecnologías bastante maduras cuyo objetivo es detectar cualquier comportamiento malicioso que ocurra en las redes. Estos sistemas han evolucionado rápidamente en los últimos años convirtiéndose en herramientas muy maduras basadas en diferentes paradigmas, que mejoran su capacidad de detección y le otorgan un alto nivel de fiabilidad. Por otra parte, un Sistema de Respuesta a Intrusiones (IRS) es un componente de seguridad que puede estar presente en la arquitectura de una red informática, capaz de reaccionar frente a los incidentes detectados por un Sistema de Detección de Intrusiones (IDS). Por desgracia, esta tecnología no ha evolucionado al mismo ritmo que los IDSs, y la reacción contra los ataques detectados es lenta y básica, y los sistemas presentan problemas para ejecutar respuestas de forma automática. Esta tesis doctoral trata de hacer frente al problema existente en la reacción automática frente a intrusiones, mediante el uso de ontologías, lenguajes formales de especificación de comportamiento y razonadores semánticos como base de la arquitectura del sistema de un sistema de respuesta automática frente a intrusiones o AIRS. El objetivo de la aproximación es aprovechar las ventajas de las ontologías en entornos heterogéneos, además de su capacidad para especificar comportamiento sobre los objetos que representan los elementos del dominio modelado. Esta capacidad para especificar comportamiento será de gran utilidad para que el AIRS infiera la respuesta óptima frente a una intrusión en el menor tiempo posible. Abstract Security in networks is an area that has been widely studied and has been the focus of extensive research over the past few years. The number of security events is increasing, and they are each time more sophisticated, and quickly spread, and slow reaction against intrusions, there is a need for intrusion detection and response systems to dynamically adapt so as to better detect and respond to attacks in order to mitigate them or reduce their impact. Intrusion Detection Systems (IDSs) are mature technologies whose aim is detecting malicious behavior in the networks. These systems have quickly evolved and there are now very mature tools based on different paradigms (statistic anomaly-based, signature-based and hybrids) with a high level of reliability. On the other hand, Intrusion Response System (IRS) is a security technology able to react against the intrusions detected by IDS. Unfortunately, the state of the art in IRSs is not as mature as with IDSs. The reaction against intrusions is slow and simple, and these systems have difficulty detecting intrusions in real time and triggering automated responses. This dissertation is to address the existing problem in automated reactions against intrusions using ontologies, formal behaviour languages and semantic reasoners as the basis of the architecture of an automated intrusion response systems or AIRS. The aim is to take advantage of ontologies in heterogeneous environments, in addition to its ability to specify behavior of objects representing the elements of the modeling domain. This ability to specify behavior will be useful for the AIRS in the inference process of the optimum response against an intrusion, as quickly as possible.
Resumo:
“Por lo tanto, la cristalización de polímeros se supone, y en las teorías se describe a menudo, como un proceso de múltiples pasos con muchos aspectos físico-químicos y estructurales influyendo en él. Debido a la propia estructura de la cadena, es fácil entender que un proceso que es termodinámicamente forzado a aumentar su ordenamiento local, se vea obstaculizado geométricamente y, por tanto, no puede conducirse a un estado de equilibrio final. Como resultado, se forman habitualmente estructuras de no equilibrio con diferentes características dependiendo de la temperatura, presión, cizallamiento y otros parámetros físico-químicos del sistema”. Estas palabras, pronunciadas recientemente por el profesor Bernhard Wunderlich, uno de los mas relevantes fisico-quimicos que han abordado en las ultimas décadas el estudio del estado físico de las macromoléculas, adelantan lo que de alguna manera se explicita en esta memoria y constituyen el “leitmotiv” de este trabajo de tesis. El mecanismo de la cristalización de polímeros esta aun bajo debate en la comunidad de la física de polímeros y la mayoría de los abordajes experimentales se explican a través de la teoría LH. Esta teoría clásica debida a Lauritzen y Hoffman (LH), y que es una generalización de la teoría de cristalización de una molécula pequeña desde la fase de vapor, describe satisfactoriamente muchas observaciones experimentales aunque esta lejos de explicar el complejo fenómeno de la cristalización de polímeros. De hecho, la formulación original de esta teoría en el National Bureau of Standards, a comienzos de la década de los 70, sufrió varias reformulaciones importantes a lo largo de la década de los 80, buscando su adaptación a los hallazgos experimentales. Así nació el régimen III de cristalización que posibilita la creacion de nichos moleculares en la superficie y que dio pie al paradigma ofrecido por Sadler y col., para justificar los experimentos que se obtenian por “scattering” de neutrones y otras técnicas como la técnica de “droplets” o enfriamiento rapido. Por encima de todo, el gran éxito de la teoría radica en que explica la dependencia inversa entre el tamaño del plegado molecular y el subenfriamiento, definido este ultimo como el intervalo de temperatura que media entre la temperatura de equilibrio y la temperatura de cristalización. El problema concreto que aborda esta tesis es el estudio de los procesos de ordenamiento de poliolefinas con distinto grado de ramificacion mediante simulaciones numéricas. Los copolimeros estudiados en esta tesis se consideran materiales modelo de gran homogeneidad molecular desde el punto de vista de la distribución de tamaños y de ramificaciones en la cadena polimérica. Se eligieron estas poliolefinas debido al gran interes experimental en conocer el cambio en las propiedades fisicas de los materiales dependiendo del tipo y cantidad de comonomero utilizado. Además, son modelos sobre los que existen una ingente cantidad de información experimental, que es algo que preocupa siempre al crear una realidad virtual como es la simulación. La experiencia en el grupo Biophym es que los resultados de simulación deben de tener siempre un correlato mas o menos próximo experimental y ese argumento se maneja a lo largo de esta memoria. Empíricamente, se conoce muy bien que las propiedades físicas de las poliolefinas, en suma dependen del tipo y de la cantidad de ramificaciones que presenta el material polimérico. Sin embargo, tal como se ha explicado no existen modelos teóricos adecuados que expliquen los mecanismos subyacentes de los efectos de las ramas. La memoria de este trabajo es amplia por la complejidad del tema. Se inicia con una extensa introducción sobre los conceptos básicos de una macromolecula que son relevantes para entender el contenido del resto de la memoria. Se definen los conceptos de macromolecula flexible, distribuciones y momentos, y su comportamiento en disolución y fundido con los correspondientes parametros caracteristicos. Se pone especial énfasis en el concepto de “entanglement” o enmaranamiento por considerarse clave a la hora de tratar macromoléculas con una longitud superior a la longitud critica de enmaranamiento. Finaliza esta introducción con una reseña sobre el estado del arte en la simulación de los procesos de cristalización. En un segundo capitulo del trabajo se expone detalladamente la metodología usada en cada grupo de casos. En el primer capitulo de resultados, se discuten los estudios de simulación en disolución diluida para sistemas lineales y ramificados de cadena única. Este caso mas simple depende claramente del potencial de torsión elegido tal como se discute a lo largo del texto. La formación de los núcleos “babys” propuestos por Muthukumar parece que son consecuencia del potencial de torsión, ya que este facilita los estados de torsión mas estables. Así que se propone el análisis de otros potenciales que son igualmente utilizados y los resultados obtenidos sobre la cristalización, discutidos en consecuencia. Seguidamente, en un segundo capitulo de resultados se estudian moleculas de alcanos de cadena larga lineales y ramificados en un fundido por simulaciones atomisticas como un modelo de polietileno. Los resultados atomisticos pese a ser de gran detalle no logran captar en su totalidad los efectos experimentales que se observan en los fundidos subenfriados en su etapa previa al estado ordenado. Por esta razon se discuten en los capítulos 3 y 4 de resultados sistemas de cadenas cortas y largas utilizando dos modelos de grano grueso (CG-PVA y CG-PE). El modelo CG-PE se desarrollo durante la tesis. El uso de modelos de grano grueso garantiza una mayor eficiencia computacional con respecto a los modelos atomísticos y son suficientes para mostrar los fenómenos a la escala relevante para la cristalización. En todos estos estudios mencionados se sigue la evolución de los procesos de ordenamiento y de fusión en simulaciones de relajación isoterma y no isoterma. Como resultado de los modelos de simulación, se han evaluado distintas propiedades fisicas como la longitud de segmento ordenado, la cristalinidad, temperaturas de fusion/cristalizacion, etc., lo que permite una comparación con los resultados experimentales. Se demuestra claramente que los sistemas ramificados retrasan y dificultan el orden de la cadena polimérica y por tanto, las regiones cristalinas ordenadas decrecen al crecer las ramas. Como una conclusión general parece mostrarse una tendencia a la formación de estructuras localmente ordenadas que crecen como bloques para completar el espacio de cristalización que puede alcanzarse a una temperatura y a una escala de tiempo determinada. Finalmente hay que señalar que los efectos observados, estan en concordancia con otros resultados tanto teoricos/simulacion como experimentales discutidos a lo largo de esta memoria. Su resumen se muestra en un capitulo de conclusiones y líneas futuras de investigación que se abren como consecuencia de esta memoria. Hay que mencionar que el ritmo de investigación se ha acentuado notablemente en el ultimo ano de trabajo, en parte debido a las ventajas notables obtenidas por el uso de la metodología de grano grueso que pese a ser muy importante para esta memoria no repercute fácilmente en trabajos publicables. Todo ello justifica que gran parte de los resultados esten en fase de publicación. Abstract “Polymer crystallization is therefore assumed, and in theories often described, to be a multi step process with many influencing aspects. Because of the chain structure, it is easy to understand that a process which is thermodynamically forced to increase local ordering but is geometrically hindered cannot proceed into a final equilibrium state. As a result, nonequilibrium structures with different characteristics are usually formed, which depend on temperature, pressure, shearing and other parameters”. These words, recently written by Professor Bernhard Wunderlich, one of the most prominent researchers in polymer physics, put somehow in value the "leitmotiv "of this thesis. The crystallization mechanism of polymers is still under debate in the physics community and most of the experimental findings are still explained by invoking the LH theory. This classical theory, which was initially formulated by Lauritzen and Hoffman (LH), is indeed a generalization of the crystallization theory for small molecules from the vapor phase. Even though it describes satisfactorily many experimental observations, it is far from explaining the complex phenomenon of polymer crystallization. This theory was firstly devised in the early 70s at the National Bureau of Standards. It was successively reformulated along the 80s to fit the experimental findings. Thus, the crystallization regime III was introduced into the theory in order to explain the results found in neutron scattering, droplet or quenching experiments. This concept defines the roughness of the crystallization surface leading to the paradigm proposed by Sadler et al. The great success of this theory is the ability to explain the inverse dependence of the molecular folding size on the supercooling, the latter defined as the temperature interval between the equilibrium temperature and the crystallization temperature. The main scope of this thesis is the study of ordering processes in polyolefins with different degree of branching by using computer simulations. The copolymers studied along this work are considered materials of high molecular homogeneity, from the point of view of both size and branching distributions of the polymer chain. These polyolefins were selected due to the great interest to understand their structure– property relationships. It is important to note that there is a vast amount of experimental data concerning these materials, which is essential to create a virtual reality as is the simulation. The Biophym research group has a wide experience in the correlation between simulation data and experimental results, being this idea highly alive along this work. Empirically, it is well-known that the physical properties of the polyolefins depend on the type and amount of branches presented in the polymeric material. However, there are not suitable models to explain the underlying mechanisms associated to branching. This report is extensive due to the complexity of the topic under study. It begins with a general introduction to the basics concepts of macromolecular physics. This chapter is relevant to understand the content of the present document. Some concepts are defined along this section, among others the flexibility of macromolecules, size distributions and moments, and the behavior in solution and melt along with their corresponding characteristic parameters. Special emphasis is placed on the concept of "entanglement" which is a key item when dealing with macromolecules having a molecular size greater than the critical entanglement length. The introduction finishes with a review of the state of art on the simulation of crystallization processes. The second chapter of the thesis describes, in detail, the computational methodology used in each study. In the first results section, we discuss the simulation studies in dilute solution for linear and short chain branched single chain models. The simplest case is clearly dependent on the selected torsion potential as it is discussed throughout the text. For example, the formation of baby nuclei proposed by Mutukhumar seems to result from the effects of the torsion potential. Thus, we propose the analysis of other torsion potentials that are also used by other research groups. The results obtained on crystallization processes are accordingly discussed. Then, in a second results section, we study linear and branched long-chain alkane molecules in a melt by atomistic simulations as a polyethylene-like model. In spite of the great detail given by atomistic simulations, they are not able to fully capture the experimental facts observed in supercooled melts, in particular the pre-ordered states. For this reason, we discuss short and long chains systems using two coarse-grained models (CG-PVA and CG-PE) in section 3 and 4 of chapter 2. The CG-PE model was developed during the thesis. The use of coarse-grained models ensures greater computational efficiency with respect to atomistic models and is enough to show the relevant scale phenomena for crystallization. In all the analysis we follow the evolution of the ordering and melting processes by both isothermal and non isothermal simulations. During this thesis we have obtained different physical properties such as stem length, crystallinity, melting/crystallization temperatures, and so on. We show that branches in the chains cause a delay in the crystallization and hinder the ordering of the polymer chain. Therefore, crystalline regions decrease in size as branching increases. As a general conclusion, it seems that there is a tendency in the macromolecular systems to form ordered structures, which can grown locally as blocks, occupying the crystallization space at a given temperature and time scale. Finally it should be noted that the observed effects are consistent with both, other theoretical/simulation and experimental results. The summary is provided in the conclusions chapter along with future research lines that open as result of this report. It should be mentioned that the research work has speeded up markedly in the last year, in part because of the remarkable benefits obtained by the use of coarse-grained methodology that despite being very important for this thesis work, is not easily publishable by itself. All this justify that most of the results are still in the publication phase.
Resumo:
El objetivo del presente trabajo es el desarrollo de una infraestructura de enrutamiento distribuida para un sistema publish/subscribe (en adelante pub/sub) que se incluirá en WireCloud, una plataforma para la composición de aplicaciones. Actualmente existen numerosas implementaciones de protocolos pub/sub en el mercado [3-6], y en este trabajo se hará un recorrido por aquellas con mayor relevancia, explicando sus características, ventajas y desventajas. De esta forma se podrán seleccionar aquellas cuyas prestaciones se adapten de la mejor forma posible a las necesidades de la plataforma. De entre todas las implementaciones existentes, algunas han sido simuladas para comprender mejor su funcionamiento. Esto permitió analizar las diferentes estrategias de enrutamiento de mensajes y qué estructuras de datos son las más óptimas para que el procesamiento de mensajes entrantes sea lo más rápido posible. Una vez que se determinó cuales son las estrategias y las estructuras de almacenamiento que mejor se adaptan a nuestro sistema, se ha procedido a la implementación real del sistema pub/sub en Java. Para cada uno de los módulos desarrollados se ha generado una serie de pruebas que permitirán comprobar el correcto funcionamiento de los componentes cuando se produzcan cambios o ampliaciones. Además, este trabajo también incluye el análisis e implementación de un nuevo protocolo de comunicación entre los diferentes componentes debido a que el existente era lento y pesado al consumir gran cantidad de recursos. El protocolo de comunicación analizado está basado en RMI (Remote Method Invocation), y aunque no mejoró la eficiencia con que los mensajes eran enviados si que permitió reducir en gran medida el consumo de recursos (CPU y memoria RAM). ------------------------------------------------------------ The goal of the current project is the development of a distributed pub/sub system to include it on WireCloud which is a platform to build compositional applications. Several implementations of pub/sub systems [3-6] have been developed until now and this project explains some of them, their characteristic, advantages and disadvantages. Thus, the implementations which better adapt to the project needs have been selected. Some of these implementations have been simulated to get a better knowledge of their behavior. The aim of these simulations was to select the best strategies to route messages and the optimal structures to reduce the computation time of a received message. After defining the better strategies and structures, the real pub/sub system have been finally developed in Java. For each developed module, a set of tests have been built to check its correct behavior in case of changes or extensions. Besides, the project also includes the analysis and the implementation of a new communication protocol among the different components because the existing one was slow and consumed a lot of computer resources. The new communication protocol is based in RMI (Remote Method Invocation) and has improved the consumption of resources. However, the efficiency of this new protocol was worse than the one of the existing protocol.
Resumo:
Nuestro cerebro contiene cerca de 1014 sinapsis neuronales. Esta enorme cantidad de conexiones proporciona un entorno ideal donde distintos grupos de neuronas se sincronizan transitoriamente para provocar la aparición de funciones cognitivas, como la percepción, el aprendizaje o el pensamiento. Comprender la organización de esta compleja red cerebral en base a datos neurofisiológicos, representa uno de los desafíos más importantes y emocionantes en el campo de la neurociencia. Se han propuesto recientemente varias medidas para evaluar cómo se comunican las diferentes partes del cerebro a diversas escalas (células individuales, columnas corticales, o áreas cerebrales). Podemos clasificarlos, según su simetría, en dos grupos: por una parte, la medidas simétricas, como la correlación, la coherencia o la sincronización de fase, que evalúan la conectividad funcional (FC); mientras que las medidas asimétricas, como la causalidad de Granger o transferencia de entropía, son capaces de detectar la dirección de la interacción, lo que denominamos conectividad efectiva (EC). En la neurociencia moderna ha aumentado el interés por el estudio de las redes funcionales cerebrales, en gran medida debido a la aparición de estos nuevos algoritmos que permiten analizar la interdependencia entre señales temporales, además de la emergente teoría de redes complejas y la introducción de técnicas novedosas, como la magnetoencefalografía (MEG), para registrar datos neurofisiológicos con gran resolución. Sin embargo, nos hallamos ante un campo novedoso que presenta aun varias cuestiones metodológicas sin resolver, algunas de las cuales trataran de abordarse en esta tesis. En primer lugar, el creciente número de aproximaciones para determinar la existencia de FC/EC entre dos o más señales temporales, junto con la complejidad matemática de las herramientas de análisis, hacen deseable organizarlas todas en un paquete software intuitivo y fácil de usar. Aquí presento HERMES (http://hermes.ctb.upm.es), una toolbox en MatlabR, diseñada precisamente con este fin. Creo que esta herramienta será de gran ayuda para todos aquellos investigadores que trabajen en el campo emergente del análisis de conectividad cerebral y supondrá un gran valor para la comunidad científica. La segunda cuestión practica que se aborda es el estudio de la sensibilidad a las fuentes cerebrales profundas a través de dos tipos de sensores MEG: gradiómetros planares y magnetómetros, esta aproximación además se combina con un enfoque metodológico, utilizando dos índices de sincronización de fase: phase locking value (PLV) y phase lag index (PLI), este ultimo menos sensible a efecto la conducción volumen. Por lo tanto, se compara su comportamiento al estudiar las redes cerebrales, obteniendo que magnetómetros y PLV presentan, respectivamente, redes más densamente conectadas que gradiómetros planares y PLI, por los valores artificiales que crea el problema de la conducción de volumen. Sin embargo, cuando se trata de caracterizar redes epilépticas, el PLV ofrece mejores resultados, debido a la gran dispersión de las redes obtenidas con PLI. El análisis de redes complejas ha proporcionado nuevos conceptos que mejoran caracterización de la interacción de sistemas dinámicos. Se considera que una red está compuesta por nodos, que simbolizan sistemas, cuyas interacciones se representan por enlaces, y su comportamiento y topología puede caracterizarse por un elevado número de medidas. Existe evidencia teórica y empírica de que muchas de ellas están fuertemente correlacionadas entre sí. Por lo tanto, se ha conseguido seleccionar un pequeño grupo que caracteriza eficazmente estas redes, y condensa la información redundante. Para el análisis de redes funcionales, la selección de un umbral adecuado para decidir si un determinado valor de conectividad de la matriz de FC es significativo y debe ser incluido para un análisis posterior, se convierte en un paso crucial. En esta tesis, se han obtenido resultados más precisos al utilizar un test de subrogadas, basado en los datos, para evaluar individualmente cada uno de los enlaces, que al establecer a priori un umbral fijo para la densidad de conexiones. Finalmente, todas estas cuestiones se han aplicado al estudio de la epilepsia, caso práctico en el que se analizan las redes funcionales MEG, en estado de reposo, de dos grupos de pacientes epilépticos (generalizada idiopática y focal frontal) en comparación con sujetos control sanos. La epilepsia es uno de los trastornos neurológicos más comunes, con más de 55 millones de afectados en el mundo. Esta enfermedad se caracteriza por la predisposición a generar ataques epilépticos de actividad neuronal anormal y excesiva o bien síncrona, y por tanto, es el escenario perfecto para este tipo de análisis al tiempo que presenta un gran interés tanto desde el punto de vista clínico como de investigación. Los resultados manifiestan alteraciones especificas en la conectividad y un cambio en la topología de las redes en cerebros epilépticos, desplazando la importancia del ‘foco’ a la ‘red’, enfoque que va adquiriendo relevancia en las investigaciones recientes sobre epilepsia. ABSTRACT There are about 1014 neuronal synapses in the human brain. This huge number of connections provides the substrate for neuronal ensembles to become transiently synchronized, producing the emergence of cognitive functions such as perception, learning or thinking. Understanding the complex brain network organization on the basis of neuroimaging data represents one of the most important and exciting challenges for systems neuroscience. Several measures have been recently proposed to evaluate at various scales (single cells, cortical columns, or brain areas) how the different parts of the brain communicate. We can classify them, according to their symmetry, into two groups: symmetric measures, such as correlation, coherence or phase synchronization indexes, evaluate functional connectivity (FC); and on the other hand, the asymmetric ones, such as Granger causality or transfer entropy, are able to detect effective connectivity (EC) revealing the direction of the interaction. In modern neurosciences, the interest in functional brain networks has increased strongly with the onset of new algorithms to study interdependence between time series, the advent of modern complex network theory and the introduction of powerful techniques to record neurophysiological data, such as magnetoencephalography (MEG). However, when analyzing neurophysiological data with this approach several questions arise. In this thesis, I intend to tackle some of the practical open problems in the field. First of all, the increase in the number of time series analysis algorithms to study brain FC/EC, along with their mathematical complexity, creates the necessity of arranging them into a single, unified toolbox that allow neuroscientists, neurophysiologists and researchers from related fields to easily access and make use of them. I developed such a toolbox for this aim, it is named HERMES (http://hermes.ctb.upm.es), and encompasses several of the most common indexes for the assessment of FC and EC running for MatlabR environment. I believe that this toolbox will be very helpful to all the researchers working in the emerging field of brain connectivity analysis and will entail a great value for the scientific community. The second important practical issue tackled in this thesis is the evaluation of the sensitivity to deep brain sources of two different MEG sensors: planar gradiometers and magnetometers, in combination with the related methodological approach, using two phase synchronization indexes: phase locking value (PLV) y phase lag index (PLI), the latter one being less sensitive to volume conduction effect. Thus, I compared their performance when studying brain networks, obtaining that magnetometer sensors and PLV presented higher artificial values as compared with planar gradiometers and PLI respectively. However, when it came to characterize epileptic networks it was the PLV which gives better results, as PLI FC networks where very sparse. Complex network analysis has provided new concepts which improved characterization of interacting dynamical systems. With this background, networks could be considered composed of nodes, symbolizing systems, whose interactions with each other are represented by edges. A growing number of network measures is been applied in network analysis. However, there is theoretical and empirical evidence that many of these indexes are strongly correlated with each other. Therefore, in this thesis I reduced them to a small set, which could more efficiently characterize networks. Within this framework, selecting an appropriate threshold to decide whether a certain connectivity value of the FC matrix is significant and should be included in the network analysis becomes a crucial step, in this thesis, I used the surrogate data tests to make an individual data-driven evaluation of each of the edges significance and confirmed more accurate results than when just setting to a fixed value the density of connections. All these methodologies were applied to the study of epilepsy, analysing resting state MEG functional networks, in two groups of epileptic patients (generalized and focal epilepsy) that were compared to matching control subjects. Epilepsy is one of the most common neurological disorders, with more than 55 million people affected worldwide, characterized by its predisposition to generate epileptic seizures of abnormal excessive or synchronous neuronal activity, and thus, this scenario and analysis, present a great interest from both the clinical and the research perspective. Results revealed specific disruptions in connectivity and network topology and evidenced that networks’ topology is changed in epileptic brains, supporting the shift from ‘focus’ to ‘networks’ which is gaining importance in modern epilepsy research.
Resumo:
Los problemas del comportamiento sismico de estructuras masivas de gran responsabilidad y edificios de gran altura asi como el clásico problema del cimiento de las maquinas vibrantes, hacen que el estudio de la interacci6n suelo- estructura adquiera una gran actualidad. Estos problemas, que implican formas y propiedades complicadas, suponen siempre la necesidad de utilizar un modelo numerico del medio considerado. Aqui se emplea el metodo de los elementos de contorno que dadas sus caracteristicas resulta una alternativa muy sugestiva para modelar el suelo y que hace posible el estudio de problemas tridimensionales a un precio razonable. Se introduce un tipo de elementos para problenas bidimensionales , que incluye una singularidad de tipo logaritmico en uno de sus extremos.Se muestran distribuciones de tensiones obtenidas con este tipo de elementos.
Resumo:
En este trabajo de Tesis Doctoral se ha estudiado la posibilidad de emplear las microalgas, concretamente el género Scenedesmus, como sustrato para la producción de biogás mediante digestión anaerobia, así como los residuos que se producen como consecuencia de su utilización industrial para diferentes fines. La utilización de las microalgas para la producción de biocombustibles es un tema de gran actualidad científica, en el que residen muchas expectativas para la producción a gran escala de biocombustibles que supongan una alternativa real a los combustibles fósiles. Existen numerosas investigaciones sobre la conversión a biogás de las microalgas, sin embargo aún hay poco conocimiento sobre la utilización de la digestión anaerobia como tratamiento de residuos de microalgas en un concepto de biorrefinería. Residuos que pueden ser generados tras la extracción de compuestos de alto valor añadido (p. ej. aminoácidos) o tras la generación de otro biocombustible (p. ej. biodiésel). Es en este aspecto en el que esta Tesis Doctoral destaca en cuanto a originalidad e innovación, ya que se ha centrado principalmente en tres posibilidades: - Empleo de Scenedesmus sp. como cultivo energético para la producción de biogás. - Tratamiento de residuos de Scenedesmus sp. generados tras la extracción de aminoácidos en un concepto de biorrefinería. - Tratamiento de los residuos de Scenedesmus sp. generados tras la extracción de lípidos en un concepto de biorrefinería. Los resultados obtenidos demuestran que la microalga Scenedesmus como cultivo energético para producción de biogás no es viable salvo que se empleen pretratamientos que aumenten la biodegradabilidad o se realice codigestión con otro sustrato. En este último caso, la chumbera (Opuntia maxima Mill.) ha resultado ser un sustrato idóneo para la codigestión con microalgas, aumentando la producción de biogás y metano hasta niveles superiores a 600 y 300 L kgSV-1, respectivamente. Por otro lado, el tratamiento de residuos generados tras la extracción de aminoácidos mediante digestión anaerobia es prometedor. Se obtuvieron elevados rendimientos de biogás y metano en las condiciones de operación óptimas (409 y 292 L kgSV-1, respectivamente). Aparte de la generación energética por medio el metano, que podría emplearse en la propia biorrefinería o venderse a la red eléctrica o de gas natural, reciclando el digerido y el CO2 del biogás se podría llegar a ahorrar alrededor del 30% del fertilizante mineral y el 25% del CO2 necesarios para el cultivo de nueva biomasa. Por lo tanto, la digestión anaerobia de los residuos de microalgas en un concepto de biorrefinería tiene un gran potencial y podría contribuir en gran medida al desarrollo de esta industria. Por último, una primera aproximación al tratamiento de residuos generados tras la extracción de lípidos muestra que éstos pueden ser empleados para la producción de biogás, como monosustrato, o en codigestión con glicerina, ya que son fácilmente biodegradables y el rendimiento potencial de metano puede alcanzar 218 LCH4 kgSV-1 y 262 LCH4 kg SV-1 en monodigestión o en codigestión con glicerina, respectivamente. ABSTRACT This PhD thesis explores the possibility of using microalgae, specifically the strain Scenedesmus, as substrate for biogas production through anaerobic digestion, as well as the residues generated after its use in different industrial processes. The use of microalgae for biofuels production is an emerging scientific issue. The possibility of producing biofuels from microalgae as a real alternative for fossil fuels is raising high expectations. There are several research projects on the conversion of microalgae to biogas; however, there is little knowledge about using anaerobic digestion for treating microalgae residues in a biorefinery scheme. These residues could be generated after the extraction of high value compounds (e.g. amino acids) or after the production of another biofuel (e.g. biodiesel). It is in this area in which this PhD thesis stands in terms of originality and innovation, since it has focused primarily on three possibilities: - The use of Scenedesmus sp. as an energy crop for biogas production. - Treatment of amino acid extracted Scenedesmus residues generated in a biorefinery. - Treatment of lipid extracted Scenedesmus residues generated in a biorefinery. The results obtained in this work show that the use of Scenedesmus as energy crop for biogas production is not viable. The application of pretreatments to increase biodegradability or the codigestion of Scenedesmus biomass with other substrate can improve the digestion process. In this latter case, prickly pear (Opuntia maxima Mill.) is an ideal substrate for its codigestion with microalgae, increasing biogas and methane yields up to more than 600 and 300 L kgVS-1, respectively. On the other hand, the treatment of residues generated after amino acid extraction through anaerobic digestion is promising. High biogas and methane yields were obtained (409 y 292 L kgVS-1, respectively). Besides the energy produced through methane, which could be used in the biorefinery or be sold to the power or natural gas grids, by recycling the digestate and the CO2 30% of fertilizer needs and 25% of CO2 needs could be saved to grow new microalgae biomass. Therefore, the anaerobic digestion of microalgae residues generated in biorefineries is promising and it could play an important role in the development of this industry. Finally, a first approach to the treatment of residues generated after lipid extraction showed that these residues could be used for the production of biogas, since they are highly biodegradable. The potential methane yield could reach 218 LCH4 kgVS-1 when they are monodigested, whereas the potential methane yield reached 262 LCH4 kgVS-1 when residues were codigested with residual glycerin.