620 resultados para Simplicidad divina
Resumo:
No parece necesario abundar sobre el peso específico del que gozó el sueño como vehículo de revelación divina dentro del sistema conceptual de las religiones grecorromana y judeocristiana; tampoco, sobre sus posibles productividad discursiva y significatividad ideológica para una tradición mucho más específica, la novela de caballerías castellana, entre cuyos resortes narrativos predilectos se cuentan los discursos de profetas, magos y adivinos. Son estos dos presupuestos los que explican la leve sorpresa de que El baladro del sabio Merlín con sus profecías del incunable burgalés de 1498 -que en su relativa brevedad como ejemplar del género caballeresco prodiga al lector ciento cincuenta textos proféticos- proponga sólo tres revelaciones oníricas, dos habidas por el rey Artur y una por el propio "sabio" Merlín; de hecho, la sección inicial del relato -que comprende hasta XVIII: 33 y que traduce una prosificación del hoy fragmentario Roman de Merlin en verso francés escrito por Robert de Boron- prescinde por completo de tal especie profética. El objetivo de esta comunicación es reflexionar brevemente sobre la funcionalidad y el sentido de esos tres casos que constituyen una raraavisdentro del enorme sistema proféticode nuestra novela.
Resumo:
Desde que críticos como Aldo Ruffinato o Baños Vallejo comenzaron a estudiar la hagiografía española medieval basándose en la teoría narratológica de Bremond, este género se concibió como el ejemplo más acabado de narración lineal y ascendente. En este trabajo pretendo mostrar una aproximación narratológica diferente a las intentadas hasta ahora, usando como fuente la Vida de Santo Domingo de Silos de Gonzalo de Berceo. Para eso, me centraré en aquellos aspectos que contradigan o escapen a esa supuesta linealidad y muestren la textura conflictiva y dialéctica del relato. Esto permitirá apreciar que el texto,lejos de presentar un ascenso armonioso, es un arduo recorrido muchas veces circular y repetitivo, a través de intentos de dar una resolución simbólica a conflictos reales como la relación entre la vida contemplativa y la vida sacerdotal, el poder eclesiástico y el poder secular o la libertad humana y la omnipotencia divina.
Resumo:
A primera vista, Quevedo no parece muy amigo de las máquinas de su tiempo. En una pieza de artillería, por ejemplo, ve una invención típica de la ingeniería moderna que amenaza no solamente a la creación divina, sino también a la sociedad estamental. En el caso de la pirotecnia, sin embargo, su actitud hacia la técnica parece más matizada, como se puede ver en su soneto moral sobre el cohete. Si por un lado este artificio se opone a la naturaleza y engaña al hombre, se presenta por otra parte como un equivalente asombroso del texto poético.
Resumo:
Under the several concepts put in discussion in the Bacchae, there is a symbolic game giving a dramatic design to the main movements along the play. When regarded in general, they establish a symmetry in the agon that puts face to face divine superiority and the mortal hybris of Pentheus.
Resumo:
Nuestra ponencia propone en primer lugar precisar qué significa realmente el término mesianismo. Desde el punto de vista investigativo nos interesan especialmente los trabajos sobre la cultura judía y cristiana entre los siglos II a.C. a II d.C. y los textos-fuente de esos estudios, debido a que el mesianismo dominaba muchos aspectos del ideario de ese período. La parte más relevante del trabajo se centra en las relaciones del pensamiento helenista de Filón con temáticas que resultan de la concurrencia de los ideales políticos y religiosos emergentes de la Biblia hebrea. Así, el tema general de la investigación será el pensamiento judío de Filón de Alejandría y los tópicos de la política: la conformación del pueblo, el mesianismo, la vida en el más allá, el destino individual y el de la comunidad, la elección divina y el universalismo
Resumo:
Existen claras afinidades y rasgos isotópicos en el empleo del lenguaje simbólico que, para la expresión del conocimiento experimental de la realidad divina, utilizaron los cabalistas del círculo del Zohar de la segunda mitad del siglo XIII español y, en pleno siglo XVI, San Juan de la Cruz, el primer carmelita descalzo. Tanto éste como aquellos compartieron un modelo común de conocimiento, centrado en una gnosis visual de Dios, y un profundo interés no sólo por la comprensión del sentido último de su voluntad, sino por una propedéutica que condujera a los iniciados en los secretos de la fe a adherirse a aquella a partir de la experiencia. Ahora bien, el privilegiado status simbólico que comparten estos espirituales se resume en la figura del maskil, el "iluminado" o "sabio lleno de ojos" de la tradición cabalística, que proponemos, en este primer acercamiento intertextual, desde una lectura pertinente de Zohar, vol. II, 98b, en el contexto del "discurso del Anciano" de la sección Mishpatim de este texto central de la Cábala.
Resumo:
El tema de la partida del héroe en el Cantar de Mio Cid adquiere un desarrollo progresivo que se asume como prueba cristiana. El análisis de las oraciones de Rodrigo y Jimena, en el comienzo del primer cantar, permite distinguir las dilaciones del destierro como expresión de una confianza creciente en la intervención divina como guía de la gesta heroica.
Resumo:
El término "religio" en la antigüedad difiere en muchos aspectos del término "religión" en la actualidad, en consecuencia, en nuestro trabajo se intenta conceptualizar el vocablo a partir de su aparición y uso en Eneida. Asimismo, se establece un paralelismo entre el concepto de pietas, término que describe la relación entre la esfera humana y la divina, religio caracterizada como la consecuencia de dicha relación y el rito como la forma pragmática de ésta última. El objetivo del trabajo es determinar las acepciones que utiliza Virgilio y destacar su funcionalidad en la obra teniendo en cuenta las relaciones sistemáticas antes nombradas. Se estudiarán los siguientes pasajes: libro II, VV. 151, 188, 365, 715; libro III, VV. 363, 409; libro VII, VV. 172, 608; libro VIII, VV. 349, 598; libro XII, VV.182
Resumo:
La primera traducción impresa de la Divina Comedia (1515) contaba con un comentario exhaustivo en el que Fernández de Villegas traduce y amplifica, a su vez, el "Commento sopra la Commedia" de Landino. Este trabajo se propone describir sucintamente cómo funciona la reapropiación del texto landiniano en la obra de Villegas, teniendo presente el distinto contexto de producción, tanto político como cultural, y la intención del nuevo texto con el fin de demostrar cómo los mecanismos exegéticos que se dan tanto en un comentario como en su traducción están determinados por circunstancias históricopolítico precisas, así como también por diferentes panoramas culturales y por distintos propósitos ideológicos.
Resumo:
El comportamiento mecánico de las paredes arteriales constituye un ingrediente fundamental para entender enfermedades cardiovasculares como las disecciones aórticas o la fisuración de placas de ateroma. El fenómeno mecánico que subyace en estas enfermedades es el fallo constitutivo del material, que puede deberse a la degradación de las propiedades mecánicas del tejido, a la aplicación de una carga excesiva o la concentración de tensiones que tiene lugar en traumatizaciones de la íntima. Un modelo que busque reproducir este comportamiento biomecánico debe incorporar además la información histológica de las paredes arteriales, formadas en una primera aproximación por una matriz acuosa incompresible y dos familias de fibras dispuestas helicoidalmente. De entre los modelos mecánicos existentes cabe destacar los modelos de daño, que con un conjunto pequeño de parámetros son capaces de reproducir la degradación de la capacidad resistente tanto en la matriz como en las fibras. Esta simplicidad convierte a esta clase de modelos en una herramienta muy útil para estudiar este fenómeno. En este trabajo se presenta un estudio para un modelo de daño de los parámetros que lo definen, asociados a la imposición de la incompresibilidad de la matriz acuosa y a las evoluciones del daño en dicha matriz y en las dos familias de fibras. Se incluye una revisión de las técnicas existentes para imponer la incompresibilidad, un resumen bibliográfico de la caracterización experimental de los parámetros materiales y un análisis de su influencia en el comportamiento estructural de la aorta, analizada mediante ensayos de tracción
Resumo:
El objetivo de la presente tesis doctoral es el desarrollo de un nuevo concepto de biosensor óptico sin marcado, basado en una combinación de técnicas de caracterización óptica de interrogación vertical y estructuras sub-micrométricas fabricadas sobre chips de silicio. Las características más importantes de dicho dispositivo son su simplicidad, tanto desde el punto de vista de medida óptica como de introducción de las muestras a medir en el área sensible, aspectos que suelen ser críticos en la mayoría de sensores encontrados en la literatura. Cada uno de los aspectos relacionados con el diseño de un biosensor, que son fundamentalmente cuatro (diseño fotónico, caracterización óptica, fabricación y fluídica/inmovilización química) son desarrollados en detalle en los capítulos correspondientes. En la primera parte de la tesis se hace una introducción al concepto de biosensor, en qué consiste, qué tipos hay y cuáles son los parámetros más comunes usados para cuantificar su comportamiento. Posteriormente se realiza un análisis del estado del arte en la materia, enfocado en particular en el área de biosensores ópticos sin marcado. Se introducen también cuáles son las reacciones bioquímicas a estudiar (inmunoensayos). En la segunda parte se describe en primer lugar cuáles son las técnicas ópticas empleadas en la caracterización: Reflectometría, Elipsometría y Espectrometría; además de los motivos que han llevado a su empleo. Posteriormente se introducen diversos diseños de las denominadas "celdas optofluídicas", que son los dispositivos en los que se va a producir la interacción bioquímica. Se presentan cuatro dispositivos diferentes, y junto con ellos, se proponen diversos métodos de cálculo teórico de la respuesta óptica esperada. Posteriormente se procede al cálculo de la sensibilidad esperada para cada una de las celdas, así como al análisis de los procesos de fabricación de cada una de ellas y su comportamiento fluídico. Una vez analizados todos los aspectos críticos del comportamiento del biosensor, se puede realizar un proceso de optimización de su diseño. Esto se realiza usando un modelo de cálculo simplificado (modelo 1.5-D) que permite la obtención de parámetros como la sensibilidad y el límite de detección de un gran número de dispositivos en un tiempo relativamente reducido. Para este proceso se escogen dos de las celdas optofluídicas propuestas. En la parte final de la tesis se muestran los resultados experimentales obtenidos. En primer lugar, se caracteriza una celda basada en agujeros sub-micrométricos como sensor de índice de refracción, usando para ello diferentes líquidos orgánicos; dichos resultados experimentales presentan una buena correlación con los cálculos teóricos previos, lo que permite validar el modelo conceptual presentado. Finalmente, se realiza un inmunoensayo químico sobre otra de las celdas propuestas (pilares nanométricos de polímero SU-8). Para ello se utiliza el inmunoensayo de albumina de suero bovino (BSA) y su anticuerpo (antiBSA). Se detalla el proceso de obtención de la celda, la funcionalización de la superficie con los bioreceptores (en este caso, BSA) y el proceso de biorreconocimiento. Este proceso permite dar una primera estimación de cuál es el límite de detección esperable para este tipo de sensores en un inmunoensayo estándar. En este caso, se alcanza un valor de 2.3 ng/mL, que es competitivo comparado con otros ensayos similares encontrados en la literatura. La principal conclusión de la tesis es que esta tipología de dispositivos puede ser usada como inmunosensor, y presenta ciertas ventajas respecto a los actualmente existentes. Estas ventajas vienen asociadas, de nuevo, a su simplicidad, tanto a la hora de medir ópticamente, como dentro del proceso de introducción de los bioanalitos en el área sensora (depositando simplemente una gota sobre la micro-nano-estructura). Los cálculos teorícos realizados en los procesos de optimización sugieren a su vez que el comportamiento del sensor, medido en magnitudes como límite de detección biológico puede ser ampliamente mejorado con una mayor compactación de pilares, alcanzandose un valor mínimo de 0.59 ng/mL). The objective of this thesis is to develop a new concept of optical label-free biosensor, based on a combination of vertical interrogation optical techniques and submicron structures fabricated over silicon chips. The most important features of this device are its simplicity, both from the point of view of optical measurement and regarding to the introduction of samples to be measured in the sensing area, which are often critical aspects in the majority of sensors found in the literature. Each of the aspects related to the design of biosensors, which are basically four (photonic design, optical characterization, fabrication and fluid / chemical immobilization) are developed in detail in the relevant chapters. The first part of the thesis consists of an introduction to the concept of biosensor: which elements consists of, existing types and the most common parameters used to quantify its behavior. Subsequently, an analysis of the state of the art in this area is presented, focusing in particular in the area of label free optical biosensors. What are also introduced to study biochemical reactions (immunoassays). The second part describes firstly the optical techniques used in the characterization: reflectometry, ellipsometry and spectrometry; in addition to the reasons that have led to their use. Subsequently several examples of the so-called "optofluidic cells" are introduced, which are the devices where the biochemical interactions take place. Four different devices are presented, and their optical response is calculated by using various methods. Then is exposed the calculation of the expected sensitivity for each of the cells, and the analysis of their fabrication processes and fluidic behavior at the sub-micrometric range. After analyzing all the critical aspects of the biosensor, it can be performed a process of optimization of a particular design. This is done using a simplified calculation model (1.5-D model calculation) that allows obtaining parameters such as sensitivity and the detection limit of a large number of devices in a relatively reduced time. For this process are chosen two different optofluidic cells, from the four previously proposed. The final part of the thesis is the exposition of the obtained experimental results. Firstly, a cell based sub-micrometric holes is characterized as refractive index sensor using different organic fluids, and such experimental results show a good correlation with previous theoretical calculations, allowing to validate the conceptual model presented. Finally, an immunoassay is performed on another typology of cell (SU-8 polymer pillars). This immunoassay uses bovine serum albumin (BSA) and its antibody (antiBSA). The processes for obtaining the cell surface functionalization with the bioreceptors (in this case, BSA) and the biorecognition (antiBSA) are detailed. This immunoassay can give a first estimation of which are the expected limit of detection values for this typology of sensors in a standard immunoassay. In this case, it reaches a value of 2.3 ng/mL, which is competitive with other similar assays found in the literature. The main conclusion of the thesis is that this type of device can be used as immunosensor, and has certain advantages over the existing ones. These advantages are associated again with its simplicity, by the simpler coupling of light and in the process of introduction of bioanalytes into the sensing areas (by depositing a droplet over the micro-nano-structure). Theoretical calculations made in optimizing processes suggest that the sensor Limit of detection can be greatly improved with higher compacting of the lattice of pillars, reaching a minimum value of 0.59 ng/mL).
Resumo:
La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.
Resumo:
El autor plantea pensamientos originales, propios, que ha ido elaborando a lo largo de su fructífera carrera y que ahora, presenta reelaborados con nuevos enfoques y planteamientos. Con este trabajo, el profesor Sáez Vacas abre la teoría infotecnológica actual, para sacar a la luz la esencia de lo que pasa en la sociedad de la información, relacionando sus elementos en un proceso, que partiendo de lo complejo, persigue la simplicidad.
Resumo:
España ha experimentado un importante crecimiento económico en los últimos años. Dicho crecimiento ha venido acompañado de un gran aumento del stock de infraestructuras. Asimismo, ha habido un avance en el parque automotor hacia vehículos cada vez más eficientes en el consumo de combustible. Estas tres situaciones producen un desequilibrio entre las necesidades presupuestarias para mantener las infraestructuras y la recaudación lograda por el Estado con el mismo fin. Para dar solución a la problemática mencionada, en el marco del proyecto OASIS, se desarrolla un modelo tarifario teniendo en cuenta tres principios básicos; cobertura de costes de la infraestructura, incentivo al uso de vehículos que contaminan menos y simplicidad del esquema de tarifas para el usuario. El modelo incluye cada una de las actuales concesiones adjudicadas por el Estado en el momento en que revierten. No obstante, no se ha incluido de momento para el análisis la red competencia de las Comunidades Autónomas ni la red a cargo de Diputaciones y Cabildos. Asimismo, dentro del modelo se consideran hipótesis macroeconómicas, el crecimiento de la red, la evolución del tráfico, la evolución de las regiones de convergencia de la Unión Europea y la evolución del nivel de emisiones del parque automotor. Se dimensionan las necesidades de fondos a corto y largo plazo para mantener un crecimiento de la red acorde con algunos países de la Unión Europea. Las tarifas que hacen viable el sistema, o tarifas de equilibrio, se determinan con base en un modelo financiero inicialmente planteado sólo para la red competencia del Estado. Asimismo, mediante un análisis de sensibilidad se determina la variabilidad de las mencionadas tarifas con las principales hipótesis planteadas.
Resumo:
Este trabajo presenta un estudio sobre el funcionamiento y aplicaciones de las células de combustible de membrana tipo PEM, o de intercambio de protones, alimentadas con hidrógeno puro y oxigeno obtenido de aire comprimido. Una vez evaluado el proceso de dichas células y las variables que intervienen en el mismo, como presión, humedad y temperatura, se presenta una variedad de métodos para la instrumentación de tales variables así como métodos y sistemas para la estabilidad y control de las mismas, en torno a los valores óptimos para una mayor eficacia en el proceso. Tomando como variable principal a controlar la temperatura del proceso, y exponiendo los valores concretos en torno a 80 grados centígrados entre los que debe situarse, es realizado un modelo del proceso de calentamiento y evolución de la temperatura en función de la potencia del calentador resistivo en el dominio de la frecuencia compleja, y a su vez implementado un sistema de medición mediante sensores termopar de tipo K de respuesta casi lineal. La señal medida por los sensores es amplificada de manera diferencial mediante amplificadores de instrumentación INA2126, y es desarrollado un algoritmo de corrección de error de unión fría (error producido por la inclusión de nuevos metales del conector en el efecto termopar). Son incluidos los datos de test referentes al sistema de medición de temperatura , incluyendo las desviaciones o error respecto a los valores ideales de medida. Para la adquisición de datos y implementación de algoritmos de control, es utilizado un PC con el software Labview de National Instruments, que permite una programación intuitiva, versátil y visual, y poder realizar interfaces de usuario gráficas simples. La conexión entre el hardware de instrumentación y control de la célula y el PC se realiza mediante un interface de adquisición de datos USB NI 6800 que cuenta con un amplio número de salidas y entradas analógicas. Una vez digitalizadas las muestras de la señal medida, y corregido el error de unión fría anteriormente apuntado, es implementado en dicho software un controlador de tipo PID ( proporcional-integral-derivativo) , que se presenta como uno de los métodos más adecuados por su simplicidad de programación y su eficacia para el control de este tipo de variables. Para la evaluación del comportamiento del sistema son expuestas simulaciones mediante el software Matlab y Simulink determinando por tanto las mejores estrategias para desarrollar el control PID, así como los posibles resultados del proceso. En cuanto al sistema de calentamiento de los fluidos, es empleado un elemento resistor calentador, cuya potencia es controlada mediante un circuito electrónico compuesto por un detector de cruce por cero de la onda AC de alimentación y un sistema formado por un elemento TRIAC y su circuito de accionamiento. De manera análoga se expone el sistema de instrumentación para la presión de los gases en el circuito, variable que oscila en valores próximos a 3 atmosferas, para ello es empleado un sensor de presión con salida en corriente mediante bucle 4-20 mA, y un convertidor simple corriente a tensión para la entrada al sistema de adquisición de datos. Consecuentemente se presenta el esquema y componentes necesarios para la canalización, calentamiento y humidificación de los gases empleados en el proceso así como la situación de los sensores y actuadores. Por último el trabajo expone la relación de algoritmos desarrollados y un apéndice con información relativa al software Labview. ABTRACT This document presents a study about the operation and applications of PEM fuel cells (Proton exchange membrane fuel cells), fed with pure hydrogen and oxygen obtained from compressed air. Having evaluated the process of these cells and the variables involved on it, such as pressure, humidity and temperature, there is a variety of methods for implementing their control and to set up them around optimal values for greater efficiency in the process. Taking as primary process variable the temperature, and exposing its correct values around 80 degrees centigrade, between which must be placed, is carried out a model of the heating process and the temperature evolution related with the resistive heater power on the complex frequency domain, and is implemented a measuring system with thermocouple sensor type K performing a almost linear response. The differential signal measured by the sensor is amplified through INA2126 instrumentation amplifiers, and is developed a cold junction error correction algorithm (error produced by the inclusion of additional metals of connectors on the thermocouple effect). Data from the test concerning the temperature measurement system are included , including deviations or error regarding the ideal values of measurement. For data acquisition and implementation of control algorithms, is used a PC with LabVIEW software from National Instruments, which makes programming intuitive, versatile, visual, and useful to perform simple user interfaces. The connection between the instrumentation and control hardware of the cell and the PC interface is via a USB data acquisition NI 6800 that has a large number of analog inputs and outputs. Once stored the samples of the measured signal, and correct the error noted above junction, is implemented a software controller PID (proportional-integral-derivative), which is presented as one of the best methods for their programming simplicity and effectiveness for the control of such variables. To evaluate the performance of the system are presented simulations using Matlab and Simulink software thereby determining the best strategies to develop PID control, and possible outcomes of the process. As fluid heating system, is employed a heater resistor element whose power is controlled by an electronic circuit comprising a zero crossing detector of the AC power wave and a system consisting of a Triac and its drive circuit. As made with temperature variable it is developed an instrumentation system for gas pressure in the circuit, variable ranging in values around 3 atmospheres, it is employed a pressure sensor with a current output via 4-20 mA loop, and a single current to voltage converter to adequate the input to the data acquisition system. Consequently is developed the scheme and components needed for circulation, heating and humidification of the gases used in the process as well as the location of sensors and actuators. Finally the document presents the list of algorithms and an appendix with information about Labview software.