16 resultados para Logaritmo discreto, crittografia.
em Universidad Politécnica de Madrid
Resumo:
Las redes mutualistas son una clase de ecosistemas de gran interés en las que todas las interacciones entre especies son beneficiosas. Pueden modelarse como redes bipartitas con un núcleo de especies muy conectadas, una propiedad llamada anidamiento. Son muy resistentes y estables. La descripción matemática de las redes mutualistas está cimentada en modelos clásicos de población como los de Verhulst y Lotka-Volterra. En este trabajo proponemos una modificación de la formulación tradicional del mutualismo de May, incluyendo un factor de limitación del crecimiento que se basa en la conocida idea de la ecuación logística. Hemos construido una herramienta de simulación (SIGMUND) que permite experimentar con el modelo de forma simple y sencilla. Los resultados pueden ayudar a avanzar la investigación sobre el mutualismo, un campo activo de la ecología y la ciencia de redes.
Resumo:
Las redes mutualistas son una clase de ecosistemas de gran interés en las que todas las interacciones entre especies son beneficiosas. Pueden modelarse como redes bipartitas con un núcleo de especies muy conectadas, una propiedad llamada anidamiento. Son muy resistentes y estables. La descripción matemática de las redes mutualistas está cimentada en modelos clásicos de población como los de Verhulst y Lotka-Volterra. En este trabajo proponemos una modificación de la formulación tradicional del mutualismo de May, incluyendo un factor de limitación del crecimiento que se basa en la conocida idea de la ecuación logística. Hemos construido una herramienta de simulación (SIGMUND) que permite experimentar con el modelo de forma simple y sencilla. Los resultados pueden ayudar a avanzar la investigación sobre el mutualismo, un campo activo de la ecología y la ciencia de redes.
Resumo:
Dentro de las técnicas de control de procesos no lineales, los controladores de estructura variable con modos deslizantes (VSC-SM en sus siglas en inglés) han demostrado ser una solución robusta, por lo cual han sido ampliamente estudiados en las cuatro últimas décadas. Desde los años ochenta se han presentado varios trabajos enfocados a especificar controladores VSC aplicados a sistemas de tiempo discreto (DVSC), siendo uno de los mayores intereses de análisis obtener las mismas prestaciones de robustez e invarianza de los controladores VSC-SM. El objetivo principal del trabajo de Tesis Doctoral consiste en estudiar, analizar y proponer unos esquemas de diseño de controladores DVSC en procesos multivariable tanto lineales como no lineales. De dicho estudio se propone una nueva filosofía de diseño de superficies deslizantes estables donde se han considerado aspectos hasta ahora no estudiados en el uso de DVSC-SM como son las limitaciones físicas de los actuadores y la dinámica deslizante no ideal. Lo más novedoso es 1) la propuesta de una nueva metodología de diseño de superficies deslizantes aplicadas a sistemas MIMO lineales y la extensión del mismo al caso de sistemas multivariables no lineales y 2) la definición de una nueva ley de alcance y de una ley de control robusta aplicada a sistemas MIMO, tanto lineales como no lineales, incluyendo un esquema de reducción de chattering. Finalmente, con el fin de ilustrar la eficiencia de los esquemas presentados, se incluyen ejemplos numéricos relacionados con el tema tratado en cada uno de los capítulos de la memoria. ABSTRACT Over the last four decades, variable structure controllers with sliding mode (VSC-SM) have been extensively studied, demonstrating to be a robust solution among robust nonlinear processes control techniques. Since the late 80s, several research works have been focused on the application of VSC controllers applied to discrete time or sampled data systems, which are known as DVSC-SM, where the most extensive source of analysis has been devoted to the robustness and invariance properties of VSC-SM controllers when applied to discrete systems. The main aim of this doctoral thesis work is to study, analyze and propose a design scheme of DVSC-SM controllers for lineal and nonlinear multivariable discrete time processes. For this purpose, a new design philosophy is proposed, where various design features have been considered that have not been analyzed in DVSC design approaches. Among them, the physical limitations and the nonideal dynamic sliding mode dynamics. The most innovative aspect is the inclusion of a new design methodology applied to lineal sliding surfaces MIMO systems and the extension to nonlinear multivariable systems, in addition to a new robust control law applied to lineal and nonlinear MIMO systems, including a chattering reduction scheme. Finally, to illustrate the efficiency of the proposed schemes, several numerical examples applied to lineal and nonlinear systems are included.
Resumo:
Metodología para integrar numéricamente de forma termodinámicamente consistente las ecuaciones del problema termomecánico acoplado de un elemento discreto viscoso.
Resumo:
Se presenta en este trabajo una nueva caracterización del movimiento del suelo en la presa de Itoiz, consistente con la peligrosidad sísmica del emplazamiento. En primer lugar, proponemos una metodología con tres niveles de aproximación al movimiento esperado, que es después aplicada considerando las características particulares de la presa y su emplazamiento. Los cálculos de peligrosidad se realizan siguiendo la línea metodológica conocida como PSHA, con un método probabilista zonificado y formulando un árbol lógico que combina diferentes zonificaciones sísmicas y modelos de movimiento fuerte. La peligrosidad se representa en términos de la aceleración pico PGA y de las aceleraciones espectrales para periodos coincidentes con los de vibración de la presa, considerando dos estados de la misma correspondientes a presa vacía (T=0.1s) y presa con capacidad máxima de llenado (T=0.22 s). Se caracterizan los correspondientes movimientos para dos periodos de retorno, 975 años y 4975 años, asociados al sismo de proyecto y al sismo extremo, respectivamente. El efecto de sitio en el emplazamiento de la presa también fue tenido en cuenta. La metodología propuesta conduce a caracterizar el movimiento con tres niveles de detalle. En una primera etapa se obtienen los espectros de respuesta uniforme (UHS) para los dos niveles de movimiento referidos. Seguidamente se desarrolla un análisis de desagregación para obtener los sismos de control que previsiblemente pueden afectar mas a la presa. Estos se identifican como los que más contribuyen a los movimientos objeto dados por las aceleraciones espectrales de los dos periodos característicos, SA (0,1 s) y SA (0.22 s) y para los dos periodos de retorno de 975 y 4975 años asociados a lo sismos de proyecto y extremo. De ahí se obtienen los espectros de respuesta específicos para las cuatro combinaciones resultantes. Finalmente, se realiza una simulación del movimiento en el dominio del tiempo, obteniendo acelerogramas sintéticos mediante el método de número de onda discreto. Las simulaciones se realizaron considerando fuentes finitas en diferentes posiciones y evaluando el efecto de la directividad en las posibles fuentes consideradas. Se concluye destacando la importancia del efecto de directividad, en la caracterización del emplazamiento de la presa.
Resumo:
En esta Tesis Doctoral se aborda la utilización de filtros de difusión no lineal para obtener imágenes constantes a trozos como paso previo al proceso de segmentación. En una primera parte se propone un formulación intrínseca para la ecuación de difusión no lineal que proporcione las condiciones de diseño necesarias sobre los filtros de difusión. A partir del marco teórico propuesto, se proporciona una nueva familia de difusividades; éstas son obtenidas a partir de técnicas de difusión no lineal relacionadas con los procesos de difusión regresivos. El objetivo es descomponer la imagen en regiones cerradas que sean homogéneas en sus niveles de grises sin contornos difusos. Asimismo, se prueba que la función de difusividad propuesta satisface las condiciones de un correcto planteamiento semi-discreto. Esto muestra que mediante el esquema semi-implícito habitualmente utilizado, realmente se hace un proceso de difusión no lineal directa, en lugar de difusión inversa, conectando con proceso de preservación de bordes. Bajo estas condiciones establecidas, se plantea un criterio de parada para el proceso de difusión, para obtener imágenes constantes a trozos con un bajo coste computacional. Una vez aplicado todo el proceso al caso unidimensional, se extienden los resultados teóricos, al caso de imágenes en 2D y 3D. Para el caso en 3D, se detalla el esquema numérico para el problema evolutivo no lineal, con condiciones de contorno Neumann homogéneas. Finalmente, se prueba el filtro propuesto para imágenes reales en 2D y 3D y se ilustran los resultados de la difusividad propuesta como método para obtener imágenes constantes a trozos. En el caso de imágenes 3D, se aborda la problemática del proceso previo a la segmentación del hígado, mediante imágenes reales provenientes de Tomografías Axiales Computarizadas (TAC). En ese caso, se obtienen resultados sobre la estimación de los parámetros de la función de difusividad propuesta. This Ph.D. Thesis deals with the case of using nonlinear diffusion filters to obtain piecewise constant images as a previous process for segmentation techniques. I have first shown an intrinsic formulation for the nonlinear diffusion equation to provide some design conditions on the diffusion filters. According to this theoretical framework, I have proposed a new family of diffusivities; they are obtained from nonlinear diffusion techniques and are related with backward diffusion. Their goal is to split the image in closed contours with a homogenized grey intensity inside and with no blurred edges. It has also proved that the proposed filters satisfy the well-posedness semi-discrete and full discrete scale-space requirements. This shows that by using semi-implicit schemes, a forward nonlinear diffusion equation is solved, instead of a backward nonlinear diffusion equation, connecting with an edgepreserving process. Under the conditions established for the diffusivity and using a stopping criterion I for the diffusion time, I have obtained piecewise constant images with a low computational effort. The whole process in the one-dimensional case is extended to the case where 2D and 3D theoretical results are applied to real images. For 3D, develops in detail the numerical scheme for nonlinear evolutionary problem with homogeneous Neumann boundary conditions. Finally, I have tested the proposed filter with real images for 2D and 3D and I have illustrated the effects of the proposed diffusivity function as a method to get piecewise constant images. For 3D I have developed a preprocess for liver segmentation with real images from CT (Computerized Tomography). In this case, I have obtained results on the estimation of the parameters of the given diffusivity function.
Resumo:
The extraordinary increase of new information technologies, the development of Internet, the electronic commerce, the e-government, mobile telephony and future cloud computing and storage, have provided great benefits in all areas of society. Besides these, there are new challenges for the protection of information, such as the loss of confidentiality and integrity of electronic documents. Cryptography plays a key role by providing the necessary tools to ensure the safety of these new media. It is imperative to intensify the research in this area, to meet the growing demand for new secure cryptographic techniques. The theory of chaotic nonlinear dynamical systems and the theory of cryptography give rise to the chaotic cryptography, which is the field of study of this thesis. The link between cryptography and chaotic systems is still subject of intense study. The combination of apparently stochastic behavior, the properties of sensitivity to initial conditions and parameters, ergodicity, mixing, and the fact that periodic points are dense, suggests that chaotic orbits resemble random sequences. This fact, and the ability to synchronize multiple chaotic systems, initially described by Pecora and Carroll, has generated an avalanche of research papers that relate cryptography and chaos. The chaotic cryptography addresses two fundamental design paradigms. In the first paradigm, chaotic cryptosystems are designed using continuous time, mainly based on chaotic synchronization techniques; they are implemented with analog circuits or by computer simulation. In the second paradigm, chaotic cryptosystems are constructed using discrete time and generally do not depend on chaos synchronization techniques. The contributions in this thesis involve three aspects about chaotic cryptography. The first one is a theoretical analysis of the geometric properties of some of the most employed chaotic attractors for the design of chaotic cryptosystems. The second one is the cryptanalysis of continuos chaotic cryptosystems and finally concludes with three new designs of cryptographically secure chaotic pseudorandom generators. The main accomplishments contained in this thesis are: v Development of a method for determining the parameters of some double scroll chaotic systems, including Lorenz system and Chua’s circuit. First, some geometrical characteristics of chaotic system have been used to reduce the search space of parameters. Next, a scheme based on the synchronization of chaotic systems was built. The geometric properties have been employed as matching criterion, to determine the values of the parameters with the desired accuracy. The method is not affected by a moderate amount of noise in the waveform. The proposed method has been applied to find security flaws in the continuous chaotic encryption systems. Based on previous results, the chaotic ciphers proposed by Wang and Bu and those proposed by Xu and Li are cryptanalyzed. We propose some solutions to improve the cryptosystems, although very limited because these systems are not suitable for use in cryptography. Development of a method for determining the parameters of the Lorenz system, when it is used in the design of two-channel cryptosystem. The method uses the geometric properties of the Lorenz system. The search space of parameters has been reduced. Next, the parameters have been accurately determined from the ciphertext. The method has been applied to cryptanalysis of an encryption scheme proposed by Jiang. In 2005, Gunay et al. proposed a chaotic encryption system based on a cellular neural network implementation of Chua’s circuit. This scheme has been cryptanalyzed. Some gaps in security design have been identified. Based on the theoretical results of digital chaotic systems and cryptanalysis of several chaotic ciphers recently proposed, a family of pseudorandom generators has been designed using finite precision. The design is based on the coupling of several piecewise linear chaotic maps. Based on the above results a new family of chaotic pseudorandom generators named Trident has been designed. These generators have been specially designed to meet the needs of real-time encryption of mobile technology. According to the above results, this thesis proposes another family of pseudorandom generators called Trifork. These generators are based on a combination of perturbed Lagged Fibonacci generators. This family of generators is cryptographically secure and suitable for use in real-time encryption. Detailed analysis shows that the proposed pseudorandom generator can provide fast encryption speed and a high level of security, at the same time. El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de Internet, el comercio electrónico, la administración electrónica, la telefonía móvil y la futura computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección de la información, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos electrónicos. La criptografía juega un papel fundamental aportando las herramientas necesarias para garantizar la seguridad de estos nuevos medios, pero es imperativo intensificar la investigación en este ámbito para dar respuesta a la demanda creciente de nuevas técnicas criptográficas seguras. La teoría de los sistemas dinámicos no lineales junto a la criptografía dan lugar a la ((criptografía caótica)), que es el campo de estudio de esta tesis. El vínculo entre la criptografía y los sistemas caóticos continúa siendo objeto de un intenso estudio. La combinación del comportamiento aparentemente estocástico, las propiedades de sensibilidad a las condiciones iniciales y a los parámetros, la ergodicidad, la mezcla, y que los puntos periódicos sean densos asemejan las órbitas caóticas a secuencias aleatorias, lo que supone su potencial utilización en el enmascaramiento de mensajes. Este hecho, junto a la posibilidad de sincronizar varios sistemas caóticos descrita inicialmente en los trabajos de Pecora y Carroll, ha generado una avalancha de trabajos de investigación donde se plantean muchas ideas sobre la forma de realizar sistemas de comunicaciones seguros, relacionando así la criptografía y el caos. La criptografía caótica aborda dos paradigmas de diseño fundamentales. En el primero, los criptosistemas caóticos se diseñan utilizando circuitos analógicos, principalmente basados en las técnicas de sincronización caótica; en el segundo, los criptosistemas caóticos se construyen en circuitos discretos u ordenadores, y generalmente no dependen de las técnicas de sincronización del caos. Nuestra contribución en esta tesis implica tres aspectos sobre el cifrado caótico. En primer lugar, se realiza un análisis teórico de las propiedades geométricas de algunos de los sistemas caóticos más empleados en el diseño de criptosistemas caóticos vii continuos; en segundo lugar, se realiza el criptoanálisis de cifrados caóticos continuos basados en el análisis anterior; y, finalmente, se realizan tres nuevas propuestas de diseño de generadores de secuencias pseudoaleatorias criptográficamente seguros y rápidos. La primera parte de esta memoria realiza un análisis crítico acerca de la seguridad de los criptosistemas caóticos, llegando a la conclusión de que la gran mayoría de los algoritmos de cifrado caóticos continuos —ya sean realizados físicamente o programados numéricamente— tienen serios inconvenientes para proteger la confidencialidad de la información ya que son inseguros e ineficientes. Asimismo una gran parte de los criptosistemas caóticos discretos propuestos se consideran inseguros y otros no han sido atacados por lo que se considera necesario más trabajo de criptoanálisis. Esta parte concluye señalando las principales debilidades encontradas en los criptosistemas analizados y algunas recomendaciones para su mejora. En la segunda parte se diseña un método de criptoanálisis que permite la identificaci ón de los parámetros, que en general forman parte de la clave, de algoritmos de cifrado basados en sistemas caóticos de Lorenz y similares, que utilizan los esquemas de sincronización excitador-respuesta. Este método se basa en algunas características geométricas del atractor de Lorenz. El método diseñado se ha empleado para criptoanalizar eficientemente tres algoritmos de cifrado. Finalmente se realiza el criptoanálisis de otros dos esquemas de cifrado propuestos recientemente. La tercera parte de la tesis abarca el diseño de generadores de secuencias pseudoaleatorias criptográficamente seguras, basadas en aplicaciones caóticas, realizando las pruebas estadísticas, que corroboran las propiedades de aleatoriedad. Estos generadores pueden ser utilizados en el desarrollo de sistemas de cifrado en flujo y para cubrir las necesidades del cifrado en tiempo real. Una cuestión importante en el diseño de sistemas de cifrado discreto caótico es la degradación dinámica debida a la precisión finita; sin embargo, la mayoría de los diseñadores de sistemas de cifrado discreto caótico no ha considerado seriamente este aspecto. En esta tesis se hace hincapié en la importancia de esta cuestión y se contribuye a su esclarecimiento con algunas consideraciones iniciales. Ya que las cuestiones teóricas sobre la dinámica de la degradación de los sistemas caóticos digitales no ha sido totalmente resuelta, en este trabajo utilizamos algunas soluciones prácticas para evitar esta dificultad teórica. Entre las técnicas posibles, se proponen y evalúan varias soluciones, como operaciones de rotación de bits y desplazamiento de bits, que combinadas con la variación dinámica de parámetros y con la perturbación cruzada, proporcionan un excelente remedio al problema de la degradación dinámica. Además de los problemas de seguridad sobre la degradación dinámica, muchos criptosistemas se rompen debido a su diseño descuidado, no a causa de los defectos esenciales de los sistemas caóticos digitales. Este hecho se ha tomado en cuenta en esta tesis y se ha logrado el diseño de generadores pseudoaleatorios caóticos criptogr áficamente seguros.
Resumo:
Ideas básicas: reducción del medio contínuo a discreto (elementos, nodos y funciones de forma); definición de un estado "elemental" relacionado con otro "general", mediante el formalismo "matriz de rigidez" y vectores consistentes; método de síntesis de propiedades generales: método directo de la rigidez. Posibilidades de estudio: derivación de la teoría, modelización de problemas reales con F.E.M., desarrollo de programas de ordenador, estudio de métodos numéricos (sistemas ecuacionales, autovalores, convergencia, integración etc.). Contrariamente a lo que se diga el F.E.M. no elimina la necesidad de profundizar en el estudio de la elasticidad, matemáticas, etc. Se trata tan sólo de un instrumento potentísimo que, en principio, permite abordar cualquier problema.
Resumo:
La esgrima es un deporte de combate en el que todas las acciones están dirigidas a conseguir el objetivo de la competición, que es el de tocar al contrario sin ser tocado, y para ello los tiradores/as se sirven de todas las herramientas, técnicas, tácticas y de condición física posibles a su alcance. La calidad de las acciones de los esgrimistas en competición dependerá fundamentalmente de dos de los sistemas involucrados en el proceso. Por un lado, la activación del sistema nervioso, y por otro lado la respuesta del sistema muscular. Una de las herramientas utilizadas en los últimos años para estimular el sistema neuromuscular, y que ha reportado en muchas investigaciones resultados positivos, ha sido la plataforma de vibraciones vertical. Por esto, decidimos llevar a cabo un estudio con deportistas de esgrima de competición con un protocolo de exposición aguda a las vibraciones, y medir el efecto producido por esta herramienta sobre el sistema neuromuscular a través del estudio de los cambios experimentados en los tiempos de reacción simple, tiempos de respuesta electiva y tiempos de movimiento, así como los efectos en la eficacia del tocado de esgrima analizados antes y después de recibir el estímulo vibratorio. El estudio se desarrolló con tiradores/as de competición de nivel nacional y pertenecientes al Centro de Tecnificación de la Federación de Esgrima de Castilla y León (n=38; Edad: 22 ±9,08). La muestra estaba compuesta por 12 mujeres y 26 hombres, de categorías, cadetes (13), júnior (12), y absolutos (13). El protocolo elegido fue realizado por cada participante en tres ocasiones, una inicial, otra tras pasar por una carga de estimulación en la plataforma de vibraciones, y una fase final, pasado un tiempo de recuperación de 10 minutos para comprobar el grado de disipación del efecto vibratorio. El estímulo elegido para la estimulación sobre la plataforma de vibraciones fue de una frecuencia de 50 Hz, durante un periodo de 60 segundos y con una amplitud de 4 mm. Los resultados se analizaron en función de las variables dependientes tiempo de reacción, tiempo de respuesta electiva, tiempo de movimiento, y precisión y eficacia. Estos datos se cruzaron con las variables independientes sexo, categoría, nivel deportivo y años de experiencia. El propósito del presente estudio fue el de analizar los efectos producidos por una intervención de estimulación neuromuscular mecánica en fase aguda en un grupo de tiradores/as de esgrima de competición. Los resultados mostraron que la carga de estimulación neuromuscular mecánica (ENM) aplicada en nuestro estudio provocó un discreto efecto en la respuesta neuromuscular de los tiradores participantes en la investigación. Se encontraron efectos significativos provocados por el estímulo vibratorio en las siguientes variables: en el tiempo de reacción simple se registró una mejora del 8,1%, en el tiempo de respuesta electiva a pie parado un 10%, en la precisión a pie parado un 7%, y en la eficacia a pie parado un 18,5%. Igualmente se observaron ligeras diferencias por sexos, encontrando un efecto de mayor tamaño en el grupo femenino. Es necesario resaltar que las características particulares de la muestra parecen haber influido en los resultados encontrados de forma importante. Por último, debemos destacar que el efecto residual producido por la estimulación aplicada en nuestra investigación en algún caso superó los diez minutos, ya que se hallaron efectos positivos de la estimulación neuromuscular mecánica en varios de los registros finales como hemos visto. ABSTRACT Fencing is a combat sport in which all actions are aimed at achieving the objective of the competition, which is that of touching the opponent without being touched and for this the fencers make use of all the tools, techniques, tactics and physical condition possible at their disposal. The quality of the fencers´ actions in competition will depend primarily on two of the systems involved in the process: on the one hand, the activation of the nervous system and, on the other, the response of the muscular system. One of the tools recently used to stimulate the neuromuscular system, and which has produced positive results in many research studies, has been the vertical vibration platform. Therefore, we decided to conduct a study with competition fencers with a protocol of acute exposure to vibration and to measure the effect produced by this tool on the neuromuscular system by means of the study of changes experienced in simple reaction times, the elective response times and movement times, as well as the effects on the efficacy of the fencing touch analyzed before and after receiving the vibratory stimulus. The study was conducted with fencers in national competitions and belonging to the Technification Center of the Fencing Federation of Castilla y León (n = 38), with a mean age of 22 years (SD 9.08). The sample was composed of 12 women and 26 men, by categories cadets (13), juniors (12), and seniors (13). The protocol chosen was performed by each participant on three occasions: an initial one, another after going through a stimulation load on the vibration platform, and a final phase, after a 10 minute recovery time to assess the degree of dissipation of the vibratory effect. The stimulus chosen on the vibration platform was a frequency of 50 Hz, for a period of 60 seconds and an amplitude of 4 mm. The results were analyzed according to the following dependent variables: the reaction time, the response time, the accuracy and the efficiency. This data was crossed with the independent variables: gender, category, sporting level and the years of experience. The purpose of this study was analyze the effects of neuromuscular stimulation intervention in a group of fencing competition shooters. The results showed that the mechanical neuromuscular stimulation (MNS) load applied in our study led to a modest effect on the neuromuscular response of the fencers involved in the research. Significant effects were found caused by the vibratory stimulus on the simple reaction time 8,1%, elective response time 10%, as well as the accuracy 7%, and efficiency 18,5%. We should also point out that slight differences by gender were observed, finding a greater effect in females. It should be emphasized that the specific characteristics of the sample appear to have significantly influenced the results. Finally, we should note that the residual effect produced by the stimulation applied in our research in some cases exceeded ten minutes, given that positive effects of the mechanical neuromuscular stimulation were found in several of the final scores.
Resumo:
Dejarán de admirarte cuando te vean muy humano. Si eres muy fácil, simpático y liviano de carácter, perderás reputación. Así como el varón recatado y discreto es tenido por más hombres que el liviano y hablador. No hay vicio que más te quite autoridad y respeto, porque se opone a la gravedad, a la seriedad y responsabilidad. Un hombre sin sobriedad no puede ser sustancioso, ni sus decisiones están bien fundamentadas, y peor si es ya un anciano, en cuya edad todo el mundo espera que sea sensato y cuerdo. Y aunque este descuido lo tiene mucha gente, no deja de ser incorrecto.
Resumo:
El presente proyecto fin de carrera trata del estudio de los parámetros de sismicidad en la Península Ibérica y América Central, realizando un análisis de su variación en el espacio y en el tiempo. Con estos análisis se podrá determinar la continuidad temporal y la homogeneidad espacial de los parámetros sísmicas de los territorios de estudio, de acuerdo con la información contenida en los catálogos sísmicos. En este proyecto se parte del estudio de los catálogos sísmicos disponibles (catálogo del Instituto Geográfico Nacional de España y catálogo del proyecto RESIS II) y se realizan los análisis de completitud pertinentes, a fin de eliminar información de los catálogos que pueda desvirtuar los resultados obtenidos. Se considera que la sismicidad sigue modelo de Gutenberg-Richter, que establece que la distribución de frecuencias de terremotos con la magnitud responde a una relación lineal entre el (logaritmo del) número acumulado de eventos y la magnitud. De este modelo se obtienen tres parámetros que caracterizan la sismicidad de una zona: el parámetro beta, la tasa acumulada de ocurrencia de terremotos y la magnitud máxima. Se diseña un método para calcular el valor de estos parámetros sísmicos en los territorios considerados, y se implementan diferentes filtros espaciales y temporales para poder determinar la variabilidad espacial y temporal de los valores de los parámetros de sismicidad. Se aplica el método de estimación de parámetros de sismicidad en dos zonas de diferentes características sísmicas: una como la Península Ibérica, donde hay menos actividad sísmica pero hay datos de un periodo de tiempo mayor; y América Central,donde el catálogo no es tan extenso temporalmente, y sin embargo, hay una mayor actividad sísmica. Los resultados del estudio serán de utilidad para la caracterización de fuentes sísmicas en estudios de peligrosidad sísmica, bien sea siguiendo modelos zonificados que consideran que la sismicidad es un proceso de Poisson (para lo cual se necesita un catálogo depurado, como el que se usa en este proyecto para América Central), bien sea para modelos no zonificados, que se nutren de un catálogo sin depurar de réplicas y premonitores (como el que se usa en este proyecto para España).
Resumo:
(SPA) En este trabajo, se propone un nuevo índice basado en el método directo de Lyapunov para el diseño de un algoritmo de reprogramación en tiempo real para líneas de metro. En este estudio se utiliza una versión modificada de un modelo de espacio de estados en tiempo real discreto, que considera los efectos de saturación en la línea de metro. Una vez que el modelo de espacio de estados se ha obtenido, el método directo de Lyapunov se aplica con el fin de analizar la estabilidad del sistema de la línea de metro. Como resultado de este análisis no sólo se propone un nuevo índice de estabilidad, sino también la creación de tres zonas de estabilidad para indicar el estado actual del sistema. Finalmente, se presenta un nuevo algoritmo que permite la reprogramación del calendario de los trenes en tiempo real en presencia de perturbaciones medianas. (ENG) A new Lyapunov-based index for designing a rescheduling algorithm in real time for metro lines has been proposed in this paper. A modified real time discrete space state model which considers saturation effects in the metro line has been utilized in this study. Once the space state model has been obtained, the direct method of Lyapunov is applied in order to analyze the stability of the metro line system. As a result of this analysis not only a new stability index is proposed, but also the establishment of three stability zones to indicate the current state of the system. Finally, a new algorithm which allows the rescheduling of the timetable in the real time of the trains under presence of medium disturbances has been presented.
Resumo:
En esta tesis se investiga la interacción entre un fluido viscoso y un cuerpo sólido en presencia de una superficie libre. El problema se expresa teóricamente poniendo especial atención a los aspectos de conservación de energía y de la interacción del fluido con el cuerpo. El problema se considera 2D y monofásico, y un desarrollo matemático permite una descomposición de los términos disipativos en términos relacionados con la superficie libre y términos relacionados con la enstrofía. El modelo numérico utilizado en la tesis se basa en el método sin malla Smoothed Particle Hydrodynamics (SPH). De manera análoga a lo que se hace a nivel continuo, las propiedades de conservación se estudian en la tesis con el sistema discreto de partículas. Se tratan también las condiciones de contorno de un cuerpo que se mueve en un flujo viscoso, implementadas con el método ghost-fluid. Se ha desarrollado un algoritmo explícito de interacción fluido / cuerpo. Se han documentado algunos casos de modo detallado con el objetivo de comprobar la capacidad del modelo para reproducir correctamente la disipación de energía y el movimiento del cuerpo. En particular se ha investigado la atenuación de una onda estacionaria, comparando la simulación numérica con predicciones teóricas. Se han realizado otras pruebas para monitorizar la disipación de energía para flujos más violentos que implican la fragmentación de la superficie libre. La cantidad de energía disipada con los diferentes términos se ha evaluado en los casos estudiados con el modelo numérico. Se han realizado otras pruebas numéricas para verificar la técnica de modelización de la interacción fluido / cuerpo, concretamente las fuerzas ejercidas por las olas en cuerpos con formas simples, y el equilibrio de un cuerpo flotante con una forma compleja. Una vez que el modelo numérico ha sido validado, se han realizado simulaciones numéricas para obtener una comprensión más completa de la física implicada en casos (casi) realistas sobre los había aspectos que no se conocían suficientemente. En primer lugar se ha estudiado el el flujo alrededor de un cilindro bajo la superficie libre. El estudio se ha realizado con un número de Reynolds moderado, para un rango de inmersiones del cilindro y números de Froude. La solución numérica permite una investigación de los patrones complejos que se producen. La estela del cilindro interactúa con la superficie libre. Se han identificado algunos inestabilidades características. El segundo estudio se ha realizado sobre el problema de sloshing, tanto experimentalmente como numéricamente. El análisis se restringe a aguas poco profundas y con oscilación horizontal, pero se ha estudiado un gran número de condiciones, lo que lleva a una comprensión bastante completa de los sistemas de onda involucradas. La última parte de la tesis trata también sobre un problema de sloshing pero esta vez el tanque está oscilando con rotación y hay acoplamiento con un sistema mecánico. El sistema se llama pendulum-TLD (Tuned Liquid Damper - con líquido amortiguador). Este tipo de sistema se utiliza normalmente para la amortiguación de las estructuras civiles. El análisis se ha realizado analíticamente, numéricamente y experimentalmente utilizando líquidos con viscosidades diferentes, centrándose en características no lineales y mecanismos de disipación. ABSTRA C T The subject of the present thesis is the interaction between a viscous fluid and a solid body in the presence of a free surface. The problem is expressed first theoretically with a particular focus on the energy conservation and the fluid-body interaction. The problem is considered 2D and monophasic, and some mathematical development allows for a decomposition of the energy dissipation into terms related to the Free Surface and others related to the enstrophy. The numerical model used on the thesis is based on Smoothed Particle Hydrodynamics (SPH): a computational method that works by dividing the fluid into particles. Analogously to what is done at continuum level, the conservation properties are studied on the discrete system of particles. Additionally the boundary conditions for a moving body in a viscous flow are treated and discussed using the ghost-fluid method. An explicit algorithm for handling fluid-body coupling is also developed. Following these theoretical developments on the numerical model, some test cases are devised in order to test the ability of the model to correctly reproduce the energy dissipation and the motion of the body. The attenuation of a standing wave is used to compare what is numerically simulated to what is theoretically predicted. Further tests are done in order to monitor the energy dissipation in case of more violent flows involving the fragmentation of the free-surface. The amount of energy dissipated with the different terms is assessed with the numerical model. Other numerical tests are performed in order to test the fluid/body interaction method: forces exerted by waves on simple shapes, and equilibrium of a floating body with a complex shape. Once the numerical model has been validated, numerical tests are performed in order to get a more complete understanding of the physics involved in (almost) realistic cases. First a study is performed on the flow passing a cylinder under the free surface. The study is performed at moderate Reynolds numbers, for various cylinder submergences, and various Froude numbers. The capacity of the numerical solver allows for an investigation of the complex patterns which occur. The wake from the cylinder interacts with the free surface, and some characteristical flow mechanisms are identified. The second study is done on the sloshing problem, both experimentally and numerically. The analysis is restrained to shallow water and horizontal excitation, but a large number of conditions are studied, leading to quite a complete understanding of the wave systems involved. The last part of the thesis still involves a sloshing problem but this time the tank is rolling and there is coupling with a mechanical system. The system is named pendulum-TLD (Tuned Liquid Damper). This kind of system is normally used for damping of civil structures. The analysis is then performed analytically, numerically and experimentally for using liquids with different viscosities, focusing on non-linear features and dissipation mechanisms.
Resumo:
Quizás el Código Morse, inventado en 1838 para su uso en la telegrafía, es uno de los primeros ejemplos de la utilización práctica de la compresión de datos [1], donde las letras más comunes del alfabeto son codificadas con códigos más cortos que las demás. A partir de 1940 y tras el desarrollo de la teoría de la información y la creación de los primeros ordenadores, la compresión de la información ha sido un reto constante y fundamental entre los campos de trabajo de investigadores de todo tipo. Cuanto mayor es nuestra comprensión sobre el significado de la información, mayor es nuestro éxito comprimiéndola. En el caso de la información multimedia, su naturaleza permite la compresión con pérdidas, alcanzando así cotas de compresión imposibles para los algoritmos sin pérdidas. Estos “recientes” algoritmos con pérdidas han estado mayoritariamente basados en transformación de la información al dominio de la frecuencia y en la eliminación de parte de la información en dicho dominio. Transformar al dominio de la frecuencia posee ventajas pero también involucra unos costes computacionales inevitables. Esta tesis presenta un nuevo algoritmo de compresión multimedia llamado “LHE” (Logarithmical Hopping Encoding) que no requiere transformación al dominio de la frecuencia, sino que trabaja en el dominio del espacio. Esto lo convierte en un algoritmo lineal de reducida complejidad computacional. Los resultados del algoritmo son prometedores, superando al estándar JPEG en calidad y velocidad. Para ello el algoritmo utiliza como base la respuesta fisiológica del ojo humano ante el estímulo luminoso. El ojo, al igual que el resto de los sentidos, responde al logaritmo de la señal de acuerdo a la ley de Weber. El algoritmo se compone de varias etapas. Una de ellas es la medición de la “Relevancia Perceptual”, una nueva métrica que nos va a permitir medir la relevancia que tiene la información en la mente del sujeto y en base a la misma, degradar en mayor o menor medida su contenido, a través de lo que he llamado “sub-muestreado elástico”. La etapa de sub-muestreado elástico constituye una nueva técnica sin precedentes en el tratamiento digital de imágenes. Permite tomar más o menos muestras en diferentes áreas de una imagen en función de su relevancia perceptual. En esta tesis se dan los primeros pasos para la elaboración de lo que puede llegar a ser un nuevo formato estándar de compresión multimedia (imagen, video y audio) libre de patentes y de alto rendimiento tanto en velocidad como en calidad. ABSTRACT The Morse code, invented in 1838 for use in telegraphy, is one of the first examples of the practical use of data compression [1], where the most common letters of the alphabet are coded shorter than the rest of codes. From 1940 and after the development of the theory of information and the creation of the first computers, compression of information has been a constant and fundamental challenge among any type of researchers. The greater our understanding of the meaning of information, the greater our success at compressing. In the case of multimedia information, its nature allows lossy compression, reaching impossible compression rates compared with lossless algorithms. These "recent" lossy algorithms have been mainly based on information transformation to frequency domain and elimination of some of the information in that domain. Transforming the frequency domain has advantages but also involves inevitable computational costs. This thesis introduces a new multimedia compression algorithm called "LHE" (logarithmical Hopping Encoding) that does not require transformation to frequency domain, but works in the space domain. This feature makes LHE a linear algorithm of reduced computational complexity. The results of the algorithm are promising, outperforming the JPEG standard in quality and speed. The basis of the algorithm is the physiological response of the human eye to the light stimulus. The eye, like other senses, responds to the logarithm of the signal according with Weber law. The algorithm consists of several stages. One is the measurement of "perceptual relevance," a new metric that will allow us to measure the relevance of information in the subject's mind and based on it; degrade accordingly their contents, through what I have called "elastic downsampling". Elastic downsampling stage is an unprecedented new technique in digital image processing. It lets take more or less samples in different areas of an image based on their perceptual relevance. This thesis introduces the first steps for the development of what may become a new standard multimedia compression format (image, video and audio) free of patents and high performance in both speed and quality.
Resumo:
La metodología Integrated Safety Analysis (ISA), desarrollada en el área de Modelación y Simulación (MOSI) del Consejo de Seguridad Nuclear (CSN), es un método de Análisis Integrado de Seguridad que está siendo evaluado y analizado mediante diversas aplicaciones impulsadas por el CSN; el análisis integrado de seguridad, combina las técnicas evolucionadas de los análisis de seguridad al uso: deterministas y probabilistas. Se considera adecuado para sustentar la Regulación Informada por el Riesgo (RIR), actual enfoque dado a la seguridad nuclear y que está siendo desarrollado y aplicado en todo el mundo. En este contexto se enmarcan, los proyectos Safety Margin Action Plan (SMAP) y Safety Margin Assessment Application (SM2A), impulsados por el Comité para la Seguridad de las Instalaciones Nucleares (CSNI) de la Agencia de la Energía Nuclear (NEA) de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en el desarrollo del enfoque adecuado para el uso de las metodologías integradas en la evaluación del cambio en los márgenes de seguridad debidos a cambios en las condiciones de las centrales nucleares. El comité constituye un foro para el intercambio de información técnica y de colaboración entre las organizaciones miembro, que aportan sus propias ideas en investigación, desarrollo e ingeniería. La propuesta del CSN es la aplicación de la metodología ISA, especialmente adecuada para el análisis según el enfoque desarrollado en el proyecto SMAP que pretende obtener los valores best-estimate con incertidumbre de las variables de seguridad que son comparadas con los límites de seguridad, para obtener la frecuencia con la que éstos límites son superados. La ventaja que ofrece la ISA es que permite el análisis selectivo y discreto de los rangos de los parámetros inciertos que tienen mayor influencia en la superación de los límites de seguridad, o frecuencia de excedencia del límite, permitiendo así evaluar los cambios producidos por variaciones en el diseño u operación de la central que serían imperceptibles o complicados de cuantificar con otro tipo de metodologías. La ISA se engloba dentro de las metodologías de APS dinámico discreto que utilizan la generación de árboles de sucesos dinámicos (DET) y se basa en la Theory of Stimulated Dynamics (TSD), teoría de fiabilidad dinámica simplificada que permite la cuantificación del riesgo de cada una de las secuencias. Con la ISA se modelan y simulan todas las interacciones relevantes en una central: diseño, condiciones de operación, mantenimiento, actuaciones de los operadores, eventos estocásticos, etc. Por ello requiere la integración de códigos de: simulación termohidráulica y procedimientos de operación; delineación de árboles de sucesos; cuantificación de árboles de fallos y sucesos; tratamiento de incertidumbres e integración del riesgo. La tesis contiene la aplicación de la metodología ISA al análisis integrado del suceso iniciador de la pérdida del sistema de refrigeración de componentes (CCWS) que genera secuencias de pérdida de refrigerante del reactor a través de los sellos de las bombas principales del circuito de refrigerante del reactor (SLOCA). Se utiliza para probar el cambio en los márgenes, con respecto al límite de la máxima temperatura de pico de vaina (1477 K), que sería posible en virtud de un potencial aumento de potencia del 10 % en el reactor de agua a presión de la C.N. Zion. El trabajo realizado para la consecución de la tesis, fruto de la colaboración de la Escuela Técnica Superior de Ingenieros de Minas y Energía y la empresa de soluciones tecnológicas Ekergy Software S.L. (NFQ Solutions) con el área MOSI del CSN, ha sido la base para la contribución del CSN en el ejercicio SM2A. Este ejercicio ha sido utilizado como evaluación del desarrollo de algunas de las ideas, sugerencias, y los algoritmos detrás de la metodología ISA. Como resultado se ha obtenido un ligero aumento de la frecuencia de excedencia del daño (DEF) provocado por el aumento de potencia. Este resultado demuestra la viabilidad de la metodología ISA para obtener medidas de las variaciones en los márgenes de seguridad que han sido provocadas por modificaciones en la planta. También se ha mostrado que es especialmente adecuada en escenarios donde los eventos estocásticos o las actuaciones de recuperación o mitigación de los operadores pueden tener un papel relevante en el riesgo. Los resultados obtenidos no tienen validez más allá de la de mostrar la viabilidad de la metodología ISA. La central nuclear en la que se aplica el estudio está clausurada y la información relativa a sus análisis de seguridad es deficiente, por lo que han sido necesarias asunciones sin comprobación o aproximaciones basadas en estudios genéricos o de otras plantas. Se han establecido tres fases en el proceso de análisis: primero, obtención del árbol de sucesos dinámico de referencia; segundo, análisis de incertidumbres y obtención de los dominios de daño; y tercero, cuantificación del riesgo. Se han mostrado diversas aplicaciones de la metodología y ventajas que presenta frente al APS clásico. También se ha contribuido al desarrollo del prototipo de herramienta para la aplicación de la metodología ISA (SCAIS). ABSTRACT The Integrated Safety Analysis methodology (ISA), developed by the Consejo de Seguridad Nuclear (CSN), is being assessed in various applications encouraged by CSN. An Integrated Safety Analysis merges the evolved techniques of the usually applied safety analysis methodologies; deterministic and probabilistic. It is considered as a suitable tool for assessing risk in a Risk Informed Regulation framework, the approach under development that is being adopted on Nuclear Safety around the world. In this policy framework, the projects Safety Margin Action Plan (SMAP) and Safety Margin Assessment Application (SM2A), set up by the Committee on the Safety of Nuclear Installations (CSNI) of the Nuclear Energy Agency within the Organization for Economic Co-operation and Development (OECD), were aimed to obtain a methodology and its application for the integration of risk and safety margins in the assessment of the changes to the overall safety as a result of changes in the nuclear plant condition. The committee provides a forum for the exchange of technical information and cooperation among member organizations which contribute their respective approaches in research, development and engineering. The ISA methodology, proposed by CSN, specially fits with the SMAP approach that aims at obtaining Best Estimate Plus Uncertainty values of the safety variables to be compared with the safety limits. This makes it possible to obtain the exceedance frequencies of the safety limit. The ISA has the advantage over other methods of allowing the specific and discrete evaluation of the most influential uncertain parameters in the limit exceedance frequency. In this way the changes due to design or operation variation, imperceptibles or complicated to by quantified by other methods, are correctly evaluated. The ISA methodology is one of the discrete methodologies of the Dynamic PSA framework that uses the generation of dynamic event trees (DET). It is based on the Theory of Stimulated Dynamics (TSD), a simplified version of the theory of Probabilistic Dynamics that allows the risk quantification. The ISA models and simulates all the important interactions in a Nuclear Power Plant; design, operating conditions, maintenance, human actuations, stochastic events, etc. In order to that, it requires the integration of codes to obtain: Thermohydraulic and human actuations; Even trees delineation; Fault Trees and Event Trees quantification; Uncertainty analysis and risk assessment. This written dissertation narrates the application of the ISA methodology to the initiating event of the Loss of the Component Cooling System (CCWS) generating sequences of loss of reactor coolant through the seals of the reactor coolant pump (SLOCA). It is used to test the change in margins with respect to the maximum clad temperature limit (1477 K) that would be possible under a potential 10 % power up-rate effected in the pressurized water reactor of Zion NPP. The work done to achieve the thesis, fruit of the collaborative agreement of the School of Mining and Energy Engineering and the company of technological solutions Ekergy Software S.L. (NFQ Solutions) with de specialized modeling and simulation branch of the CSN, has been the basis for the contribution of the CSN in the exercise SM2A. This exercise has been used as an assessment of the development of some of the ideas, suggestions, and algorithms behind the ISA methodology. It has been obtained a slight increase in the Damage Exceedance Frequency (DEF) caused by the power up-rate. This result shows that ISA methodology allows quantifying the safety margin change when design modifications are performed in a NPP and is specially suitable for scenarios where stochastic events or human responses have an important role to prevent or mitigate the accidental consequences and the total risk. The results do not have any validity out of showing the viability of the methodology ISA. Zion NPP was retired and information of its safety analysis is scarce, so assumptions without verification or approximations based on generic studies have been required. Three phases are established in the analysis process: first, obtaining the reference dynamic event tree; second, uncertainty analysis and obtaining the damage domains; third, risk quantification. There have been shown various applications of the methodology and advantages over the classical PSA. It has also contributed to the development of the prototype tool for the implementation of the ISA methodology (SCAIS).