28 resultados para fault disclosure
Resumo:
The structural position of the Upper Jurassic-Lower Cretaceous carbonates located in the central part of the Catalan Coastal Ranges corresponds to the southwestern end of the Vallès-Penedès Fault. This fault was reactivated at different times during successive extensional and compressional events and several generations of fractures and cementations were formed.
Resumo:
The Alhama de Murcia fault is a 85 km long oblique-slip fault, and is related to historical and instrumental seismic activity. A paleoseismic analysis of the Lorca-Totana sector of the fault containing MSK I=VIII historical earthquakes was made in order to identify and quantify its seismic potential. We present 1) the results of the neotectonic, structural and geomorphological analyses and, 2) the results of trenching. In the study area, the Alhama de Murcia fault forms a depressed corridor between two strands, the northwestern fault with morphological and structural features of a reverse component of slip, bounding the La Tercia range to the South, and the southeastern fault strand with evidence of sinistral oblique strike-slip movement. The offset along this latter fault trapped the sediments in transit from the La Tercia range towards the Guadalentín depression. The most recent of these sediments are arranged in three generations of alluvial fans and terraces. The first two trenches were dug in the most recent sediments across the southeastern fault strand. The results indicate a coseismic reverse fault deformation that involved the sedimentary sequence up to the intermediate alluvial fan and the Holocene terrace deposits. The sedimentary evolution observed in the trenches suggests an event of temporary damming of the Colmenar creek drainage to the South due to uplifting of the hanging wall during coseismic activation of the fault. Trench, structural and sedimentological features provide evidence of at least three coseismic events, which occurred after 125,000 yr. The minimum vertical slip rate along the fault is 0.06 mm/yr and the average recurrence period should not exceed 40,000 yr in accordance with the results obtained by fan topographic profiling. Further absolute dating is ongoing to constrain these estimates.
Resumo:
We present an overview of the knowledge of the structure and the seismic behavior of the Alhama de Murcia Fault (AMF). We utilize a fault traces map created from a LIDAR DEM combined with the geodynamic setting, the analysis of the morphology, the distribution of seismicity, the geological information from E 1:50000 geological maps and the available paleoseismic data to describe the recent activity of the AMF. We discuss the importance of uncertainties regarding the structure and kinematics of the AMF applied to the interpretation and spatial correlation of the paleoseismic data. In particular, we discuss the nature of the faults dipping to the SE (antithetic to the main faults of the AMF) in several segments that have been studied in the previous paleoseismic works. A special chapter is dedicated to the analysis of the tectonic source of the Lorca 2011 earthquake that took place in between two large segments of the fault.
Resumo:
One of the techniques used to detect faults in dynamic systems is analytical redundancy. An important difficulty in applying this technique to real systems is dealing with the uncertainties associated with the system itself and with the measurements. In this paper, this uncertainty is taken into account by the use of intervals for the parameters of the model and for the measurements. The method that is proposed in this paper checks the consistency between the system's behavior, obtained from the measurements, and the model's behavior; if they are inconsistent, then there is a fault. The problem of detecting faults is stated as a quantified real constraint satisfaction problem, which can be solved using the modal interval analysis (MIA). MIA is used because it provides powerful tools to extend the calculations over real functions to intervals. To improve the results of the detection of the faults, the simultaneous use of several sliding time windows is proposed. The result of implementing this method is semiqualitative tracking (SQualTrack), a fault-detection tool that is robust in the sense that it does not generate false alarms, i.e., if there are false alarms, they indicate either that the interval model does not represent the system adequately or that the interval measurements do not represent the true values of the variables adequately. SQualTrack is currently being used to detect faults in real processes. Some of these applications using real data have been developed within the European project advanced decision support system for chemical/petrochemical manufacturing processes and are also described in this paper
Resumo:
Aquest projecte presenta, en primer lloc, un estudi dels protocols de generació de claus criptogràfiques i autoritats de certificació distribuïdes més destacables desenvolupades fins a l'actualitat. Posteriorment, implementem un protocol, que toleri les errades, de generació distribuïda de claus RSA sense servidor de confiança, orientat a xarxes ad-hoc. El protocol necessita la participació conjunta de n nodes per generar un mòdul RSA (N = pq), un exponent d'encriptació públic i les particions de l'exponent privat d, seguint un esquema llindar (t, n).
Resumo:
Investigación elaborada a partir de una estancia en la Columbia Law School of New York, Estados Unidos, entre los meses de septiembre y noviembre del 2006. El Derecho comunitario europeo y español regulan la reparación de los daños causados por el uso o la proximidad de un producto defectuoso mediante gracias al impulso ideológico ejercido por la jurisprudencia norteamericana. El principio de responsabilidad objetiva rector de la directiva europea es fruto de un transfondo operado en los Estados Unidos en los años sesenta, coincidiendo con la revolución tecnològica y el inicio de la producción y del consumo masivos. Tales fenómenos suscitaron la búsqueda de mecanismos jurídicos aptos para canalizar la reparación de los daños inherentes a las actividades industriales tecnológicamente avanzadas. Su principal efecto fue la preocupación por una más justa distribución social de los llamados “costes del progreso”, preocupación que, jurídicamente, desembocó en la solución de la responsabilidad aun sin culpa del fabricante por los daños derivados de su producción industrial. El mérito de tal solución corresponde a determinados teóricos norteamericanos de la responsabilidad empresarial, quienes, inspirándose en ideas formuladas a inicios del siglo XX por los especialistas en Derecho laboral, concluyeron que es la empresa productora quien está en mejor situación de soportar el coste del accidente industrial: al imponerse al fabricante una responsabildad desvinculada de su eventual culpa en la causación del accidente, repercutirá en el precio de sus productos el coste del seguro de responsabilidad civil que se verá abocado a contratar para hacer frente a su responsabilidad objetiva o por riesgo, de manera que el coste de los accidentes acabará siendo soportado por el público consumidor al pagar el sobreprecio de los productos que adquiere. Las repercusiones de tal construcción han sido tanto normativas como judiciales.
Resumo:
El uso intensivo y prolongado de computadores de altas prestaciones para ejecutar aplicaciones computacionalmente intensivas, sumado al elevado número de elementos que los componen, incrementan drásticamente la probabilidad de ocurrencia de fallos durante su funcionamiento. El objetivo del trabajo es resolver el problema de tolerancia a fallos para redes de interconexión de altas prestaciones, partiendo del diseño de políticas de encaminamiento tolerantes a fallos. Buscamos resolver una determinada cantidad de fallos de enlaces y nodos, considerando sus factores de impacto y probabilidad de aparición. Para ello aprovechamos la redundancia de caminos de comunicación existentes, partiendo desde enfoques de encaminamiento adaptativos capaces de cumplir con las cuatro fases de la tolerancia a fallos: detección del error, contención del daño, recuperación del error, y tratamiento del fallo y continuidad del servicio. La experimentación muestra una degradación de prestaciones menor al 5%. En el futuro, se tratará la pérdida de información en tránsito.
Resumo:
Fault tolerance has become a major issue for computer and software engineers because the occurrence of faults increases the cost of using a parallel computer. RADIC is the fault tolerance architecture for message passing systems which is transparent, decentralized, flexible and scalable. This master thesis presents the methodology used to implement the RADIC architecture over Open MPI, a well-know large-used message passing library. This implementation kept the RADIC architecture characteristics. In order to validate the implementation we have executed a synthetic ping program, besides, to evaluate the implementation performance we have used the NAS Parallel Benchmarks. The results prove that the RADIC architecture performance depends on the communication pattern of the parallel application which is running. Furthermore, our implementation proves that the RADIC architecture could be implemented over an existent message passing library.
Resumo:
A mesura que la complexitat de les tasques dels agents mòbils va creixent, és més important que aquestes no perdin el treball realitzat. Hem de saber en tot moment que la execució s’està desenvolupant favorablement. Aquest projecte tracta d’explicar el procés d’elaboració d’un component de tolerància a fallades des de la seva idea inicial fins a la seva implementació. Analitzarem la situació i dissenyarem una solució. Procurarem que el nostre component emmascari la fallada d’un agent, detectant-la i posteriorment recuperant l’execució des d’on s’ha interromput. Tot això procurant seguir la metodologia de disseny d’agents mòbils per a plataformes lleugeres.
Resumo:
As computer chips implementation technologies evolve to obtain more performance, those computer chips are using smaller components, with bigger density of transistors and working with lower power voltages. All these factors turn the computer chips less robust and increase the probability of a transient fault. Transient faults may occur once and never more happen the same way in a computer system lifetime. There are distinct consequences when a transient fault occurs: the operating system might abort the execution if the change produced by the fault is detected by bad behavior of the application, but the biggest risk is that the fault produces an undetected data corruption that modifies the application final result without warnings (for example a bit flip in some crucial data). With the objective of researching transient faults in computer system’s processor registers and memory we have developed an extension of HP’s and AMD joint full system simulation environment, named COTSon. This extension allows the injection of faults that change a single bit in processor registers and memory of the simulated computer. The developed fault injection system makes it possible to: evaluate the effects of single bit flip transient faults in an application, analyze an application robustness against single bit flip transient faults and validate fault detection mechanism and strategies.
Resumo:
La E/S Paralela es un área de investigación que tiene una creciente importancia en el cómputo de Altas Prestaciones. Si bien durante años ha sido el cuello de botella de los computadores paralelos en la actualidad, debido al gran aumento del poder de cómputo, el problema de la E/S se ha incrementado y la comunidad del Cómputo de Altas Prestaciones considera que se debe trabajar en mejorar el sistema de E/S de los computadores paralelos, para lograr cubrir las exigencias de las aplicaciones científicas que usan HPC. La Configuración de la Entrada/Salida (E/S) Paralela tiene una gran influencia en las prestaciones y disponibilidad, por ello es importante “Analizar configuraciones de E/S paralela para identificar los factores claves que influyen en las prestaciones y disponibilidad de la E/S de Aplicaciones Científicas que se ejecutan en un clúster”. Para realizar el análisis de las configuraciones de E/S se propone una metodología que permite identificar los factores de E/S y evaluar su influencia para diferentes configuraciones de E/S formada por tres fases: Caracterización, Configuración y Evaluación. La metodología permite analizar el computador paralelo a nivel de Aplicación Científica, librerías de E/S y de arquitectura de E/S, pero desde el punto de vista de la E/S. Los experimentos realizados para diferentes configuraciones de E/S y los resultados obtenidos indican la complejidad del análisis de los factores de E/S y los diferentes grados de influencia en las prestaciones del sistema de E/S. Finalmente se explican los trabajos futuros, el diseño de un modelo que de soporte al proceso de Configuración del sistema de E/S paralela para aplicaciones científicas. Por otro lado, para identificar y evaluar los factores de E/S asociados con la disponibilidad a nivel de datos, se pretende utilizar la Arquitectura Tolerante a Fallos RADIC.
Resumo:
Degut a l'expansió de la nostra societat cada dia hi ha més fonts de dades públiques (mèdiques, financeres,...) per a realitzar-hi estudis estadístics. Aquestes fonts de dades són perilloses per a la informació confidencial de les persones o institucions ja que són accessibles per a tothom, per tant necessiten ser protegides abans de ser publicades. En aquest projecte es presenten els diferents mètodes de protecció corresponents a dades categòriques així com un anàlisi de cadascun per a determinar-ne la pèrdua d'informació i el risc de revelació. Finalment també s'ha desenvolupat un mètode per optimitzar els resultats obtinguts pel mètode PRAM.
Resumo:
La tolerancia a fallos es una línea de investigación que ha adquirido una importancia relevante con el aumento de la capacidad de cómputo de los súper-computadores actuales. Esto es debido a que con el aumento del poder de procesamiento viene un aumento en la cantidad de componentes que trae consigo una mayor cantidad de fallos. Las estrategias de tolerancia a fallos actuales en su mayoría son centralizadas y estas no escalan cuando se utiliza una gran cantidad de procesos, dado que se requiere sincronización entre todos ellos para realizar las tareas de tolerancia a fallos. Además la necesidad de mantener las prestaciones en programas paralelos es crucial, tanto en presencia como en ausencia de fallos. Teniendo en cuenta lo citado, este trabajo se ha centrado en una arquitectura tolerante a fallos descentralizada (RADIC – Redundant Array of Distributed and Independant Controllers) que busca mantener las prestaciones iniciales y garantizar la menor sobrecarga posible para reconfigurar el sistema en caso de fallos. La implementación de esta arquitectura se ha llevado a cabo en la librería de paso de mensajes denominada Open MPI, la misma es actualmente una de las más utilizadas en el mundo científico para la ejecución de programas paralelos que utilizan una plataforma de paso de mensajes. Las pruebas iniciales demuestran que el sistema introduce mínima sobrecarga para llevar a cabo las tareas correspondientes a la tolerancia a fallos. MPI es un estándar por defecto fail-stop, y en determinadas implementaciones que añaden cierto nivel de tolerancia, las estrategias más utilizadas son coordinadas. En RADIC cuando ocurre un fallo el proceso se recupera en otro nodo volviendo a un estado anterior que ha sido almacenado previamente mediante la utilización de checkpoints no coordinados y la relectura de mensajes desde el log de eventos. Durante la recuperación, las comunicaciones con el proceso en cuestión deben ser retrasadas y redirigidas hacia la nueva ubicación del proceso. Restaurar procesos en un lugar donde ya existen procesos sobrecarga la ejecución disminuyendo las prestaciones, por lo cual en este trabajo se propone la utilización de nodos spare para la recuperar en ellos a los procesos que fallan, evitando de esta forma la sobrecarga en nodos que ya tienen trabajo. En este trabajo se muestra un diseño propuesto para gestionar de un modo automático y descentralizado la recuperación en nodos spare en un entorno Open MPI y se presenta un análisis del impacto en las prestaciones que tiene este diseño. Resultados iniciales muestran una degradación significativa cuando a lo largo de la ejecución ocurren varios fallos y no se utilizan spares y sin embargo utilizándolos se restablece la configuración inicial y se mantienen las prestaciones.