666 resultados para ANÁLISIS FINANCIERO - SIMULACIÓN POR COMPUTADOR


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este artículo constituye un recorrido por las características económico-sociales y políticas del periodo 1976-2000, correspondiente a la reforma del sistema financiero en Argentina y al establecimiento del modelo económico rentístico-financiero. El comienzo del análisis se da en tiempos de la dictadura militar instaurada en 1976. Luego, el estudio se centra en el gobierno radical y se continúa con Ias dos presidencias justicialistas a cargo de Carlos Menem. Algunas de las características de esta época son: liberalización de la economía, creciente hegemonía del capital financiero, y fuerte crecimiento de la deuda externa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo se propone realizar un análisis de rentabilidad privada para la construcción y explotación de un lugar de eventos en Perdriel, Mendoza. En una primera parte se describen las características del estudio estableciendo el alcance de la investigación. Se desarrolla un análisis de mercado donde se busca interpretar la situación actual del sector a nivel local y establecer un marco de referencia que sirva para la identificación y la posterior valuación tanto de los costos como de los beneficios que pueden ser atribuidos al proyecto de inversión. A partir de la información que provee dicho análisis de mercado se procede al armado del flujo de fondos del proyecto, del cual mediante el uso de herramientas metodológicas se busca proveer de información útil para la toma de la decisión de ejecutar o no el proyecto de inversión.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el año 2000 el Banco Macro no era una entidad de referencia del sistema financiero y, en muchos casos, la gente no conocía la existencia de Banco Macro Bansud SA, como se llamaba en ese momento. La inquietud de los orígenes y el fenomenal crecimiento fueron los principales factores de análisis que se quisieron descubrir con la presente investigación. El objetivo principal es lograr que el lector tenga un conocimiento general de la evolución del sistema financiero en su conjunto y del Grupo Macro en particular. Obtener conclusiones de los motivos que llevaron a esta entidad a ser uno de los principales bancos de capitales privados nacionales del país y el que posee la mayor red de sucursales. Conocer si este crecimiento fue acompañado por el sector al cual pertenece o fue proporcionalmente mayor. Si la estrategia adoptada fue acompañada por otras entidades o fue una fuente de diferenciación de sus competidores. Para lograr que el lector se pueda introducir fácilmente en el trabajo se decidió ordenar el mismo desde lo más general y del sector a lo particular del Grupo Macro y algunos competidores estratégicos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los métodos gráficos son populares para chequear modelos, un gráfico cuantil- cuantil (qq-plot) permite observar cuan cerca está la distribución de un conjunto de datos a alguna distribución ideal o comparar la distribución de dos conjuntos de datos. La forma del gráfico debería ser idealmente una línea recta específica. Si interesa comparar con la distribución Gaussiana se llama gráfico de probabilidad Normal. El objetivo del presente trabajo es testear normalidad de una muestra en especial para el caso de tamaños muestrales pequeños para los cuales el comportamiento de estos gráficos suele ser errático y conducir a falsas interpretaciones, mostraremos además que no suele ser así con tamaños muestrales más grandes. Proponemos, también establecer una banda de probabilidad o banda envolvente basada en un método empírico, específicamente mediante el método de Monte Carlo, dicha banda nos establecerá un marco de referencia probabilístico para evitar falsas interpretaciones. Se presenta un código computacional, de fácil implementación, empleado por los alumnos para la aplicación de esta metodología de análisis de normalidad, el cual es utilizado para la enseñanza de la temática en cuestión

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los procesos sociales, económicos y productivos que tienen lugar en el territorio y en las ciudades de Argentina, en el actual periodo de la globalización, pueden comprenderse a partir de la teoría de los circuitos de la economía urbana (Santos, 1975, 1979). La coexistencia de divisiones territoriales del trabajo en la ciudad explicaría la presencia de un circuito superior y un circuito inferior que, de diferentes maneras, son resultado de la modernización tecnológica y cumplen un papel importante en el proceso económico y en el proceso de organización del espacio. Se analiza el papel del sistema financiero de crédito como un vínculo de unión entre ambos circuitos. Se examinan los diferentes instrumentos financieros que posibilitan la financierización de la sociedad y el territorio, junto a los diversos efectos del crédito y del consumo en la ciudad de Olavarría

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los procesos sociales, económicos y productivos que tienen lugar en el territorio y en las ciudades de Argentina, en el actual periodo de la globalización, pueden comprenderse a partir de la teoría de los circuitos de la economía urbana (Santos, 1975, 1979). La coexistencia de divisiones territoriales del trabajo en la ciudad explicaría la presencia de un circuito superior y un circuito inferior que, de diferentes maneras, son resultado de la modernización tecnológica y cumplen un papel importante en el proceso económico y en el proceso de organización del espacio. Se analiza el papel del sistema financiero de crédito como un vínculo de unión entre ambos circuitos. Se examinan los diferentes instrumentos financieros que posibilitan la financierización de la sociedad y el territorio, junto a los diversos efectos del crédito y del consumo en la ciudad de Olavarría

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los métodos gráficos son populares para chequear modelos, un gráfico cuantil- cuantil (qq-plot) permite observar cuan cerca está la distribución de un conjunto de datos a alguna distribución ideal o comparar la distribución de dos conjuntos de datos. La forma del gráfico debería ser idealmente una línea recta específica. Si interesa comparar con la distribución Gaussiana se llama gráfico de probabilidad Normal. El objetivo del presente trabajo es testear normalidad de una muestra en especial para el caso de tamaños muestrales pequeños para los cuales el comportamiento de estos gráficos suele ser errático y conducir a falsas interpretaciones, mostraremos además que no suele ser así con tamaños muestrales más grandes. Proponemos, también establecer una banda de probabilidad o banda envolvente basada en un método empírico, específicamente mediante el método de Monte Carlo, dicha banda nos establecerá un marco de referencia probabilístico para evitar falsas interpretaciones. Se presenta un código computacional, de fácil implementación, empleado por los alumnos para la aplicación de esta metodología de análisis de normalidad, el cual es utilizado para la enseñanza de la temática en cuestión

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los procesos sociales, económicos y productivos que tienen lugar en el territorio y en las ciudades de Argentina, en el actual periodo de la globalización, pueden comprenderse a partir de la teoría de los circuitos de la economía urbana (Santos, 1975, 1979). La coexistencia de divisiones territoriales del trabajo en la ciudad explicaría la presencia de un circuito superior y un circuito inferior que, de diferentes maneras, son resultado de la modernización tecnológica y cumplen un papel importante en el proceso económico y en el proceso de organización del espacio. Se analiza el papel del sistema financiero de crédito como un vínculo de unión entre ambos circuitos. Se examinan los diferentes instrumentos financieros que posibilitan la financierización de la sociedad y el territorio, junto a los diversos efectos del crédito y del consumo en la ciudad de Olavarría

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los métodos gráficos son populares para chequear modelos, un gráfico cuantil- cuantil (qq-plot) permite observar cuan cerca está la distribución de un conjunto de datos a alguna distribución ideal o comparar la distribución de dos conjuntos de datos. La forma del gráfico debería ser idealmente una línea recta específica. Si interesa comparar con la distribución Gaussiana se llama gráfico de probabilidad Normal. El objetivo del presente trabajo es testear normalidad de una muestra en especial para el caso de tamaños muestrales pequeños para los cuales el comportamiento de estos gráficos suele ser errático y conducir a falsas interpretaciones, mostraremos además que no suele ser así con tamaños muestrales más grandes. Proponemos, también establecer una banda de probabilidad o banda envolvente basada en un método empírico, específicamente mediante el método de Monte Carlo, dicha banda nos establecerá un marco de referencia probabilístico para evitar falsas interpretaciones. Se presenta un código computacional, de fácil implementación, empleado por los alumnos para la aplicación de esta metodología de análisis de normalidad, el cual es utilizado para la enseñanza de la temática en cuestión

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el año 2002 durante una inspección se localizó una importante corrosión en la cabeza de la vasija de Davis Besse NPP. Si no se hubiera producido esa detección temprana, la corrosión hubiera provocado una pequeña rotura en la cabeza de la vasija. La OECD/NEA consideró la importancia de simular esta secuencia en la instalación experimental ROSA, la cual fue reproducida posteriormente por grupos de investigación internacionales con varios códigos de planta. En este caso el código utilizado para la simulación de las secuencias experimentales es TRACE. Los resultados de este test experimental fueron muy analizados internacionalmente por la gran influencia que dos factores tenía sobre el resultado: las acciones del operador relativas a la despresurización y la detección del descubrimiento del núcleo por los termopares que se encuentran a su salida. El comienzo del inicio de la despresurización del secundario estaba basado en la determinación del descubrimiento del núcleo por la lectura de los temopares de salida del núcleo. En el experimento se registró un retraso importante en la determinación de ese descubrimiento, comenzando la despresurización excesivamente tarde y haciendo necesaria la desactivación de los calentadores que simulan el núcleo del reactor para evitar su daño. Dada las condiciones excesivamente conservadoras del test experimentale, como el fallo de los dos trenes de inyección de alta presión durante todo el transitorio, en las aplicaciones de los experimentos con modelo de Almaraz NPP, se ha optado por reproducir dicho accidente con condiciones más realistas, verificando el impacto en los resultados de la disponibilidad de los trenes de inyección de alta presión o los tiempos de las acciones manuales del operador, como factores más limitantes y estableciendo el diámetro de rotura en 1”

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La simulación de accidentes de rotura pequeña en el fondo de la vasija se aparta del convencional análisis de LOCA de rama fría, el más limitante en los análisis deterministas La rotura de una de las penetraciones de instrumentación de la vasija ha sido desestimada históricamente en los análisis de licencia y en los Análisis Probabilistas de Seguridad y por ello, hay una falta evidente de literatura para dicho análisis. En el año 2003 durante una inspección, se detectó una considerable corrosión en el fondo de la vasija de South Texas Project Unit I NPP. La evolución en el tiempo de dicha corrosión habría derivado en una pequeña rotura en el fondo de la vasija si su detección no se hubiera producido a tiempo. La OECD/NEA consideró la importancia de simular dicha secuencia en la instalación experimental ROSA, la cual fue reproducida posteriormente por grupos de investigación internacionales con varios códigos de planta. En este caso el código utilizado para la simulación de las secuencias experimentales es TRACE. Tanto en el experimento como en la simulación se observaron las dificultades de reinundar la vasija al tener la rotura en el fondo de la misma, haciendo clave la gestión del accidente por parte del operador. Dadas las condiciones excesivamente conservadoras del test experimental, como el fallo de los dos trenes de inyección de alta presión durante todo el transitorio, en las aplicaciones de los experimentos con modelo de Almaraz NPP, se ha optado por reproducir dicho accidente con condiciones más realistas, verificando el impacto en los resultados de la disponibilidad de los trenes de inyección de alta presión o los tiempos de las acciones manuales del operador, como factores más limitantes y estableciendo el diámetro de rotura en 1”

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La escalera mecánica lleva más de un siglo entre nosotros, sin apenas variar su diseño de forma notoria. La simulación mecánica de este sistema multicuerpo, asignatura pendiente en la actualidad, ahorrará tiempo y dinero frente a los experimentos tradicionales. En esta línea, CITEF está desarrollando una serie herramientas de mejora del diseño basadas en modelos estáticos, cinemáticos y dinámicos para la simulación del comportamiento de la escalera mecánica convencional así como para el desarrollo y análisis de nuevos diseños. Estas herramientas permitirán el estudio de variables como son la velocidad y la aceleración del peldaño, así como los valores de tensión de la cadena y de reacción de los rodillos. Con los resultados obtenidos se podrán inferir mejoras que supongan una disminución del coste del conjunto de la escalera y del coste de mantenimiento, así como un aumento del confort del usuario.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La seguridad en el ámbito nuclear juega un papel muy importante debido a las graves consecuencias que pueden tener los posibles accidentes, cuyos efectos se pueden extender por extensos espacios y prolongarse mucho en el tiempo. Es por eso que desde el inicio del desarrollo de la tecnología nuclear siempre se ha vigilado por mantener las instalaciones nucleares en un nivel de riesgo aceptable. En esta tesis se pretende poner de manifiesto algunas carencias del análisis de riesgo clásico que se resumen en una forma de distinguir y separar transitorios de daño y transitorios seguros pertenecientes a una misma secuencia, definiendo el llamado dominio de daño y evaluando la probabilidad de que algún transitorio perteneciente a la secuencia sea de daño, es decir, que esté contenido dentro de la región del dominio de daño, aportando la llamada probabilidad de superación para obtener la frecuencia de superación de estados finales no deseados. En la tesis se realiza en primer lugar un breve resumen de algunos reactores de alta temperatura refrigerados con gas, de los que se ha elegido al reactor de prueba de alta temperatura (HTTR) como ejemplo para mostrar la metodología. Aparte de ver el diseño de los diferentes reactores y su aportación a la investigación y desarrollo de nuevos modelos, se estudiaron algunos incidentes y se tomaron datos de algunos de ellos para ajustar las probabilidades de los sucesos a emplear en los árboles de fallos. Seguidamente se realiza un análisis simple de una secuencia, según la metodología clásica de análisis probabilista del riesgo, usando solo arboles de fallos y de sucesos, evaluando la frecuencia de daño de dicha secuencia. En el núcleo de la Tesis se describe la metodología y la aportación que se propone para obtener la cuantificación de tan solo los transitorios de daño y su aportación al estado final. Una aportación significativa es el modelado del HTTR, plasmado en el programa de simulación HTTR5+, necesario para poder aplicar la metodología, con el que se ha llevado a cabo la simulación de un transitorio de prueba, a fin de realizar la comparación con el obtenido por el fabricante (JAERI), buscando el dominio de daño y su cuantificación. Para este fin, se desarrolló un módulo que gestiona las diferentes simulaciones para delinear el dominio de daño, el cual se integró al simulador HTTR5+ para crear el programa DD-HTTR5+. Los resultados de la frecuencia de superación de la variable de daño se han comparado con los obtenidos por el método tradicional, para finalmente extraer las conclusiones de la Tesis. Uno de los resultados más significativos es que para la secuencia analizada un 40% de los transitorios que pertenecen a la secuencia son de daño y el otro 60% son transitorios seguros. Al emplear el método clásico se estaba realizando una sobreestimación de la probabilidad y frecuencia de daño. La Tesis también contiene en anexos una descripción muy detallada del HTTR, con respecto a su diseño, modos de operación, sistemas y componentes, etc. También se detallan las propiedades termofísicas del HTTR, así como las tasas de fallos y los árboles de fallos utilizados. Toda esta información fue de gran ayuda para realizar el modelo y programa de simulación HTTR5+.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los estudios realizados hasta el momento para la determinación de la calidad de medida del instrumental geodésico han estado dirigidos, fundamentalmente, a las medidas angulares y de distancias. Sin embargo, en los últimos años se ha impuesto la tendencia generalizada de utilizar equipos GNSS (Global Navigation Satellite System) en el campo de las aplicaciones geomáticas sin que se haya establecido una metodología que permita obtener la corrección de calibración y su incertidumbre para estos equipos. La finalidad de esta Tesis es establecer los requisitos que debe satisfacer una red para ser considerada Red Patrón con trazabilidad metrológica, así como la metodología para la verificación y calibración de instrumental GNSS en redes patrón. Para ello, se ha diseñado y elaborado un procedimiento técnico de calibración de equipos GNSS en el que se han definido las contribuciones a la incertidumbre de medida. El procedimiento, que se ha aplicado en diferentes redes para distintos equipos, ha permitido obtener la incertidumbre expandida de dichos equipos siguiendo las recomendaciones de la Guide to the Expression of Uncertainty in Measurement del Joint Committee for Guides in Metrology. Asimismo, se han determinado mediante técnicas de observación por satélite las coordenadas tridimensionales de las bases que conforman las redes consideradas en la investigación, y se han desarrollado simulaciones en función de diversos valores de las desviaciones típicas experimentales de los puntos fijos que se han utilizado en el ajuste mínimo cuadrático de los vectores o líneas base. Los resultados obtenidos han puesto de manifiesto la importancia que tiene el conocimiento de las desviaciones típicas experimentales en el cálculo de incertidumbres de las coordenadas tridimensionales de las bases. Basándose en estudios y observaciones de gran calidad técnica, llevados a cabo en estas redes con anterioridad, se ha realizado un exhaustivo análisis que ha permitido determinar las condiciones que debe satisfacer una red patrón. Además, se han diseñado procedimientos técnicos de calibración que permiten calcular la incertidumbre expandida de medida de los instrumentos geodésicos que proporcionan ángulos y distancias obtenidas por métodos electromagnéticos, ya que dichos instrumentos son los que van a permitir la diseminación de la trazabilidad metrológica a las redes patrón para la verificación y calibración de los equipos GNSS. De este modo, ha sido posible la determinación de las correcciones de calibración local de equipos GNSS de alta exactitud en las redes patrón. En esta Tesis se ha obtenido la incertidumbre de la corrección de calibración mediante dos metodologías diferentes; en la primera se ha aplicado la propagación de incertidumbres, mientras que en la segunda se ha aplicado el método de Monte Carlo de simulación de variables aleatorias. El análisis de los resultados obtenidos confirma la validez de ambas metodologías para la determinación de la incertidumbre de calibración de instrumental GNSS. ABSTRACT The studies carried out so far for the determination of the quality of measurement of geodetic instruments have been aimed, primarily, to measure angles and distances. However, in recent years it has been accepted to use GNSS (Global Navigation Satellite System) equipment in the field of Geomatic applications, for data capture, without establishing a methodology that allows obtaining the calibration correction and its uncertainty. The purpose of this Thesis is to establish the requirements that a network must meet to be considered a StandardNetwork with metrological traceability, as well as the methodology for the verification and calibration of GNSS instrumental in those standard networks. To do this, a technical calibration procedure has been designed, developed and defined for GNSS equipment determining the contributions to the uncertainty of measurement. The procedure, which has been applied in different networks for different equipment, has alloweddetermining the expanded uncertainty of such equipment following the recommendations of the Guide to the Expression of Uncertainty in Measurement of the Joint Committee for Guides in Metrology. In addition, the three-dimensional coordinates of the bases which constitute the networks considered in the investigationhave been determined by satellite-based techniques. There have been several developed simulations based on different values of experimental standard deviations of the fixed points that have been used in the least squares vectors or base lines calculations. The results have shown the importance that the knowledge of experimental standard deviations has in the calculation of uncertainties of the three-dimensional coordinates of the bases. Based on high technical quality studies and observations carried out in these networks previously, it has been possible to make an exhaustive analysis that has allowed determining the requirements that a standard network must meet. In addition, technical calibration procedures have been developed to allow the uncertainty estimation of measurement carried outby geodetic instruments that provide angles and distances obtained by electromagnetic methods. These instruments provide the metrological traceability to standard networks used for verification and calibration of GNSS equipment. As a result, it has been possible the estimation of local calibration corrections for high accuracy GNSS equipment in standardnetworks. In this Thesis, the uncertainty of calibration correction has been calculated using two different methodologies: the first one by applying the law of propagation of uncertainty, while the second has applied the propagation of distributions using the Monte Carlo method. The analysis of the obtained results confirms the validity of both methodologies for estimating the calibration uncertainty of GNSS equipment.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El accidente de rotura de tubos de un generador de vapor (Steam Generator Tube Rupture, SGTR) en los reactores de agua a presión es uno de los transitorios más exigentes desde el punto de vista de operación. Los transitorios de SGTR son especiales, ya que podría dar lugar a emisiones radiológicas al exterior sin necesidad de daño en el núcleo previo o sin que falle la contención, ya que los SG pueden constituir una vía directa desde el reactor al medio ambiente en este transitorio. En los análisis de seguridad, el SGTR se analiza desde un punto determinista y probabilista, con distintos enfoques con respecto a las acciones del operador y las consecuencias analizadas. Cuando comenzaron los Análisis Deterministas de Seguridad (DSA), la forma de analizar el SGTR fue sin dar crédito a la acción del operador durante los primeros 30 min del transitorio, lo que suponía que el grupo de operación era capaz de detener la fuga por el tubo roto dentro de ese tiempo. Sin embargo, los diferentes casos reales de accidentes de SGTR sucedidos en los EE.UU. y alrededor del mundo demostraron que los operadores pueden emplear más de 30 minutos para detener la fuga en la vida real. Algunas metodologías fueron desarrolladas en los EEUU y en Europa para abordar esa cuestión. En el Análisis Probabilista de Seguridad (PSA), las acciones del operador se tienen en cuenta para diseñar los cabeceros en el árbol de sucesos. Los tiempos disponibles se utilizan para establecer los criterios de éxito para dichos cabeceros. Sin embargo, en una secuencia dinámica como el SGTR, las acciones de un operador son muy dependientes del tiempo disponible por las acciones humanas anteriores. Además, algunas de las secuencias de SGTR puede conducir a la liberación de actividad radiológica al exterior sin daño previo en el núcleo y que no se tienen en cuenta en el APS, ya que desde el punto de vista de la integridad de núcleo son de éxito. Para ello, para analizar todos estos factores, la forma adecuada de analizar este tipo de secuencias pueden ser a través de una metodología que contemple Árboles de Sucesos Dinámicos (Dynamic Event Trees, DET). En esta Tesis Doctoral se compara el impacto en la evolución temporal y la dosis al exterior de la hipótesis más relevantes encontradas en los Análisis Deterministas a nivel mundial. La comparación se realiza con un modelo PWR Westinghouse de tres lazos (CN Almaraz) con el código termohidráulico TRACE, con hipótesis de estimación óptima, pero con hipótesis deterministas como criterio de fallo único o pérdida de energía eléctrica exterior. Las dosis al exterior se calculan con RADTRAD, ya que es uno de los códigos utilizados normalmente para los cálculos de dosis del SGTR. El comportamiento del reactor y las dosis al exterior son muy diversas, según las diferentes hipótesis en cada metodología. Por otra parte, los resultados están bastante lejos de los límites de regulación, pese a los conservadurismos introducidos. En el siguiente paso de la Tesis Doctoral, se ha realizado un análisis de seguridad integrado del SGTR según la metodología ISA, desarrollada por el Consejo de Seguridad Nuclear español (CSN). Para ello, se ha realizado un análisis termo-hidráulico con un modelo de PWR Westinghouse de 3 lazos con el código MAAP. La metodología ISA permite la obtención del árbol de eventos dinámico del SGTR, teniendo en cuenta las incertidumbres en los tiempos de actuación del operador. Las simulaciones se realizaron con SCAIS (sistema de simulación de códigos para la evaluación de la seguridad integrada), que incluye un acoplamiento dinámico con MAAP. Las dosis al exterior se calcularon también con RADTRAD. En los resultados, se han tenido en cuenta, por primera vez en la literatura, las consecuencias de las secuencias en términos no sólo de daños en el núcleo sino de dosis al exterior. Esta tesis doctoral demuestra la necesidad de analizar todas las consecuencias que contribuyen al riesgo en un accidente como el SGTR. Para ello se ha hecho uso de una metodología integrada como ISA-CSN. Con este enfoque, la visión del DSA del SGTR (consecuencias radiológicas) se une con la visión del PSA del SGTR (consecuencias de daño al núcleo) para evaluar el riesgo total del accidente. Abstract Steam Generator Tube Rupture accidents in Pressurized Water Reactors are known to be one of the most demanding transients for the operating crew. SGTR are special transient as they could lead to radiological releases without core damage or containment failure, as they can constitute a direct path to the environment. The SGTR is analyzed from a Deterministic and Probabilistic point of view in the Safety Analysis, although the assumptions of the different approaches regarding the operator actions are quite different. In the beginning of Deterministic Safety Analysis, the way of analyzing the SGTR was not crediting the operator action for the first 30 min of the transient, assuming that the operating crew was able to stop the primary to secondary leakage within that time. However, the different real SGTR accident cases happened in the USA and over the world demonstrated that operators can took more than 30 min to stop the leakage in actual sequences. Some methodologies were raised in the USA and in Europe to cover that issue. In the Probabilistic Safety Analysis, the operator actions are taken into account to set the headers in the event tree. The available times are used to establish the success criteria for the headers. However, in such a dynamic sequence as SGTR, the operator actions are very dependent on the time available left by the other human actions. Moreover, some of the SGTR sequences can lead to offsite doses without previous core damage and they are not taken into account in PSA as from the point of view of core integrity are successful. Therefore, to analyze all this factors, the appropriate way of analyzing that kind of sequences could be through a Dynamic Event Tree methodology. This Thesis compares the impact on transient evolution and the offsite dose of the most relevant hypothesis of the different SGTR analysis included in the Deterministic Safety Analysis. The comparison is done with a PWR Westinghouse three loop model in TRACE code (Almaraz NPP), with best estimate assumptions but including deterministic hypothesis such as single failure criteria or loss of offsite power. The offsite doses are calculated with RADTRAD code, as it is one of the codes normally used for SGTR offsite dose calculations. The behaviour of the reactor and the offsite doses are quite diverse depending on the different assumptions made in each methodology. On the other hand, although the high conservatism, such as the single failure criteria, the results are quite far from the regulatory limits. In the next stage of the Thesis, the Integrated Safety Assessment (ISA) methodology, developed by the Spanish Nuclear Safety Council (CSN), has been applied to a thermohydraulical analysis of a Westinghouse 3-loop PWR plant with the MAAP code. The ISA methodology allows obtaining the SGTR Dynamic Event Tree taking into account the uncertainties on the operator actuation times. Simulations are performed with SCAIS (Simulation Code system for Integrated Safety Assessment), which includes a dynamic coupling with MAAP thermal hydraulic code. The offsite doses are calculated also with RADTRAD. The results shows the consequences of the sequences in terms not only of core damage but of offsite doses. This Thesis shows the need of analyzing all the consequences in an accident such as SGTR. For that, an it has been used an integral methodology like ISA-CSN. With this approach, the DSA vision of the SGTR (radiological consequences) is joined with the PSA vision of the SGTR (core damage consequences) to measure the total risk of the accident.