47 resultados para tablas de mortalidad
em Archivo Digital para la Docencia y la Investigación - Repositorio Institucional de la Universidad del País Vasco
Resumo:
[EN]This project is going to study the implications of the gender of an individual in the rate-setting process of life insurance. In order to do so there is a review of the continuous changes that have taken place in the national and European legislation following the enactment of the Directive 2004/113/EC, as well as its consequences from the prohibition to differentiate the premiums and benefits on the grounds of gender. In this area, the evolution of the Spanish insurance sector and the influence of the new legislation are examined. Furthermore, there is an analysis of the differences between men and women, which to some extent have a direct impact in the management and development of the life insurance companies. Finally, methods to calculate the premium and the benefits are proposed with the purpose of preventing the restrictions imposed by the Directive 2004/113/EC. In order to check the repercussions of the use of unisex tables a comparison is made between the premiums obtained for a whole life insurance by allocating the same weighing to the actuarial male and female mortality tables and those that would result if the distinction by gender were allowed.
Resumo:
El principal objetivo de este trabajo ha sido determinar el impacto del coste total de las pensiones del País Vasco a pagar hacia el futuro. Para ello hemos recabado información del colectivo de Euskadi, y además de haber analizado su evolución respecto a algunos elementos demográficos, también hemos obtenido la información estadística necesaria para la elaboración del tanto central de mortalidad (para cada año de edad y año de calendario). Con los datos obtenidos se ha procedido a realizar un análisis de sensibilidad comparando los resultados que se obtienen al aplicar la tabla de mortalidad propia, creada a partir del tanto central de mortalidad (mx), con la tabla PASEM-2010 y la PERM/F-2000, de uso frecuente en las transacciones de seguros. En relación a los datos más destacados en este trabajo, se aprecia que hay una gran similitud, entre los resultados obtenidos respecto a los costes de las pensiones de jubilación, aplicando la tabla que se ha elaborado a partir de las estadísticas de defunciones y población especificas del País Vasco, y la PERM/F-2000, 2000. Por otro lado, se observan grandes desviaciones en los costes de las pensiones reduciéndose en el caso de la tabla PASEM-2010 o aumentando en el caso de PERM/F-2000, 2010, respecto al resto tablas utilizadas.
Resumo:
La actividad aseguradora supone la transferencia de riesgos del asegurado al asegurador. El asegurador se compromete al pago de una prestación si el riesgo se realiza. Se produce un cambio en el ciclo productivo. El asegurador vende una cobertura sin conocer el momento y el coste exacto de dicha cobertura. Esta particularidad de la actividad aseguradora explica la necesidad para una entidad aseguradora de ser solvente en cada momento y ante cualquier imprevisto. Por ello, la solvencia de las entidades aseguradoras es un aspecto que se ha ido recogiendo en las distintas normativas que han regulado la actividad aseguradora y al que se ha ido dando cada vez más importancia. Actualmente la legislación vigente en materia de solvencia de las aseguradoras esta regulada por la directiva europea Solvencia I. Esta directiva establece dos conceptos para garantizar la solvencia: las provisiones técnicas y el margen de solvencia. Las provisiones técnicas son las calculadas para garantizar la solvencia estática de la compañía, es decir aquella que hace frente, en un instante temporal determinado, a los compromisos asumidos por la entidad. El margen de solvencia se destina a cubrir la solvencia dinámica, aquella que hace referencia a eventos futuros que puedan afectar la capacidad del asegurador. Sin embargo en una corriente de gestión global del riesgo en la que el sector bancario ya se había adelantado al sector asegurador con la normativa Basilea II, se decidió iniciar un proyecto europeo de reforma de Solvencia I y en noviembre del 2009 se adoptó la directiva 2009/138/CE del parlamento europeo y del consejo, sobre el seguro de vida, el acceso a la actividad de seguro y de reaseguro y su ejercicio mas conocida como Solvencia II. Esta directiva supone un profundo cambio en las reglas actuales de solvencia para las entidades aseguradoras. Este cambio persigue el objetivo de establecer un marco regulador común a nivel europeo que sea más adaptado al perfil de riesgo de cada entidad aseguradora. Esta nueva directiva define dos niveles distintos de capital: el SCR (requerimiento estándar de capital de solvencia) y el MCR (requerimiento mínimo de capital). Para el calculo del SCR se ha establecido que el asegurador tendrá la libertad de elegir entre dos modelos. Un modelo estándar propuesto por la Autoridad Europea de Seguros y Pensiones de Jubilación (EIOPA por sus siglas en inglés), que permitirá un calculo simple, y un modelo interno desarrollado por la propia entidad que deberá ser aprobado por las autoridades competentes. También se contempla la posibilidad de utilizar un modelo mixto que combine ambos, el estándar y el interno. Para el desarrollo del modelo estándar se han realizado una serie de estudios de impacto cuantitativos (QIS). El último estudio (QIS 5) ha sido el que ha planteado de forma más precisa el cálculo del SCR. Plantea unos shocks que se deberán de aplicar al balance de la entidad con el objetivo de estresarlo, y en base a los resultados obtenidos constituir el SCR. El objetivo de este trabajo es realizar una síntesis de las especificaciones técnicas del QIS5 para los seguros de vida y realizar una aplicación práctica para un seguro de vida mixto puro. En la aplicación práctica se determinarán los flujos de caja asociados a este producto para calcular su mejor estimación (Best estimate). Posteriormente se determinará el SCR aplicando los shocks para los riesgos de mortalidad, rescates y gastos. Por último, calcularemos el margen de riesgo asociado al SCR. Terminaremos el presente TFG con unas conclusiones, la bibliografía empleada así como un anexo con las tablas empleadas.
Resumo:
221 p.
Resumo:
[es]Con esta memoria se pretende crear una herramienta de trabajo que ayude a los médicos a clasificar a los pacientes que padecen neumonía en distintos grupos de riesgo dependiendo de su gravedad. Para ello, hemos estudiado la regresión logística, que relaciona la variable respuesta mortalidad con el resto de variables (datos demográficos, antecedentes médicos y datos clínicos y exploratorios del paciente). Una vez creado el score a partir del modelo de regresión, hemos querido validarlo y compararlo con otros dos que utilizan los neumólogos: el CURB-65 y el FINE.
Resumo:
El estudio de los impactos económicos de las políticas de control del cambio climático requiere del uso de modelos adecuados. Este artículo presenta un Modelo Dinámico de Equilibrio General Aplicado tipo Ramsey. El modelo implementa un mercado de permisos de emisión perfecto que garantiza una reducción de emisiones eficiente y efectiva, permitiéndonos calcular los costes económicos mínimos asociados al control de las emisiones de efecto invernadero. Además aprovecha al máximo la disponibilidad de datos existentes en España 1) utilizando una matriz de contabilidad social (o SAM) energética mediante la integración de la información económica de la Tablas Input-Output y la información energética de los Balances Energéticos y 2) considerando todas la emisiones sujetas a control además del CO2. Los MEGAs dinámicos son inéditos en cuanto a su elaboración y aplicación en España y permiten investigar ex-ante los efectos de políticas públicas en el medio y en largo plazo.
Resumo:
[ES]El artículo constituye un avance de un proyecto de investigación en curso sobre las iglesias alavesas anteriores a los siglos XII-XIII,invisibles hasta la fecha a una metodología tradicionalmente de base analógica y formal. Se efectúa una nueva propuesta de análisis experimentada ya en la catedral de Santa María de Vitoria-Gasteiz y que se articula de la manera siguiente: 1. Lettura veloce de los principales momentos constructivos de los templos seleccionados con el objeto de individualizar estratigráficamente la fase o fases anteriores al periodo «románico». 2. Individualización y registro de las variables técnicas y formales más representativas de esta primera fase constructiva en cada una de las iglesias objeto de estudio. 3. Identificación numérica de las variables seleccionadas. 4. Creación de una tabla analítica que recoja la presencia o ausencia de estas variables en cada uno de los edificios a estudiar. 5. Agrupamiento de los edificios que comparten variables entre sí. 6. Transformación de las asociaciones tecnotipológicas en tablas cronotipológicas, es decir, en indicadores cronológicos. Resultado de todo ello ha sido la individualización de seis grupos de iglesias que se articulan diacrónicamente entre los siglos IX y XII. A modo de conclusión se avanzan, finalmente, algunas consideraciones interpretativas sobre la naturaleza de estos templos de época prefeudal.
Resumo:
373 p. : il., gráf., fot., tablas
Resumo:
La tesis contiene 4 capítulos principales. El primero de ellos recapitula sobre el concepto de data mining y su tipología, desde la perspectiva del análisis de datos de encuestas. Se realiza una clasificación entre técnicas exploratorias y técnicas predictivas, poniendo el énfasis en los análisis de componentes, de correspondencias simples, múltiples y clasificación, por un lado, y la metodología PLS path modelling y modelos Logit por otro. En el siguiente capítulo se realiza una aplicación de los métodos anteriores sobre los datos obtenidos de una encuesta on-line sobre satisfacción respecto a una institución y la viabilidad de una tienda de productos corporativos con el logotipo de la misma, comparando los resultados de las diferentes técnicas empleadas. El siguiente capítulo trata sobre una técnica relacionada con las técnicas exploratorias expuestas anteriormente que tiene que ver con la situación que se produce cuando se quieren analizar varias tablas de datos simultáneamente y de forma equilibrada. En particular trata sobre el problema que se presenta cuando esas tablas contienen distintos y distinto número de individuos. Se presenta una modificación del método original que permite dicho análisis y cuya efectividad es probada mediante un pequeño ejercicio de simulación así como el análisis práctico de una encuesta real sobre desigualdad social en un conjunto de 10 países diferentes. Para acabar, el último capítulo considera el caso en el que se quieren analizar respuestas a diferentes tipos de preguntas en un análisis de tipo exploratorio. En particular, cuando las preguntas dan lugar a variables continuas, categóricas y frecuencias provenientes de corpus textuales generados a partir de las respuestas a una pregunta abierta. Se considera en concreto la situación producida cuando existen dos tipos de entrevistados diferenciados por el idioma en que contestan, generando corpus distintos. Se muestra una posible manera de tratar esta situación, utilizando para ello la misma encuesta del primer capítulo.
Resumo:
747 p. (Bibliogr.: 521-546]
Resumo:
156 p. : graf.
Resumo:
328 p. : graf.
Resumo:
170 p. : il., graf.
Resumo:
487 p. : il., col.
Resumo:
RESUMEN Introducción: La cirugía extracorpórea es el procedimiento quirúrgico torácico en la que se accede a las cavidades del corazón para realizar recambios valvulares, puentes cardiopulmonares y otras intervenciones. Se accede al mediastino mediante esternotomía. Una maquina asumirá la función del corazón, realizando la circulación extracorpórea mientras este es intervenido. El paciente será derivado a las unidades de cuidados intensivos, donde deberá ser controlado por el personal sanitario controlando los dispositivos y catéteres, disminuyendo las posibles complicaciones postoperatorias. Objetivo: Conocer las complicaciones postoperatorias de la cirugía extracorpórea, describir las complicaciones postoperatorias más habituales de la cirugía, analizar las variables con mayor influencia en esta cirugía y comparar los beneficios de la cirugía extracorpórea frente a la revascularización miocárdica sin cirugía extracorpórea, mediante el análisis de fuentes de datos. Material y métodos: Se ha realizado una búsqueda bibliográfica informatizada en las bases de datos Cuiden, Pubmed, Elservier, CSIC, Dialnet y Google Académico de fuentes de datos actuales sobre la cirugía extracorpórea, mediante unos criterios de inclusión y exclusión determinados. Está dividida en 3 partes: investigación, selección y extracción de datos. Resultados: Se han analizado 8 estudios. Se han dividido en diferentes grupos, la muestra de los estudios analizados va desde 11 pacientes hasta 18.252, midiendo variables de dolor, sangrado, reintervención y otras. Conclusiones: La complicación más frecuente en el postoperatorio es el dolor. Muchas de las complicaciones se dan habitualmente en las primeras 24 horas posteriores a la intervención. Tiene un índice de mortalidad bajo, pero es mayor que en la revascularización miocárdica sin cirugía extracorpórea.