998 resultados para ANÁLISIS DE FOURIER
Resumo:
[ES] La entrada en vigor del proyecto de Solvencia II transformará por completo el sistema de determinación de las necesidades de capital del sector asegurador europeo. Recientemente se ha presentado el último estudio de impacto cuantitativo (QIS5), donde se establece la forma de cálculo del modelo estándar para la determinación de los requerimientos de capital. Este trabajo trata de analizar la adecuación de la calibración del riesgo de crédito de la contraparte mediante los modelos que se proponen en los últimos informes de impacto cuantitativo (cuarto y quinto). Para ello comparamos las necesidades de capital que se obtienen por ambas alternativas, frente a las que resultarían de aplicar un modelo de simulación basado en el enfoque estructural. Los resultados obtenidos muestran que el uso de probabilidades basadas en la metodología de Merton frente a aquellas basadas en ratings, dan lugar a requerimientos de capital sustancialmente mayores. Además, el modelo propuesto en QIS4 basado en la distribución de Vasicek no es adecuado cuando el número de contrapartes es reducido, situación habitual en el sector asegurador europeo. Por otra parte, la nueva propuesta (QIS5 o modelo de Ter Berg) es más versátil y adecuada que su antecesora pero requiere analizar con más detenimiento las hipótesis de calibración para de este modo aproximar mejor las estimaciones al riesgo realmente asumido.
Resumo:
El presente trabajo se centra en un análisis comparativo en varios niveles de las traducciones producidas a partir de la obra teatral Who’s Afraid of Virginia Woolf? (Albee 1962): las de Marcelo De Ridder, José Méndez y Alberto Mira, realizadas con distintos fines y en momentos histórico culturales diferenciados. Asimismo hemos integrado en la comparación la adaptación cinematográfica y los correspondientes textos audiovisuales en inglés y en español, con el fin de ofrecer una visión más inclusiva del modo en que se ha generado esta cadena textual. Para manejar el mencionado corpus, nos hemos valido de herramientas informáticas. Por un lado, el programa TRACEAligner ha resultado de gran utilidad para alinear los textos teatrales. Por otro lado, SubRip ha posibilitado la extracción del subtitulado en inglés y en español del DVD, que después hemos organizado en una tabla bitextual. A través de una metodología fundamentada en estudios de investigación relevantes, hemos examinado el corpus desde una perspectiva extratextual, macroestructural, microestructural e intersistémica. Esto nos ha permitido interrelacionar las traducciones en aspectos tan importantes como los factores contextuales que afectan a su producción, las características de las publicaciones (o del libreto inédito), la transferencia de las unidades estructurales y argumentales, la correspondencia con rasgos de distintos tipos de traducciones, los fenómenos de traducción con mayor incidencia o las adaptaciones derivadas de los procesos de censura. Gracias a la comparación de estos temas, se pueden apreciar las características distintivas de cada texto. Otro asunto que se trata a lo largo del análisis es la identificación del texto fuente de cada traducción, especialmente de la de Méndez. Hemos tratado de demostrar que Méndez parte del texto norteamericano, no de la traducción de Ridder, como se ha sugerido (Espejo 1998: 111 112). Por último, recogemos una serie de conclusiones que pretenden verter luz sobre las cuestiones planteadas en la introducción.
Resumo:
En este trabajo se realiza un estudio descriptivo-comparativo de la traducción de los subtítulos correspondientes al documental de divulgación científica titulado Hubble: 15 Years of Discovery (2005). Antes de realizar el análisis comparativo del corpus se sitúa la traducción comercial de este documento en el campo de estudio que abarca la traducción audiovisual, y en particular en el relativo a la subtitulación. El corpus textual seleccionado pertenece al género textual de la divulgación científica cuyas características se analizan. Tras abordar la cuestión de la selección del texto objeto de estudio, se detalla el proceso de recopilación del corpus, prestando especial atención a la elección del programa que se ha utilizado para la extracción de subtítulos a partir de la copia comercial del texto seleccionado (Hubble, 2005) en formato DVD. Se da cuenta de la compilación del corpus en forma de tabla que contiene el total de unidades bitextuales (subtítulos en inglés y español, identificados por los respectivos códigos de tiempo). El análisis del corpus bi-textual correspondiente a los subtítulos del documental (20 000 palabras, 715 SubtO y 724 SubtM), se efectúa mediante la clasificación de todos aquellos procedimientos de traducción observados. La taxonomía empleada para la clasificación de dichos procedimientos permite establecer cuatro grandes categorías: modulación, supresión, inequivalencia y adición. Dicha división cuatripartita da pie para establecer aquellas subcategorías que reflejan y ayudan a describir los procedimientos de traducción identificados en el proceso de análisis comparativo del corpus bitextual. Por razones de espacio, en la redacción final del presente trabajo se ofrece únicamente una muestra del conjunto total de ejemplos analizados para la realización de este estudio. Se pretende que dicha muestra represente por orden de incidencia, todos los fenómenos de traducción identificados y descritos, utilizando la taxonomía seleccionada, en el proceso de comparación del doblaje original inglés de Hubble y la traducción al español (subtítulos). Por último, se han recogido los datos relativos a la frecuencia de aparición de cada uno de los procedimientos de traducción para poder realizar una valoración global de los resultados obtenidos y relacionarlos con el género textual al que pertenece el documental objeto de estudio.
Resumo:
El presente trabajo analiza la eficiencia de la conducción, comprendida en términos de consumo de combustible y las diferencias entre conductores, medidas en un autobús de la compañía Bizkaibus en Vizcaya. El trabajo se realiza a través del análisis multivariante de datos. Los principales métodos de exploración de datos que se han utilizado han sido la regresión (lineal y por mínimos cuadrados parciales) y los árboles de regresión. Los datos provienen de un único autobús, contando para ello con un total de 8 variables. Los datos corresponden al periodo comprendido entre el 10 de diciembre de 2014 y el 30 de marzo de 2015. El análisis se realizó en el lenguaje R, haciendo uso de algunas de sus librerías para diferentes propósitos.
Resumo:
Se desarrolla el procedimiento de diseño en 3D de una embarcación de eslora menor de 24 metros y la posterior determinación de su escantillonado siguiendo las indicaciones de la norma internacional ISO 12215 para la construcción de cascos y escantillones de pequeñas embarcaciones. Se analizan también las ventajas y desventajas de la construcción del casco de un velero con fibra de vidrio y fibra natural de lino. Para llevar a cabo el diseño 3D a partir de los planos 2D de la embarcación se ha utilizado el software Rhinoceros. Los cálculos hidrostáticos, hidrodinámicos y el comportamiento en la mar se han estudiado con el programa Maxsurf, ampliamente utilizado en el sector naval.
Resumo:
E-mail de contacto: juliaramosdelvalle@gmail.com
Resumo:
En este Trabajo de Fin de Grado desarrollado en la empresa On4U, se ha implementado un módulo para Magento, cuya función principal es la generación dinámica de parrillas de productos en base al análisis del tiempo meteorológico, teniendo en cuenta la localización del cliente. Además, el módulo guarda automáticamente las compras efectuadas, junto con la información externa, para un posible análisis posterior que relacione los hábitos de compra con el tiempo meteorológico. Aunque se haya centrado en este caso de uso, se ha desarrollado con un enfoque modular, de tal manera que fuese fácil de integrar en el módulo el uso de otra fuente abierta de información. Para poder realizar el proyecto, se ha tenido que profundizar en varios conceptos relacionados con la plataforma de eCommerce Magento, entre ellos, el patrón Modelo-Vista-Controlador y el ciclo de vida de una petición.
Resumo:
300 p.
Resumo:
A lo largo de este Proyecto de Fin de Carrera se ha implementado una versión paralela mediante OpenMP de una aproximación al algoritmo de seg- mentación de imágenes level set. El fin de esta segmentación es la extracción de ciertas características de las imágenes necesarias para el cliente con el que se trabaja a lo largo de este proyecto. Además, se ha realizado un estudio previo de los tipos de técnicas de segmentación existentes y se han realizado pruebas experimentales con la paralelización realizada, con el fin de analizar la mejora realizada frente al algoritmo en serie.
Resumo:
Sobre la base de los objetivos propuestos, el muestreo tiene que estar cuidadosamente planeado (diseño de protocolo de muestreo) para que se pueda realizar una comprobación estadística de los resultados. Las herramientas de análisis como son los cálculos numéricos y los análisis estadísticos están ligados al estudio en sí, ya que son los que nos permiten demostrar que los resultados de una investigación son el producto de procesos ecológicos y no del azar.
Resumo:
222 p. + anexos
Resumo:
El objetivo principal de este trabajo fin de grado es resaltar las novedades que ha incorporado el Reglamento 1215/2012 en el objetivo de un avance en la consecución de un verdadero espacio judicial europeo con el objeto de potenciar la libre circulación de las resoluciones judiciales en materia civil y mercantil en el ámbito de la Unión Europea. Los dos grandes objetivos de la reforma, la eliminación del exequátur y la extensión de las reglas unificadas de competencia con el propósito de suprimir la remisión a las reglas nacionales cuando el demandado no está domiciliado en un estado miembro, son objeto de estudio y crítica en este trabajo.
Resumo:
674 p.
Resumo:
El presente TFG es un estudio de investigación enfocado a analizar los factores socio-demográficos y psicosociales que pueden tener un impacto o influencia significativos en los veredictos emitidos por el Tribunal del Jurado. Partiendo de un marco teórico actualizado con respecto al tema, se ahonda en la parte empírica en ocho factores susceptibles de estudio,analizando su interacción en sentencias de la Audiencia Provincial de Gipuzkoa y poniéndolos en relación con estudios previos a este respecto.
Resumo:
[ES]La innovación tecnológica es una estrategia por la que han apostado muchas de las empresas vascas en los últimos años, ya que aporta muchos beneficios tanto para las empresas, como para el sistema económico de la región. Además, las administraciones públicas han apoyado estas estrategias desde hace más de 30 años impulsando distintas medidas en cada fase. Con el fin de conocer cuál ha sido la evolución de la innovación tecnológica y su tendencia para los siguientes años, el presente trabajo analiza los factores relacionados con la innovación tecnológica en el País Vasco.