372 resultados para Análisis de balances
Resumo:
Comunicación presentada en JEL 2013 - X Jornadas de Economía Laboral (Madrid, 11 y 12 de Julio de 2013)
Resumo:
Castellano. El proyecto trata de realizar una simulación computacionalmente del tráfico de entrada al campus Leioa-Erandio, analizando las causas de los atascos a primera hora del día y buscando una solución eficiente.
Resumo:
En los trabajos expuestos en esta memoria de tesis, hemos analizado elefecto que tienen sobre la capacidad de aprendizaje de diferentes algoritmosde clasificación los cambios en la distribución de clases, teniendo encuenta para ello, diferentes métodos de remuestreo de datos.En concreto se ha analizado este efecto en el conocido algoritmo deconstrucción de árboles de clasificación propuesto por Quinlan, el algoritmoC4.5, y en el algoritmo de construcción de árboles consolidados, elalgoritmo CTC, propuesto por el grupo de investigación ALDAPA de laUniversidad del País Vasco que, basado en el mismo C4.5, obtiene un árbol declasificación pero basado en un conjunto de muestras.Así mismo, planteamos cómo encontrar la distribución de clases más adecuadapara un algoritmo de clasificación y método de remuestreo concretos.
Resumo:
Actualmente nadie cuestiona que el conocimiento es el principal factor que puede proporcionar una diferenciación competitiva a las empresas. Tratándose de un recurso cuyo potencial es tan importante, está claro que quienes sepan gestionarlo debidamente estarán en una posición de ventaja frente a los que no estén capacitados para ello. El análisis del uso de las prácticas de gestión del conocimiento según el sector de actividad y la capacidad estructural de la pyme dará lugar a una serie de conclusiones que pueden ser clave para que estas organizaciones puedan mejorar. Además, se analizan otras variables clave vinculadas al uso de las prácticas de gestión del conocimiento, como son, la importancia de las razones por las que se hace uso de las prácticas, la importancia de los resultados debido al uso de las mismas, el liderazgo, el presupuesto, las ayudas, las herramientas tecnológicas y las posibles barreras. Este trabajo de investigación se centra en el análisis de la gestión de conocimiento en la pequeña ¿ mediana empresa del país vasco, con el objeto de buscar sus fortalezas y debilidades en su gestión.
Resumo:
Se realiza un estudio en profundidad de los desvios cuadrantales relacionados con 8 datos de los rumbos (los 4 cardinales y los 4 cuadrantales) obteniendo los cinco coeficientes generados a partir de las 5 ecuaciones. Con los resultados obtenidos a través de la creación de un programa informatico en Excell y otro en Matlab, se representan a modo de curva y en polares los desvios.
Resumo:
[ES] La entrada en vigor del proyecto de Solvencia II transformará por completo el sistema de determinación de las necesidades de capital del sector asegurador europeo. Recientemente se ha presentado el último estudio de impacto cuantitativo (QIS5), donde se establece la forma de cálculo del modelo estándar para la determinación de los requerimientos de capital. Este trabajo trata de analizar la adecuación de la calibración del riesgo de crédito de la contraparte mediante los modelos que se proponen en los últimos informes de impacto cuantitativo (cuarto y quinto). Para ello comparamos las necesidades de capital que se obtienen por ambas alternativas, frente a las que resultarían de aplicar un modelo de simulación basado en el enfoque estructural. Los resultados obtenidos muestran que el uso de probabilidades basadas en la metodología de Merton frente a aquellas basadas en ratings, dan lugar a requerimientos de capital sustancialmente mayores. Además, el modelo propuesto en QIS4 basado en la distribución de Vasicek no es adecuado cuando el número de contrapartes es reducido, situación habitual en el sector asegurador europeo. Por otra parte, la nueva propuesta (QIS5 o modelo de Ter Berg) es más versátil y adecuada que su antecesora pero requiere analizar con más detenimiento las hipótesis de calibración para de este modo aproximar mejor las estimaciones al riesgo realmente asumido.
Resumo:
El presente trabajo se centra en un análisis comparativo en varios niveles de las traducciones producidas a partir de la obra teatral Who’s Afraid of Virginia Woolf? (Albee 1962): las de Marcelo De Ridder, José Méndez y Alberto Mira, realizadas con distintos fines y en momentos histórico culturales diferenciados. Asimismo hemos integrado en la comparación la adaptación cinematográfica y los correspondientes textos audiovisuales en inglés y en español, con el fin de ofrecer una visión más inclusiva del modo en que se ha generado esta cadena textual. Para manejar el mencionado corpus, nos hemos valido de herramientas informáticas. Por un lado, el programa TRACEAligner ha resultado de gran utilidad para alinear los textos teatrales. Por otro lado, SubRip ha posibilitado la extracción del subtitulado en inglés y en español del DVD, que después hemos organizado en una tabla bitextual. A través de una metodología fundamentada en estudios de investigación relevantes, hemos examinado el corpus desde una perspectiva extratextual, macroestructural, microestructural e intersistémica. Esto nos ha permitido interrelacionar las traducciones en aspectos tan importantes como los factores contextuales que afectan a su producción, las características de las publicaciones (o del libreto inédito), la transferencia de las unidades estructurales y argumentales, la correspondencia con rasgos de distintos tipos de traducciones, los fenómenos de traducción con mayor incidencia o las adaptaciones derivadas de los procesos de censura. Gracias a la comparación de estos temas, se pueden apreciar las características distintivas de cada texto. Otro asunto que se trata a lo largo del análisis es la identificación del texto fuente de cada traducción, especialmente de la de Méndez. Hemos tratado de demostrar que Méndez parte del texto norteamericano, no de la traducción de Ridder, como se ha sugerido (Espejo 1998: 111 112). Por último, recogemos una serie de conclusiones que pretenden verter luz sobre las cuestiones planteadas en la introducción.
Resumo:
En este trabajo se realiza un estudio descriptivo-comparativo de la traducción de los subtítulos correspondientes al documental de divulgación científica titulado Hubble: 15 Years of Discovery (2005). Antes de realizar el análisis comparativo del corpus se sitúa la traducción comercial de este documento en el campo de estudio que abarca la traducción audiovisual, y en particular en el relativo a la subtitulación. El corpus textual seleccionado pertenece al género textual de la divulgación científica cuyas características se analizan. Tras abordar la cuestión de la selección del texto objeto de estudio, se detalla el proceso de recopilación del corpus, prestando especial atención a la elección del programa que se ha utilizado para la extracción de subtítulos a partir de la copia comercial del texto seleccionado (Hubble, 2005) en formato DVD. Se da cuenta de la compilación del corpus en forma de tabla que contiene el total de unidades bitextuales (subtítulos en inglés y español, identificados por los respectivos códigos de tiempo). El análisis del corpus bi-textual correspondiente a los subtítulos del documental (20 000 palabras, 715 SubtO y 724 SubtM), se efectúa mediante la clasificación de todos aquellos procedimientos de traducción observados. La taxonomía empleada para la clasificación de dichos procedimientos permite establecer cuatro grandes categorías: modulación, supresión, inequivalencia y adición. Dicha división cuatripartita da pie para establecer aquellas subcategorías que reflejan y ayudan a describir los procedimientos de traducción identificados en el proceso de análisis comparativo del corpus bitextual. Por razones de espacio, en la redacción final del presente trabajo se ofrece únicamente una muestra del conjunto total de ejemplos analizados para la realización de este estudio. Se pretende que dicha muestra represente por orden de incidencia, todos los fenómenos de traducción identificados y descritos, utilizando la taxonomía seleccionada, en el proceso de comparación del doblaje original inglés de Hubble y la traducción al español (subtítulos). Por último, se han recogido los datos relativos a la frecuencia de aparición de cada uno de los procedimientos de traducción para poder realizar una valoración global de los resultados obtenidos y relacionarlos con el género textual al que pertenece el documental objeto de estudio.
Resumo:
El presente trabajo analiza la eficiencia de la conducción, comprendida en términos de consumo de combustible y las diferencias entre conductores, medidas en un autobús de la compañía Bizkaibus en Vizcaya. El trabajo se realiza a través del análisis multivariante de datos. Los principales métodos de exploración de datos que se han utilizado han sido la regresión (lineal y por mínimos cuadrados parciales) y los árboles de regresión. Los datos provienen de un único autobús, contando para ello con un total de 8 variables. Los datos corresponden al periodo comprendido entre el 10 de diciembre de 2014 y el 30 de marzo de 2015. El análisis se realizó en el lenguaje R, haciendo uso de algunas de sus librerías para diferentes propósitos.
Resumo:
Se desarrolla el procedimiento de diseño en 3D de una embarcación de eslora menor de 24 metros y la posterior determinación de su escantillonado siguiendo las indicaciones de la norma internacional ISO 12215 para la construcción de cascos y escantillones de pequeñas embarcaciones. Se analizan también las ventajas y desventajas de la construcción del casco de un velero con fibra de vidrio y fibra natural de lino. Para llevar a cabo el diseño 3D a partir de los planos 2D de la embarcación se ha utilizado el software Rhinoceros. Los cálculos hidrostáticos, hidrodinámicos y el comportamiento en la mar se han estudiado con el programa Maxsurf, ampliamente utilizado en el sector naval.
Resumo:
E-mail de contacto: juliaramosdelvalle@gmail.com
Resumo:
En este Trabajo de Fin de Grado desarrollado en la empresa On4U, se ha implementado un módulo para Magento, cuya función principal es la generación dinámica de parrillas de productos en base al análisis del tiempo meteorológico, teniendo en cuenta la localización del cliente. Además, el módulo guarda automáticamente las compras efectuadas, junto con la información externa, para un posible análisis posterior que relacione los hábitos de compra con el tiempo meteorológico. Aunque se haya centrado en este caso de uso, se ha desarrollado con un enfoque modular, de tal manera que fuese fácil de integrar en el módulo el uso de otra fuente abierta de información. Para poder realizar el proyecto, se ha tenido que profundizar en varios conceptos relacionados con la plataforma de eCommerce Magento, entre ellos, el patrón Modelo-Vista-Controlador y el ciclo de vida de una petición.
Resumo:
300 p.
Resumo:
A lo largo de este Proyecto de Fin de Carrera se ha implementado una versión paralela mediante OpenMP de una aproximación al algoritmo de seg- mentación de imágenes level set. El fin de esta segmentación es la extracción de ciertas características de las imágenes necesarias para el cliente con el que se trabaja a lo largo de este proyecto. Además, se ha realizado un estudio previo de los tipos de técnicas de segmentación existentes y se han realizado pruebas experimentales con la paralelización realizada, con el fin de analizar la mejora realizada frente al algoritmo en serie.
Resumo:
222 p. + anexos