13 resultados para Reales órdenes

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Decreasing the accidents on highway and urban environments is the main motivation for the research and developing of driving assistance systems, also called ADAS (Advanced Driver Assistance Systems). In recent years, there are many applications of these systems in commercial vehicles: ABS systems, Cruise Control (CC), parking assistance and warning systems (including GPS), among others. However, the implementation of driving assistance systems on the steering wheel is more limited, because of their complexity and sensitivity. This paper is focused in the development, test and implementation of a driver assistance system for controlling the steering wheel in curve zones. This system is divided in two levels: an inner control loop which permits to execute the position and speed target, softening the action over the steering wheel, and a second control outer loop (controlling for fuzzy logic) that sends the reference to the inner loop according the environment and vehicle conditions. The tests have been done in different curves and speeds. The system has been proved in a commercial vehicle with satisfactory results.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo principal es desarrollar la metodología de opciones reales para evaluar la posible puesta en marcha de un proyecto minero. Para esto, el proyecto se divide en dos partes: En la primera parte, con carácter teórico se analizan las inversiones desde el punto de vista tradicional, comparando la problemática de estas valoraciones en ambientes de incertidumbre y flexibilidad operativa. Se analizan las opciones financieras y se comparan con las opciones reales, en cuanto a similitudes y problemáticas. Se desarrollan también los procesos estocásticos que afectan a las variables del proyecto de inversión. Se explican además, las metodologías para el cálculo de las opciones reales, incluido el cálculo de la volatilidad de las mismas. En una segunda parte, se estudia el yacimiento aurífero de Corcoesto, para el cual se realiza la simulación del plan de negocio según las características necesarias para la explotación, donde los ingresos se modelizan mediante un movimiento geométrico browniano para simular el comportamiento del precio de la onza de oro. Se elige un desarrollo de árboles binomiales para estimar el valor futuro del proyecto, a la vez que se establece un intervalo de precios de la opción para adquirir el proyecto minero. Este intervalo estará determinado por las incertidumbres del proyecto calculadas según las metodologías de Copeland y Antikarov, y Heraht y Park. Abstract This project is aimed mainly to develop real options theory to assess a mining project start-up. The project is divided in two documents: The first document with theorical content, investments are analyzed from the clasical point of view, comparing the advantages and disadvantages of this appraisal in high uncertainity and operational flexibility conditions. Financial options are analyzed and compared to real options, in both similarities and problematics. Stochastical process that affect the project variables are also developed. Methods for estimating real options value, including the methods for volatility estimation are commented. In the second document, the Corcoesto gold deposit has been studied. A bussines plan simulation has been maked according to the characteristics of the extraction, where incomes have been simulated with a geometrical Brownian movement to estimate the gold onze behaviour. The binomial tree method has been generated to study the future project value, as well as a range of option prices, for adquiring the mine project. This interval is determined by the project uncertainity calculated with the theories from Copeland and Antikarov and Herath and Park

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dentro del conjunto de actividades y exposiciones que, agrupadas bajo el lema de "El Legado Andalusí", han tenido lugar durante la pasada primavera y verano en varias ciudades andaluzas, se encuentra la dedicada a la "Música y Poesía del sur de Al-Andalus" y ubicada en los Reales Alcázares de Sevilla.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta Tesis aborda los problemas de eficiencia de las redes eléctrica desde el punto de vista del consumo. En particular, dicha eficiencia es mejorada mediante el suavizado de la curva de consumo agregado. Este objetivo de suavizado de consumo implica dos grandes mejoras en el uso de las redes eléctricas: i) a corto plazo, un mejor uso de la infraestructura existente y ii) a largo plazo, la reducción de la infraestructura necesaria para suplir las mismas necesidades energéticas. Además, esta Tesis se enfrenta a un nuevo paradigma energético, donde la presencia de generación distribuida está muy extendida en las redes eléctricas, en particular, la generación fotovoltaica (FV). Este tipo de fuente energética afecta al funcionamiento de la red, incrementando su variabilidad. Esto implica que altas tasas de penetración de electricidad de origen fotovoltaico es perjudicial para la estabilidad de la red eléctrica. Esta Tesis trata de suavizar la curva de consumo agregado considerando esta fuente energética. Por lo tanto, no sólo se mejora la eficiencia de la red eléctrica, sino que también puede ser aumentada la penetración de electricidad de origen fotovoltaico en la red. Esta propuesta conlleva grandes beneficios en los campos económicos, social y ambiental. Las acciones que influyen en el modo en que los consumidores hacen uso de la electricidad con el objetivo producir un ahorro energético o un aumento de eficiencia son llamadas Gestión de la Demanda Eléctrica (GDE). Esta Tesis propone dos algoritmos de GDE diferentes para cumplir con el objetivo de suavizado de la curva de consumo agregado. La diferencia entre ambos algoritmos de GDE reside en el marco en el cual estos tienen lugar: el marco local y el marco de red. Dependiendo de este marco de GDE, el objetivo energético y la forma en la que se alcanza este objetivo son diferentes. En el marco local, el algoritmo de GDE sólo usa información local. Este no tiene en cuenta a otros consumidores o a la curva de consumo agregado de la red eléctrica. Aunque esta afirmación pueda diferir de la definición general de GDE, esta vuelve a tomar sentido en instalaciones locales equipadas con Recursos Energéticos Distribuidos (REDs). En este caso, la GDE está enfocada en la maximización del uso de la energía local, reduciéndose la dependencia con la red. El algoritmo de GDE propuesto mejora significativamente el auto-consumo del generador FV local. Experimentos simulados y reales muestran que el auto-consumo es una importante estrategia de gestión energética, reduciendo el transporte de electricidad y alentando al usuario a controlar su comportamiento energético. Sin embargo, a pesar de todas las ventajas del aumento de auto-consumo, éstas no contribuyen al suavizado del consumo agregado. Se han estudiado los efectos de las instalaciones locales en la red eléctrica cuando el algoritmo de GDE está enfocado en el aumento del auto-consumo. Este enfoque puede tener efectos no deseados, incrementando la variabilidad en el consumo agregado en vez de reducirlo. Este efecto se produce porque el algoritmo de GDE sólo considera variables locales en el marco local. Los resultados sugieren que se requiere una coordinación entre las instalaciones. A través de esta coordinación, el consumo debe ser modificado teniendo en cuenta otros elementos de la red y buscando el suavizado del consumo agregado. En el marco de la red, el algoritmo de GDE tiene en cuenta tanto información local como de la red eléctrica. En esta Tesis se ha desarrollado un algoritmo autoorganizado para controlar el consumo de la red eléctrica de manera distribuida. El objetivo de este algoritmo es el suavizado del consumo agregado, como en las implementaciones clásicas de GDE. El enfoque distribuido significa que la GDE se realiza desde el lado de los consumidores sin seguir órdenes directas emitidas por una entidad central. Por lo tanto, esta Tesis propone una estructura de gestión paralela en lugar de una jerárquica como en las redes eléctricas clásicas. Esto implica que se requiere un mecanismo de coordinación entre instalaciones. Esta Tesis pretende minimizar la cantidad de información necesaria para esta coordinación. Para lograr este objetivo, se han utilizado dos técnicas de coordinación colectiva: osciladores acoplados e inteligencia de enjambre. La combinación de estas técnicas para llevar a cabo la coordinación de un sistema con las características de la red eléctrica es en sí mismo un enfoque novedoso. Por lo tanto, este objetivo de coordinación no es sólo una contribución en el campo de la gestión energética, sino también en el campo de los sistemas colectivos. Los resultados muestran que el algoritmo de GDE propuesto reduce la diferencia entre máximos y mínimos de la red eléctrica en proporción a la cantidad de energía controlada por el algoritmo. Por lo tanto, conforme mayor es la cantidad de energía controlada por el algoritmo, mayor es la mejora de eficiencia en la red eléctrica. Además de las ventajas resultantes del suavizado del consumo agregado, otras ventajas surgen de la solución distribuida seguida en esta Tesis. Estas ventajas se resumen en las siguientes características del algoritmo de GDE propuesto: • Robustez: en un sistema centralizado, un fallo o rotura del nodo central provoca un mal funcionamiento de todo el sistema. La gestión de una red desde un punto de vista distribuido implica que no existe un nodo de control central. Un fallo en cualquier instalación no afecta el funcionamiento global de la red. • Privacidad de datos: el uso de una topología distribuida causa de que no hay un nodo central con información sensible de todos los consumidores. Esta Tesis va más allá y el algoritmo propuesto de GDE no utiliza información específica acerca de los comportamientos de los consumidores, siendo la coordinación entre las instalaciones completamente anónimos. • Escalabilidad: el algoritmo propuesto de GDE opera con cualquier número de instalaciones. Esto implica que se permite la incorporación de nuevas instalaciones sin afectar a su funcionamiento. • Bajo coste: el algoritmo de GDE propuesto se adapta a las redes actuales sin requisitos topológicos. Además, todas las instalaciones calculan su propia gestión con un bajo requerimiento computacional. Por lo tanto, no se requiere un nodo central con un alto poder de cómputo. • Rápido despliegue: las características de escalabilidad y bajo coste de los algoritmos de GDE propuestos permiten una implementación rápida. No se requiere una planificación compleja para el despliegue de este sistema. ABSTRACT This Thesis addresses the efficiency problems of the electrical grids from the consumption point of view. In particular, such efficiency is improved by means of the aggregated consumption smoothing. This objective of consumption smoothing entails two major improvements in the use of electrical grids: i) in the short term, a better use of the existing infrastructure and ii) in long term, the reduction of the required infrastructure to supply the same energy needs. In addition, this Thesis faces a new energy paradigm, where the presence of distributed generation is widespread over the electrical grids, in particular, the Photovoltaic (PV) generation. This kind of energy source affects to the operation of the grid by increasing its variability. This implies that a high penetration rate of photovoltaic electricity is pernicious for the electrical grid stability. This Thesis seeks to smooth the aggregated consumption considering this energy source. Therefore, not only the efficiency of the electrical grid is improved, but also the penetration of photovoltaic electricity into the grid can be increased. This proposal brings great benefits in the economic, social and environmental fields. The actions that influence the way that consumers use electricity in order to achieve energy savings or higher efficiency in energy use are called Demand-Side Management (DSM). This Thesis proposes two different DSM algorithms to meet the aggregated consumption smoothing objective. The difference between both DSM algorithms lie in the framework in which they take place: the local framework and the grid framework. Depending on the DSM framework, the energy goal and the procedure to reach this goal are different. In the local framework, the DSM algorithm only uses local information. It does not take into account other consumers or the aggregated consumption of the electrical grid. Although this statement may differ from the general definition of DSM, it makes sense in local facilities equipped with Distributed Energy Resources (DERs). In this case, the DSM is focused on the maximization of the local energy use, reducing the grid dependence. The proposed DSM algorithm significantly improves the self-consumption of the local PV generator. Simulated and real experiments show that self-consumption serves as an important energy management strategy, reducing the electricity transport and encouraging the user to control his energy behavior. However, despite all the advantages of the self-consumption increase, they do not contribute to the smooth of the aggregated consumption. The effects of the local facilities on the electrical grid are studied when the DSM algorithm is focused on self-consumption maximization. This approach may have undesirable effects, increasing the variability in the aggregated consumption instead of reducing it. This effect occurs because the algorithm only considers local variables in the local framework. The results suggest that coordination between these facilities is required. Through this coordination, the consumption should be modified by taking into account other elements of the grid and seeking for an aggregated consumption smoothing. In the grid framework, the DSM algorithm takes into account both local and grid information. This Thesis develops a self-organized algorithm to manage the consumption of an electrical grid in a distributed way. The goal of this algorithm is the aggregated consumption smoothing, as the classical DSM implementations. The distributed approach means that the DSM is performed from the consumers side without following direct commands issued by a central entity. Therefore, this Thesis proposes a parallel management structure rather than a hierarchical one as in the classical electrical grids. This implies that a coordination mechanism between facilities is required. This Thesis seeks for minimizing the amount of information necessary for this coordination. To achieve this objective, two collective coordination techniques have been used: coupled oscillators and swarm intelligence. The combination of these techniques to perform the coordination of a system with the characteristics of the electric grid is itself a novel approach. Therefore, this coordination objective is not only a contribution in the energy management field, but in the collective systems too. Results show that the proposed DSM algorithm reduces the difference between the maximums and minimums of the electrical grid proportionally to the amount of energy controlled by the system. Thus, the greater the amount of energy controlled by the algorithm, the greater the improvement of the efficiency of the electrical grid. In addition to the advantages resulting from the smoothing of the aggregated consumption, other advantages arise from the distributed approach followed in this Thesis. These advantages are summarized in the following features of the proposed DSM algorithm: • Robustness: in a centralized system, a failure or breakage of the central node causes a malfunction of the whole system. The management of a grid from a distributed point of view implies that there is not a central control node. A failure in any facility does not affect the overall operation of the grid. • Data privacy: the use of a distributed topology causes that there is not a central node with sensitive information of all consumers. This Thesis goes a step further and the proposed DSM algorithm does not use specific information about the consumer behaviors, being the coordination between facilities completely anonymous. • Scalability: the proposed DSM algorithm operates with any number of facilities. This implies that it allows the incorporation of new facilities without affecting its operation. • Low cost: the proposed DSM algorithm adapts to the current grids without any topological requirements. In addition, every facility calculates its own management with low computational requirements. Thus, a central computational node with a high computational power is not required. • Quick deployment: the scalability and low cost features of the proposed DSM algorithms allow a quick deployment. A complex schedule of the deployment of this system is not required.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este proyecto fín de carrera describe el desarrollo de un sistema de estimación de mapas de profundidad densos a partir de secuencias reales de vídeo 3D. Está motivado por la necesidad de utilizar la información de profundidad de un vídeo estéreo para calcular las oclusiones en el módulo de inserción de objetos sintéticos interactivos desarrollado en el proyecto ImmersiveTV. En el receptor 3DTV, el sistema debe procesar en tiempo real secuencias estéreo de escenas reales en alta resolución con formato Side-by-Side. Se analizan las características del contenido para conocer los problemas a enfrentar. Obtener un mapa de profundidad denso mediante correspondencia estéreo (stereo matching) permite calcular las oclusiones del objeto sintético con la escena. No es necesario que el valor de disparidad asignado a cada píxel sea preciso, basta con distinguir los distintos planos de profundidad ya que se trabaja con distancias relativas. La correspondencia estéreo exige que las dos vistas de entrada estén alineadas. Primero se comprueba si se deben rectificar y se realiza un repaso teórico de calibración y rectificación, resumiendo algunos métodos a considerar en la resolución del problema. Para estimar la profundidad, se revisan técnicas de correspondencia estéreo densa habituales, seleccionando un conjunto de implementaciones con el fin de valorar cuáles son adecuadas para resolver el problema, incluyendo técnicas locales, globales y semiglobales, algunas sobre CPU y otras para GPU; modificando algunas para soportar valores negativos de disparidad. No disponer de ground truth de los mapas de disparidad del contenido real supone un reto que obliga a buscar métodos indirectos de comparación de resultados. Para una evaluación objetiva, se han revisado trabajos relacionados con la comparación de técnicas de correspondencia y entornos de evaluación existentes. Se considera el mapa de disparidad como error de predicción entre vistas desplazadas. A partir de la vista derecha y la disparidad de cada píxel, puede reconstruirse la vista izquierda y, comparando la imagen reconstruida con la original, se calculan estadísticas de error y las tasas de píxeles con disparidad inválida y errónea. Además, hay que tener en cuenta la eficiencia de los algoritmos midiendo la tasa de cuadros por segundo que pueden procesar. Observando los resultados, atendiendo a los criterios de maximización de PSNR y minimización de la tasa de píxeles incorrectos, se puede elegir el algoritmo con mejor comportamiento. Como resultado, se ha implementado una herramienta que integra el sistema de estimación de mapas de disparidad y la utilidad de evaluación de resultados. Trabaja sobre una imagen, una secuencia o un vídeo estereoscópico. Para realizar la correspondencia, permite escoger entre un conjunto de algoritmos que han sido adaptados o modificados para soportar valores negativos de disparidad. Para la evaluación, se ha implementado la reconstrucción de la vista de referencia y la comparación con la original mediante el cálculo de la RMS y PSNR, como medidas de error, además de las tasas de píxeles inválidos e incorrectos y de la eficiencia en cuadros por segundo. Finalmente, se puede guardar las imágenes (o vídeos) generados como resultado, junto con un archivo de texto en formato csv con las estadísticas para su posterior comparación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A menudo los científicos secuencian el ADN de un gran número de personas con el objetivo de determinar qué genes se asocian con determinadas enfermedades. Esto permite meóon del genoma humano. El precio de un perfil genómico completo se ha posicionado por debajo de los 200 dólares y este servicio lo ofrecen muchas compañías, la mayor parte localizadas en EEUU. Como consecuencia, en unos pocos a~nos la mayoría de las personas procedentes de los países desarrollados tendrán los medios para tener su ADN secuenciado. Alrededor del 0.5% del ADN de cada persona (que corresponde a varios millones de nucleótidos) es diferente del genoma de referencia debido a variaciones genéticas. Así que el genoma contiene información altamente sensible y personal y representa la identidad biológica óon sobre el entorno o estilo de vida de uno (a menudo facilmente obtenible de las redes sociales), sería posible inferir el fenotipo del individuo. Multiples GWAS (Genome Wide Association Studies) realizados en los últimos a~nos muestran que la susceptibilidad de un paciente a tener una enfermedad en particular, como el Alzheimer, cáncer o esquizofrenia, puede ser predicha parcialmente a partir de conjuntos de sus SNP (Single Nucleotide Polimorphism). Estos resultados pueden ser usados para medicina genómica personalizada (facilitando los tratamientos preventivos y diagnósticos), tests de paternidad genéticos y tests de compatibilidad genética para averiguar a qué enfermedades pueden ser susceptibles los descendientes. Estos son algunos de los beneficios que podemos obtener usando la información genética, pero si esta información no es protegida puede ser usada para investigaciones criminales y por compañías aseguradoras. Este hecho podría llevar a discriminaci ón genética. Por lo que podemos concluir que la privacidad genómica es fundamental por el hecho de que contiene información sobre nuestra herencia étnica, nuestra predisposición a múltiples condiciones físicas y mentales, al igual que otras características fenotópicas, ancestros, hermanos y progenitores, pues los genomas de cualquier par de individuos relacionados son idénticos al 99.9%, contrastando con el 99.5% de dos personas aleatorias. La legislación actual no proporciona suficiente información técnica sobre como almacenar y procesar de forma segura los genomas digitalizados, por lo tanto, es necesaria una legislación mas restrictiva ---ABSTRACT---Scientists typically sequence DNA from large numbers of people in order to determine genes associated with particular diseases. This allows to improve the modern healthcare and to provide a better understanding of the human genome. The price of a complete genome profile has plummeted below $200 and this service is ofered by a number of companies, most of them located in the USA. Therefore, in a few years, most individuals in developed countries will have the means of having their genomes sequenced. Around 0.5% of each person's DNA (which corresponds to several millions of nucleotides) is diferent from the reference genome, owing to genetic variations. Thus, the genome contains highly personal and sensitive information, and it represents our ultimate biological identity. By combining genomic data with information about one's environment or lifestyle (often easily obtainable from social networks), could make it possible to infer the individual's phenotype. Multiple Genome Wide Association Studies (GWAS) performed in recent years have shown that a patient's susceptibility to particular diseases, such as Alzheimer's, cancer, or schizophrenia, can be partially predicted from sets of his SNPs. This results can be used for personalized genomic medicine (facilitating preventive treatment and diagnosis), genetic paternity tests, ancestry and genealogical testing, and genetic compatibility tests in order to have knowledge about which deseases would the descendant be susceptible to. These are some of the betefts we can obtain using genoma information, but if this information is not protected it can be used for criminal investigations and insurance purposes. Such issues could lead to genetic discrimination. So we can conclude that genomic privacy is fundamental due to the fact that genome contains information about our ethnic heritage, predisposition to numerous physical and mental health conditions, as well as other phenotypic traits, and ancestors, siblings, and progeny, since genomes of any two closely related individuals are 99.9% identical, in contrast with 99.5%, for two random people. The current legislation does not ofer suficient technical information about safe and secure ways of storing and processing digitized genomes, therefore, there is need for more restrictive legislation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las empresas en situación económica negativa, recurren en España a los Expedientes de Regulación de Empleo que es la figura legal que permite ajustar sus plantillas y cuya utilización se acrecienta en épocas de crisis. El objetivo de esta investigación se focaliza en la integración de la Teoría de Opciones Reales en los proyectos organizativos de recursos humanos, en particular en el estudio y aplicación de la opción de contracción y de la opción de aplazamiento a los proyectos de desarrollo de los Expedientes de Regulación de Empleo. Las opciones reales son una herramienta de gestión, novedosa y contrastada, que posibilita realizar la valoración de los Expedientes de Regulación de Empleo tomando en consideración las incertidumbres futuras, lo que permite cuantificar mejor el resultado de la decisión y supone un avance sobre la valoración realizada de forma estática. Dos aspectos clave ha sido necesario resolver. En primer lugar determinar la fuente de incertidumbre que ponga en valor las opciones reales para este tipo de proyectos y como consecuencia desarrollar los procedimientos para obtener el valor de la opción. La puesta en valor de la opción de contracción permite, a partir de la consideración de la demanda como factor de incertidumbre, desarrollar un modelo que proporciona el valor óptimo del número de contratos de trabajo a extinguir, de modo que sitúa a la organización en la mejor posición para la toma de decisiones. La resolución del modelo se logra con la ayuda de la herramienta “The Newsvendor Model”, que facilita la obtención el valor óptimo. En la aplicación de la opción de aplazamiento se ha concluido asimismo, que la volatilidad de la demanda es la fuente de incertidumbre que hace viable la opción y a partir de dicha incertidumbre se ha desarrollado un procedimiento basado en el árbol binomial que permite obtener su valor. Una vez desarrollados los dos modelos para las opciones de contracción y aplazamiento, se ha elaborado un modelo conjunto con ambas opciones, integrando los resultados obtenidos en cada caso. Para validar los modelos obtenidos se presenta su aplicación al caso real de una empresa en situación económica negativa que requiere la necesidad de llevar a cabo un Expediente de Regulación de Empleo, lo que ha permitido comprobar la utilidad de dichos desarrollos, al obtener resultados que facilitan la toma de decisiones y que presentan soluciones que pueden ser más equilibradas para los trabajadores de la empresa, aspecto clave a tener en cuenta, dado el coste personal, familiar y social de este tipo de proyectos. La integración de las opciones reales en la gestión de recursos humanos tiene un amplio campo de aplicación, dadas las diferentes inversiones que se pueden llevar a cabo sobre el capital humano. Aunque esta investigación se ha focalizado en la opcionalidad de las inversiones para el ajuste de plantilla, existen otro tipo de inversiones en recursos humanos, como son las dedicadas a formación, motivación, adecuación o incorporación de personal, que también estarán sujetas a opcionalidad si existen incertidumbres a futuro. Con el objetivo de avanzar en el estudio y aplicación de las opciones reales a estas inversiones, se presenta un marco conceptual que identifica las bases de partida en lo referente a los retornos de las inversiones y las incertidumbres futuras. Con los resultados obtenidos en esta investigación se entiende que se ha conseguido el objetivo de aplicar la Teoría de Opciones Reales a los Expedientes de Regulación de Empleo y con ello establecer la posibilidad de mejorar las implicaciones sociales de estos proyectos dentro de la empresa y en la sociedad. ABSTRACT During crisis times, like the one Spain has been going through on the last years, the Collective Dismissal Procedure is an important issue to be considered within companies that are having a negative economic situation. This research focuses on the integration of the Real Options Theory for organizational projects in the management of human resources, and particularly the study and inclusion of the option to contract and the deferral option in Collective Dismissal Procedures. The Real Options Theory, an innovative management tool that has been proven as correct, help to improve the assessment of the Collective Dismissal Procedures using the dynamic demand instead of the static demand, giving a better quantification of the decision that is going to be taken. Two main issues which are hoped to be resolve are examined: the search for a source of uncertainty to make the real options viable for this type of projects, and consequently the development of a procedure to obtain the value of the option. The option to contract allows, from the consideration of the demand as a factor of uncertainty, to develop a model obtaining the optimal value in the reduction of the workforce, therefore allowing the organization to place itself in the best position for the decision making. The resolution of this model is achieved with the help of "The Newsvendor Model" tool, which facilitates obtaining the optimal value. The analysis performed in the deferral option also concluded that the volatility of demand is the source of the uncertainty that makes the option viable and the procedure developed by the binomial tree is the tool that enables the value of the option to be found. Once developed two models for contraction and deferment options, a joint model has been developed including both options by integrating the results obtained in each case. To validate the models, the real case of a company in negative economic situation requiring the need to carry out a procedure for collective redundancies is applied. This has demonstrated the usefulness of this kind of development that can deliver results to improve the decision making and provide more balanced solutions for company employees, key consideration given the impact on personal, family life and social environment of these Collective Dismissal Procedures. The integration of real options in the management of human resources has broad scope, given the different investments that can be performed on the human capital. Although this research has focused on the optionality of investments for downsizing, there are other investments in human resources for training, motivation, arrangement or incorporation of staff that are also subject to optionality if there are future uncertainties. With the aim of advancing the study and application of real options to these investments, a conceptual framework is presented that identifies the basis of research in terms of the investment returns and future uncertainties. With the results obtained on this research it is clearly defined the objectives for which this work was started for, the application of the Real Options Theory to the Collective Dismissal Procedure. And thereby achieve the final goal of improving the social impact of these projects within a company and society.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tomografía axial computerizada (TAC) es la modalidad de imagen médica preferente para el estudio de enfermedades pulmonares y el análisis de su vasculatura. La segmentación general de vasos en pulmón ha sido abordada en profundidad a lo largo de los últimos años por la comunidad científica que trabaja en el campo de procesamiento de imagen; sin embargo, la diferenciación entre irrigaciones arterial y venosa es aún un problema abierto. De hecho, la separación automática de arterias y venas está considerado como uno de los grandes retos futuros del procesamiento de imágenes biomédicas. La segmentación arteria-vena (AV) permitiría el estudio de ambas irrigaciones por separado, lo cual tendría importantes consecuencias en diferentes escenarios médicos y múltiples enfermedades pulmonares o estados patológicos. Características como la densidad, geometría, topología y tamaño de los vasos sanguíneos podrían ser analizados en enfermedades que conllevan remodelación de la vasculatura pulmonar, haciendo incluso posible el descubrimiento de nuevos biomarcadores específicos que aún hoy en dípermanecen ocultos. Esta diferenciación entre arterias y venas también podría ayudar a la mejora y el desarrollo de métodos de procesamiento de las distintas estructuras pulmonares. Sin embargo, el estudio del efecto de las enfermedades en los árboles arterial y venoso ha sido inviable hasta ahora a pesar de su indudable utilidad. La extrema complejidad de los árboles vasculares del pulmón hace inabordable una separación manual de ambas estructuras en un tiempo realista, fomentando aún más la necesidad de diseñar herramientas automáticas o semiautomáticas para tal objetivo. Pero la ausencia de casos correctamente segmentados y etiquetados conlleva múltiples limitaciones en el desarrollo de sistemas de separación AV, en los cuales son necesarias imágenes de referencia tanto para entrenar como para validar los algoritmos. Por ello, el diseño de imágenes sintéticas de TAC pulmonar podría superar estas dificultades ofreciendo la posibilidad de acceso a una base de datos de casos pseudoreales bajo un entorno restringido y controlado donde cada parte de la imagen (incluyendo arterias y venas) está unívocamente diferenciada. En esta Tesis Doctoral abordamos ambos problemas, los cuales están fuertemente interrelacionados. Primero se describe el diseño de una estrategia para generar, automáticamente, fantomas computacionales de TAC de pulmón en humanos. Partiendo de conocimientos a priori, tanto biológicos como de características de imagen de CT, acerca de la topología y relación entre las distintas estructuras pulmonares, el sistema desarrollado es capaz de generar vías aéreas, arterias y venas pulmonares sintéticas usando métodos de crecimiento iterativo, que posteriormente se unen para formar un pulmón simulado con características realistas. Estos casos sintéticos, junto a imágenes reales de TAC sin contraste, han sido usados en el desarrollo de un método completamente automático de segmentación/separación AV. La estrategia comprende una primera extracción genérica de vasos pulmonares usando partículas espacio-escala, y una posterior clasificación AV de tales partículas mediante el uso de Graph-Cuts (GC) basados en la similitud con arteria o vena (obtenida con algoritmos de aprendizaje automático) y la inclusión de información de conectividad entre partículas. La validación de los fantomas pulmonares se ha llevado a cabo mediante inspección visual y medidas cuantitativas relacionadas con las distribuciones de intensidad, dispersión de estructuras y relación entre arterias y vías aéreas, los cuales muestran una buena correspondencia entre los pulmones reales y los generados sintéticamente. La evaluación del algoritmo de segmentación AV está basada en distintas estrategias de comprobación de la exactitud en la clasificación de vasos, las cuales revelan una adecuada diferenciación entre arterias y venas tanto en los casos reales como en los sintéticos, abriendo así un amplio abanico de posibilidades en el estudio clínico de enfermedades cardiopulmonares y en el desarrollo de metodologías y nuevos algoritmos para el análisis de imágenes pulmonares. ABSTRACT Computed tomography (CT) is the reference image modality for the study of lung diseases and pulmonary vasculature. Lung vessel segmentation has been widely explored by the biomedical image processing community, however, differentiation of arterial from venous irrigations is still an open problem. Indeed, automatic separation of arterial and venous trees has been considered during last years as one of the main future challenges in the field. Artery-Vein (AV) segmentation would be useful in different medical scenarios and multiple pulmonary diseases or pathological states, allowing the study of arterial and venous irrigations separately. Features such as density, geometry, topology and size of vessels could be analyzed in diseases that imply vasculature remodeling, making even possible the discovery of new specific biomarkers that remain hidden nowadays. Differentiation between arteries and veins could also enhance or improve methods processing pulmonary structures. Nevertheless, AV segmentation has been unfeasible until now in clinical routine despite its objective usefulness. The huge complexity of pulmonary vascular trees makes a manual segmentation of both structures unfeasible in realistic time, encouraging the design of automatic or semiautomatic tools to perform the task. However, this lack of proper labeled cases seriously limits in the development of AV segmentation systems, where reference standards are necessary in both algorithm training and validation stages. For that reason, the design of synthetic CT images of the lung could overcome these difficulties by providing a database of pseudorealistic cases in a constrained and controlled scenario where each part of the image (including arteries and veins) is differentiated unequivocally. In this Ph.D. Thesis we address both interrelated problems. First, the design of a complete framework to automatically generate computational CT phantoms of the human lung is described. Starting from biological and imagebased knowledge about the topology and relationships between structures, the system is able to generate synthetic pulmonary arteries, veins, and airways using iterative growth methods that can be merged into a final simulated lung with realistic features. These synthetic cases, together with labeled real CT datasets, have been used as reference for the development of a fully automatic pulmonary AV segmentation/separation method. The approach comprises a vessel extraction stage using scale-space particles and their posterior artery-vein classification using Graph-Cuts (GC) based on arterial/venous similarity scores obtained with a Machine Learning (ML) pre-classification step and particle connectivity information. Validation of pulmonary phantoms from visual examination and quantitative measurements of intensity distributions, dispersion of structures and relationships between pulmonary air and blood flow systems, show good correspondence between real and synthetic lungs. The evaluation of the Artery-Vein (AV) segmentation algorithm, based on different strategies to assess the accuracy of vessel particles classification, reveal accurate differentiation between arteries and vein in both real and synthetic cases that open a huge range of possibilities in the clinical study of cardiopulmonary diseases and the development of methodological approaches for the analysis of pulmonary images.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta refl exión crítica sobre la intervención en el Patrimonio Industrial de las Reales Fábricas españolas tiene un componente conceptual y otro físico. A través del caso de la Real Fábrica de Armas de Toledo, se permitirá profundizar sobre los conceptos teóricos que van implícitos en estas operaciones y las consecuencias sociales que ello implica. Se refl exionará sobre su capacidad de crear paisajes productivos dentro de su Paisaje Cultural, la convivencia de sus sistemas constructivos con los actuales y su legibilidad, producto de esta intervención. En defi nitiva, se busca construir un planteamiento que permita dar respuesta a la percepción del Patrimonio Industrial como memoria cultural en la sociedad actual y cuál puede ser la aportación de las Reales Fábricas, en tanto que añaden valores culturales propios. De esta forma abrir vías para conciliar, a través de futuros proyectos arquitectónicos, la conservación de la identidad de estos patrimonios con las necesidades de la sociedad presente, en busca de la ciudad sostenible del mañana.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El presente trabajo consiste en el estudio de la viabilidad en el uso de tres posibles opciones orientadas a la captura de la posición y la postura de personas en entornos reales, así como el diseño e implementación de un prototipo de captura en cada uno de ellos. También se incluye una comparativa con el fin de destacar los pros y los contras de cada solución. Una de las alternativas para llevarlo a cabo consiste en un sistema de tracking óptico por infrarrojos de alta calidad y precisión, como es Optitrack; la segunda se basa en una solución de bajo coste como es el periférico Kinect de Microsoft y la tercera consiste en la combinación de ambos dispositivos para encontrar un equilibrio entre precisión y economía, tomando los puntos fuertes de cada uno para contrarrestar sus debilidades. Uno de los puntos importantes del trabajo es que el uso de los prototipos de captura está orientado a entornos de trabajo reales (en concreto en la captura de los movimientos del personal que trabaja en un quirófano), así que han sido necesarias pruebas para minimizar el efecto de las fuentes de luz en los sistemas de infrarrojos, el estudio de los dispositivos para determinar el número de personas que son capaces de capturar a la vez sin que esto afecte a su rendimiento y el nivel de invasión de los dispositivos en los trabajadores (marcadores para el tracking), además de los mecanismos apropiados para minimizar el impacto de las oclusiones utilizando métodos de interpolación y ayudándose del conocimiento del contexto, las restricciones de movimiento del cuerpo humano y la evolución en el tiempo. Se han desarrollado conocimientos en el funcionamiento y configuración dispositivos como el sistema de captura Optitrack de Natural Point y el sistema de detección de movimiento Kinect desarrollado por Microsoft. También se ha aprendido el funcionamiento del entorno de desarrollo y motor de videojuegos multiplataforma homónimos Unity y del lenguaje de programación C# que utiliza dicho entorno para sus scripts de control, así como los protocolos de comunicación entre los distintos sistemas que componen los prototipos como son VRPN y NatNet.---ABSTRACT---This project is about a viability study in the use of three possible options, oriented towards the capture of the position and view of people in a real environment, as well as the design and implementation of a capturing prototype in each of them. A comparative study is also included, in order to emphasise the pros and cons of each solution. One of the alternatives consists of an optical tracking system via high quality and precision infrareds, like Optitrack; the second is based on a low cost solution, such as Microsoft’s Kinect peripheral, and the third consists on a combination of both devices to find a balance between precision and price, taking the strong points of each of the mechanisms to make up for the weaknesses. One of the important parts of this project is that the use of the capturing prototypes is directed towards real life work situations (specifically towards the capturing of the movements of surgery personnel), so various tests have been necessary in order to minimize the effect of light sources in infrared systems, the study of the devices to determine the number of people that they are capable of capturing simultaneously without affecting their performance and the invasion level of the devices towards the workers (tracking markers), as well as the mechanisms adopted to minimize the impact of the occlusions using interpolation methods and with help of the knowledge of the surroundings, the human movement restrictions and the passing of time. Knowledge has been developed on the functioning and configuration of the devices such as Natural Point’s Optitrak capturing system, and the Kinect movement detection system developed by Microsoft. We have also learned about the operating of the development and incentive environment of multiplatform videogames of namesake Unity and of C# programming language, which uses said environment for its control scripts, as well as communication protocols between the different systems that make up prototypes like VRPN and NatNet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un dron o un RPA (del inglés, Remote Piloted Aircraft) es un vehículo aéreo no tripulado capaz de despegar, volar y aterrizar de forma autónoma, semiautónoma o manual, siempre con control remoto. Además, toda aeronave de estas características debe ser capaz de mantener un nivel de vuelo controlado y sostenido. A lo largo de los años, estos aparatos han ido evolución tanto en aplicaciones como en su estética y características físicas, siempre impulsado por los requerimientos militares en cada momento. Gracias a este desarrollo, hoy en día los drones son uno más en la sociedad y desempeñan tareas que para cualquier ser humano serían peligrosas o difíciles de llevar a cabo. Debido a la reciente proliferación de los RPA, los gobiernos de los distintos países se han visto obligados a redactar nuevas leyes y/o modificar las ya existentes en relación a los diferentes usos del espacio aéreo para promover la convivencia de estas aeronaves con el resto de vehículos aéreos. El objeto principal de este proyecto es ensamblar, caracterizar y configurar dos modelos reales de dron: el DJI F450 y el TAROT t810. Para conseguir un montaje apropiado a las aplicaciones posteriores que se les va a dar, antes de su construcción se ha realizado un estudio individualizado en detalle de cada una de las partes y módulos que componen estos vehículos. Adicionalmente, se ha investigado acerca de los distintos tipos de sistemas de transmisión de control remoto, vídeo y telemetría, sin dejar de lado las baterías que impulsarán al aparato durante sus vuelos. De este modo, es sabido que los RPA están compuestos por distintos módulos operativos: los principales, todo aquel módulo para que el aparato pueda volar, y los complementarios, que son aquellos que dotan a cada aeronave de características adicionales y personalizadas que lo hacen apto para diferentes usos. A lo largo de este proyecto se han instalado y probado diferentes módulos adicionales en cada uno de los drones, además de estar ambos constituidos por distintos bloques principales, incluyendo el controlador principal: NAZA-M Lite instalado en el dron DJI F450 y NAZA-M V2 incorporado en el TAROT t810. De esta forma se ha podido establecer una comparativa real acerca del comportamiento de éstos, tanto de forma conjunta como de ambos controladores individualmente. Tras la evaluación experimental obtenida tras diversas pruebas de vuelo, se puede concluir que ambos modelos de controladores se ajustan a las necesidades demandadas por el proyecto y sus futuras aplicaciones, siendo más apropiada la elección del modelo M Lite por motivos estrictamente económicos, ya que su comportamiento en entornos recreativos es similar al modelo M V2. ABSTRACT. A drone or RPA (Remote Piloted Aircraft) is an unmanned aerial vehicle that is able to take off, to fly and to land autonomously, semi-autonomously or manually, always connected via remote control. In addition, these aircrafts must be able to keep a controlled and sustained flight level. Over the years, the applications for these devices have evolved as much as their aesthetics and physical features both boosted by the military needs along time. Thanks to this development, nowadays drones are part of our society, executing tasks potentially dangerous or difficult to complete by humans. Due to the recent proliferation of RPA, governments worldwide have been forced to draft legislation and/or modify the existing ones about the different uses of the aerial space to promote the cohabitation of these aircrafts with the rest of the aerial vehicles. The main objective of this project is to assemble, to characterize and to set-up two real drone models: DJI F450 and TAROT t810. Before constructing the vehicles, a detailed study of each part and module that composes them has been carried out, in order to get an appropriate structure for their expected uses. Additionally, the different kinds of remote control, video and telemetry transmission systems have been investigated, including the batteries that will power the aircrafts during their flights. RPA are made of several operative modules: main modules, i.e. those which make the aircraft fly, and complementary modules, that customize each aircraft and equip them with additional features, making them suitable for a particular use. Along this project, several complementary modules for each drone have been installed and tested. Furthermore, both are built from different main units, including the main controller: NAZA-M Lite installed on DJI F450 and NAZA-M V2 on board of TAROT t810. This way, it has been possible to establish an accurate comparison, related to the performance of both models, not only jointly but individually as well. After several flight tests and an experimental evaluation, it can be concluded that both main controller models are suitable for the requirements fixed for the project and the future applications, being more appropriate to choose the M Lite model strictly due to economic reasons, as its performance in recreational environment is similar to the M V2.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La estructura urbana de Madrid comenzó a dibujarse con los primeros asentamientos fortificados del siglo IX. Sus posteriores ampliaciones estuvieron acotadas por los sucesivos recintos que delimitaron los contornos de una capital en constante expansión. De carácter inicialmente defensivo, luego fiscal y sanitario, estas estructuras estuvieron articuladas en torno a las puertas de acceso a la Villa, estableciendo un sistema general de cerramiento y comunicación que permitiera el control de personas y mercancías en su tránsito hacia el interior de la ciudad. La modestia inicial con que las puertas y tapias del recinto edificado en tiempos de Felipe IV desempeñaron sus funciones de espaldas al exterior de la Villa fue remplazada por un creciente protagonismo, de carácter simbólico y ornamental, que trascendió a su propia arquitectura para inspirar algunas de las importantes transformaciones urbanas operadas en su entorno. Relacionada principalmente con el ideal ilustrado de embellecimiento de la ciudad, la renovación de sus puertas principales se completaba con la reedificación y regularización de sus cercas, y la conformación de nuevos paseos en las afueras de la capital, cuyo trazado vertebrará en buena medida la ocupación de la periferia y la consiguiente definición de la trama urbana del Madrid de hoy. El presente trabajo de investigación indaga sobre la significación urbana de las Reales Puertas de la Villa de Madrid, a partir de la revisión de su establecimiento en los sucesivos recintos de la capital, con especial atención a las transformaciones urbanas operadas en ella desde la definición de su último límite hasta la proyección futura del Madrid ampliado según el anteproyecto de Carlos Mª de Castro. La observación conjunta de las componentes arquitectónica y urbana de las puertas de la Villa de Madrid se ofrece a partir de un relato cronológico de los hechos, fundamentado en su justificación documental y la secuencia visual registrada en la cartografía histórica de la ciudad. La incorporación de aportaciones gráficas de nueva elaboración, de carácter y alcance diversos, proporciona una superposición espacio-temporal que posibilita la lectura comparada de las arquitecturas de las Reales Puertas de la Villa de Madrid y de las transformaciones urbanas operadas a partir de ellas, determinantes en gran medida la configuración de la ciudad actual. ABSTRACT Madrid’s current urban structure has its roots in the first fortified settlements of the IX century. Its subsequent expansions due to the capital’s constant growth were limited by successive enclosures, built originally as a defense mechanism, but later used for fiscal and sanitary purposes as well. The construction of these structures pivoted around the gates that gave access to the city, establishing an enclosure that allowed control of both people and goods on their way into the city. The gates and walls originally built by Felipe IV performed their purpose with a modesty that was later replaced by an increasing symbolic and ornamental prominence, eventually surpassing their own architecture to inspire profound urban changes around them. With the purpose of embellishing the city, the main gates were renovated, the walls were rebuilt and standardized, and new avenues were laid out outside the city. These changes dictated in large part the settling on the suburbs and the resulting configuration of Madrid’s urban scene as we know it today. This research explores the urban significance of the Royal Gates of Madrid through the study of the enclosures that marked the limits of the city. Special attention is given to the urban changes since the last enclosure was established through to Carlos Mª de Castro’s draft for Madrid’s future projection. The architectonic and urban facets of Madrid’s gates are examined simultaneously in a series of chronological events, based on relevant documentation and the graphical record found in Madrid’s historic cartography. This thesis includes new graphic contributions, which allow the comparison of the architecture of the Royal Gates of Madrid as they evolved in time and space. These documents are essential in order to understand the urban transformations that took place based on the Gates, having largely determined the city’s current configuration.