464 resultados para COMPAÑÍAS FIDUCIARIAS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A menudo los científicos secuencian el ADN de un gran número de personas con el objetivo de determinar qué genes se asocian con determinadas enfermedades. Esto permite meóon del genoma humano. El precio de un perfil genómico completo se ha posicionado por debajo de los 200 dólares y este servicio lo ofrecen muchas compañías, la mayor parte localizadas en EEUU. Como consecuencia, en unos pocos a~nos la mayoría de las personas procedentes de los países desarrollados tendrán los medios para tener su ADN secuenciado. Alrededor del 0.5% del ADN de cada persona (que corresponde a varios millones de nucleótidos) es diferente del genoma de referencia debido a variaciones genéticas. Así que el genoma contiene información altamente sensible y personal y representa la identidad biológica óon sobre el entorno o estilo de vida de uno (a menudo facilmente obtenible de las redes sociales), sería posible inferir el fenotipo del individuo. Multiples GWAS (Genome Wide Association Studies) realizados en los últimos a~nos muestran que la susceptibilidad de un paciente a tener una enfermedad en particular, como el Alzheimer, cáncer o esquizofrenia, puede ser predicha parcialmente a partir de conjuntos de sus SNP (Single Nucleotide Polimorphism). Estos resultados pueden ser usados para medicina genómica personalizada (facilitando los tratamientos preventivos y diagnósticos), tests de paternidad genéticos y tests de compatibilidad genética para averiguar a qué enfermedades pueden ser susceptibles los descendientes. Estos son algunos de los beneficios que podemos obtener usando la información genética, pero si esta información no es protegida puede ser usada para investigaciones criminales y por compañías aseguradoras. Este hecho podría llevar a discriminaci ón genética. Por lo que podemos concluir que la privacidad genómica es fundamental por el hecho de que contiene información sobre nuestra herencia étnica, nuestra predisposición a múltiples condiciones físicas y mentales, al igual que otras características fenotópicas, ancestros, hermanos y progenitores, pues los genomas de cualquier par de individuos relacionados son idénticos al 99.9%, contrastando con el 99.5% de dos personas aleatorias. La legislación actual no proporciona suficiente información técnica sobre como almacenar y procesar de forma segura los genomas digitalizados, por lo tanto, es necesaria una legislación mas restrictiva ---ABSTRACT---Scientists typically sequence DNA from large numbers of people in order to determine genes associated with particular diseases. This allows to improve the modern healthcare and to provide a better understanding of the human genome. The price of a complete genome profile has plummeted below $200 and this service is ofered by a number of companies, most of them located in the USA. Therefore, in a few years, most individuals in developed countries will have the means of having their genomes sequenced. Around 0.5% of each person's DNA (which corresponds to several millions of nucleotides) is diferent from the reference genome, owing to genetic variations. Thus, the genome contains highly personal and sensitive information, and it represents our ultimate biological identity. By combining genomic data with information about one's environment or lifestyle (often easily obtainable from social networks), could make it possible to infer the individual's phenotype. Multiple Genome Wide Association Studies (GWAS) performed in recent years have shown that a patient's susceptibility to particular diseases, such as Alzheimer's, cancer, or schizophrenia, can be partially predicted from sets of his SNPs. This results can be used for personalized genomic medicine (facilitating preventive treatment and diagnosis), genetic paternity tests, ancestry and genealogical testing, and genetic compatibility tests in order to have knowledge about which deseases would the descendant be susceptible to. These are some of the betefts we can obtain using genoma information, but if this information is not protected it can be used for criminal investigations and insurance purposes. Such issues could lead to genetic discrimination. So we can conclude that genomic privacy is fundamental due to the fact that genome contains information about our ethnic heritage, predisposition to numerous physical and mental health conditions, as well as other phenotypic traits, and ancestors, siblings, and progeny, since genomes of any two closely related individuals are 99.9% identical, in contrast with 99.5%, for two random people. The current legislation does not ofer suficient technical information about safe and secure ways of storing and processing digitized genomes, therefore, there is need for more restrictive legislation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo trata de evaluar la capacidad de atracción turística de los Puntos de Interés oficiales (POIs) disponibles como datos geográficos abiertos y en las IDE locales mediante la información explícita e implícita de los Tweets geolocalizados. Los estudios sobre turismo tratan de obtener información del potencial turístico de una zona y la valoración de los turistas. Estos estudios tradicionalmente se basan en encuestas o entrevistas personales, realizadas desde entidades públicas o compañías privadas En el caso que nos ocupa existen estudios a nivel de Municipal, de la Comunidad autónoma y de entidades privadas relacionadas con el sector turístico de la cidudad de Madrid por estar considerado un sector estratégico para la economía regional. Las redes sociales, especialmente Twitter, ofrecen un alto potencial para la realización de trabajos de investigación y evaluación de áreas urbanas gracias a la información geográfica digital asociada. Se ha producido una evolución de la Información Geográfica Voluntaria (VGI) acuñada por Goodchild (2007) a la Información Geográfica de Medios Sociales (SMGI) acuñada por Floris y Campagna (2014). Esta nueva fuente de datos derivados, podria complementar la información de los datos públicos de turismo ofrecidos por nodos IDE u Open Data; por ejemplo: ayudaria a la validación de puntos de interés turístico o áreas de la ciudad, mejoraria la actualización de la información y a largo plazo, podria ayudar al desarrollo de estrategias y planes de turismo más eficientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El software se ha convertido en el eje central del mundo actual, una compleja creación humana que influye en la vida, negocios y comunicación de todas las personas pertenecientes a la Sociedad de la Información. El rápido crecimiento experimentado en el ámbito del desarrollo software ha permitido la creación de avanzadas estructuras tecnológicas, denominadas “Sistemas Intensivos Software”, capaces de comunicarse con otros sistemas, dispositivos, sensores y personas. A lo largo de los próximos años los sistemas se enfrentarán a una mayor complejidad, surgida de la necesidad de operar en entornos de grandes dimensiones y de comportamientos no deterministas. Los métodos y herramientas actuales no son lo suficientemente potentes para diseñar, construir,implementar y mantener sistemas intensivos software con estas características, y detener la construcción de sistemas intensivos software o construir sistemas poco flexibles o fiables no es una alternativa real. En el desarrollo de “Sistemas Intensivos Software” pueden llegar a intervenir distintas entidades o compañías software que suelen estar en ubicaciones geográficas distintas y constituidas por grandes equipos de desarrollo, multidisciplinares e incluso multilingües. Debido a la criticidad del resultado de las actividades realizadas de forma independiente en el sistema resultante, éstas se han de controlar y monitorizar para asegurar la correcta integración de todos los elementos del sistema completo. El objetivo de este proyecto es la creación de una herramienta software para dar soporte a la gestión y monitorización de la construcción e integración de sistemas intensivos software, siendo extensible también a proyectos de otra índole. La herramienta resultante se denomina Positioning System, una aplicación web del tipo SPA (Single Page Application) creada con tecnología de última generación como el framework JavaScript AngularJS y tecnología de back-end como SlimPHP. Positioning System provee la funcionalidad necesaria para la creación de proyectos, familias y subfamilias de productos que constituyen los productos software de los proyectos creados, así como la gestión de socios comerciales y gestión de contactos de dichos proyectos. Todas estas funcionalidades son fácilmente monitorizadas y controladas por gráficos estadísticos generados para cada proyecto. ABSTRACT Software has become the backbone of today’s world, a complex human creation that has an important impact in the life, business and communication of all people involved with the Information Society. The quick growth that software development has undergone for last years has enabled the creation of advanced technological structures called “Software Intensive Systems”. They are able to communicate with other systems, devices, sensors and people. Next years, systems will face more complexity. It arises from the need of operating systems of large dimensions with non-deterministic behaviors. Current methods and tools are not powerful enough to design, build, implement and maintain software intensive systems; however stopping the development or developing unreliable and non-flexible systems is not a real alternative. Software Intensive Systems” development may involve different entities or software companies which may be in different geographical locations and may be constituted by large, multidisciplinary and even multilingual development teams. Due to the criticality of the result of each conducted activity, independently in the resulting system, these activities must be controlled and monitored to ensure the proper integration of all the elements within the complete system. The goal of this project is the creation of a software tool to support the management and monitoring of the construction and integration of software intensive systems, being possible to be extended to other kind of projects. The resultant tool is called Positioning System, a web application that follows the SPA (Single Page Application) style. It was created with the latest technologies, such as, the AngularJS framework and SlimPHP. The Positioning System provides the necessary features for the creation of projects, families and subfamilies of products that constitute the software products of the created projects, as well as the management of business partners and contacts of these projects. All these features are easily monitored and controlled by statistical graphs generated for each project.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis se desarrolla una investigación sobre las técnicas de medida de descargas parciales (DP) que se aplican en medidas on-line, en condiciones normales de operación de las instalaciones eléctricas de alta tensión (AT). También se realiza un estudio de técnicas avanzadas de procesado y análisis de las señales medidas, que permiten realizar diagnósticos precisos del estado de los aislamientos eléctricos de AT. Uno de los objetivos fundamentales de la tesis ha sido disponer de un procedimiento eficaz de medida y procesado de las señales de DP, para la realización de medidas on-line tanto de forma itinerante, como mediante monitorización temporal o permanente. La implementación del nuevo procedimiento de medida permite obtener resultados satisfactorios en la detección, identificación y localización de defectos de aislamiento. Se ha dedicado especial interés al desarrollo de un método de clasificación de señales, que permite separar pulsos de ruido y diferentes fuentes de DP, presentes de forma simultánea en las instalaciones de AT. El estudio de la clasificación de señales se ha completado con la aplicación de un método para la detección de manera asistida, de los diferentes grupos de pulsos de ruido y de DP. La aplicación de este método de detección de grupos de pulsos, facilita la labor de los técnicos especialistas a la hora de diagnosticar el estado de los elementos aislantes. Al efecto de verificar de forma práctica las aportaciones de la tesis, se han realizado medidas de DP tanto en laboratorio como en campo. Las medidas experimentales en laboratorio se han efectuado en el Laboratorio de Alta Tensión de la Escuela Técnica Superior de Ingeniería y Diseño Industrial (LAT-UPM), de la Universidad Politécnica de Madrid. Por otro lado, las medidas experimentales en campo se han llevado a cabo en instalaciones de AT propiedad de compañías de transporte y distribución de energía eléctrica. La realización de ensayos de DP en estas instalaciones ha sido posible, gracias a los proyectos de investigación llevados a cabo por el grupo de trabajo del LAT-UPM, con diferentes empresas del sector durante los diez últimos años. ABSTRACT This thesis develops techniques for measuring partial discharges (PD) that are applied in on-line measurements, under normal operating conditions of the high voltage (HV) electrical installations. In addition there are studied advanced techniques for the processing and analysis of the measured signals, that permit precise diagnostics of the state of HV electrical insulation systems. One of the fundamental objectives of the thesis is to make available an effective procedure for measuring and processing PD signals, for making on-line measurements, either in an itinerant way or in temporary or permanent monitoring. The implementation of the new measurement procedure yields satisfactory results in the detection, identification and localization of insulation defects. Special attention has been devoted to the development of a method for classifying signals, that separates noise pulses and various PD sources present simultaneously in the HV installations. The study of the classification of signals has been completed by the application of a method for detecting, in a user assisted manner, the different groups of noise pulses and of PD. The application of this method for detecting groups of pulses facilitates the work of the specialist technicians to diagnose the condition of the insulation elements. To demonstrate the practical value of the thesis, PD measurements were made in laboratory as well as in field installations. The experimental measurements in laboratory were made in the High Voltage Laboratory (LAT-UPM) of the High Technical School of Engineering and Industrial Design, of the Polytechnic University of Madrid. Field measurements were realized in the HV installations of companies providing electrical energy transport and distribution. The realization of PD tests in these facilities was possible thanks to the research projects carried out by the working group of the LAT-UPM during the last ten years, with different companies operating in the sector.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente Tesis constituye un avance en el conocimiento de los efectos de la variabilidad climática en los cultivos en la Península Ibérica (PI). Es bien conocido que la temperatura del océano, particularmente de la región tropical, es una de las variables más convenientes para ser utilizado como predictor climático. Los océanos son considerados como la principal fuente de almacenamiento de calor del planeta debido a la alta capacidad calorífica del agua. Cuando se libera esta energía, altera los regímenes globales de circulación atmosférica por mecanismos de teleconexión. Estos cambios en la circulación general de la atmósfera afectan a la temperatura, precipitación, humedad, viento, etc., a escala regional, los cuales afectan al crecimiento, desarrollo y rendimiento de los cultivos. Para el caso de Europa, esto implica que la variabilidad atmosférica en una región específica se asocia con la variabilidad de otras regiones adyacentes y/o remotas, como consecuencia Europa está siendo afectada por los patrones de circulaciones globales, que a su vez, se ven afectados por patrones oceánicos. El objetivo general de esta tesis es analizar la variabilidad del rendimiento de los cultivos y su relación con la variabilidad climática y teleconexiones, así como evaluar su predictibilidad. Además, esta Tesis tiene como objetivo establecer una metodología para estudiar la predictibilidad de las anomalías del rendimiento de los cultivos. El análisis se centra en trigo y maíz como referencia para otros cultivos de la PI, cultivos de invierno en secano y cultivos de verano en regadío respectivamente. Experimentos de simulación de cultivos utilizando una metodología en cadena de modelos (clima + cultivos) son diseñados para evaluar los impactos de los patrones de variabilidad climática en el rendimiento y su predictibilidad. La presente Tesis se estructura en dos partes: La primera se centra en el análisis de la variabilidad del clima y la segunda es una aplicación de predicción cuantitativa de cosechas. La primera parte está dividida en 3 capítulos y la segundo en un capitulo cubriendo los objetivos específicos del presente trabajo de investigación. Parte I. Análisis de variabilidad climática El primer capítulo muestra un análisis de la variabilidad del rendimiento potencial en una localidad como indicador bioclimático de las teleconexiones de El Niño con Europa, mostrando su importancia en la mejora de predictibilidad tanto en clima como en agricultura. Además, se presenta la metodología elegida para relacionar el rendimiento con las variables atmosféricas y oceánicas. El rendimiento de los cultivos es parcialmente determinado por la variabilidad climática atmosférica, que a su vez depende de los cambios en la temperatura de la superficie del mar (TSM). El Niño es el principal modo de variabilidad interanual de la TSM, y sus efectos se extienden en todo el mundo. Sin embargo, la predictibilidad de estos impactos es controversial, especialmente aquellos asociados con la variabilidad climática Europea, que se ha encontrado que es no estacionaria y no lineal. Este estudio mostró cómo el rendimiento potencial de los cultivos obtenidos a partir de datos de reanálisis y modelos de cultivos sirve como un índice alternativo y más eficaz de las teleconexiones de El Niño, ya que integra las no linealidades entre las variables climáticas en una única serie temporal. Las relaciones entre El Niño y las anomalías de rendimiento de los cultivos son más significativas que las contribuciones individuales de cada una de las variables atmosféricas utilizadas como entrada en el modelo de cultivo. Además, la no estacionariedad entre El Niño y la variabilidad climática europea se detectan con mayor claridad cuando se analiza la variabilidad de los rendimiento de los cultivos. La comprensión de esta relación permite una cierta predictibilidad hasta un año antes de la cosecha del cultivo. Esta predictibilidad no es constante, sino que depende tanto la modulación de la alta y baja frecuencia. En el segundo capítulo se identifica los patrones oceánicos y atmosféricos de variabilidad climática que afectan a los cultivos de verano en la PI. Además, se presentan hipótesis acerca del mecanismo eco-fisiológico a través del cual el cultivo responde. Este estudio se centra en el análisis de la variabilidad del rendimiento de maíz en la PI para todo el siglo veinte, usando un modelo de cultivo calibrado en 5 localidades españolas y datos climáticos de reanálisis para obtener series temporales largas de rendimiento potencial. Este estudio evalúa el uso de datos de reanálisis para obtener series de rendimiento de cultivos que dependen solo del clima, y utilizar estos rendimientos para analizar la influencia de los patrones oceánicos y atmosféricos. Los resultados muestran una gran fiabilidad de los datos de reanálisis. La distribución espacial asociada a la primera componente principal de la variabilidad del rendimiento muestra un comportamiento similar en todos los lugares estudiados de la PI. Se observa una alta correlación lineal entre el índice de El Niño y el rendimiento, pero no es estacionaria en el tiempo. Sin embargo, la relación entre la temperatura del aire y el rendimiento se mantiene constante a lo largo del tiempo, siendo los meses de mayor influencia durante el período de llenado del grano. En cuanto a los patrones atmosféricos, el patrón Escandinavia presentó una influencia significativa en el rendimiento en PI. En el tercer capítulo se identifica los patrones oceánicos y atmosféricos de variabilidad climática que afectan a los cultivos de invierno en la PI. Además, se presentan hipótesis acerca del mecanismo eco-fisiológico a través del cual el cultivo responde. Este estudio se centra en el análisis de la variabilidad del rendimiento de trigo en secano del Noreste (NE) de la PI. La variabilidad climática es el principal motor de los cambios en el crecimiento, desarrollo y rendimiento de los cultivos, especialmente en los sistemas de producción en secano. En la PI, los rendimientos de trigo son fuertemente dependientes de la cantidad de precipitación estacional y la distribución temporal de las mismas durante el periodo de crecimiento del cultivo. La principal fuente de variabilidad interanual de la precipitación en la PI es la Oscilación del Atlántico Norte (NAO), que se ha relacionado, en parte, con los cambios en la temperatura de la superficie del mar en el Pacífico Tropical (El Niño) y el Atlántico Tropical (TNA). La existencia de cierta predictibilidad nos ha animado a analizar la posible predicción de los rendimientos de trigo en la PI utilizando anomalías de TSM como predictor. Para ello, se ha utilizado un modelo de cultivo (calibrado en dos localidades del NE de la PI) y datos climáticos de reanálisis para obtener series temporales largas de rendimiento de trigo alcanzable y relacionar su variabilidad con anomalías de la TSM. Los resultados muestran que El Niño y la TNA influyen en el desarrollo y rendimiento del trigo en el NE de la PI, y estos impactos depende del estado concurrente de la NAO. Aunque la relación cultivo-TSM no es igual durante todo el periodo analizado, se puede explicar por un mecanismo eco-fisiológico estacionario. Durante la segunda mitad del siglo veinte, el calentamiento (enfriamiento) en la superficie del Atlántico tropical se asocia a una fase negativa (positiva) de la NAO, que ejerce una influencia positiva (negativa) en la temperatura mínima y precipitación durante el invierno y, por lo tanto, aumenta (disminuye) el rendimiento de trigo en la PI. En relación con El Niño, la correlación más alta se observó en el período 1981 -2001. En estas décadas, los altos (bajos) rendimientos se asocian con una transición El Niño - La Niña (La Niña - El Niño) o con eventos de El Niño (La Niña) que están finalizando. Para estos eventos, el patrón atmosférica asociada se asemeja a la NAO, que también influye directamente en la temperatura máxima y precipitación experimentadas por el cultivo durante la floración y llenado de grano. Los co- efectos de los dos patrones de teleconexión oceánicos ayudan a aumentar (disminuir) la precipitación y a disminuir (aumentar) la temperatura máxima en PI, por lo tanto el rendimiento de trigo aumenta (disminuye). Parte II. Predicción de cultivos. En el último capítulo se analiza los beneficios potenciales del uso de predicciones climáticas estacionales (por ejemplo de precipitación) en las predicciones de rendimientos de trigo y maíz, y explora métodos para aplicar dichos pronósticos climáticos en modelos de cultivo. Las predicciones climáticas estacionales tienen un gran potencial en las predicciones de cultivos, contribuyendo de esta manera a una mayor eficiencia de la gestión agrícola, seguridad alimentaria y de subsistencia. Los pronósticos climáticos se expresan en diferentes formas, sin embargo todos ellos son probabilísticos. Para ello, se evalúan y aplican dos métodos para desagregar las predicciones climáticas estacionales en datos diarios: 1) un generador climático estocástico condicionado (predictWTD) y 2) un simple re-muestreador basado en las probabilidades del pronóstico (FResampler1). Los dos métodos se evaluaron en un caso de estudio en el que se analizaron los impactos de tres escenarios de predicciones de precipitación estacional (predicción seco, medio y lluvioso) en el rendimiento de trigo en secano, sobre las necesidades de riego y rendimiento de maíz en la PI. Además, se estimó el margen bruto y los riesgos de la producción asociada con las predicciones de precipitación estacional extremas (seca y lluviosa). Los métodos predWTD y FResampler1 usados para desagregar los pronósticos de precipitación estacional en datos diarios, que serán usados como inputs en los modelos de cultivos, proporcionan una predicción comparable. Por lo tanto, ambos métodos parecen opciones factibles/viables para la vinculación de los pronósticos estacionales con modelos de simulación de cultivos para establecer predicciones de rendimiento o las necesidades de riego en el caso de maíz. El análisis del impacto en el margen bruto de los precios del grano de los dos cultivos (trigo y maíz) y el coste de riego (maíz) sugieren que la combinación de los precios de mercado previstos y la predicción climática estacional pueden ser una buena herramienta en la toma de decisiones de los agricultores, especialmente en predicciones secas y/o localidades con baja precipitación anual. Estos métodos permiten cuantificar los beneficios y riesgos de los agricultores ante una predicción climática estacional en la PI. Por lo tanto, seríamos capaces de establecer sistemas de alerta temprana y diseñar estrategias de adaptación del manejo del cultivo para aprovechar las condiciones favorables o reducir los efectos de condiciones adversas. La utilidad potencial de esta Tesis es la aplicación de las relaciones encontradas para predicción de cosechas de la próxima campaña agrícola. Una correcta predicción de los rendimientos podría ayudar a los agricultores a planear con antelación sus prácticas agronómicas y todos los demás aspectos relacionados con el manejo de los cultivos. Esta metodología se puede utilizar también para la predicción de las tendencias futuras de la variabilidad del rendimiento en la PI. Tanto los sectores públicos (mejora de la planificación agrícola) como privados (agricultores, compañías de seguros agrarios) pueden beneficiarse de esta mejora en la predicción de cosechas. ABSTRACT The present thesis constitutes a step forward in advancing of knowledge of the effects of climate variability on crops in the Iberian Peninsula (IP). It is well known that ocean temperature, particularly the tropical ocean, is one of the most convenient variables to be used as climate predictor. Oceans are considered as the principal heat storage of the planet due to the high heat capacity of water. When this energy is released, it alters the global atmospheric circulation regimes by teleconnection1 mechanisms. These changes in the general circulation of the atmosphere affect the regional temperature, precipitation, moisture, wind, etc., and those influence crop growth, development and yield. For the case of Europe, this implies that the atmospheric variability in a specific region is associated with the variability of others adjacent and/or remote regions as a consequence of Europe being affected by global circulations patterns which, in turn, are affected by oceanic patterns. The general objective of this Thesis is to analyze the variability of crop yields at climate time scales and its relation to the climate variability and teleconnections, as well as to evaluate their predictability. Moreover, this Thesis aims to establish a methodology to study the predictability of crop yield anomalies. The analysis focuses on wheat and maize as a reference crops for other field crops in the IP, for winter rainfed crops and summer irrigated crops respectively. Crop simulation experiments using a model chain methodology (climate + crop) are designed to evaluate the impacts of climate variability patterns on yield and its predictability. The present Thesis is structured in two parts. The first part is focused on the climate variability analyses, and the second part is an application of the quantitative crop forecasting for years that fulfill specific conditions identified in the first part. This Thesis is divided into 4 chapters, covering the specific objectives of the present research work. Part I. Climate variability analyses The first chapter shows an analysis of potential yield variability in one location, as a bioclimatic indicator of the El Niño teleconnections with Europe, putting forward its importance for improving predictability in both climate and agriculture. It also presents the chosen methodology to relate yield with atmospheric and oceanic variables. Crop yield is partially determined by atmospheric climate variability, which in turn depends on changes in the sea surface temperature (SST). El Niño is the leading mode of SST interannual variability, and its impacts extend worldwide. Nevertheless, the predictability of these impacts is controversial, especially those associated with European climate variability, which have been found to be non-stationary and non-linear. The study showed how potential2 crop yield obtained from reanalysis data and crop models serves as an alternative and more effective index of El Niño teleconnections because it integrates the nonlinearities between the climate variables in a unique time series. The relationships between El Niño and crop yield anomalies are more significant than the individual contributions of each of the atmospheric variables used as input in the crop model. Additionally, the non-stationarities between El Niño and European climate variability are more clearly detected when analyzing crop-yield variability. The understanding of this relationship allows for some predictability up to one year before the crop is harvested. This predictability is not constant, but depends on both high and low frequency modulation. The second chapter identifies the oceanic and atmospheric patterns of climate variability affecting summer cropping systems in the IP. Moreover, hypotheses about the eco-physiological mechanism behind crop response are presented. It is focused on an analysis of maize yield variability in IP for the whole twenty century, using a calibrated crop model at five contrasting Spanish locations and reanalyses climate datasets to obtain long time series of potential yield. The study tests the use of reanalysis data for obtaining only climate dependent time series of simulated crop yield for the whole region, and to use these yield to analyze the influences of oceanic and atmospheric patterns. The results show a good reliability of reanalysis data. The spatial distribution of the leading principal component of yield variability shows a similar behaviour over all the studied locations in the IP. The strong linear correlation between El Niño index and yield is remarkable, being this relation non-stationary on time, although the air temperature-yield relationship remains on time, being the highest influences during grain filling period. Regarding atmospheric patterns, the summer Scandinavian pattern has significant influence on yield in IP. The third chapter identifies the oceanic and atmospheric patterns of climate variability affecting winter cropping systems in the IP. Also, hypotheses about the eco-physiological mechanism behind crop response are presented. It is focused on an analysis of rainfed wheat yield variability in IP. Climate variability is the main driver of changes in crop growth, development and yield, especially for rainfed production systems. In IP, wheat yields are strongly dependent on seasonal rainfall amount and temporal distribution of rainfall during the growing season. The major source of precipitation interannual variability in IP is the North Atlantic Oscillation (NAO) which has been related in part with changes in the Tropical Pacific (El Niño) and Atlantic (TNA) sea surface temperature (SST). The existence of some predictability has encouraged us to analyze the possible predictability of the wheat yield in the IP using SSTs anomalies as predictor. For this purpose, a crop model with a site specific calibration for the Northeast of IP and reanalysis climate datasets have been used to obtain long time series of attainable wheat yield and relate their variability with SST anomalies. The results show that El Niño and TNA influence rainfed wheat development and yield in IP and these impacts depend on the concurrent state of the NAO. Although crop-SST relationships do not equally hold on during the whole analyzed period, they can be explained by an understood and stationary ecophysiological mechanism. During the second half of the twenty century, the positive (negative) TNA index is associated to a negative (positive) phase of NAO, which exerts a positive (negative) influence on minimum temperatures (Tmin) and precipitation (Prec) during winter and, thus, yield increases (decreases) in IP. In relation to El Niño, the highest correlation takes place in the period 1981-2001. For these decades, high (low) yields are associated with an El Niño to La Niña (La Niña to El Niño) transitions or to El Niño events finishing. For these events, the regional associated atmospheric pattern resembles the NAO, which also influences directly on the maximum temperatures (Tmax) and precipitation experienced by the crop during flowering and grain filling. The co-effects of the two teleconnection patterns help to increase (decrease) the rainfall and decrease (increase) Tmax in IP, thus on increase (decrease) wheat yield. Part II. Crop forecasting The last chapter analyses the potential benefits for wheat and maize yields prediction from using seasonal climate forecasts (precipitation), and explores methods to apply such a climate forecast to crop models. Seasonal climate prediction has significant potential to contribute to the efficiency of agricultural management, and to food and livelihood security. Climate forecasts come in different forms, but probabilistic. For this purpose, two methods were evaluated and applied for disaggregating seasonal climate forecast into daily weather realizations: 1) a conditioned stochastic weather generator (predictWTD) and 2) a simple forecast probability resampler (FResampler1). The two methods were evaluated in a case study where the impacts of three scenarios of seasonal rainfall forecasts on rainfed wheat yield, on irrigation requirements and yields of maize in IP were analyzed. In addition, we estimated the economic margins and production risks associated with extreme scenarios of seasonal rainfall forecasts (dry and wet). The predWTD and FResampler1 methods used for disaggregating seasonal rainfall forecast into daily data needed by the crop simulation models provided comparable predictability. Therefore both methods seem feasible options for linking seasonal forecasts with crop simulation models for establishing yield forecasts or irrigation water requirements. The analysis of the impact on gross margin of grain prices for both crops and maize irrigation costs suggests the combination of market prices expected and the seasonal climate forecast can be a good tool in farmer’s decision-making, especially on dry forecast and/or in locations with low annual precipitation. These methodologies would allow quantifying the benefits and risks of a seasonal weather forecast to farmers in IP. Therefore, we would be able to establish early warning systems and to design crop management adaptation strategies that take advantage of favorable conditions or reduce the effect of adverse conditions. The potential usefulness of this Thesis is to apply the relationships found to crop forecasting on the next cropping season, suggesting opportunity time windows for the prediction. The methodology can be used as well for the prediction of future trends of IP yield variability. Both public (improvement of agricultural planning) and private (decision support to farmers, insurance companies) sectors may benefit from such an improvement of crop forecasting.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mediante la elaboración de esta tesis doctoral se pretende diseñar un sistema para la realización del plan de autoprotección en industrias con riesgo de incendio dentro de un polígono industrial. Para desarrollar esta línea de investigación se realizará una investigación cartográfica así como un reconocimiento visual de las distintas empresas industriales, de actividades heterogéneas, seleccionadas por su emplazamiento y condiciones. Este tipo de industria es esencial en el sistema económico nacional, ya que dota de recursos y servicios al tejido social, además de tener una relación directa con la generación de riqueza y por tanto incide de forma positiva en el empleo de cualquier región. Estas razones y otras son determinantes para fomentar el progreso, si bien nunca a expensas de la seguridad de los empleados que hacen posible la línea de producción así como de los posibles viandantes que transcurran por la zona de impacto en caso de incidentes como por ejemplo un incendio que afecte a cualquiera de los locales y/o empresas que se emplazen en los denominados polígonos industriales. La tesis incluye trabajos experimentales de los que se extraen recomendaciones y conclusiones encaminadas a la optimización de la instrumentalización utilizada, las técnicas de observación, diseño y cálculo necesarias que determinarán el acercamiento al método propuesto para nuestra valoración del riesgo por incendio. Las posibles emergencias que pueden darse a nivel de industrias localizadas en polígonos industriales son diversas y numerosas. De todas ellas se elige abordar el caso de “incendio” por su casuística más numerosa. No obstante, la planificación orientada desde el prisma de la investigación de esta tesis puede estenderse a cualquier otro riesgo, lo que se aportará como líneas futuras de investigación. Las aproximaciones y etapas de los trabajos que forman parte de esta investigación se han integrado en cada capítulo y son las siguientes: En primer lugar un capítulo de Introducción, en el que se realiza una reflexión justificada de la elección del tema tratado, se formula la hipótesis de partida y se enumeran los distintos objetivos que se pretenden alcanzar. En el segundo capítulo, titulado Aspectos de la Protección Civil en la Constitución Española de 1978, se ha realizado un estudio exhaustivo de la Constitución en todo lo relacionado con el ámbito de la protección, haciendo especial énfasis en las distintas competencias según el tipo de administración que corresponda en cada caso, así como las obligaciones y deberes que corresponden a los ciudadanos en caso de catástrofe. Así mismo se analizan especialmente los casos de Guerra y el estado de Alarma. En el tercer capítulo, titulado Repuesta de las administraciones públicas ante emergencias colectivas, se trata de formular el adecuado sistema de repuesta que sería preciso para tratar de mitigar desastres y catástrofes. Se analizan los distintos sistemas de gestión de emergencias constatando en cada caso los pros y los contras de cada uno. Se pretende con ello servir de ayuda en la toma de decisiones de manera coherente y racional. El capítulo cuarto, denominado Planes Locales de emergencia. Estudio en las distintas administraciones, se ha pormenorizado en la presentación así como puesta en funcionamiento de los planes, comparando los datos obtenidos entre ellos para concluir en un punto informativo que nos lleva a la realidad de la planificación. Para la realización y desarrollo de los capítulos 5 y 6, llamados Análisis de la Norma Básica de Autoprotección y Métodos de evaluación del riesgo de Incendio, se estudia la normativa actual en autoprotección prestando atención a los antecedentes históricos así como a todas las figuras que intervienen en la misma. Se analizan los distintos métodos actuales para la valoración del riesgo por incendio en industrias. Este aspecto es de carácter imprescindible en la protección civil de los ciudadanos pero también es de especial importancia en las compañías aseguradoras. En el capítulo 7, Propuesta metodológica, se propone y justifica la necesidad de establecer una metodología de estudio para estos casos de riesgo por incendio en industrias para así, acortar el tiempo de respuesta de los servicios de emergencia hasta la zona, así como dotar de información imprescindible sobre el riesgo a trabajadores y transeúntes. El último capítulo se refiere a las Conclusiones, donde se establecen y enuncian una serie de conclusiones y resultados como consecuencia de la investigación desarrollada, para finalizar esta tesis doctoral enunciando posibles desarrollos y líneas de investigación futuros. ABSTRACT The development of this thesis is to design a system for the implementation of the plan of self-protection in industries with risk of fire in an industrial park. To develop this line of research will be done cartographic research as well as visual recognition of the distinct and heterogeneous industrial companies selected by its location and conditions. This type of industry is an essential part in the economic national system providing economic resources to society as well as with a direct relationship in unemployment. For this reason it is crucial to promote their progress, but never at the expense of the security of the employees that make the line of production as well as possible walkers that pass by the area of impact in the event of a fire affecting the company. The thesis includes experimental works which are extracted recommendations and conclusions aimed at optimization of used exploit, techniques of observation, design and calculation needed to determine the approach to the method proposed for our assessment of the risk from fire. The approaches and stages of works that are part of this research have been integrated into each chapter and are as follows: In the first chapter, holder introduction, perform a supporting reflection of the choice of the subject matter, is formulated the hypothesis of departure and listed the different objectives that are intended to achieve. In the second chapter, holder aspects of Civil Protection in the Spanish Constitution of 1978, examines an exhaustive study of the Constitution in everything related to the scope of protection. With an emphasis on individual skills according to the type of management with corresponding in each case, as well as the obligations and duties which correspond to citizens in the event of a catastrophe. Also analyzes the particular cases of war and the State of alarm. In the third chapter, holder public administrations collective emergency response, discussed trafficking in defining the proper system response that would be precise to address disasters and catastrophes. We discusses the different systems of emergency management in each case, we pretend the pros and cons of each. We tried that this serve as decision-making aid coherent and rational way. The fourth chapter is holder Local Emergency Plans (LEP). Study on the different administrations, has detailed in the presentation as well as operation of the LEP, comparing the data between them to conclude in an information point that leads us to the reality of planning. For the realization and development of chapters 5 and 6, holder Analysis of the basic rule of self-protection and fire risk assessment methods, paying attention to the historical background as well as all the figures involved in the same studies with the current rules of self-protection. The current methods for the estimation of the risk are analyzed by fire in industries. This aspect is essential in the civil protection of the citizens, but it is also of special importance for insurance companies. The seventh chapter, holder Methodological proposal, we propose and justifies the need to establish a methodology for these cases of risk by fire in industries. That shorts the response time of emergency services to the area, and provides essential information about the risk to workers and walkers. The last chapter refers to the Conclusions, laying down a series of results as a consequence of the previous chapters to complete billing possible developments and research future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo de fin de grado propone realizar una prueba piloto de las tecnologías móviles para incrementar la sostenibilidad de los servicios de agua dentro del marco del programa de la ONG ONGAWA para la provisión de servicios básicos de Agua y Saneamiento en la región de Same, Tanzania. Dicha línea se ha denominado a nivel local con el nombre de “MAJI MOTO – Mobile and radio to increase water services sustainability”. Además de ONGAWA, en esta línea de trabajo también intervienen VOTO Mobile, Same District Council y Farm Radio International. La cobertura de agua en las zonas rurales de Tanzania es solo del 44%. A pesar de los esfuerzos realizados, los nuevos puntos de agua construidos no incrementan la disponibilidad de agua debido a la alta tasa de no funcionabilidad (38%). Pocos años después de la construcción, la mayoría de los sistemas construidos colapsan debido a la falta de mantenimiento técnico, una gestión financiera débil y otras dificultades provocados por los intereses e influencias políticas. La mala gestión y la deficiente capacidad de gobierno del agua son las principales razones por las que mantener el servicio de agua de manera permanente en zonas rurales sea actualmente insostenible y no permita el crecimiento de puntos de agua en estas zonas. Por otro lado, el 63% de las familias tanzanas tienen un teléfono móvil, y el 58% tienen al menos una tarjeta SIM activada. La mayoría tienen varias tarjetas de las diferentes compañías para adecuar la llamada que vayan a realizar al precio que les convenga. Incluso las personas más desfavorecidas (que cuentan con menos de 2$ al día y que viven zonas rurales y pobres), un 50% tienen acceso a un terminal móvil y su propia tarjeta SIM. El dinero que dedica cada familia a las comunicaciones es prácticamente la misma o superior al que va dedicado a los gastos médicos y muy superior a los gastos escolares o destinados a la adquisición de prendas de vestir. Dado este contexto, en este trabajo se han abordado dos tipos distintos de medidas basadas en tecnologías de teléfonos móviles para apoyar en una gestión más eficiente y transparente de los servicios de agua. Por un lado, se ha pilotado la plataforma que ofrece VOTO Mobile para establecer dos canales de comunicación, hasta ahora inexistentes, a través del uso del teléfono móvil: uno entre el Departamento de Agua del Distrito y los usuarios de los servicios de agua; y otro entre el mismo departamento del Distrito de Same y los COWSOs, que son las unidades locales que se encargan de la gestión y mantenimiento de los puntos de agua de sus municipios. Por otro lado, la implantación de un sistema de pago por móvil de las tarifas de los servicios de agua. En cuanto a la implantación de los dos canales de comunicación, se ha formado a varias personas del Distrito de Same en el uso de la ”VOTO Mobile Platform”, que ofrece la posibilidad de gestionar gran cantidad de contactos y mensajes, tanto entrantes como salientes. Por otro lado, se realizaron pruebas para analizar su viabilidad y su aceptación por parte de los usuarios. Con respecto al pago por móvil, se estudió su viabilidad en las zonas rurales y se analizaron las debilidades y fortalezas del sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las compañías de desarrollo de software buscan reducir costes a través del desarrollo de diseños que permitan: a) facilidad en la distribución del trabajo de desarrollo, con la menor comunicación de las partes; b) modificabilidad, permitiendo realizar cambios sobre un módulo sin alterar las otras partes y; c) comprensibilidad, permitiendo estudiar un módulo del sistema a la vez. Estas características elementales en el diseño de software se logran a través del diseño de sistemas cuasi-descomponibles, cuyo modelo teórico fue introducido por Simon en su búsqueda de una teoría general de los sistemas. En el campo del diseño de software, Parnas propone un camino práctico para lograr sistemas cuasi-descomponibles llamado el Principio de Ocultación de Información. El Principio de Ocultación de Información es un criterio diferente de descomposición en módulos, cuya implementación logra las características deseables de un diseño eficiente a nivel del proceso de desarrollo y mantenimiento. El Principio y el enfoque orientado a objetos se relacionan debido a que el enfoque orientado a objetos facilita la implementación del Principio, es por esto que cuando los objetos empiezan a tomar fuerza, también aparecen paralelamente las dificultades en el aprendizaje de diseño de software orientado a objetos, las cuales se mantienen hasta la actualidad, tal como se reporta en la literatura. Las dificultades en el aprendizaje de diseño de software orientado a objetos tiene un gran impacto tanto en las aulas como en la profesión. La detección de estas dificultades permitirá a los docentes corregirlas o encaminarlas antes que éstas se trasladen a la industria. Por otro lado, la industria puede estar advertida de los potenciales problemas en el proceso de desarrollo de software. Esta tesis tiene como objetivo investigar sobre las dificultades en el diseño de software orientado a objetos, a través de un estudio empírico. El estudio fue realizado a través de un estudio de caso cualitativo, que estuvo conformado por tres partes. La primera, un estudio inicial que tuvo como objetivo conocer el entendimiento de los estudiantes alrededor del Principio de Ocultación de Información antes de que iniciasen la instrucción. La segunda parte, un estudio llevado a cabo a lo largo del período de instrucción con la finalidad de obtener las dificultades de diseño de software y su nivel de persistencia. Finalmente, una tercera parte, cuya finalidad fue el estudio de las dificultades esenciales de aprendizaje y sus posibles orígenes. Los participantes de este estudio pertenecieron a la materia de Software Design del European Master in Software Engineering de la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid. Los datos cualitativos usados para el análisis procedieron de las observaciones en las horas de clase y exposiciones, entrevistas realizadas a los estudiantes y ejercicios enviados a lo largo del período de instrucción. Las dificultades presentadas en esta tesis en sus diferentes perspectivas, aportaron conocimiento concreto de un estudio de caso en particular, realizando contribuciones relevantes en el área de diseño de software, docencia, industria y a nivel metodológico. ABSTRACT The software development companies look to reduce costs through the development of designs that will: a) ease the distribution of development work with the least communication between the parties; b) changeability, allowing to change a module without disturbing the other parties and; c) understandability, allowing to study a system module at a time. These basic software design features are achieved through the design of quasidecomposable systems, whose theoretical model was introduced by Simon in his search for a general theory of systems. In the field of software design, Parnas offers a practical way to achieve quasi-decomposable systems, called The Information Hiding Principle. The Information Hiding Principle is different criterion for decomposition into modules, whose implementation achieves the desirable characteristics of an efficient design at the development and maintenance level. The Principle and the object-oriented approach are related because the object-oriented approach facilitates the implementation of The Principle, which is why when objects begin to take hold, also appear alongside the difficulties in learning an object-oriented software design, which remain to this day, as reported in the literature. Difficulties in learning object-oriented software design has a great impact both in the classroom and in the profession. The detection of these difficulties will allow teachers to correct or route them before they move to the industry. On the other hand, the industry can be warned of potential problems related to the software development process. This thesis aims to investigate the difficulties in learning the object-oriented design, through an empirical study. The study was conducted through a qualitative case study, which consisted of three parts. The first, an initial study was aimed to understand the knowledge of the students around The Information Hiding Principle before they start the instruction. The second part, a study was conducted during the entire period of instruction in order to obtain the difficulties of software design and their level of persistence. Finally, a third party, whose purpose was to study the essential difficulties of learning and their possible sources. Participants in this study belonged to the field of Software Design of the European Master in Software Engineering at the Escuela Técnica Superior de Ingenieros Informáticos of Universidad Politécnica de Madrid. The qualitative data used for the analysis came from the observations in class time and exhibitions, performed interviews with students and exercises sent over the period of instruction. The difficulties presented in this thesis, in their different perspectives, provided concrete knowledge of a particular case study, making significant contributions in the area of software design, teaching, industry and methodological level.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta investigación consiste en definir un modelo de reserva de capacidad, por analogías con emergencias hospitalarias, que pueda ser implementado en el sector de servicios. Este está específicamente enfocado a su aplicación en talleres de servicio de automóviles. Nuestra investigación incorpora la incertidumbre de la demanda en un modelo singular diseñado en etapas que agrupa técnicas ARIMA, teoría de colas y simulación Monte Carlo para definir los conceptos de capacidad y ocupación de servicio, que serán utilizados para minimizar el coste implícito de la reserva capacidad necesaria para atender a clientes que carecen de cita previa. Habitualmente, las compañías automovilísticas estiman la capacidad de sus instalaciones de servicio empíricamente, pero los clientes pueden llegar bajo condiciones de incertidumbre que no se tienen en cuenta en dichas estimaciones, por lo que existe una diferencia entre lo que el cliente realmente demanda y la capacidad que ofrece el servicio. Nuestro enfoque define una metodología válida para el sector automovilístico que cubre la ausencia genérica de investigaciones recientes y la habitual falta de aplicación de técnicas estadísticas en el sector. La equivalencia con la gestión de urgencias hospitalarias se ha validado a lo largo de la investigación en la se definen nuevos indicadores de proceso (KPIs) Tal y como hacen los hospitales, aplicamos modelos estocásticos para dimensionar las instalaciones de servicio de acuerdo con la distribución demográfica del área de influencia. El modelo final propuesto integra la predicción del coste implícito en la reserva de capacidad para atender la demanda no prevista. Asimismo, se ha desarrollado un código en Matlab que puede integrarse como un módulo adicional a los sistemas de información (DMS) que se usan actualmente en el sector, con el fin de emplear los nuevos indicadores de proceso definidos en el modelo. Los resultados principales del modelo son nuevos indicadores de servicio, tales como la capacidad, ocupación y coste de reserva de capacidad, que nunca antes han sido objeto de estudio en la industria automovilística, y que están orientados a gestionar la operativa del servicio. ABSTRACT Our aim is to define a Capacity Reserve model to be implemented in the service sector by hospital's emergency room (ER) analogies, with a practical approach to passenger car services. A stochastic model has been implemented using R and a Monte Carlo simulation code written in Matlab and has proved a very useful tool for optimal decision making under uncertainty. The research integrates demand uncertainty in a unique model which is built in stages by implementing ARIMA forecasting, Queuing Theory and a Monte Carlo simulation to define the concepts of service capacity and occupancy, minimizing the implicit cost of the capacity that must be reserved to service unexpected customers. Usually, passenger car companies estimate their service facilities capacity using empirical methods, but customers arrive under uncertain conditions not included in the estimations. Thus, there is a gap between customer’s real demand and the dealer’s capacity. This research sets a valid methodology for the passenger car industry to cover the generic absence of recent researches and the generic lack of statistical techniques implementation. The hospital’s emergency room (ER) equalization has been confirmed to be valid for the passenger car industry and new process indicators have been defined to support the study. As hospitals do, we aim to apply stochastic models to dimension installations according to the demographic distribution of the area to be serviced. The proposed model integrates the prediction of the cost implicit in the reserve capacity to serve unexpected demand. The Matlab code could be implemented as part of the existing information technology systems (ITs) to support the existing service management tools, creating a set of new process indicators. Main model outputs are new indicators, such us Capacity, Occupancy and Cost of Capacity Reserve, never studied in the passenger car service industry before, and intended to manage the service operation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El panorama global está cambiando, y esto influye sobre la forma en la que entendemos y tratamos de alcanzar un desarrollo humano sostenible. El crecimiento de la población conlleva una mayor presión sobre los recursos, pero también supone una mayor cantidad de mano de obra y de talento; la concentración en áreas urbanas está cambiando las dinámicas sociales y desafiando los canales de comercialización tradicionales, pero también genera nuevos mercados y fomenta la innovación; los cambios en la economía global están reduciendo los tradicionales desequilibrios de poder entre los países occidentales y el resto del mundo; y las crecientes interconexiones crean nuevos riesgos pero también oportunidades para lanzar iniciativas de alcance global. Todas estas tendencias nos están obligando a repensar qué es el desarrollo humano y de qué manera deberíamos afrontar el reto de la pobreza. Es comúnmente aceptado que la globalización implica interdependencia y que, para conseguir un desarrollo humano sostenible, la colaboración entre actores de distintos ámbitos es necesaria. Se observa una creciente convergencia de temas, intereses y soluciones en torno al desarrollo sostenible, incluso en diferentes países y sectores, lo que está facilitando la colaboración estratégica entre empresas, gobiernos y sociedad civil. Existen pocas duda a día de hoy sobre el papel fundamental que las empresas deben desempeñar en la transición mundial hacia la sostenibilidad ambiental y la erradicación de la pobreza. Las empresas están evolucionando desde un enfoque tradicional centrado en la maximización de beneficios económicos hacia un enfoque holístico que integra la sostenibilidad y la responsabilidad social como parte del núcleo de negocio de las compañías. En el ámbito medioambiental, muchas empresas ya han comenzado a actuar y tratan de reducir sus emisiones, sus desechos y su consumo de energía. Sin embargo la contribución de las empresas a la reducción de la pobreza no está tan clara. Actualmente en torno a 1,2 miles de millones de personas viven en situación de extrema pobreza. La mayoría de estas personas aún vive en zonas rurales donde la mayor parte de la población activa trabaja en el sector agrícola. Por lo tanto, mejorar las oportunidades y reducir los riesgos de los productores más vulnerables en el sector de la agricultura puede ser un motor de desarrollo rural y reducción de la pobreza, especialmente en países de bajo nivel de desarrollo cuyas economías están fundamentalmente basadas en la agricultura. Algunas empresas comienzan a incluir a los pobres en sus operaciones como consumidores, proveedores y emprendedores. Esta tesis se centra en las potenciales oportunidades relacionadas con la incorporación sostenible de los pobres como proveedores de productos y/o de mano de obra. La colaboración entre empresas y productores vulnerables de países en desarrollo es un tema relativamente nuevo y todavía poco estudiado. La pregunta que guía esta tesis es: “¿Cómo pueden las empresas facilitar la inclusión sostenible en cadenas de suministro de productores vulnerables de los países menos desarrollados?”. Para responder a la pregunta anterior, la autora ha aplicado una metodología de casos de estudio. Esta metodología se considera apropiada porque la investigación sobre cadenas de suministro inclusivas es todavía escasa y porque es necesario entender en profundidad un fenómeno de la vida real, y para ello es fundamental conocer su contexto. En primer lugar, se realiza una revisión de literatura para identificar las proposiciones y los constructos teóricos que guiarán la posterior recogida de datos. La revisión de literatura se divide en dos partes: una más general que explora la dimensión social de la sostenibilidad en cadenas de suministro, y una más específica que se centra en la incorporación de los pobres como proveedores en cadenas de suministro. A lo largo de la última década, ha habido un crecimiento exponencial de los estudios académicos sobre la sostenibilidad de las cadenas de suministro, pero la mayoría de los esfuerzos se han dirigido hacia la dimensión medioambiental de la sostenibilidad. Por lo tanto la revisión de literatura, que se presenta en la Sección 3.1 (página 35) y que profundiza en la sostenibilidad social de las cadenas de suministro, puede considerarse una contribución en sí misma. Esta revisión de literatura revela que la investigación sobre aspectos sociales en cadenas de suministro está cobrando impulso en distintas áreas de conocimiento, principalmente en los ámbitos de investigación sobre “gestión de cadenas de suministro”, “responsabilidad social corporativa” y “estudios del desarrollo”. La investigación existente sobre sostenibilidad social de cadenas de suministro se centra en tres temas: aclarar la definición de sostenibilidad social; analizar la implementación de estrategias de sostenibilidad social en cadenas de suministro; y estudiar el apoyo de las em presas líderes a proveedores vulnerables para facilitar su transición hacia la sostenibilidad. Un marco conceptual que resume los principales hallazgos de esta primera parte de la revisión de literatura es planteado en la Figura 7 (página 48). No obstante, en el área de investigación que está emergiendo en torno a la sostenibilidad social de las cadenas de suministro, los estudios relacionados con la reducción de la pobreza son aún escasos. Además se aprecia una falta de contribuciones desde y sobre los países menos desarrollados, así como una clara tendencia a reflejar la visión de las empresas líderes de las cadenas de suministro, olvidando la perspectiva de los proveedores. La segunda parte de la revisión de literatura presentada en la Sección 3.2 (página 51) profundiza en tres líneas de investigación que exploran, desde distintas perspectivas, la inclusión de los pobres en cadenas de suministro. Estas líneas son “Global Value Chains” (GVC), “Base of the Pyramid” (BoP) y “Sustainable Supply Chain Management” (SSCM). La investigación en GVC analiza las cadenas de suministro desde la perspectiva de la globalización económica y el comercio internacional, poniendo especial énfasis en las implicaciones para los países en desarrollo y las comunidades vulnerables. GVC caracteriza las cadenas de suministro según la forma en la que son gobernadas, las oportunidades de mejora que existen para los productores que forman parte de la cadena y el grado de inclusión o exclusión de las comunidades más pobres y vulnerables. La investigación en BoP explora las relaciones comerciales entre empresas y comunidades pobres. La premisa fundamental del concepto BoP es la posibilidad de combinar la generación de beneficios con la reducción de la pobreza. La propuesta original es que mediante la venta de productos y servicios a las comunidades pobres de países en desarrollo, la pobreza puede ser reducida al tiempo que las empresas incrementan sus beneficios, especialmente las grandes empresas multinacionales. Esta idea ha ido evolucionando y, a día de hoy, los investigadores BoP consideran la incorporación de los pobres no sólo como consumidores sino también como empleados, proveedores y co-creadores. La investigación en SSCM ha estado fundamentalmente orientada al estudio de la dimensión medioambiental de la sostenibilidad de cadenas de suministro. Sin embargo, la creciente externalización de la producción a países en desarrollo y las demandas de los grupos de interés para que las empresas aborden todos los aspectos de la sostenibilidad han llevado a los académicos de SSCM a reconocer la importancia de integrar asuntos relacionados con la reducción de la pobreza en sus investigaciones. Algunos estudios comienzan a apuntar los principales retos a los que se enfrentan las empresas para colaborar con productores vulnerables en sus cadenas de suministro. Estos retos son: falta de comunicación, altos costes de transacción y el incremento de la complejidad de las operaciones. Las contribuciones de estas tres líneas de investigación son complementarias para el estudio de las cadenas de suministro inclusivas. Sin embargo, raramente han sido consideradas conjuntamente, ya que pertenecen a ámbitos de conocimiento distintos. Esta tesis integra las aportaciones de GVC, BoP y SSCM en un marco conceptual para la creación y gestión de cadenas de suministro inclusivas. Este marco conceptual para cadenas de suministro inclusivas queda representado en la Figura 9 (página 68). El marco conceptual refleja las motivaciones que llevan a las empresas a colaborar con productores vulnerables, los retos a los que se enfrentan al hacerlo, y los caminos o estrategias que están siguiendo para construir y operar cadenas de suministro inclusivas de manera que sean beneficiosas tanto para la empresa como para los productores vulnerables. A fin de validar y refinar el marco conceptual propuesto, tres casos de estudio se llevan a cabo. Las cadenas de suministro analizadas por los casos de estudio pertenecen al sector agrícola y sus principales proveedores se encuentran en países de África subsahariana. Múltiples métodos de recolección de datos y triangulación son utilizados para mejorar la fiabilidad de los datos. La autora desarrolló trabajos de campo en Senegal, Etiopía y Tanzania. Estos viajes permitieron enriquecer el proceso de recogida de información mediante entrevistas semiestructuradas y conversaciones informales con los principales actores de la cadena de suministro y mediante la observación directa de los procesos y las interacciones entre productores vulnerables y empresas. El Caso de estudio A (Sección 5.1 en página 96) es un caso de estudio único. Analiza la cadena de suministro local de verduras en Senegal. La organización focal es Manobi, una empresa senegalesa que provee servicios de bajo coste a emprendedores locales del sector agrícola. El Caso de estudio A proporciona un interesante análisis del funcionamiento de una cadena de suministro local en un país en desarrollo y muestra como la provisión de servicios profesionales puede mejorar el desempeño de productores vulnerables. El Caso de estudio B (Sección 5.2 en página 122) es un caso de estudio único. Analiza la cadena de suministro global de flor cortada con origen en Etiopía. La organización focal es EHPEA, la Asociación Etíope de Productores y Exportadores Hortícolas, cuya misión es promover y salvaguardar la posición competitiva del sector agrícola etíope en el mercado global. El Caso de estudio B ayuda a comprender mejor la perspectiva de los proveedores respecto a los requerimiento de sostenibilidad del mercado global. También muestra cómo la inclusión de los productores en el proceso de desarrollo de un estándar privado facilita su implementación posterior. El Caso de estudio C (Sección 5.3 en página 143) es un caso de estudio múltiple. Analiza la cadena de suministro global de café especial con origen en Tanzania. Las organizaciones focales son comerciantes que conectan de manera directa a pequeños agricultores de café en países en desarrollo con empresas tostadoras de café en países desarrollados. El Caso de estudio C muestra cómo un pequeño agricultor puede proveer un producto “premium” al mercado global, y participar en un segmento diferenciado del mercado a través de una cadena de suministro transparente y eficiente. Las aportaciones empíricas de los casos de estudio ayudan a validar y mejorar el marco conceptual sobre cadenas de suministro inclusivas (ver discusión en el Capítulo 6 en página 170). El resultado es la propuesta de una nueva versión del marco conceptual representado en la Figura 40 (página 195). Los casos de estudio también proporcionan interesantes aportaciones en relación a la gestión de cadenas de suministro inclusivas y muestran las perspectivas de distintos actores implicados. Esta tesis arroja luz sobre el papel de las empresas en la creación y la gestión de cadenas de suministro inclusivas llevando a cabo una revisión de literatura multidisciplinar y analizando tres casos de estudio en países africanos. Como resultado, esta tesis presenta una serie de contribuciones empíricas y teóricas al ámbito de investigación emergente en torno a las cadenas de suministro inclusivas (Capítulo 7). Esta tesis también pretende ser útil a profesionales que deseen facilitar la incorporación de los pobres como proveedores en condiciones justas y beneficiosas. ABSTRACT The global outlook is changing, and this is influencing the way we understand and try to achieve sustainable human development. Population growth entails increasing pressure over resources, but it also provides greater workforce and talent; concentration in urban areas is changing social dynamics and challenging traditional marketing channels, but also creating news markets and driving innovation; the global economy shift is rebalancing the traditional power imbalance between Western countries and the rest of the world, making new opportunities to arise; and interconnections and global interdependence create new risks but also opportunities for launching initiatives with a global reach. All these trends are impelling us to rethink what development is and in which way poverty alleviation should be approached. It is generally agreed that globalization implies interdependence and, in order to achieve sustainable human development, collaboration of all actors is needed. A convergence of issues, interests and solutions related to sustainable development is being observed across countries and sectors, encouraging strategic collaboration among companies, governments and civil society. There is little doubt nowadays about the crucial role of the private sector in the world’s path towards environmental sustainability and poverty alleviation. Businesses are evolving from a “business as usual” stance to a more sustainable and responsible approach. In the environmental arena, many companies have already “walk the talk”, implementing environmental management systems and trying to reduce emissions and energy consumption. However, regarding poverty alleviation, their contribution is less clear. There are around 1.2 billion people living in extreme poverty. Most of this people still live in rural areas where the agricultural sector employs a big part of the active population. Therefore, improving opportunities and reducing risks for vulnerable producers in the agri-food sector can be a primary engine of rural development and poverty alleviation, particularly in the poor, agriculture-based economies of least developed countries. Some companies are beginning to include the poor into their operations as consumers, suppliers and entrepreneurs. This thesis focuses specifically on the potential opportunities related to the sustainable incorporation of the poor as suppliers of products and/or labor. Business collaboration with vulnerable producers in developing countries is a relatively new trend and it is still understudied. The overall question guiding this thesis is: “How can businesses facilitate the sustainable inclusion of vulnerable producers from least developed countries into supply chains?”. In order to answer the research question, the author has applied a case study research strategy. This methodology is considered appropriate because research about inclusive supply chains is still at an early stage, and because there is a need to understand a real-life phenomenon in depth, but such understanding encompasses important contextual conditions. First, a literature review is conducted, in order to identify the research propositions and theoretical constructs that will guide the data collection. The literature review is divided in two parts: a more general one that explores the social dimension of sustainability of supply chains, and a more specific one that focuses on the incorporation of the poor as suppliers in supply chains. During the last decade, there has been an exponential growth of studies in the field of supply chain sustainability, but research efforts have traditionally been directed towards the analysis of the environmental dimension. Therefore, the literature review presented in Section 3.1 (page 35) that delves into social sustainability of supply chains can be considered a contribution in itself. This literature review reveals that the investigation of social issues in supply chains is gaining momentum and comes from different academic disciplines, namely Supply Chain Management, Corporate Social Responsibility and Development Studies. Existing research about social sustainability of supply chains focuses on three issues: clarify the definition of social sustainability; analyze the implementation of social sustainability strategies in supply chains; and study lead companies’ support to vulnerable suppliers in their transition towards sustainability. A conceptual framework that outlines the main findings that emerge from this first part of literature review is proposed in Figure 7 (page 48). Nevertheless, in this nascent field of social sustainability of supply chains, studies related to poverty alleviation are still scarce. Moreover, a lack of contributions from and about least developed countries has been observed, as well as a tendency to reflect on the lead firms’ standpoint, neglecting the suppliers’ perspective. The second part of the literature review (Section 3.2 in page 51) delves into three research streams that are exploring the inclusion of the poor into supply chains from different viewpoints. These research streams are Global Value Chains (GVC), Base of the Pyramid (BoP) and Sustainable Supply Chain Management (SSCM). GVC research discusses the dynamics of economic globalization and international trade, putting special emphasis in the implications for developing countries and vulnerable communities. GVC characterizes supply chains by the way they are governed, the upgrading opportunities that exist for producers in the chain and the degree of inclusion or exclusion of impoverished communities. BoP research explores trading relationships between businesses and impoverished communities. The core premise of the BoP concept is the possibility to combine profits with poverty alleviation. The original BoP proposition is that by marketing innovative products and services to poor communities in developing countries, poverty would be reduced and companies would increase their benefits, especially multinational companies. This idea has evolved to consider the incorporation of the poor to business activities not only as consumers, but also as employees, entrepreneurs and co-creators. The SSCM school of thought has mainly focused on studying the environmental dimension of supply chain sustainability, neglecting the consideration of the social perspective. However, in recent years, increasing outsourcing of production to developing countries and stakeholders’ demands for a more holistic approach to business sustainability have led SSCM scholars to acknowledge the importance of integrating poverty concerns in this field’s research agenda. Some SSCM studies identify the main operational challenges for companies which engage with vulnerable suppliers in their supply chains: missing communication, higher transactional and operational costs and increased complexity. Contributions from these three research streams are complementary for the study of inclusive supply chains. However, they have been rarely considered together, since they belong to different research areas. This thesis seeks to play a dovetailing role in this scenario by proposing a conceptual framework for creating and operating inclusive supply chains that builds on contributions from GVC, SSCM and BoP research. This framework for inclusive supply chains is depicted in Figure 9 (page 68), and explains the motivations that drive businesses to collaborate with vulnerable suppliers, the chal lenges they face in doing so, and the pathways they are following in order to build and operate inclusive supply chains profitably for both buying companies and vulnerable suppliers. In order to validate and refine the proposed framework, three case studies are carried out. The supply chains analyzed by the case studies belong to the agri-food sector and source from Sub-Saharan African countries. Multiple data collection methods and triangulation are used in order to improve reliability of findings. The author carried out field work in Senegal, Ethiopia and Tanzania. These travels enriched the data collection process, providing semi-structured interviews and informal conversations with the main actors in the supply chains, as well as direct observation of processes and interactions among companies and vulnerable suppliers. Case study A (Section 5.1 in page 96) is a single case study. It analyzes a local supply chain in Senegal providing vegetables to the local market. The focal organization is Manobi, a Senegalese inclusive business which provides affordable ICT services to local entrepreneurs in the agri-food sector. Case study A provides interesting insights into the dynamics of local supply chains and how professional services can help to improve their performance. Case study B (Section 5.2 in page 122) is a single case study. It analyzes a global supply chain with origin in Ethiopia providing cut flowers to the global commodity market. The focal organization is EHPEA, Ethiopian Horticulture Producers and Exporters Association, whose mission is to promote and safeguard the competitive position of the Ethiopian horticulture sector within the global market. Case study B helps to better understand the suppliers’ perspective regarding global market sustainability requirements and shows how the inclusion of suppliers in the process of development of a private standard has a positive impact in its implementation. Case study C (Section 5.3 in page 143) is a multiple case study. It analyzes a global supply chain with origin in Tanzania providing coffee to the global niche market of specialty coffee. The focal organizations are traders who are directly connecting smallholder coffee farmers in developing countries to coffee roasters in developed countries. Case study C shows how smallholder farmers can supply a premium product and be incorporated in a differentiated market segment through a transparent and efficient supply chain. The empirical findings from the case studies help to validate and refine the conceptual framework (see discussion in Chapter 6). The proposal of a new version of the conceptual framework is depicted in Figure 40 (page 195). The case studies also provide interesting insights related to the management of inclusive supply chains and show the perspectives of the different actors involved. This thesis sheds some light on the role of businesses in the creation and operation of inclusive supply chains by carrying out a cross-disciplinary literature review and analyzing three case studies in African countries. In doing so, this thesis presents a series of theoretical and empirical contributions to the emerging academic field of inclusive supply chains (Chapter 7). This thesis also intends to be useful to practitioners willing to improve the incorporation of the poor as suppliers in fair and profitable conditions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cuando se inició el trabajo para obtener el título de doctora, el proyecto era acerca de la financiación público privada de los clubes deportivos madrileños. El punto uno de ese primer índice, versaba sobre el origen del club deportivo en la Comunidad de Madrid (en este sentido, es preciso tener en cuenta que el territorio sufrió modificaciones, lo que antes eran pueblos hoy son distritos y lo que antes era provincia hoy es Comunidad Autónoma de Madrid, nuestro ámbito territorial de estudio). Al leer la doctrina autorizada que coincidía en su totalidad en que los primeros clubes deportivos fueron de origen inglés (el Recreativo de Huelva en el año1889 era considerado el primer club de España) y recordar dudas e inquietudes al respecto que surgieron durante la licenciatura, la investigación se tornó incómoda, por no decir temeraria. ¿Por qué había que limitarse a recoger las ideas de una doctrina, sin duda hoy y entonces prestigiosa, cuando se pensaba que aquella teoría del origen británico no podía ser, aunque fuera dentro de un marco teórico? No parecía tener sentido que no hubiera habido asociacionismo en España antes de la llegada de las compañías inglesas, pero sobre todo en Madrid, siempre bulliciosa en cuanto a participación ciudadana, por varios motivos: existían juegos y deportes populares autóctonos antes de que llegara el fútbol. ¿No se asociaban los madrileños para poder competir con otros?, ¿Se equivocó Goya al pintar estampas de juegos populares?, ¿Por qué existía entonces una Ley de Asociaciones de 1887, evidentemente anterior al Recreativo de Huelva (1889)? Las leyes se elaboran en respuesta a una necesidad social o a una costumbre anterior, o a las dos cosas. ¿Nadie pensó en la costumbre, siendo fuente del Derecho junto con la Ley y los principios generales?, ¿Nadie, estando tan cerca?, ¿Nadie, figurando en el artículo 1 del Código Civil? De esta forma, la justificación y objetivos cambiaron, la investigación se volvió otra, se tenía necesidad de probar la lógica o nada. Sólo hacían falta las pruebas documentales que aportaran luz y fueran tangibles para la argumentación jurídica. Así, entre las reglas del juego de la norma jurídica, la jurisprudencia y la doctrina, se desenvuelve el marco teórico de este trabajo. Es necesario para ello conocer cómo funciona la legislación que afecta a los clubes deportivos en la actualidad para entender las similitudes con los clubes pioneros. Es preciso comprender que una Ley nunca se encuentra aislada de otras, que todas están relacionadas, que los cruces son inevitablemente ilimitados y los resultados inmensos. Se ha realizado un análisis de una realidad compleja que trasciende de lo jurídico y lo deportivo. Respecto al material y método, no se encontraban referencias de estudios comparados, desde el punto de vista jurídico, de los Estatutos de los primeros clubes deportivos madrileños, ni nombrarlos hasta que a principios del año 2013 digitalizamos en la Biblioteca Nacional el Reglamento del Instituto de Gimnástica, Equitación y Esgrima (Villalobos, 1842); la prueba documental que se buscaba para apoyar la teoría ya era tangible. Luego se encontrarían otros para añadir a la muestra y también documentación probatoria complementaria. Tampoco había trabajos sobre la documentación emanada de la Administración Pública, por lo que se han estudiado Expedientes administrativos así como su comparativa con la legislación coetánea y la actual, lo que ha permitido concretar más la forma y tipología de las primeras formas jurídicas deportivas. Para la búsqueda de documentación se ha recurrido a bibliotecas, archivos e incluso depósitos que tenían legajos sin clasificar, habían sufrido las inundaciones y carcoma que azotaron a los sótanos de Madrid e incluso a alguno el fuego le miró de reojo. La documentación encontrada ha permitido convivir con los personajes que habitaron los clubes pioneros en los primeros domicilios sociales; historias reales con banda sonora propia. Y es que el nacimiento del asociacionismo deportivo madrileño no se podría haber gestado en mejor momento; durante el Romanticismo, ni en mejor lugar, en las encrucijadas de las callejuelas estrechas cercanas a las grandes arterias de la Capital; un paseo por las calles Libertad, Barbieri, Minas, Hortaleza y Montera. Los resultados de la investigación confirman la teoría de que el primer club deportivo madrileño nada tuvo que ver con los clubes que posteriormente vinieron en los equipajes de las compañías inglesas. Ni en tiempo, son anteriores; ni en lugar, Madrid; ni en forma, la comparativa con un club británico de la época denota diferencias o mejor, deficiencias, pero más que nada en el fondo. Los clubes madrileños tenían una naturaleza que reflejaba el sentir de los primeros socios y el espíritu de la Capital: beneficencia, espectáculo, participación ciudadana y trabajo en equipo. También se demuestra, tanto en los resultados como en la discusión, las particularidades de los primeros clubes madrileños en cuanto a su relación con la imprenta, la docencia, la prensa, las instalaciones deportivas siempre compartidas con la cultura como la terminología y las equipaciones, pero sobre todo la especial relación con el inherente derecho de reunión. Difícil pensar en un principio que la prueba de la costumbre se encontrara en la cartelería teatral, y que un programa de una competición deportiva escondiera unos Estatutos durante siglos. ABSTRACT When work for a doctorate degree began, the project was about public-private financing of sports clubs Madrid. At point one of the first index, concerned the origin of the sports club in Madrid ( Keep in mind that the territory was modified, which were towns before today are districts and what was once the province is now Community Autonomous of Madrid, our territorial area of study). When reading the authoritative doctrine which coincided entirely in the first sports clubs were of English origin (Huelva Recreation Club, 1889) and remember about questions and concerns raised during the undergraduate research became awkward, if not reckless. Why it had to be limited to collecting the ideas of a doctrine certainly prestigious now and then, when it was thought that this theory could not be British origin, albeit within a framework? It did not seem to make sense that there had been associations in Spain before the arrival of British companies, but especially in Madrid, always busy in terms of citizen participation, for several reasons; and indigenous games were popular sports before the football do the locals are not associated to compete with other?, Goya was wrong to paint pictures of popular games?, Why then was no Associations Act, 1887, clearly previous Huelva Recreation Club (1889)? The laws are developed in response to a social need or a past practice, or both. No one thought of being a source of law practice with the law and the general principles? No, being so close? No one appearing in Article 1 of the Civil? Thus the rationale and objectives of the research turned back, it was necessary to try logic or anything. Only documentary evidence was needed that provide light and were tangible to the legal arguments. Thus, among the rules of the legal rule, jurisprudence and doctrine, the theoretical framework of this work develops, we need to know how legislation affects sports clubs at present to understand the similarities with clubs works pioneers, we must understand that a law is never isolated from others, they are all related, intersections are inevitably unlimited and the immense results. It has made an analysis of a complex reality that transcends the legal and sports. Regarding the material and method, no references to studies were compared, from the legal point of view, of the Statute of the first Madrid sports clubs, or name them until early 2013 digitized at the National Library of the Institute of Regulation Gymnastics, Riding and Fencing (Villalobos, 1842); the documentary evidence that was sought to support the theory was already tangible. Then they find others to add to the sample and further supporting documentation. There was also no work on the documentation issued by the Public Administration, which have been studied administrative records and their comparison with the contemporary legislation and the current, allowing more concrete form and type of the first sports legal forms. Search for documentation we have turned to libraries, archives and even deposits that were not rated bundles, had suffered flooding and decay in the basement of Madrid and even fire some looked askance. The found documents have enabled us to live with the characters that inhabited the early clubs in the first addresses; real stories with its own soundtrack. And the birth of the Madrid sports associations could not have been gestated at a better time ; during the Romantic period , or in a better place ; at the crossroads of the nearby narrow streets of the great arteries of the Capital; a walk along the Libertad, Barbieri, Minas, Hortaleza and Montera. The research results confirm the theory that the first Madrid sports club had nothing to do with the clubs that later came in the luggage of British companies, nor in time; They predate, or rather; Madrid, or in the form; the comparison with a British club denotes the time differences or rather shortcomings, but more than anything in the background; the Madrid club had a nature that reflect the sentiments of the first members and the spirit of the Capital; charity, show, citizen participation and teamwork. It is also shown in the results and discussion the particularities of the first locals clubs in their relationship with the press, teaching, media, sports facilities always shared with the culture and terminology and the kits, but all the special relationship with the inherent right of assembly; hard to think at first that the test of habit were in the theater posters, and a program of a sports competition hide Statutes for centuries.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este Proyecto se va a abordar el estudio, tanto de arquitectura como de tecnologías, de la evolución de las redes de banda ancha fijas, desde la invención del teléfono hasta la progresiva implantación de la fibra óptica, debido a que las redes de cobre serán reemplazadas por este nuevo material. Se va a estudiar esta evolución en base al medio físico en el que se apoyan las diferentes redes desde el pasado hasta nuestros días. Esta implantación de fibra óptica es conocida como FTTH, fibra hasta el hogar, donde se despliegan estas redes con sus diferentes elementos para proporcionar servicio de banda ancha a la sociedad. En esta memoria se recoge el despliegue para diferentes escenarios tipo más comunes y llevados a cabo por las diferentes compañías de telecomunicaciones del país. Para ello se ha escogido la cartografía del distrito madrileño de Moratalaz y se ha procedido a diseñar tanto la red de alimentación como la red de distribución que conforman el despliegue FTTH. Por último se ha comentado las futuras líneas de evolución de estas redes, tanto a corto plazo como a largo, analizando los beneficios económicos para las diferentes compañías encargadas de los despliegues y los mejorados servicios que ofrecen al conjunto de la sociedad. ABSTRACT. This Project will address the study of the evolution of fixed broadband networks, mainly in architectures and technologies. The study will start from the invention of telephone to the progressive implantation of optical fiber since this medium are intended to replace the copper wires employed in this networks. It will study this evolution based on the physical medium in which the different networks are supported from the past to our times. This implantation of fiber-optic technology is known as FTTH, fiber to the home, so these networks are deployed with different elements in order to provide the broadband service to society. In this report, deployment for different common cases implanted by different telecommunications companies in the country is collected. For this it has chosen the cartography of Moratalaz and has proceeded to design the supply and distribution networks that compose the FTTH deployment. Finally, it has been discussed the future lines of the evolution for these networks in the short-term and long-term analyzing the economic benefits for the companies and the improved services provided to the whole society.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tendencia actual es integrar los dispositivos en una plataforma con un entorno amigable, utilizando para ello servicios web, entendiendo servicio web como un conjunto de protocolos y estándares que sirven para intercambiar datos entre aplicaciones. Permiten la interoperabilidad entre plataformas de distintos fabricantes y pueden interconectar servicios y software de diferentes compañías ubicadas en lugares geográficos dispersos. DPWS (Devices Profile for Web Services) es un conjunto de directrices diseñadas para permitir a los dispositivos 'descubrirse' entre ellos dentro de la red y poder invocar sus servicios. En un futuro la web además de conectar a millones de personas, también conectará a millones de dispositivos. El presente proyecto se centra en mejorar el sistema de seguridad para un dispositivo que implementa el estándar DPWS; cifrado de la información y un código hash, siendo éste último un breve resumen de toda la información que representa de forma unívoca al documento. ABSTRACT. The current trend is to integrate the devices into a platform with a friendly environment, using web services, understanding web service as a set of protocols and standards used for exchanging data between applications. They allow interoperability between different vendor’s platforms and can interconnect software and services from different companies located in geographically dispersed locations. DPWS (Devices Profile for Web Services) is a set of guidelines designed to allow devices to 'discover' each other within the network and to invoke their services. In the future the web as well as connecting millions of people, also will connect millions of devices. This project focuses on improving the security system for a device that implements the standard DPWS; information encryption and a hash code, being a brief summary of all information that represents the document uniquely.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el mundo actual el uso de la telefonía móvil ha desbancado a la telefonía fija, creando la necesidad en los usuarios de estar conectados independientemente del lugar en el que se encuentren. Esto provoca que las compañías telefónicas estén cada vez más preocupadas por mejorar y renovar sus redes de comunicaciones para proporcionar sus servicios con cada vez mayor calidad. En este proyecto se estudiara la forma en la que un gran operador mantiene su red actualizada y se detallaran los trabajos necesarios para que su red se mantenga actualizada y no se encuentren equipos obsoletos dentro de su arquitectura. Se describirá el procedimiento mediante el cual una operadora de telefonía móvil ha llevado a cabo la renovación de los equipos de su red de acceso. A lo largo del proyecto se describirán los diferentes tipos de escenarios y las distintas soluciones adoptadas a implementar en dichos escenarios. De la misma forma se describirá el tipo de equipo instalado, indicando las diferentes tarjetas que lo forman y sus diferentes funcionalidades. Se describirán las acciones llevadas a cabo por el grupo de O&M de integración mediante las cuales se retirara el equipo antiguo y se instalara el nuevo impactando lo menos posible en la red del operador. ABSTRACT. In today's world the use of mobile phones has replaced fixed lines, creating the need for users to stay connected no matter where they are located. This causes the phone companies are increasingly concerned with improving and renovating their communications networks to provide services with increasing quality. In this project the way in which a large network operator maintains their network updated and detailing the work required to keep it updated and with no obsolete equipment in its architecture are be considered. The process by which a mobile operator has undertaken the renovation of the computers on your network access will be described. Throughout the project the different types of scenarios and different solutions adopted to implement these scenarios are described. Likewise the type of installed equipment is also described, indicating the different cards that form it and its various functions. Actions carried out by the group of O & M of integration by which the old equipment is retired and the new install as little as possible impact on the operator's network will be described.