64 resultados para CABLEADO ESTRUCTURADO


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La investigación persigue contrastar la hipótesis de la existencia de dos diferentes culturas deportivas en las personas adultas, la femenina y la masculina, a través del análisis de los niveles de práctica (tipo de demanda), tipo de actividad practicada y sus características (frecuencia semanal, gasto mensual, espacio de práctica y modo de organización). La metodología cuantitativa empleada ha consistido en la aplicación de un cuestionario estructurado a una muestra aleatoria de las mujeres y varones mayores adultos entre 30 y 64 años (n=340; 50.3% mujeres, 49.7% hombres) en la Comunidad de Madrid. Las conclusiones obtenidas revelan que un 45.3% de hombres y un 34.5% de mujeres practica deporte; además otro 15.5% de mujeres y 11.7% de hombres camina para hacer ejercicio. Aparecen diferencias de género en las actividades practicadas (c2(10)=46.83; p<.001; CC=.442), en el número de horas de práctica (t191=2.29; p<.05; d=.33), en el gasto mensual (t148=3.16; p<.001; d=.69) y en el modo de desplazamiento a la actividad (c2(7)=27.44; p<0.001; CC=0.359) aunque la práctica de actividades auto-organizadas es mayoritaria en ambos sexos (80.3% hombres, 63.7% mujeres), principalmente en solitario (62.7% hombres, 50.5% mujeres) y en espacios al aire libre (60.4% hombres, 46.6% mujeres).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta tesis es el desarrollo y caracterización de biosensores ópticos sin marcado basados en celdas sensoras biofotónicas (BICELLs). Éstas son un nuevo concepto de biosensor desarrollado por el grupo de investigación y consiste en la combinación de técnicas de interrogación vertical, junto a estructuras fotónicas producidas usando métodos de micro- y nanofabricación. Varias conclusiones son extraídas de este trabajo. La primera, que se ha definido una BICELL estándar basada en interferómetros Fabry-Perot (FP). Se ha demostrado su capacidad para la comparación de rendimiento entre BICELLs estructuradas y para la realización de inmunoensayos de bajo coste. Se han estudiado diferentes técnicas de fabricación disponibles para la producción de BICELLs. Se determinó que la litografía de contacto a nivel de oblea produce estructuras de bajo coste, reproducibles y de alta calidad. La resolución alcanzada ha sido de 700 nm. El estudio de la respuesta a inmunoensayos de las BICELLs producidas se ha desarrollado en este trabajo. Se estudió la influencia de BICELLs basadas en diferentes geometrías y tamaños. De aquí resulta un nuevo enfoque para predecir el comportamiento de respuesta para la detección biológica de cualquier biosensor óptico estructurado, relacionando su superficie efectiva y su sensibilidad óptica. También se demostró una técnica novedosa y de bajo coste para la caracterización experimental de la sensibilidad óptica, basada en el depósito de películas ultradelgadas. Finalmente, se ha demostrado el uso de BICELLs desarrolladas en esta tesis, en la detección de aplicaciones reales, tales como hormonas, virus y proteínas. ABSTRACT The objective of this thesis is the development and characterization of optical label-free biosensors based on Bio-Photonic sensing Cells (BICELLs). BICELL is a novel biosensor concept developed by the research group, and it consists of a combination of vertical interrogation optical techniques and photonic structures produced by using micro- and nano-fabrication methods. Several main conclusions are extracted from this work. Firstly, a standard BICELL is defined based on FP interferometers, which demonstrated its capacity for accomplishing performance comparisons among different structured BICELLs, as well as to achieve low-cost immunoassays. Different available fabrication techniques were studied for BICELL manufacturing. It is found that contact lithography at wafer scale produce cost-effective, reproducible and high quality structures. The resolution achieved was 700 nm. Study on the response of developed BICELLs to immunoassays is performed within this work. It is therefore studied the influence of BICELLs based on different geometries and sizes in the immunoassay, which resulted in a new approach to predict the biosensing behaviour of any structured optical biosensor relating to its effective surface and optical sensitivity. Also, it is demonstrated a novel and low-cost characterization technique of the experimental optical sensitivity, based on ultrathin-film deposition. Finally, it is also demonstrated the capability of using the developed BICELLs in this thesis for real applications detection of hormones, virus and proteins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se desarrolla un modelo de simulación de un accionamiento controlado que emula el comportamiento de una turbina eólica, el cual se ha llevado a cabo a través del programa para simulación Matlab/Simulink. Su desarrollo se ha estructurado de la siguiente forma: Tras una breve introducción a la energía eólica y a las máquinas eléctricas objeto de estudio en este proyecto, se procede a la caracterización y representación de dichas maquinas dentro de la plataforma de simulación virtual Simulink. Posteriormente se explican posibles estrategias de control de la máquina de inducción, las cuales son aplicadas para la realización de un control de velocidad. Asimismo, se realiza un control vectorial de par de la máquina de inducción de modo que permita un seguimiento efectivo del par de referencia demandado por el usuario, ante distintas condiciones. Finalmente, se añade el modelo de turbina eólica de manera que, definiendo los valores de velocidad de viento, ángulo de paso y velocidad del eje, permite evaluar el par mecánico desarrollado por la turbina. Este modelo se valida comprobando su funcionamiento para diferentes puntos de operación ante diversas condiciones del par de carga. Las condiciones de carga se establecen acoplando al modelo de la turbina, un generador síncrono de imanes permanentes conectado a una carga resistiva. ! II! ABSTRACT In this project, the simulation model of a controlled drive that emulates the behaviour of a wind turbine is developed. It has been carried out through the platform for multidomian simulation called Matlab/Simulink. Its development has been structured as follows: After a brief introduction to the wind energy and the electrical machines studied in this project, these machines are characterized and represented into the virtual simulation platform, Simulink. Subsequently, the possible control strategies for the induction machine are explained and applied in order to carry out a speed control. Additionally, a torque vector control of the induction machine is performed, so as to enable an effective monitoring of the reference torque requested by the user, under different conditions. Finally, the wind turbine model is implemented so as to assess the turbine mechanical torque, after defining the wind speed, the pitch angle and the shaft speed values. This model is validated by testing its functionality for different operating points under various load torques. The load conditions are set up by attaching a permanent magnets synchronous machine, with a resistive load, to the turbine model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las obras de adaptación de la sección transversal de carreteras existentes a estándares de mayor exigencia por motivos de confort, seguridad y nivel de servicio conllevan unas actuaciones sobre las estructuras de la vía que pueden ser abordadas con diferentes soluciones estructurales, siendo necesario un análisis previo técnico-económico del problema. Además, gran parte de estas actuaciones se realizan en carreteras de montaña sobre puentes de fábrica con un grado de protección histórico artística importante, lo que nos puede llevar a desechar previamente la posibilidad de demoler y rehacer los puentes afectados por la ampliación, que en algunos casos podría ser favorable desde el punto de vista económico. El presente artículo aborda uno de los sistemas más competitivos para la ampliación de puentes existentes de fábrica mediante el método de losas autoportantes en voladizo, culminadas con losa de hormigón "in situ" en fase final, permitiendo pasar de los anchos reducidos de algunas estructuras (4-5 m) a secciones mínimas de 7-8 m que permiten el tránsito de vehículos en unas condiciones de seguridad más adecuadas. Se ha estructurado la exposición mediante un primer bloque que aborda las actuaciones necesarias para la caracterización de la estructura existente sobre la que se sustentará la futura ampliación, una segunda parte que explica la sistemática y parámetros de diseño de la solución, para finalmente, en base a la experiencia de trabajos llevados a cabo así como la implementación de diversos modelos de elementos finitos, obtener una serie de recomendaciones y valores orientativos para facilitar el trabajo de los profesionales que se enfrenten a este tipo de problemática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A medida que se incrementa la energía de los aceleradores de partículas o iones pesados como el CERN o GSI, de los reactores de fusión como JET o ITER, u otros experimentos científicos, se va haciendo cada vez más imprescindible el uso de técnicas de manipulación remota para la interacción con el entorno sujeto a la radiación. Hasta ahora la tasa de dosis radioactiva en el CERN podía tomar valores cercanos a algunos mSv para tiempos de enfriamiento de horas, que permitían la intervención humana para tareas de mantenimiento. Durante los primeros ensayos con plasma en JET, se alcanzaban valores cercanos a los 200 μSv después de un tiempo de enfriamiento de 4 meses y ya se hacía extensivo el uso de técnicas de manipulación remota. Hay una clara tendencia al incremento de los niveles de radioactividad en el futuro en este tipo de instalaciones. Un claro ejemplo es ITER, donde se esperan valores de 450 Sv/h en el centro del toroide a los 11 días de enfriamiento o los nuevos niveles energéticos del CERN que harán necesario una apuesta por niveles de mantenimiento remotos. En estas circunstancias se enmarca esta tesis, que estudia un sistema de control bilateral basado en fuerza-posición, tratando de evitar el uso de sensores de fuerza/par, cuyo contenido electrónico los hace especialmente sensitivos en estos ambientes. El contenido de este trabajo se centra en la teleoperación de robots industriales, que debido a su reconocida solvencia y facilidad para ser adaptados a estos entornos, unido al bajo coste y alta disponibilidad, les convierte en una alternativa interesante para tareas de manipulación remota frente a costosas soluciones a medida. En primer lugar se considera el problema cinemático de teleoperación maestro-esclavo de cinemática disimilar y se desarrolla un método general para la solución del problema en el que se incluye el uso de fuerzas asistivas para guiar al operador. A continuación se explican con detalle los experimentos realizados con un robot ABB y que muestran las dificultades encontradas y recomendaciones para solventarlas. Se concluye el estudio cinemático con un método para el encaje de espacios de trabajo entre maestro y esclavo disimilares. Posteriormente se mira hacia la dinámica, estudiándose el modelado de robots con vistas a obtener un método que permita estimar las fuerzas externas que actúan sobre los mismos. Durante la caracterización del modelo dinámico, se realizan varios ensayos para tratar de encontrar un compromiso entre complejidad de cálculo y error de estimación. También se dan las claves para modelar y caracterizar robots con estructura en forma de paralelogramo y se presenta la arquitectura de control deseada. Una vez obtenido el modelo completo del esclavo, se investigan diferentes alternativas que permitan una estimación de fuerzas externas en tiempo real, minimizando las derivadas de la posición para minimizar el ruido. Se comienza utilizando observadores clásicos del estado para ir evolucionando hasta llegar al desarrollo de un observador de tipo Luenberger-Sliding cuya implementación es relativamente sencilla y sus resultados contundentes. También se analiza el uso del observador propuesto durante un control bilateral simulado en el que se compara la realimentación de fuerzas obtenida con las técnicas clásicas basadas en error de posición frente a un control basado en fuerza-posición donde la fuerza es estimada y no medida. Se comprueba como la solución propuesta da resultados comparables con las arquitecturas clásicas y sin embargo introduce una alternativa para la teleoperación de robots industriales cuya teleoperación en entornos radioactivos sería imposible de otra manera. Finalmente se analizan los problemas derivados de la aplicación práctica de la teleoperación en los escenarios mencionados anteriormente. Debido a las condiciones prohibitivas para todo equipo electrónico, los sistemas de control se deben colocar a gran distancia de los manipuladores, dando lugar a longitudes de cable de centenares de metros. En estas condiciones se crean sobretensiones en controladores basados en PWM que pueden ser destructivas para el sistema formado por control, cableado y actuador, y por tanto, han de ser eliminadas. En este trabajo se propone una solución basada en un filtro LC comercial y se prueba de forma extensiva que su inclusión no produce efectos negativos sobre el control del actuador. ABSTRACT As the energy on the particle accelerators or heavy ion accelerators such as CERN or GSI, fusion reactors such as JET or ITER, or other scientific experiments is increased, it is becoming increasingly necessary to use remote handling techniques to interact with the remote and radioactive environment. So far, the dose rate at CERN could present values near several mSv for cooling times on the range of hours, which allowed human intervention for maintenance tasks. At JET, they measured values close to 200 μSv after a cooling time of 4 months and since then, the remote handling techniques became usual. There is a clear tendency to increase the radiation levels in the future. A clear example is ITER, where values of 450 Sv/h are expected in the centre of the torus after 11 days of cooling. Also, the new energetic levels of CERN are expected to lead to a more advanced remote handling means. In these circumstances this thesis is framed, studying a bilateral control system based on force-position, trying to avoid the use of force/torque sensors, whose electronic content makes them very sensitive in these environments. The contents of this work are focused on teleoperating industrial robots, which due its well-known reliability, easiness to be adapted to these environments, cost-effectiveness and high availability, are considered as an interesting alternative to expensive custom-made solutions for remote handling tasks. Firstly, the kinematic problem of teloperating master and slave with dissimilar kinematics is analysed and a new general approach for solving this issue is presented. The solution includes using assistive forces in order to guide the human operator. Coming up next, I explain with detail the experiments accomplished with an ABB robot that show the difficulties encountered and the proposed solutions. This section is concluded with a method to match the master’s and slave’s workspaces when they present dissimilar kinematics. Later on, the research studies the dynamics, with special focus on robot modelling with the purpose of obtaining a method that allows to estimate external forces acting on them. During the characterisation of the model’s parameters, a set of tests are performed in order to get to a compromise between computational complexity and estimation error. Key points for modelling and characterising robots with a parallelogram structure are also given, and the desired control architecture is presented. Once a complete model of the slave is obtained, different alternatives for external force estimation are review to be able to predict forces in real time, minimizing the position differentiation to minimize the estimation noise. The research starts by implementing classic state observers and then it evolves towards the use of Luenberger- Sliding observers whose implementation is relatively easy and the results are convincing. I also analyse the use of proposed observer during a simulated bilateral control on which the force feedback obtained with the classic techniques based on the position error is compared versus a control architecture based on force-position, where the force is estimated instead of measured. I t is checked how the proposed solution gives results comparable with the classical techniques and however introduces an alternative method for teleoperating industrial robots whose teleoperation in radioactive environments would have been impossible in a different way. Finally, the problems originated by the practical application of teleoperation in the before mentioned scenarios are analysed. Due the prohibitive conditions for every electronic equipment, the control systems should be placed far from the manipulators. This provokes that the power cables that fed the slaves devices can present lengths of hundreds of meters. In these circumstances, overvoltage waves are developed when implementing drives based on PWM technique. The occurrence of overvoltage is very dangerous for the system composed by drive, wiring and actuator, and has to be eliminated. During this work, a solution based on commercial LC filters is proposed and it is extensively proved that its inclusion does not introduce adverse effects into the actuator’s control.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las playas sustentadas por medio de un pie sumergido son una atractiva alternativa de diseño de regeneración de playas especialmente cuando las condiciones física del emplazamiento o las características de la arena nativa y de préstamo producen perfiles de alimentación que no se intersectan. La observación y propuesta de este tipo de solución data de los años 1960’s, así como la experiencia internacional en la construcción de este tipo de playas. Sin embargo, a pesar de su utilización y los estudios en campo y laboratorio, no se dispone de criterios ingenieriles que apoyen el diseño de las mismas. Esta tesis consiste en un análisis experimental del perfil de playas sustentadas en un pie sumergido (o colgadas) que se concreta en una propuesta de directrices de diseño general que permiten estimar la ubicación y características geométricas del pie sumergido frente a un oleaje y material que constituye la playa determinados. En la tesis se describe el experimento bidimensional realizado en el modelo físico de fondo móvil, donde se combinan cinco tipos de oleaje con tres configuraciones del pie sumergido (“Sin estructura”, configuración baja o “Estructura 1” y configuración alta o “Estructura 2”), se presentan los resultados obtenidos y se realiza una discusión detallada de las implicaciones de los resultados desde el punto de vista hidrodinámico utilizando monomios adimensionales. Se ha realizado un análisis detallado del estado del arte sobre playas colgadas, presentando el concepto y las experiencias de realizaciones en distintos países. Se ha realizado una cuidadosa revisión de la literatura publicada sobre estudios experimentales de playas colgadas, modelos teóricos y otras cuestiones auxiliares, necesarias para la formulación de la metodología de la tesis. El estudio realizado se ha estructurado en dos fases. En la primera fase se ha realizado una experimentación en un modelo físico de fondo móvil construido en las instalaciones del Centro de Estudios de Puertos y Costas (CEPYC) del Centro de Estudios y Experimentación de Obras Públicas (CEDEX), consistente en un canal de 36 m de longitud, 3 m de anchura y 1.5 m de altura, provisto de un generador de oleaje de tipo pistón. Se ha diseñado una campaña de 15 ensayos, que se obtienen sometiendo a cinco tipos de oleaje tres configuraciones distintas de playa colgada. En los ensayos se ha medido el perfil de playa en distintos instantes hasta llegar al equilibrio, determinando a partir de esos datos el retroceso de la línea de costa y el volumen de sedimentos perdido. El tiempo total efectivo de ensayo asciende a casi 650 horas, y el número de perfiles de evolución de playa obtenidos totaliza 229. En la segunda fase se ha abordado el análisis de los resultados obtenidos con la finalidad de comprender el fenómeno, identificar las variables de las que depende y proponer unas directrices ingenieriles de diseño. Se ha estudiado el efecto de la altura de ola, del periodo del oleaje, del francobordo adimensional y del parámetro de Dean, constatándose la dificultad de comprensión del funcionamiento de estas obras ya que pueden ser beneficiosas, perjudiciales o inocuas según los casos. También se ha estudiado la respuesta del perfil de playa en función de otros monomios adimensionales, tales como el número de Reynolds o el de Froude. En el análisis se ha elegido el monomio “plunger” como el más significativo, encontrando relaciones de éste con el peralte de oleaje, la anchura de coronación adimensional, la altura del pie de playa adimensional y el parámetro de Dean. Finalmente, se propone un método de diseño de cuatro pasos que permite realizar un primer encaje del diseño funcional de la playa sustentada frente a un oleaje de características determinadas. Las contribuciones más significativas desde el punto de vista científico son: - La obtención del juego de resultados experimentales. - La caracterización del comportamiento de las playas sustentadas. - Las relaciones propuestas entre el monomio plunger y las distintas variables explicativas seleccionadas, que permiten predecir el comportamiento de la obra. - El método de diseño propuesto, en cuatro pasos, para este tipo de esquemas de defensa de costas. Perched beaches are an attractive beach nourishment design alternative especially when either the site conditions or the characteristics of both the native and the borrow sand lead to a non-intersecting profile The observation and suggestion of the use of this type of coastal defence scheme dates back to the 1960’s, as well as the international experience in the construction of this type of beaches. However, in spite of its use and the field and laboratory studies performed to-date, no design engineering guidance is available to support its design. This dissertation is based on the experimental work performed on a movable bed physical model and the use of dimensionless parameters in analyzing the results to provide general functional design guidance that allow the designer, at a particular stretch of coast - to estimate the location and geometric characteristics of the submerged sill as well as to estimate the suitable sand size to be used in the nourishment. This dissertation consists on an experimental analysis of perched beaches by means of a submerged sill, leading to the proposal of general design guidance that allows to estimate the location and geometric characteristics of the submerged sill when facing a wave condition and for a given beach material. The experimental work performed on a bi-dimensional movable bed physical model, where five types of wave conditions are combined with three configurations of the submerged sill (“No structure”, low structure or “Structure 1”, and high structure or “Structure 2”) is described, results are presented, and a detailed discussion of the results - from the hydrodynamic point of view – of the implications of the results by using dimensionless parameters is carried out. A detailed state of the art analysis about perched beaches has been performed, presenting the “perched beach concept” and the case studies of different countries. Besides, a careful revision of the literature about experimental studies on perched beaches, theoretical models, and other topics deemed necessary to formulate the methodology of this work has been completed. The study has been divided into two phases. Within the first phase, experiments on a movable-bed physical model have been developed. The physical model has been built in the Centro de Estudios de Puertos y Costas (CEPYC) facilities, Centro de Estudios y Experimentación de Obras Públicas (CEDEX). The wave flume is 36 m long, 3 m wide and 1.5 m high, and has a piston-type regular wave generator available. The test plan consisted of 15 tests resulting from five wave conditions attacking three different configurations of the perched beach. During the development of the tests, the beach profile has been surveyed at different intervals until equilibrium has been reached according to these measurements. Retreat of the shoreline and relative loss of sediment in volume have been obtained from the measurements. The total effective test time reaches nearly 650 hours, whereas the total number of beach evolution profiles measured amounts to 229. On the second phase, attention is focused on the analysis of results with the aim of understanding the phenomenon, identifying the governing variables and proposing engineering design guidelines. The effect of the wave height, the wave period, the dimensionless freeboard and of the Dean parameter have been analyzed. It has been pointed out the difficulty in understanding the way perched beaches work since they turned out to be beneficial, neutral or harmful according to wave conditions and structure configuration. Besides, the beach profile response as a function of other dimensionless parameters, such as Reynolds number or Froude number, has been studied. In this analysis, the “plunger” parameter has been selected as the most representative, and relationships between the plunger parameter and the wave steepness, the dimensionless crest width, the dimensionless crest height, and the Dean parameter have been identified. Finally, an engineering 4-step design method has been proposed, that allows for the preliminary functional design of the perched beach for a given wave condition. The most relevant contributions from the scientific point of view have been: - The acquisition of a consistent set of experimental results. - The characterization of the behavior of perched beaches. - The proposed relationships between the plunger parameter and the different explanatory variables selected, that allow for the prediction of the beach behavior. - The proposed design method, four-step method, for this type of coastal defense schemes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta investigación indaga sobre la relación entre el método geométrico empleado por Pablo Palazuelo y el proceso del proyecto arquitectónico. La elección de este pintor y escultor madrileño como hilo conductor de esta tesis no es fortuita, puesto que la arquitectura desempeña una influencia esencial sobre su obra. Un influjo que le llega en parte a través de su formación académica, dado que cursó estudios de arquitectura en la School of Arts and Crafts de la ciudad de Oxford (1933-1936). Así mismo diseñó propuestas estrechamente vinculadas a un lugar construido, con el consiguiente condicionante de las trazas del mismo. La hipótesis de trabajo formulada a partir de textos elaborados por autores como Víctor Nieto Alcaide y Juan Daniel Fullaondo sugería una interconexión con la arquitectura orgánica. Como comprobación del grado de profundidad en otros análisis publicados, se han seleccionado los textos que indagan en el proceso que el artista desarrollaba durante la producción de su obra, y se adentran en cuestiones estructurales que trascienden el ámbito formal. Siguiendo esta pauta, además de una acotación temporal, se han escogido los realizados por Santiago Amón, Carme Bonell, Valerio Bozal, Manuel J. Borja-Villel, Francisco Calvo Serraller, Claude Esteban, Julián Gállego, Teresa Grandas, Max Hölzer, George Limbour, Kevin Power y Carlos Rodríguez-Spiteri. A estos autores se suman las fuentes orales consultadas dentro de un entorno intrínsecamente próximo a sus realizaciones, procedentes de Pere Casanovas y Soledad Lorenzo. Además de personas que en diferentes etapas de su vida coincidieron por distintos motivos con sus realizaciones, como son Ramón Ayerza, Mariano Bayón, José Antonio Corrales, Luis Gordillo, Rafael Moneo, José Rodríguez-Spiteri y Antonio Tornero. A partir del acceso obtenido a los escritos, libros, bocetos y abundante obra gráfica y escultórica que atesora la Fundación del pintor, se ha podido elaborar un andamiaje tanto teórico como geométrico que ha servido de base para confrontar estas premisas. Esta empresa se ha estructurado en una narración que, además de los estudios precedentes citados, comienza con los cimientos del pensamiento de Palazuelo. Elaborada a partir de sus escritos, donde defendía un sincretismo que concilia las visiones de las culturas occidental y oriental. En los siguientes apartados, se han analizado las principales obras gráficas y escultóricas del autor haciendo un especial hincapié en el método productivo. Una gestación que se resiste a una mera enumeración cronológica, por lo que la clasificación que se propone en este trabajo trata de ser lo más fiel posible al espíritu expresado por Palazuelo basado en linajes y coherencias, para desvelar las herramientas empleadas y poder compararlas con el proceso del proyectual. Este recorrido se completa con una última sección se reúnen por primera vez las dieciséis obras y los dieciséis proyectos más representativos que ilustran la aproximación más directa que obró Palazuelo entre sus investigaciones geométricas y un locus determinado. Durante casi cuatro años se desarrolló un inventariado y catalogación pormenorizada de la documentación y piezas sobre papel, lienzo y metal realizadas por Palazuelo. Esta indagación saca a la luz un conjunto constituido por casi cuatro mil obras, en su mayoría inéditas, que constituyen el archivo de la citada institución. En definitiva, esta investigación construye un tejido gráfico y geométrico referido a uno de los artistas españoles más importantes del siglo XX, entreverado por su pensamiento teórico y realizaciones en dibujos, maquetas, esculturas y propuestas arquitectónicas. Las cuales permiten establecer los acuerdos y desacuerdos con el proceso de la arquitectura para proponer una nueva aproximación geométrica interdisciplinar. ABSTRACT This research investigates the relationship between the geometric method used by Palazuelo and the architectural design’s process. Choosing this Spanish painter and sculptor as thread of this thesis is not fortuitous, since the architecture has an essential influence on his work. An influx that arrives in part through his academic training, as he was an architecture student at the School of Arts and Crafts of the city of Oxford (1933-1936). Furthermore his proposals designed closely linked to a built place, therefore conditioned by its traces. The working hypothesis formulated from texts written by authors like Victor Nieto Alcaide and Juan Daniel Fullaondo suggested an interconnection with organic architecture. As a check on the degree of depth in other published reviews, articles that explore the process that the artist developed during the production of his work, and penetrate into structural issues beyond formal domain have been selected. Following this pattern, along with a temporal dimension, assays by Santiago Amón, Carme Bonell, Valerio Bozal, Manuel J. Borja-Villel, Francisco Calvo Serraller, Claude Esteban, Julián Gállego, Teresa Grandas, Max Hölzer, George Limbour, Kevin Power and Carlos Rodriguez-Spiteri have been selected. Oral sources within an inherently environment close to his achievements, as Pere Casanovas and Soledad Lorenzo, are also added. In addition to people coincided with his accomplishments, such as Ramón Ayerza, Mariano Bayón, José Antonio Corrales, Luis Gordillo, Rafael Moneo, José Rodríguez-Spiteri and Antonio Tornero. From obtained access to the writings, books, sketches and abundant graphic and sculptural work that holds the Foundation painter, it has been able to develop a theoretical and geometric framework that have served as the basis for confronting these premises. This dissertation has been structured in a narrative that ⎯in addition to the previously mentioned studies⎯, begins with the foundations of Palazuelo thought. A structure built from his writings, where he defended a syncretism that reconciles the views of Western and Eastern cultures. In the following sections, his main graphic and sculptural works have been analyzed with particular emphasis on the productive method. A process that resists mere chronological enumeration, so the classification proposed in this investigation tries to be as faithful as possible to the spirit expressed by Palazuelo, based on bloodlines and coherences, to uncover the tools he used and to compare them with the architectural design process. This tour is completed with a final chapter that gathers the sixteen proposals and sixteen works most representative projects that illustrate the more direct approach that Palazuelo worked between geometric investigations and a given locus. For nearly four years, a detailed inventory and cataloguing of documents and works on paper, canvas and metal made by Palazuelo was developed. This research brings to light a set consisting of nearly four thousand works, mostly unpublished, that constitute the current archive of the aforementioned institution. Ultimately, this research builds a graph and geometric fabric referred to one of the most important Spanish artists of the twentieth century, interspersed by his theoretical thinking and achievements in drawings, models, sculptures and architectural proposals. Which allow establishing agreements and disagreements with the process of architecture to propose a new geometric interdisciplinary approach.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con esta tesis doctoral se pretende elaborar un modelo de Certificado de Calidad Cinegética independiente, de adhesión voluntaria y aplicable a todo tipo de espacios cinegéticos, de forma que posteriormente pueda convertirse en una metodología que sea empleada como instrumento válido de medición de la Calidad Cinegética y normalizada a través de una familia de Normas aprobadas por un organismo de normalización reconocido a nivel nacional o internacional. En primer lugar, se procedió a la realización de un riguroso y exhaustivo estudio de justificación siguiendo la metodología propuesta por la Norma UNE 66172:2003 IN, Directrices para la justificación y desarrollo de sistemas de gestión (equivalente a la Norma Internacional GUIA ISO/IEC 72:2001). A continuación, se procedió a la identificación y desarrollo de los parámetros de Ordenación Cinegética comunes a cualquier espacio cinegético en España y a la conceptualización de la Calidad Cinegética. Finalmente, se desarrolló un modelo estructurado en nueve Criterios y treinta y cuatro Indicadores de Calidad Cinegética, y un proyecto de familia de Normas para la Certificación de la Calidad Cinegética. ABSTRACT This doctoral thesis aims to produce a model of Hunting Quality Certificate independent, of voluntary adherence and applicable to all types of hunting areas, so that later it can become a methodology to be used as a valid instrument for measuring Hunting Quality and standardized through a family of standards approved by an organization of standardization recognized at a national or an international level. First, we proceeded to carry out a rigorous and comprehensive justification study following the methodology proposed by the UNE 66172: 2003 IN, Guidelines for the justification and development of management systems standards (equivalent to the International Standard GUIA ISO / IEC 72: 2001). Then, we proceeded to the identification and development of Hunting Management parameters common to any hunting area in Spain and the conceptualization of Hunting Quality. Finally, a model structured into nine Criteria and thirty-four Indicators of Hunting Quality and a draft of a family of standards for Hunting Quality Certification were developed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis se centra en desarrollo de tecnologías para la interacción hombre-robot en entornos nucleares de fusión. La problemática principal del sector de fusión nuclear radica en las condiciones ambientales tan extremas que hay en el interior del reactor, y la necesidad de que los equipos cumplan requisitos muy restrictivos para poder aguantar esos niveles de radiación, magnetismo, ultravacío, temperatura... Como no es viable la ejecución de tareas directamente por parte de humanos, habrá que utilizar dispositivos de manipulación remota para llevar a cabo los procesos de operación y mantenimiento. En las instalaciones de ITER es obligatorio tener un entorno controlado de extrema seguridad, que necesita de estándares validados. La definición y uso de protocolos es indispensable para regir su buen funcionamiento. Si nos centramos en la telemanipulación con algo grado de escalado, surge la necesidad de definir protocolos para sistemas abiertos que permitan la interacción entre equipos y dispositivos de diversa índole. En este contexto se plantea la definición del Protocolo de Teleoperación que permita la interconexión entre dispositivos maestros y esclavos de distinta tipología, pudiéndose comunicar bilateralmente entre sí y utilizar distintos algoritmos de control según la tarea a desempeñar. Este protocolo y su interconectividad se han puesto a prueba en la Plataforma Abierta de Teleoperación (P.A.T.) que se ha desarrollado e integrado en la ETSII UPM como una herramienta que permita probar, validar y realizar experimentos de telerrobótica. Actualmente, este Protocolo de Teleoperación se ha propuesto a través de AENOR al grupo ISO de Telerobotics como una solución válida al problema existente y se encuentra bajo revisión. Con el diseño de dicho protocolo se ha conseguido enlazar maestro y esclavo, sin embargo con los niveles de radiación tan altos que hay en ITER la electrónica del controlador no puede entrar dentro del tokamak. Por ello se propone que a través de una mínima electrónica convenientemente protegida se puedan multiplexar las señales de control que van a través del cableado umbilical desde el controlador hasta la base del robot. En este ejercicio teórico se demuestra la utilidad y viabilidad de utilizar este tipo de solución para reducir el volumen y peso del cableado umbilical en cifras aproximadas de un 90%, para ello hay que desarrollar una electrónica específica y con certificación RadHard para soportar los enormes niveles de radiación de ITER. Para este manipulador de tipo genérico y con ayuda de la Plataforma Abierta de Teleoperación, se ha desarrollado un algoritmo que mediante un sensor de fuerza/par y una IMU colocados en la muñeca del robot, y convenientemente protegidos ante la radiación, permiten calcular las fuerzas e inercias que produce la carga, esto es necesario para poder transmitirle al operador unas fuerzas escaladas, y que pueda sentir la carga que manipula, y no otras fuerzas que puedan influir en el esclavo remoto, como ocurre con otras técnicas de estimación de fuerzas. Como el blindaje de los sensores no debe ser grande ni pesado, habrá que destinar este tipo de tecnología a las tareas de mantenimiento de las paradas programadas de ITER, que es cuando los niveles de radiación están en sus valores mínimos. Por otro lado para que el operador sienta lo más fielmente posible la fuerza de carga se ha desarrollado una electrónica que mediante el control en corriente de los motores permita realizar un control en fuerza a partir de la caracterización de los motores del maestro. Además para aumentar la percepción del operador se han realizado unos experimentos que demuestran que al aplicar estímulos multimodales (visuales, auditivos y hápticos) aumenta su inmersión y el rendimiento en la consecución de la tarea puesto que influyen directamente en su capacidad de respuesta. Finalmente, y en referencia a la realimentación visual del operador, en ITER se trabaja con cámaras situadas en localizaciones estratégicas, si bien el humano cuando manipula objetos hace uso de su visión binocular cambiando constantemente el punto de vista adecuándose a las necesidades visuales de cada momento durante el desarrollo de la tarea. Por ello, se ha realizado una reconstrucción tridimensional del espacio de la tarea a partir de una cámara-sensor RGB-D, lo cual nos permite obtener un punto de vista binocular virtual móvil a partir de una cámara situada en un punto fijo que se puede proyectar en un dispositivo de visualización 3D para que el operador pueda variar el punto de vista estereoscópico según sus preferencias. La correcta integración de estas tecnologías para la interacción hombre-robot en la P.A.T. ha permitido validar mediante pruebas y experimentos para verificar su utilidad en la aplicación práctica de la telemanipulación con alto grado de escalado en entornos nucleares de fusión. Abstract This thesis focuses on developing technologies for human-robot interaction in nuclear fusion environments. The main problem of nuclear fusion sector resides in such extreme environmental conditions existing in the hot-cell, leading to very restrictive requirements for equipment in order to deal with these high levels of radiation, magnetism, ultravacuum, temperature... Since it is not feasible to carry out tasks directly by humans, we must use remote handling devices for accomplishing operation and maintenance processes. In ITER facilities it is mandatory to have a controlled environment of extreme safety and security with validated standards. The definition and use of protocols is essential to govern its operation. Focusing on Remote Handling with some degree of escalation, protocols must be defined for open systems to allow interaction among different kind of equipment and several multifunctional devices. In this context, a Teleoperation Protocol definition enables interconnection between master and slave devices from different typologies, being able to communicate bilaterally one each other and using different control algorithms depending on the task to perform. This protocol and its interconnectivity have been tested in the Teleoperation Open Platform (T.O.P.) that has been developed and integrated in the ETSII UPM as a tool to test, validate and conduct experiments in Telerobotics. Currently, this protocol has been proposed for Teleoperation through AENOR to the ISO Telerobotics group as a valid solution to the existing problem, and it is under review. Master and slave connection has been achieved with this protocol design, however with such high radiation levels in ITER, the controller electronics cannot enter inside the tokamak. Therefore it is proposed a multiplexed electronic board, that through suitable and RadHard protection processes, to transmit control signals through an umbilical cable from the controller to the robot base. In this theoretical exercise the utility and feasibility of using this type of solution reduce the volume and weight of the umbilical wiring approximate 90% less, although it is necessary to develop specific electronic hardware and validate in RadHard qualifications in order to handle huge levels of ITER radiation. Using generic manipulators does not allow to implement regular sensors for force feedback in ITER conditions. In this line of research, an algorithm to calculate the forces and inertia produced by the load has been developed using a force/torque sensor and IMU, both conveniently protected against radiation and placed on the robot wrist. Scaled forces should be transmitted to the operator, feeling load forces but not other undesirable forces in slave system as those resulting from other force estimation techniques. Since shielding of the sensors should not be large and heavy, it will be necessary to allocate this type of technology for programmed maintenance periods of ITER, when radiation levels are at their lowest levels. Moreover, the operator perception needs to feel load forces as accurate as possible, so some current control electronics were developed to perform a force control of master joint motors going through a correct motor characterization. In addition to increase the perception of the operator, some experiments were conducted to demonstrate applying multimodal stimuli (visual, auditory and haptic) increases immersion and performance in achieving the task since it is directly correlated with response time. Finally, referring to the visual feedback to the operator in ITER, it is usual to work with 2D cameras in strategic locations, while humans use binocular vision in direct object manipulation, constantly changing the point of view adapting it to the visual needs for performing manipulation during task procedures. In this line a three-dimensional reconstruction of non-structured scenarios has been developed using RGB-D sensor instead of cameras in the remote environment. Thus a mobile virtual binocular point of view could be generated from a camera at a fixed point, projecting stereoscopic images in 3D display device according to operator preferences. The successful integration of these technologies for human-robot interaction in the T.O.P., and validating them through tests and experiments, verify its usefulness in practical application of high scaling remote handling at nuclear fusion environments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I. GENERALIDADES 1.1. Introducción Entre los diversos tipos de perturbaciones eléctricas, los huecos de tensión son considerados el problema de calidad de suministro más frecuente en los sistemas eléctricos. Este fenómeno es originado por un aumento extremo de la corriente en el sistema, causado principalmente por cortocircuitos o maniobras inadecuadas en la red. Este tipo de perturbación eléctrica está caracterizado básicamente por dos parámetros: tensión residual y duración. Típicamente, se considera que el hueco se produce cuando la tensión residual alcanza en alguna de las fases un valor entre 0.01 a 0.9 pu y tiene una duración de hasta 60 segundos. Para un usuario final, el efecto más relevante de un hueco de tensión es la interrupción o alteración de la operación de sus equipos, siendo los dispositivos de naturaleza electrónica los principalmente afectados (p. ej. ordenador, variador de velocidad, autómata programable, relé, etc.). Debido al auge tecnológico de las últimas décadas y a la búsqueda constante de automatización de los procesos productivos, el uso de componentes electrónicos resulta indispensable en la actualidad. Este hecho, lleva a que los efectos de los huecos de tensión sean más evidentes para el usuario final, provocando que su nivel de exigencia de la calidad de energía suministrada sea cada vez mayor. De forma general, el estudio de los huecos de tensión suele ser abordado bajo dos enfoques: en la carga o en la red. Desde el punto de vista de la carga, se requiere conocer las características de sensibilidad de los equipos para modelar su respuesta ante variaciones súbitas de la tensión del suministro eléctrico. Desde la perspectiva de la red, se busca estimar u obtener información adecuada que permita caracterizar su comportamiento en términos de huecos de tensión. En esta tesis, el trabajo presentado se encuadra en el segundo aspecto, es decir, en el modelado y estimación de la respuesta de un sistema eléctrico de potencia ante los huecos de tensión. 1.2. Planteamiento del problema A pesar de que los huecos de tensión son el problema de calidad de suministro más frecuente en las redes, hasta la actualidad resulta complejo poder analizar de forma adecuada este tipo de perturbación para muchas compañías del sector eléctrico. Entre las razones más comunes se tienen: - El tiempo de monitorización puede llegar a ser de varios años para conseguir una muestra de registros de huecos estadísticamente válida. - La limitación de recursos económicos para la adquisición e instalación de equipos de monitorización de huecos. - El elevado coste operativo que implica el análisis de los datos de los medidores de huecos de tensión instalados. - La restricción que tienen los datos de calidad de energía de las compañías eléctricas. Es decir, ante la carencia de datos que permitan analizar con mayor detalle los huecos de tensión, es de interés de las compañías eléctricas y la academia poder crear métodos fiables que permitan profundizar en el estudio, estimación y supervisión de este fenómeno electromagnético. Los huecos de tensión, al ser principalmente originados por eventos fortuitos como los cortocircuitos, son el resultado de diversas variables exógenas como: (i) la ubicación de la falta, (ii) la impedancia del material de contacto, (iii) el tipo de fallo, (iv) la localización del fallo en la red, (v) la duración del evento, etc. Es decir, para plantear de forma adecuada cualquier modelo teórico sobre los huecos de tensión, se requeriría representar esta incertidumbre combinada de las variables para proveer métodos realistas y, por ende, fiables para los usuarios. 1.3. Objetivo La presente tesis ha tenido como objetivo el desarrollo diversos métodos estocásticos para el estudio, estimación y supervisión de los huecos de tensión en los sistemas eléctricos de potencia. De forma específica, se ha profundizado en los siguientes ámbitos: - En el modelado realista de las variables que influyen en la caracterización de los huecos. Esto es, en esta Tesis se ha propuesto un método que permite representar de forma verosímil su cuantificación y aleatoriedad en el tiempo empleando distribuciones de probabilidad paramétricas. A partir de ello, se ha creado una herramienta informática que permite estimar la severidad de los huecos de tensión en un sistema eléctrico genérico. - Se ha analizado la influencia la influencia de las variables de entrada en la estimación de los huecos de tensión. En este caso, el estudio se ha enfocado en las variables de mayor divergencia en su caracterización de las propuestas existentes. - Se ha desarrollado un método que permite estima el número de huecos de tensión de una zona sin monitorización a través de la información de un conjunto limitado de medidas de un sistema eléctrico. Para ello, se aplican los principios de la estadística Bayesiana, estimando el número de huecos de tensión más probable de un emplazamiento basándose en los registros de huecos de otros nudos de la red. - Plantear una estrategia para optimizar la monitorización de los huecos de tensión en un sistema eléctrico. Es decir, garantizar una supervisión del sistema a través de un número de medidores menor que el número de nudos de la red. II. ESTRUCTURA DE LA TESIS Para plantear las propuestas anteriormente indicadas, la presente Tesis se ha estructurado en seis capítulos. A continuación, se describen brevemente los mismos. A manera de capítulo introductorio, en el capítulo 1, se realiza una descripción del planteamiento y estructura de la presente tesis. Esto es, se da una visión amplia de la problemática a tratar, además de describir el alcance de cada capítulo de la misma. En el capítulo 2, se presenta una breve descripción de los fundamentos y conceptos generales de los huecos de tensión. Los mismos, buscan brindar al lector de una mejor comprensión de los términos e indicadores más empleados en el análisis de severidad de los huecos de tensión en las redes eléctricas. Asimismo, a manera de antecedente, se presenta un resumen de las principales características de las técnicas o métodos existentes aplicados en la predicción y monitorización óptima de los huecos de tensión. En el capítulo 3, se busca fundamentalmente conocer la importancia de las variables que determinen la frecuencia o severidad de los huecos de tensión. Para ello, se ha implementado una herramienta de estimación de huecos de tensión que, a través de un conjunto predeterminado de experimentos mediante la técnica denominada Diseño de experimentos, analiza la importancia de la parametrización de las variables de entrada del modelo. Su análisis, es realizado mediante la técnica de análisis de la varianza (ANOVA), la cual permite establecer con rigor matemático si la caracterización de una determinada variable afecta o no la respuesta del sistema en términos de los huecos de tensión. En el capítulo 4, se propone una metodología que permite predecir la severidad de los huecos de tensión de todo el sistema a partir de los registros de huecos de un conjunto reducido de nudos de dicha red. Para ello, se emplea el teorema de probabilidad condicional de Bayes, el cual calcula las medidas más probables de todo el sistema a partir de la información proporcionada por los medidores de huecos instalados. Asimismo, en este capítulo se revela una importante propiedad de los huecos de tensión, como es la correlación del número de eventos de huecos de tensión en diversas zonas de las redes eléctricas. En el capítulo 5, se desarrollan dos métodos de localización óptima de medidores de huecos de tensión. El primero, que es una evolución metodológica del criterio de observabilidad; aportando en el realismo de la pseudo-monitorización de los huecos de tensión con la que se calcula el conjunto óptimo de medidores y, por ende, en la fiabilidad del método. Como una propuesta alternativa, se emplea la propiedad de correlación de los eventos de huecos de tensión de una red para plantear un método que permita establecer la severidad de los huecos de todo el sistema a partir de una monitorización parcial de dicha red. Finalmente, en el capítulo 6, se realiza una breve descripción de las principales aportaciones de los estudios realizados en esta tesis. Adicionalmente, se describen diversos temas a desarrollar en futuros trabajos. III. RESULTADOS En base a las pruebas realizadas en las tres redes planteadas; dos redes de prueba IEEE de 24 y 118 nudos (IEEE-24 e IEEE-118), además del sistema eléctrico de la República del Ecuador de 357 nudos (EC-357), se describen los siguientes puntos como las observaciones más relevantes: A. Estimación de huecos de tensión en ausencia de medidas: Se implementa un método estocástico de estimación de huecos de tensión denominado PEHT, el cual representa con mayor realismo la simulación de los eventos de huecos de un sistema a largo plazo. Esta primera propuesta de la tesis, es considerada como un paso clave para el desarrollo de futuros métodos del presente trabajo, ya que permite emular de forma fiable los registros de huecos de tensión a largo plazo en una red genérica. Entre las novedades más relevantes del mencionado Programa de Estimación de Huecos de Tensión (PEHT) se tienen: - Considerar el efecto combinado de cinco variables aleatorias de entrada para simular los eventos de huecos de tensión en una pseudo-monitorización a largo plazo. Las variables de entrada modeladas en la caracterización de los huecos de tensión en el PEHT son: (i) coeficiente de fallo, (ii) impedancia de fallo, (iii) tipo de fallo, (iv) localización del fallo y (v) duración. - El modelado estocástico de las variables de entrada impedancia de fallo y duración en la caracterización de los eventos de huecos de tensión. Para la parametrización de las variables mencionadas, se realizó un estudio detallado del comportamiento real de las mismas en los sistemas eléctricos. Asimismo, se define la función estadística que mejor representa la naturaleza aleatoria de cada variable. - Considerar como variables de salida del PEHT a indicadores de severidad de huecos de uso común en las normativas, como es el caso de los índices: SARFI-X, SARFI-Curve, etc. B. Análisis de sensibilidad de los huecos de tensión: Se presenta un estudio causa-efecto (análisis de sensibilidad) de las variables de entrada de mayor divergencia en su parametrización entre las referencias relacionadas a la estimación de los huecos de tensión en redes eléctricas. De forma específica, se profundiza en el estudio de la influencia de la parametrización de las variables coeficiente de fallo e impedancia de fallo en la predicción de los huecos de tensión. A continuación un resumen de las conclusiones más destacables: - La precisión de la variable de entrada coeficiente de fallo se muestra como un parámetro no influyente en la estimación del número de huecos de tensión (SARFI-90 y SARFI-70) a largo plazo. Es decir, no se requiere de una alta precisión del dato tasa de fallo de los elementos del sistema para obtener una adecuada estimación de los huecos de tensión. - La parametrización de la variable impedancia de fallo se muestra como un factor muy sensible en la estimación de la severidad de los huecos de tensión. Por ejemplo, al aumentar el valor medio de esta variable aleatoria, se disminuye considerablemente la severidad reportada de los huecos en la red. Por otra parte, al evaluar el parámetro desviación típica de la impedancia de fallo, se observa una relación directamente proporcional de este parámetro con la severidad de los huecos de tensión de la red. Esto es, al aumentar la desviación típica de la impedancia de fallo, se evidencia un aumento de la media y de la variación interanual de los eventos SARFI-90 y SARFI-70. - En base al análisis de sensibilidad desarrollado en la variable impedancia de fallo, se considera muy cuestionable la fiabilidad de los métodos de estimación de huecos de tensión que omiten su efecto en el modelo planteado. C. Estimación de huecos de tensión en base a la información de una monitorización parcial de la red: Se desarrolla un método que emplea los registros de una red parcialmente monitorizada para determinar la severidad de los huecos de todo el sistema eléctrico. A partir de los casos de estudio realizados, se observa que el método implementado (PEHT+MP) posee las siguientes características: - La metodología propuesta en el PEHT+MP combina la teoría clásica de cortocircuitos con diversas técnicas estadísticas para estimar, a partir de los datos de los medidores de huecos instalados, las medidas de huecos de los nudos sin monitorización de una red genérica. - El proceso de estimación de los huecos de tensión de la zona no monitorizada de la red se fundamenta en la aplicación del teorema de probabilidad condicional de Bayes. Es decir, en base a los datos observados (los registros de los nudos monitorizados), el PEHT+MP calcula de forma probabilística la severidad de los huecos de los nudos sin monitorización del sistema. Entre las partes claves del procedimiento propuesto se tienen los siguientes puntos: (i) la creación de una base de datos realista de huecos de tensión a través del Programa de Estimación de Huecos de Tensión (PEHT) propuesto en el capítulo anterior; y, (ii) el criterio de máxima verosimilitud empleado para estimar las medidas de huecos de los nudos sin monitorización de la red evaluada. - Las predicciones de medidas de huecos de tensión del PEHT+MP se ven potenciadas por la propiedad de correlación de los huecos de tensión en diversas zonas de un sistema eléctrico. Esta característica intrínseca de las redes eléctricas limita de forma significativa la respuesta de las zonas fuertemente correlacionadas del sistema ante un eventual hueco de tensión. Como el PEHT+MP está basado en principios probabilísticos, la reducción del rango de las posibles medidas de huecos se ve reflejado en una mejor predicción de las medidas de huecos de la zona no monitorizada. - Con los datos de un conjunto de medidores relativamente pequeño del sistema, es posible obtener estimaciones precisas (error nulo) de la severidad de los huecos de la zona sin monitorizar en las tres redes estudiadas. - El PEHT+MP se puede aplicar a diversos tipos de indicadores de severidad de los huecos de tensión, como es el caso de los índices: SARFI-X, SARFI-Curve, SEI, etc. D. Localización óptima de medidores de huecos de tensión: Se plantean dos métodos para ubicar de forma estratégica al sistema de monitorización de huecos en una red genérica. La primera propuesta, que es una evolución metodológica de la localización óptima de medidores de huecos basada en el criterio de observabilidad (LOM+OBS); y, como segunda propuesta, un método que determina la localización de los medidores de huecos según el criterio del área de correlación (LOM+COR). Cada método de localización óptima de medidores propuesto tiene un objetivo concreto. En el caso del LOM+OBS, la finalidad del método es determinar el conjunto óptimo de medidores que permita registrar todos los fallos que originen huecos de tensión en la red. Por otro lado, en el método LOM+COR se persigue definir un sistema óptimo de medidores que, mediante la aplicación del PEHT+MP (implementado en el capítulo anterior), sea posible estimar de forma precisa las medidas de huecos de tensión de todo el sistema evaluado. A partir del desarrollo de los casos de estudio de los citados métodos de localización óptima de medidores en las tres redes planteadas, se describen a continuación las observaciones más relevantes: - Como la generación de pseudo-medidas de huecos de tensión de los métodos de localización óptima de medidores (LOM+OBS y LOM+COR) se obtienen mediante la aplicación del algoritmo PEHT, la formulación del criterio de optimización se realiza en base a una pseudo-monitorización realista, la cual considera la naturaleza aleatoria de los huecos de tensión a través de las cinco variables estocásticas modeladas en el PEHT. Esta característica de la base de datos de pseudo-medidas de huecos de los métodos LOM+OBS y LOM+COR brinda una mayor fiabilidad del conjunto óptimo de medidores calculado respecto a otros métodos similares en la bibliografía. - El conjunto óptimo de medidores se determina según la necesidad del operador de la red. Esto es, si el objetivo es registrar todos los fallos que originen huecos de tensión en el sistema, se emplea el criterio de observabilidad en la localización óptima de medidores de huecos. Por otra parte, si se plantea definir un sistema de monitorización que permita establecer la severidad de los huecos de tensión de todo el sistema en base a los datos de un conjunto reducido de medidores de huecos, el criterio de correlación resultaría el adecuado. De forma específica, en el caso del método LOM+OBS, basado en el criterio de observabilidad, se evidenciaron las siguientes propiedades en los casos de estudio realizados: - Al aumentar el tamaño de la red, se observa la tendencia de disminuir el porcentaje de nudos monitorizados de dicho sistema. Por ejemplo, para monitorizar los fallos que originan huecos en la red IEEE-24, se requiere monitorizar el 100\% de los nudos del sistema. En el caso de las redes IEEE-118 y EC-357, el método LOM+OBS determina que con la monitorización de un 89.5% y 65.3% del sistema, respectivamente, se cumpliría con el criterio de observabilidad del método. - El método LOM+OBS permite calcular la probabilidad de utilización del conjunto óptimo de medidores a largo plazo, estableciendo así un criterio de la relevancia que tiene cada medidor considerado como óptimo en la red. Con ello, se puede determinar el nivel de precisión u observabilidad (100%, 95%, etc.) con el cual se detectarían los fallos que generan huecos en la red estudiada. Esto es, al aumentar el nivel de precisión de detección de los fallos que originan huecos, se espera que aumente el número de medidores requeridos en el conjunto óptimo de medidores calculado. - El método LOM+OBS se evidencia como una técnica aplicable a todo tipo de sistema eléctrico (radial o mallado), el cual garantiza la detección de los fallos que originan huecos de tensión en un sistema según el nivel de observabilidad planteado. En el caso del método de localización óptima de medidores basado en el criterio del área de correlación (LOM+COR), las diversas pruebas realizadas evidenciaron las siguientes conclusiones: - El procedimiento del método LOM+COR combina los métodos de estimación de huecos de tensión de capítulos anteriores (PEHT y PEHT+MP) con técnicas de optimización lineal para definir la localización óptima de los medidores de huecos de tensión de una red. Esto es, se emplea el PEHT para generar los pseudo-registros de huecos de tensión, y, en base al criterio planteado de optimización (área de correlación), el LOM+COR formula y calcula analíticamente el conjunto óptimo de medidores de la red a largo plazo. A partir de la información registrada por este conjunto óptimo de medidores de huecos, se garantizaría una predicción precisa de la severidad de los huecos de tensión de todos los nudos del sistema con el PEHT+MP. - El método LOM+COR requiere un porcentaje relativamente reducido de nudos del sistema para cumplir con las condiciones de optimización establecidas en el criterio del área de correlación. Por ejemplo, en el caso del número total de huecos (SARFI-90) de las redes IEEE-24, IEEE-118 y EC-357, se calculó un conjunto óptimo de 9, 12 y 17 medidores de huecos, respectivamente. Es decir, solamente se requeriría monitorizar el 38\%, 10\% y 5\% de los sistemas indicados para supervisar los eventos SARFI-90 en toda la red. - El método LOM+COR se muestra como un procedimiento de optimización versátil, el cual permite reducir la dimensión del sistema de monitorización de huecos de redes eléctricas tanto radiales como malladas. Por sus características, este método de localización óptima permite emular una monitorización integral del sistema a través de los registros de un conjunto pequeño de monitores. Por ello, este nuevo método de optimización de medidores sería aplicable a operadores de redes que busquen disminuir los costes de instalación y operación del sistema de monitorización de los huecos de tensión. ABSTRACT I. GENERALITIES 1.1. Introduction Among the various types of electrical disturbances, voltage sags are considered the most common quality problem in power systems. This phenomenon is caused by an extreme increase of the current in the network, primarily caused by short-circuits or inadequate maneuvers in the system. This type of electrical disturbance is basically characterized by two parameters: residual voltage and duration. Typically, voltage sags occur when the residual voltage, in some phases, reaches a value between 0.01 to 0.9 pu and lasts up to 60 seconds. To an end user, the most important effect of a voltage sags is the interruption or alteration of their equipment operation, with electronic devices the most affected (e.g. computer, drive controller, PLC, relay, etc.). Due to the technology boom of recent decades and the constant search for automating production processes, the use of electronic components is essential today. This fact makes the effects of voltage sags more noticeable to the end user, causing the level of demand for a quality energy supply to be increased. In general, the study of voltage sags is usually approached from one of two aspects: the load or the network. From the point of view of the load, it is necessary to know the sensitivity characteristics of the equipment to model their response to sudden changes in power supply voltage. From the perspective of the network, the goal is to estimate or obtain adequate information to characterize the network behavior in terms of voltage sags. In this thesis, the work presented fits into the second aspect; that is, in the modeling and estimation of the response of a power system to voltage sag events. 1.2. Problem Statement Although voltage sags are the most frequent quality supply problem in electrical networks, thistype of disturbance remains complex and challenging to analyze properly. Among the most common reasons for this difficulty are: - The sag monitoring time, because it can take up to several years to get a statistically valid sample. - The limitation of funds for the acquisition and installation of sag monitoring equipment. - The high operating costs involved in the analysis of the voltage sag data from the installed monitors. - The restrictions that electrical companies have with the registered power quality data. That is, given the lack of data to further voltage sag analysis, it is of interest to electrical utilities and researchers to create reliable methods to deepen the study, estimation and monitoring of this electromagnetic phenomenon. Voltage sags, being mainly caused by random events such as short-circuits, are the result of various exogenous variables such as: (i) the number of faults of a system element, (ii) the impedance of the contact material, (iii) the fault type, (iv) the fault location, (v) the duration of the event, etc. That is, to properly raise any theoretical model of voltage sags, it is necessary to represent the combined uncertainty of variables to provide realistic methods that are reliable for users. 1.3. Objective This Thesis has been aimed at developing various stochastic methods for the study, estimation and monitoring of voltage sags in electrical power systems. Specifically, it has deepened the research in the following areas: - This research furthers knowledge in the realistic modeling of the variables that influence sag characterization. This thesis proposes a method to credibly represent the quantification and randomness of the sags in time by using parametric probability distributions. From this, a software tool was created to estimate the severity of voltage sags in a generic power system. - This research also analyzes the influence of the input variables in the estimation of voltage sags. In this case, the study has focused on the variables of greatest divergence in their characterization of the existing proposals. - A method was developed to estimate the number of voltage sags of an area without monitoring through the information of a limited set of sag monitors in an electrical system. To this end, the principles of Bayesian statistics are applied, estimating the number of sags most likely to happen in a system busbar based in records of other sag network busbars. - A strategy was developed to optimize the monitorization of voltage sags on a power system. Its purpose is to ensure the monitoring of the system through a number of monitors lower than the number of busbars of the network assessed. II. THESIS STRUCTURE To describe in detail the aforementioned proposals, this Thesis has been structured into six chapters. Below is are brief descriptions of them: As an introductory chapter, Chapter 1, provides a description of the approach and structure of this thesis. It presents a wide view of the problem to be treated, in addition to the description of the scope of each chapter. In Chapter 2, a brief description of the fundamental and general concepts of voltage sags is presented to provide to the reader a better understanding of the terms and indicators used in the severity analysis of voltage sags in power networks. Also, by way of background, a summary of the main features of existing techniques or methods used in the prediction and optimal monitoring of voltage sags is also presented. Chapter 3 essentially seeks to know the importance of the variables that determine the frequency or severity of voltage sags. To do this, a tool to estimate voltage sags is implemented that, through a predetermined set of experiments using the technique called Design of Experiments, discusses the importance of the parameters of the input variables of the model. Its analysis is interpreted by using the technique of analysis of variance (ANOVA), which provides mathematical rigor to establish whether the characterization of a particular variable affects the system response in terms of voltage sags or not. In Chapter 4, a methodology to predict the severity of voltage sags of an entire system through the sag logs of a reduced set of monitored busbars is proposed. For this, the Bayes conditional probability theorem is used, which calculates the most likely sag severity of the entire system from the information provided by the installed monitors. Also, in this chapter an important property of voltage sags is revealed, as is the correlation of the voltage sags events in several zones of a power system. In Chapter 5, two methods of optimal location of voltage sag monitors are developed. The first one is a methodological development of the observability criteria; it contributes to the realism of the sag pseudo-monitoring with which the optimal set of sag monitors is calculated and, therefore, to the reliability of the proposed method. As an alternative proposal, the correlation property of the sag events of a network is used to raise a method that establishes the sag severity of the entire system from a partial monitoring of the network. Finally, in Chapter 6, a brief description of the main contributions of the studies in this Thesis is detailed. Additionally, various themes to be developed in future works are described. III. RESULTS. Based on tests on the three networks presented, two IEEE test networks of 24 and 118 busbars (IEEE-24 and IEEE-118) and the electrical system of the Republic of Ecuador (EC-357), the following points present the most important observations: A. Estimation of voltage sags in the absence of measures: A stochastic estimation method of voltage sags, called PEHT, is implemented to represent with greater realism the long-term simulation of voltage sags events in a system. This first proposal of this thesis is considered a key step for the development of future methods of this work, as it emulates in a reliable manner the voltage sag long-term records in a generic network. Among the main innovations of this voltage sag estimation method are the following: - Consideration of the combined effect of five random input variables to simulate the events of voltage sags in long-term monitoring is included. The input variables modeled in the characterization of voltage sags on the PEHT are as follows: (i) fault coefficient, (ii) fault impedance, (iii) type of fault, (iv) location of the fault, and (v) fault duration. - Also included is the stochastic modeling of the input variables of fault impedance and duration in the characterization of the events of voltage sags. For the parameterization of these variables, a detailed study of the real behavior in power systems is developed. Also, the statistical function best suited to the random nature of each variable is defined. - Consideration of sag severity indicators used in standards as PEHT output variables, including such as indices as SARFI-X, SARFI-Curve, etc. B. Sensitivity analysis of voltage sags: A cause-effect study (sensitivity analysis) of the input variables of greatest divergence between reference parameterization related to the estimation of voltage sags in electrical networks is presented. Specifically, it delves into the study of the influence of the parameterization of the variables fault coefficient and fault impedance in the voltage sag estimation. Below is a summary of the most notable observations: - The accuracy of the input variable fault coefficient is shown as a non-influential parameter in the long-term estimation of the number of voltage sags (SARFI-90 and SARFI-70). That is, it does not require a high accuracy of the fault rate data of system elements for a proper voltage sag estimation. - The parameterization of the variable fault impedance is shown to be a very sensitive factor in the estimation of the voltage sag severity. For example, by increasing the average value of this random variable, the reported sag severity in the network significantly decreases. Moreover, in assessing the standard deviation of the fault impedance parameter, a direct relationship of this parameter with the voltage sag severity of the network is observed. That is, by increasing the fault impedance standard deviation, an increase of the average and the interannual variation of the SARFI-90 and SARFI-70 events is evidenced. - Based on the sensitivity analysis developed in the variable fault impedance, the omission of this variable in the voltage sag estimation would significantly call into question the reliability of the responses obtained. C. Voltage sag estimation from the information of a network partially monitored: A method that uses the voltage sag records of a partially monitored network for the sag estimation of all the power system is developed. From the case studies performed, it is observed that the method implemented (PEHT+MP) has the following characteristics: - The methodology proposed in the PEHT+MP combines the classical short-circuit theory with several statistical techniques to estimate, from data the of the installed sag meters, the sag measurements of unmonitored busbars of a generic power network. - The estimation process of voltage sags of the unmonitored zone of the network is based on the application of the conditional probability theorem of Bayes. That is, based on the observed data (monitored busbars records), the PEHT+MP calculates probabilistically the sag severity at unmonitored system busbars. Among the key parts of the proposed procedure are the following: (i) the creation of a realistic data base of voltage sags through of the sag estimation program (PEHT); and, (ii) the maximum likelihood criterion used to estimate the sag indices of system busbars without monitoring. - The voltage sag measurement estimations of PEHT+MP are potentiated by the correlation property of the sag events in power systems. This inherent characteristic of networks significantly limits the response of strongly correlated system zones to a possible voltage sag. As the PEHT+MP is based on probabilistic principles, a reduction of the range of possible sag measurements is reflected in a better sag estimation of the unmonitored area of the power system. - From the data of a set of monitors representing a relatively small portion of the system, to obtain accurate estimations (null error) of the sag severity zones without monitoring is feasible in the three networks studied. - The PEHT+MP can be applied to several types of sag indices, such as: SARFI-X, SARFI-Curve, SEI, etc. D. Optimal location of voltage sag monitors in power systems: Two methods for strategically locating the sag monitoring system are implemented for a generic network. The first proposal is a methodological development of the optimal location of sag monitors based on the observability criterion (LOM + OBS); the second proposal is a method that determines the sag monitor location according to the correlation area criterion (LOM+COR). Each proposed method of optimal location of sag monitors has a specific goal. In the case of LOM+OBS, the purpose of the method is to determine the optimal set of sag monitors to record all faults that originate voltage sags in the network. On the other hand, the LOM+COR method attempts to define the optimal location of sag monitors to estimate the sag indices in all the assessed network with the PEHT+MP application. From the development of the case studies of these methods of optimal location of sag monitors in the three networks raised, the most relevant observations are described below: - As the generation of voltage sag pseudo-measurements of the optimal location methods (LOM+OBS and LOM+COR) are obtained by applying the algorithm PEHT, the formulation of the optimization criterion is performed based on a realistic sag pseudo-monitoring, which considers the random nature of voltage sags through the five stochastic variables modeled in PEHT. This feature of the database of sag pseudo-measurements of the LOM+OBS and LOM+COR methods provides a greater reliability of the optimal set of monitors calculated when compared to similar methods in the bibliography. - The optimal set of sag monitors is determined by the network operator need. That is, if the goal is to record all faults that originate from voltage sags in the system, the observability criterion is used to determine the optimal location of sag monitors (LOM+OBS). Moreover, if the objective is to define a monitoring system that allows establishing the sag severity of the system from taken from information based on a limited set of sag monitors, the correlation area criterion would be appropriate (LOM+COR). Specifically, in the case of the LOM+OBS method (based on the observability criterion), the following properties were observed in the case studies: - By increasing the size of the network, there was observed a reduction in the percentage of monitored system busbars required. For example, to monitor all the faults which cause sags in the IEEE-24 network, then 100% of the system busbars are required for monitoring. In the case of the IEEE-118 and EC-357 networks, the method LOM+OBS determines that with monitoring 89.5 % and 65.3 % of the system, respectively, the observability criterion of the method would be fulfilled. - The LOM+OBS method calculates the probability of using the optimal set of sag monitors in the long term, establishing a relevance criterion of each sag monitor considered as optimal in the network. With this, the level of accuracy or observability (100%, 95%, etc.) can be determined, with which the faults that caused sags in the studied network are detected. That is, when the accuracy level for detecting faults that cause sags in the system is increased, a larger number of sag monitors is expected when calculating the optimal set of monitors. - The LOM + OBS method is demonstrated to be a technique applicable to any type of electrical system (radial or mesh), ensuring the detection of faults that cause voltage sags in a system according to the observability level raised. In the case of the optimal localization of sag monitors based on the criterion of correlation area (LOM+COR), several tests showed the following conclusions: - The procedure of LOM+COR method combines the implemented algorithms of voltage sag estimation (PEHT and PEHT+MP) with linear optimization techniques to define the optimal location of the sag monitors in a network. That is, the PEHT is used to generate the voltage sag pseudo-records, and, from the proposed optimization criterion (correlation area), the LOM+COR formulates and analytically calculates the optimal set of sag monitors of the network in the long term. From the information recorded by the optimal set of sag monitors, an accurate prediction of the voltage sag severity at all the busbars of the system is guaranteed with the PEHT+MP. - The LOM + COR method is shown to be a versatile optimization procedure, which reduces the size of the sag monitoring system both at radial as meshed grids. Due to its characteristics, this optimal location method allows emulation of complete system sag monitoring through the records of a small optimal set of sag monitors. Therefore, this new optimization method would be applicable to network operators that looks to reduce the installation and operation costs of the voltage sag monitoring system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Educación Física se muestra, a priori, como un área idónea para trabajar intervenciones educativas para facilitar la inclusión de alumnos con discapacidad. Sin embargo, poco se conoce sobre el potencial que presentan los deportes adaptados y paralímpicos como contenido para fomentar la sensibilización y concienciación del alumnado sin discapacidad, especialmente en situaciones inclusivas de práctica. Por otro lado, la actitud del docente y su formación se presentan como claves en este contexto, ya que es quien en última instancia selecciona los contenidos a trabajar. Entendemos que en EF disponemos de una ocasión única en el curriculum para fomentar la participación activa y efectiva del alumno con discapacidad en clase (especialmente a nivel de desarrollo de la competencia motriz, entre otras), si bien esto depende de factores relacionados con los dos agentes anteriores. Es por todo ello que la Educación Física, como protagonista y como contenido, se muestra como un contexto adecuado para la investigación de los procesos de inclusión de alumnos con discapacidad en el ámbito educativo. Este trabajo de investigación pretende arrojar luz a los interrogantes que condicionan y limitan este contexto, desde una perspectiva multidisciplinar, con distintas metodologías, sobre los tres agentes indicados. La falta de consenso en la literatura en cuanto a las características y tipo de intervenciones eficaces para facilitar esta sensibilización del alumnado, unido a que es un ámbito relativamente reciente como tema de investigación, nos ha impulsado a trabajar en esta línea. El primer objetivo de este trabajo de investigación fue diseñar e implementar un programa de sensibilización y concienciación hacia la discapacidad basado en los deportes adaptados en el área de Educación Física para alumnos de secundaria y bachillerato. Inicialmente, se realizó una búsqueda bibliográfica tanto a nivel nacional como internacional, con el fin de definir las características principales que aporta la literatura científica en este aspecto. Apoyándonos por un lado, en el programa educativo Paralympic School Day (CPI, 2004) y por otro, en la citada revisión, desarrollamos un planteamiento inicial de estructura y fases. Dicho proyecto, fue presentado al Comité Paralímpico Español y a las federaciones deportivas españolas para personas con discapacidad, con la finalidad de recabar su apoyo institucional en forma de aval y recursos no solo a nivel económico sino también como apoyo logístico y de difusión. Tras su aprobación y gracias también al apoyo de la UPM, la Fundación Sanitas y Liberty Seguros, se procedió a diseñar el programa. Para el desarrollo de los materiales didácticos se contactó con expertos en la materia de EF y Actividad Física Adaptada tanto del ámbito educativo (profesores de educación secundaria y profesorado universitario) como del deportivo a nivel nacional. A su vez, se comenzó a difundir entre el profesorado de los centros con el fin de detectar su interés en participar durante el curso académico (2012-2013) en el programa “Deporte Inclusivo en la Escuela”. Con la finalización del desarrollo de los materiales didácticos, se visitó a los centros educativos para presentar el dossier informativo donde se explicaba el programa, así como las características y fases para su implementación. El programa está fundamentado en la Teoría del Contacto (Allport, 1954) y basado en los deportes adaptados y paralímpicos, planteado con una metodología inclusiva, seleccionando la información, la simulación y el contacto directo como estrategias para el fomento de la sensibilización y concienciación hacia la inclusión. En la reunión celebrada en la Facultad de Ciencias de la Actividad Física y del Deporte (INEF-UPM) en febrero de 2013, se coordinó junto con el profesorado la implementación del programa en cada uno de los 13 centros educativos, con acciones concretas como la adecuación de la propuesta didáctica en la planificación anual del profesor, el préstamo de material o la ponencia del deportista paralímpico entre otras cuestiones. Para la consecución del objetivo 2 de este trabajo, analizar el efecto del programa en los distintos agentes implicados en el mismo, alumnos sin discapacidad, profesorado de EF y alumnos con discapacidad, se calendarizó la toma de datos y la administración de las diferentes herramientas metodológicas para antes (pretest) como después de la intervención (posttets). En el caso de los alumnos sin discapacidad (N= 1068), se analizó el efecto de la intervención sobre la actitud hacia la inclusión, utilizando el cuestionario “Children Attitude Integrated Physical Education-Revised” (CAIPE-R; Block, 1995) de carácter cuantitativo tras su validación y adaptación al contexto español. Los resultados mostraron cambios significativos positivos en la actitud el grupo que mantuvo un contacto no estructurado con alumnos con discapacidad. En esta muestra también se midió la actitud hacia el juego cooperativo con compañeros con discapacidad en clases de EF usando el cuestionario “Children's Beliefs Toward Cooperative Playing With Peers With Disabilities in Physical Education” (CBIPPD-MPE; Obrusnikova, Block, y Dillon, 2010). El desarrollo de un sistema de categorías fundamentado en la Teoría del Comportamiento Planificado (Azjen, 1991) sirvió como base para el análisis de las creencias del alumnado sin discapacidad. Tras la intervención, las creencias conductuales emergentes se mantuvieron, excepto en el caso de los factores identificados como obstáculos de la inclusión. En el caso de las creencias normativas también se mantuvieron tras la intervención y respecto a las creencias de control, los alumnos identificaron al profesor como principal agente facilitador de la inclusión. En el caso de los profesores de EF participantes en el programa (N=18), se analizó el efecto del programa en su actitud hacia la inclusión de alumnos con discapacidad en EF con el cuestionario “Attitud toward inclusion of individual with physical disabilities in Physical Education” (ATISDPE-R; Kudláèek, Válková, Sherrill, Myers, y French, 2002). Los resultados mostraron que no se produjeron diferencias significativas tras la intervención en la actitud general, encontrando algunas diferencias en determinados ítems relacionados con los beneficios de la inclusión en los alumnos sin discapacidad relacionados con los docentes con experiencia previa con discapacidad y en EF antes de la intervención. La otra dimensión analizada fue el efecto de la intervención en la autoeficacia del profesor en la enseñanza de la EF en condiciones inclusivas, habiendo utilizado el cuestionario "Self-efficacy in teaching PE under inclusive conditions" (SEIPE; Hutzler, Zach, y Gafni, 2005). Los resultados en este caso muestran diferencias significativas positivas en cuestiones relacionadas como sentirse capaces de mejorar las condiciones óptimas de enseñanza con alumnos con discapacidad física como movilidad reducida severa y amputación y discapacidad visual tanto en situaciones deportivas, como juegos o actividades fuera del centro educativo a favor de los docentes. En cuanto al género, los hombres obtuvieron valores superiores a las mujeres en relación a sentirse más capaces de incluir a alumnos con discapacidad física tanto en juegos durante el recreo como en la enseñanza de técnica deportiva. Los profesores con menos de 10 años de docencia mostraron valores más positivos en cuanto a sentirse capaces de incluir a un alumno con discapacidad fisica en deportes durante su tiempo libre. El análisis del diario del profesor muestra por un lado, las tendencias emergentes como principales elementos facilitadores u obstaculizadores de la inclusión en EF, identificando al propio alumno sin discapacidad, el propio profesor, los contenidos, los materiales y la organización. Por otro lado, el análisis de los contenidos propuestos en el programa. En el caso de los alumnos con discapacidad (N=22), se analizó el impacto del programa de intervención en el autoconcepto, con el cuestionario "Autoconcepto forma 5" (AF5; F. García y Musitu, 2001). Se encontraron diferencias significativas a favor de las mujeres antes de la intervención en la dimensión familiar, mientras que los hombres obtuvieron valores más altos en las dimensiones social y físico. En cuanto a la edad, se encontraron diferencias significativas antes de la intervención, con valores superiores en los alumnos más jóvenes (12-14 años) en la dimensión físico, mientras que los alumnos mayores (15-17 años) mostraron valores más altos en la dimensión social del cuestionario. Respeto al tipo de discapacidad, los alumnos con discapacidad motórica mostraron mejores valores que los que tienen discapacidad auditiva para la dimensión físico antes de la intervención. En cuanto al autoconcepto general, las diferencias significativas positivas se producen en la dimensión académica. En cuanto al efecto del programa en la autoestima de los alumnos con discapacidad, se utilizó la Escala de "Autoestima de Rosenberg" (Rosenberg, 1989), no obteniendo diferencias significativas en cuanto el género. Apareciendo diferencias significativas antes de la intervención en el caso de la variable edad en los alumnos más jóvenes, en cuanto a que desearían valorarse más, y en los alumnos con discapacidad auditiva en que no se sienten muy orgullosos de ellos mismos. Se produce una mejora en la autoestima general en cuanto a que se sienten menos inútiles tras la intervención. En relación al objetivo 3 de este trabajo, tras el análisis de los resultados y haber discutido los mismos con los autores de referencia, emergió la propuesta de orientaciones tanto para los programa de intervención en EF para la sensibilización y concienciación del alumnado hacia la inclusión como de cara a la formación específica del profesorado, como clave en este tipo de intervenciones. Creemos que el programa “Deporte Inclusivo Escuela” se convierte en un elemento transformador de la realidad, ya que responde a las necesidades detectadas a la luz de esta investigación y que vienen a dar respuesta a los distintos agentes implicados en su desarrollo. Por un lado, atiende la demanda del ámbito educativo en cuanto a las necesidades de formación del profesorado, sensibilización y concienciación del alumnado sin discapacidad, además de facilitar oportunidades de participación activa al alumno con discapacidad en las sesiones de EF. Por otro lado, satisface la demanda por parte de las instituciones deportivas del ámbito de la discapacidad en cuanto a la promoción y difusión de los deportes adaptados y paralímpicos. Por último, desde el ámbito universitario, se muestra como un recurso en la formación del alumnado del grado en Ciencias de la Actividad Física y del Deporte, por su participación directa con la discapacidad. Por estos motivos, este trabajo se muestra como un punto de partida adecuado para seguir avanzando en la investigación en esta área. ABSTRACT Physical Education (PE) seems a priori, as a suitable area to work educational interventions to facilitate the inclusion of students with disabilities. However, little is known about the potential that have adapted and Paralympic sports as content to raise awareness of students without disabilities, especially in inclusive practice context. On the other hand, teachers’ attitude and their training are presented as key in this context because it is who selects the content to work. We understand that PE have a unique opportunity in the curriculum to encourage active and effective participation of students with disabilities in class (especially at motor competence development, etc.), although this depends on factors related to the two agents. For these reasons that the PE, as actors and as content is displayed as a context for investigating the processes of inclusion of students with disabilities in education. This research aims to shed light on the questions that condition and limit this context, from a multidisciplinary perspective, with different methodologies on the three agents mentioned. The lack of accord in the literature regarding the characteristics and type of effective facilitators of awareness of students, and that is a new area as a research topic, has prompted us to work in this topic research. The first aim of this research was to design and implement a program of awareness towards disability based on adapted sports in the area of physical education for middle and high school students. Initially, a literature search was performed both nationally and internationally, in order to define the main features that brings the scientific literature in this area. On the one hand, we supported in the Paralympic School Day (IPC, 2004) educative program and on the other hand, in that review, we developed an initial approach to structure and phases. The project was presented to the Spanish Paralympic Committee and the Spanish Sports Federations for people with disabilities, in order to obtain institutional support in the form of guarantees and resources not only in economic terms but also as logistical support and dissemination. Thanks to the support of Fundación Sanitas, Liberty Seguros and Politechnical University of Madrid, we proceeded to design the program. For the development of teaching resources it was contacted experts in the field of Adapted Physical Activity and physical education and both the field of education (high school teachers and university professors) as the adapted sport national. In turn, it began to spread among the teachers of the schools in order to identify their interest in participating in the academic year (2012-2013) in the "Inclusive Sport in School" program. With the completion of the development of educational materials to schools he was visited to present the briefing where the program, as well as features and steps for its implementation are explained. The program is based on the Contact Theory (Allport, 1954) and based on adapted and Paralympic sports, raised with an inclusive approach, selecting strategies for promoting awareness and awareness to inclusion like information, contact and simulation of disability. At the meeting held at the Faculty of Sciences of Physical Activity and Sport (INEF-UPM) in February 2013, it was coordinated with the teachers implementing the program in each of the 13 schools with concrete actions such as adequacy of methodological approach in the annual planning of the teacher, the loan or the presentation of materials Paralympian among other issues. To achieve the objective 2 of this paper, to analyze the effect of the program on the various actions involved it, students without disabilities, PE teachers and students with disabilities, the date for management of the different methodological tools for before (pretest) and after the intervention (posttets). For students without disabilities (N= 1068), the effect of the intervention on the attitude towards inclusion was analyzed, using the quantitative questionnaire "Integrated Physical Education Attitude Children-Revised" (CAIPE-R; Block, 1995), after validation and adaptation to the Spanish context. The results showed significant positive changes in the attitude of the group with no structured contact with students with disabilities. This shows the beliefs towards the cooperative play was with peers with disabilities in PE classes also measured, using the questionnaire "Children's Beliefs Toward Cooperative Playing With Peers With Disabilities in Physical Education" (CBIPPD-MPE; Obrusnikova, Block, and Dillon, 2010). The development of a system of categories based on the Theory of Planned Behavior (Azjen, 1991) served as the basis for analysis of the beliefs of students without disabilities. After surgery, emerging behavioral beliefs remained, except in the case of the factors identified as barriers to inclusion. In the case of normative beliefs also they remained after surgery and regarding control beliefs, students identified the teacher as the main facilitator of inclusion. Regarding PE teachers participating in the program (N = 18), the effect of the program was analyzed their attitude toward inclusion of students with disability in PE with the questionnaire "Toward Attitude inclusion of Individual with in Physical Education "(ATISDPE-R; Kudláèek, Válková, Sherrill, Myers, and French, 2002). The results showed no significant difference occurred after surgery in the general attitude, finding some differences in certain related benefits of inclusion in students without disability relating to teachers with previous experience with disability in PE before intervention. The other dimension was analyzed the effect of the intervention on self-efficacy of teachers in the teaching of PE in inclusive terms, having used the questionnaire "Self-efficacy in PE teaching even under conditions" (SEIPE; Hutzler, Zach, and Gafni, 2005). The results showed significant differences positive in issues like being able to enhance the optimal conditions for teaching students with physical disabilities as amputation and severe visual impairment in both sports situations, such as games or activities outside the school to for teachers. Regard to gender, men earned higher values regarding women about feel more able to include students with physical disabilities in both games during recess and teaching sports technique. Teachers with less than 10 years of teaching showed more positive values as you feel able to include a student with physical disabilities in sports during their leisure time. The analysis of daily teacher shows on the one hand, emerging trends as key facilitators or barrier of the inclusion elements in PE, identifying the students without disabilities themselves, the professor, contents, materials and organization. Furthermore, the analysis of daily teacher about the contents proposed in the program. In the case of students with disabilities (N=22), the impact of the intervention program on self-concept was analyzed, with the questionnaire "Self-concept form 5" (AF5, F. Garcia and Musitu, 2001). The women showed significant differences before the intervention in family dimension, while men scored higher values in the social and physical dimensions were found. In terms of age, significant differences were found before the intervention, with higher values in younger students (12-14 years) in the physical dimension, while older children (15-17 years) showed higher values the social dimension of the questionnaire. Respect disabilities, students with motor disabilities showed better values than those with hearing impairment to the physical dimension before surgery. As for the general self-concept, positive significant differences occur in the academic dimension. As for the effect of the program on self-esteem of students with disabilities Scale "Rosenberg Self-Esteem" (Rosenberg, 1989) was used, not getting significant differences in gender. Only appear significant difference before the intervention in the case of younger students as they wish to be valued more, and students with hearing disabilities who do not feel very proud of themselves. Improved self-esteem generally occurs in that they feel less useless after surgery. With regard to the aim 3 of this research, after analyzing the results and have discussed them with the authors, it emerged the proposal of guidelines for both intervention program EF for sensitization and awareness of students towards inclusion as in the face of specific training for teachers, as key in such interventions. We believe that "Inclusive Sport Schools" program becomes a transforming element of reality, as it responds to the needs identified in the light of this research and come to respond to the various elements involved in its development. On the one hand, it meets the demand of the education sector in terms of the needs of teacher training, awareness of students without disability, and facilitates opportunities for students with disabilities for active participation in PE class. On the other hand, it meets the demand of sports institutions in the field of disability regarding the promotion and dissemination of adapted and Paralympic sports. Finally, it is shown as a resource from the university level for the training of degree in Physical Activity and Sport Science students, by its direct involvement with disability. For these reasons, this work is shown as a good starting point to further advance research in this area.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito de este estudio fue la construcción y validación de un instrumento de medición de barreras a la práctica de la actividad física y deportiva por parte de las personas adultas desde la teoría ecológico social y analizar la presencia de las diferentes barreras así como las innovaciones y alternativas de conciliación a las barreras relacionadas con el empleo, el cuidado de hijos e hijas y las tareas del hogar, identificando las posibles diferencias existentes en función del género y del tipo de demanda en la población adulta de la Comunidad de Madrid. Se ha realizado un estudio cuantitativo, descriptivo y transversal en una muestra representativa de la población residente en la Comunidad de Madrid entre 30 y 64 años. El tipo de muestreo fue probabilístico, de tipo polietápico según tamaño demográfico de municipio y género, con un margen de error del ± 5,27% y un intervalo de confianza del 95,5%. El tamaño de la muestra final fue de 360 personas (50,3% mujeres, 49,7% hombres), quienes completaron un cuestionario estructurado mediante entrevista personal cara a cara en su domicilio entre octubre y diciembre de 2011, que incluía una escala de barreras específica, así como sub-cuestionarios de innovaciones y alternativas de conciliación vinculados a los tres ítems relacionados con el empleo, cuidado de hijos e hijas y hogar de la escala de barreras. La escala de barreras fue completada por las personas practicantes de actividad física y deportiva que deseaban realizar otra actividad, es decir, por la Demanda Establecida, así como por las personas no practicantes pero deseosas de hacerlo o Demanda Latente, y las personas no practicantes no interesadas en practicar o Demanda Ausente (n=246). Las personas que alcanzaron elevadas puntuaciones en los tres ítems de la escala de barreras vinculados al empleo, cuidado de hijos e hijas y hogar, completaron sub-cuestionarios específicos de innovaciones y alternativas de conciliación vinculados a estas barreras. Para el estudio métrico de los ítems y la dimesionalidad de la escala de barreras se llevaron a cabo análisis descriptivos de los ítems, análisis correlacionales y análisis factoriales exploratorios (AFE). Como resultado se obtuvo una escala de barreras constituida por 13 ítems que explicaron el 59,1% de la variabilidad total de los datos, agrupados en cuatro dimensiones denominadas: Barreras Interpersonales (2 ítems), Barreras Individuales (4 ítems), Barreras Comunidad-Institucionales (4 ítems) y Barreras Obligaciones-Tiempo (3 ítems). Los datos de la escala de barreras y los sub-cuestionarios de innovaciones y alternativas de conciliación fueron analizados con el SPSS v. 18. Para la comparación de variables cuantitativas y ordinales se utilizaron ANOVAS de dos factores (género por tipo de demanda), el tamaño del efecto para esta prueba se cuantificó mediante eta cuadrado. Los resultados se expresaron como porcentajes para las variables nominales y como medias y desviaciones típicas para las variables ordinales y cuantitativas. El nivel de riesgo se fijó en 0,05. El instrumento presentó una fiabilidad aceptable (α=0,58) en consonancia con el modelo ecológico social presentando dimensiones que explicaron los niveles de influencia de las diferentes esferas. Los resultados obtenidos permitieron avalar tanto la adecuación de las propiedades psicométricas de los ítems, así como la validez y fiabilidad de la escala de barreras para la práctica de actividad física y deportiva. Los distintos análisis realizados han aportado evidencia de la validez de una estructura de cuatro dimensiones acorde a los planteamientos teóricos previos de los modelos ecológicos sociales. En la dimensión barreras Individuales se identificaron diferencias según el tipo de demanda (F2,237=40,28; p<0,001; η2=0,25) y el género (F1,237=8,72; p<0,01; η2=0,84). En la dimensión barreras Interpersonales se identificaron diferencias de género (F1,239 =14,9; p<0,01; η2=0,06) pero no entre demandas (F2,239=2,35; p>0,05; 1-β=0,47). En la dimensión Barreras Obligaciones-Tiempo se identificaron diferencias en función del tipo de demanda (F2,239=3,88; p<0,05; η2=0,03) sin presentar diferencias entre hombres y mujeres (F1,239=1,06; p>0,05; 1-β=0,18). Por último, en la dimensión Comunidad Institucionales, se identificaron diferencias en función del tipo de demanda (F2,240=5,69; p<0,01; η2=0,045) y no hubo diferencias en función del género (F1,240=0,65; p>0,05; 1-β=0,13). Las innovaciones y alternativas de conciliación relacionadas con el empleo más valoradas fueron la de flexibilidad en los horarios de trabajo y adecuación de horarios; las más valoradas relacionadas con la barrera cuidado de hijos fueron que en la instalación deportiva se ofertaran actividades físicas conjuntas, en las en las que pudiesen participar madres e hijos y que la instalación deportiva ofreciera, en el mismo horario, actividades para ellos y sus hijos, y, por último, las más valoradas en relación con las tareas del hogar, una mayor implicación de la pareja seguida por una mayor implicación de los hijos. ABSTRACT The objectives of this study were to build and validate an instrument to measure the barriers of adult people to the practice of sport and physical activities from the perspective of the social-ecological theory, analyse the presence of the different barriers, as well as the innovations and alternatives regarding conciliation with work and the care of children and home as barriers, identifying the possible differences that exist based on gender and the type of demand of the adult population within the Community of Madrid. For this, a quantitative, descriptive and transversal study was carried out on a representative sample of the resident population of the Community of Madrid, ages ranging from 30 to 64 years old. Given that is an infinite or very large population, and working with an interval of confidence of the 95,5%, and assuming in the population variance, the worst case of p equal to q, the margin of sampling error was ± 5,27. The sample consisted of 360 people (50,3% women, 49,7% men), who completed a questionnaire during face-to-face personal interviews between October and December 2011. The questionnaire included a scale of specific barriers, as well as sub-questionnaires on the innovations and alternatives linked to the three items regarding work, the care of children and home of the barriers scale. The barriers scale was completed by people who practice physical and sport activities and wanted to do other activities, i.e. by the Established Demand; by people who do not practice these activities but would like to do so, i.e. Latent Demand; and by people who do not practice these activities and have no desire to do so, i.e. Absent Demand (n=246). The people who peaked on the three items of the barriers scale regarding work, the care of children and home, then completed specific sub-questionnaires on the innovations and alternatives for conciliation related to these barriers. The metric study of the items and the dimensionality of the barriers scale was carried out through descriptive analyses of the items, as well as correlation analyses and exploratory factor analyses (EFA). This resulted in a barriers scale composed of 13 items that explained 59,1% of the total variability of the data, grouped in four dimensions as follows: Interpersonal Barriers (2 items), Individual Barriers (4 items), Community-Institutional Barriers (4 items) and Obligations-Time Barriers (3 items). The data obtained from the barriers scale and sub-questionnaires on the innovations and alternatives for conciliation were analyzed using software SPSS v. 18. Two-way ANOVA (gender by type of demand) was used for the comparison of quantitative and ordinal variables, and the effect size for this test was quantified with eta squared. The results were expressed as percentages for nominal variables, and as means and standard deviations for quantitative and ordinal variables. The level of risk was set at 0,05. The instrument showed an acceptable reliability (α=0,58) in line with the social-ecological model, providing dimensions that explained the influence levels of the different spheres. The results obtained establish both the adaptation of the psychometric properties of the items, and the validity and reliability of the barriers scale for the practice of physical and sport activities. The different analyses have supported the validity of a four-dimensional structure consistent with the previous theoretical approaches on the social-ecological models, while showing adequate statistical indices. The differences identified in the Individual Barriers dimension were based on the type of demand (F2,237=40,28; p<0,001; η2=0,25) and gender (F1,237=8,72; p<0,01; η2=0,84). The differences identified in the Interpersonal Barriers dimension were based on gender (F1,239 =14,9; p<0,01; η2=0,06) but not on demand (F2,239=2,35; p>0,05; 1-β=0,47). The differences identified for the Obligations-Time Barriers dimension were based on the type of demand (F2,239=3,88; p<0,05; η2=0,03) and did not show differences between men and women (F1,239=1,06; p>0,05; 1-β=0,18). Finally, the differences identified for the Community-Institutional Barriers dimension were based on the type of demand (F2,240=5,69; p<0,01; η2=0,045) and provided no differences based on gender (F1,240=0,65; p>,05; 1-β=0,13). The most valued innovations and alternatives for conciliation regarding work were the adaptation and flexibility of working hours and timetables; the most valued related to the care of children were the offer of joint activities for adults and children in sport centres, as well as separate activities within the same timetable; and, finally, the most valued regarding the home was a higher degree of participation and involvement on the part of the spouse or partner, followed by a higher degree of participation and involvement on the part of the children.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis se centra en la identificación y análisis de los factores que pueden favorecer o actuar como barreras del éxito de la implementación de la innovación y las relaciones entre sí, desde el enfoque de la interface marketing-ventas. El trabajo empírico se enmarca en el vacío de investigación existente en el campo del proceso de lanzamiento de nuevos productos en los mercados donde operan subsidiarias de empresas multinacionales de consumo masivo (FMCG). Las empresas FMCG son altamente dependientes de la innovación como proceso clave determinante del crecimiento competitivo de mediano y largo plazo. En un contexto de acortamiento del ciclo de vida de los productos, como resultado del desarrollo tecnológico y científico que impactan en el comportamiento de los consumidores, las empresas invierten un mayor nivel de recursos en el desarrollo de nuevos productos, reingeniería y programas de innovación (Mundra, Gulati y Gupta, 2013). Sin embargo, a pesar del aumento en la inversión, las tasas de éxito de la innovación reportadas son inferiores al 25% (Evanschitzky, Eisend, Calantone y Jiang, 2012). Aumentar las tasas de éxito de los proyectos de innovación es reconocida en la literatura como un elemento clave para la supervivencia y competitividad de las empresas, para ser superiores a su competencia y desarrollar nuevos modelos de negocios. A pesar de la existencia de estudios que intentan comprender el proceso de lanzamiento de nuevos productos, no se ha identificado un claro prototipo de gestión de la innovación (Gupta et al, 2007). Profundizando en los factores de éxito, los autores Keupp, Palmié y Gassman (2012) reconocen que la innovación exitosa no depende solamente de la estrategia de selección de los proyectos de innovación, sino también la forma en que los mismos son implementados (Klein and Sorra, 1996; Repenning, 2002; Keupp, Palmié y Gassmann, 2012). Al analizar la implementación de los proyectos de lanzamiento de nuevos productos al mercado, en empresas FMCG, dicho proceso es responsabilidad principalmente de las funciones de marketing y ventas a través de la comunicación con los consumidores y los clientes respectivamente (Ernst, Hoyer y Rubsaamen, 2010). Es decir que el éxito en la implementación de la innovación requiere la gestión efectiva de la relación inter-funcional entre marketing y ventas (Ernst, Hoyer y Rubsaamen, 2010; Hughes, Le Bon y Malshe, 2012). A pesar de la importancia de la integración entre marketing y ventas en la conceptualización e implementación de la innovación, este tema no ha sido estudiado en profundidad (Hughes, Le Bon y Malshe, 2012; Keupp, Palmié y Gassmann, 2012). En las empresas multinacionales, está demostrado que el desempeño de las subsidiarias determinan el éxito competitivo de la empresa a nivel global. El desafío de dichas subsidiarias es conjugar el desarrollo global de innovación y comunicación con las características locales de comportamiento del consumidor y el mercado. Por lo tanto, esta investigación empírica responde a la pregunta académica y de gestión acerca de cómo mejorar las tasas de éxito de lanzamiento de nuevos productos al mercado en subsidiarias de empresas de consumo masivo, desde la perspectiva de la relación entre marketing y ventas. En particular analiza cómo afectan la formalización de los procesos y los mecanismos de comunicación a la confianza interpersonal y a la efectividad de la interface marketing-ventas y dichos factores a su vez sobre la planificación integrada de la implementación de la innovación. La determinación de los factores o ítems que conforman cada uno de los constructos del proceso de ejecución de la innovación, se llevó a cabo a partir de una revisión exhaustiva del estado del arte de la literatura sobre las interfaces funcionales y el proceso de innovación. Posteriormente, los ítems seleccionados (más de 50 en total) fueron validados por referentes de marketing y ventas de Argentina y Uruguay a través de entrevistas en profundidad. A partir de los factores identificados se construyeron dos modelos teóricos: • (1) relativo a la influencia de las dimensiones de confianza interpersonal sobre la efectividad de las uniones inter-funcionales y como los mecanismos organizacionales, tales como la frecuencia y la calidad de la comunicación entre las áreas, afectan la confianza y la relación entre ellas; • (2) relativo a la dimensión planificación integrada de la implementación de la innovación, ya que durante el lanzamiento de nuevos productos al mercado, marketing y ventas utilizan procesos formales que facilitan la comunicación frecuente y efectiva, desarrollando confianza inter-personal que no solamente afecta la efectividad de su relación sino también el desarrollo de planes integrados entre ambas áreas. El estudio fue llevado a cabo en una empresa multinacional de consumo masivo que integra la lista Global 500 (Fortune, 2015), presente en todo el mundo con más de 25 marcas participantes en más de 15 categorías, implementando 150 proyectos de innovación en el último año. El grupo de subsidiarias en estudio fue reconocido a nivel mundial por su desempeño en crecimiento competitivo y su alta contribución al crecimiento total. El modelo analizado en esta tesis fue expandido al resto de América Latina, tratándose entonces de un caso ejemplar que representa una práctica de excelencia en la implementación de la innovación en subsidiarias de una empresa multinacional. La recolección de los datos fue llevado a cabo a través de un cuestionario estructurado y confidencial, enviado a la base de datos de todo el universo de directores y gerentes de marketing y ventas. El nivel de respuesta fue muy elevado (70%), logrando 152 casos válidos. El análisis de datos comprendió el análisis descriptivo de los mismos, estimación de fiabilidad y análisis factorial exploratorio a través del software SPSS v.20. El análisis factorial confirmatorio y el análisis de senderos para examinar las relaciones entre los factores se estudiaron mediante el software R (Package 2.15.1., R Core Team, 2012) (Fox, 2006). Finalmente se llevaron a cabo entrevistas en profundidad a gerentes de marketing y ventas de cada uno de los seis países con el fin de profundizar en los constructos y sus relaciones. Los resultados de los modelos demuestran que la frecuencia de comunicación impacta positivamente en la calidad de la misma, que a su vez afecta directamente la relación entre marketing y ventas. Adicionalmente, la calidad de la comunicación impacta sobre la confianza cognitiva, que a su vez se relaciona no solamente con la confianza afectiva sino también con la relación entre ambas áreas. Esto significa que para mejorar la implementación de la innovación, los gerentes deberían orientarse a reforzar la relación entre marketing y ventas facilitando la construcción de confianza interpersonal primero cognitiva y luego afectiva, incrementando la frecuencia de la comunicación que alimenta la calidad de la comunicación entre ambas áreas. A través del segundo modelo se demuestra que durante el lanzamiento de nuevos productos al mercado, marketing y ventas necesitan emplear procesos formales que faciliten la comunicación frecuente y efectiva. De esta forma se contrarresta el efecto negativo de la formalización sobre la planificación integrada entre ambas áreas. Adicionalmente, los gerentes de ambos departamentos deberían promover la construcción de confianza interpersonal, no solamente para mejorar la efectividad de la relación, sino también para desarrollar planes integrados de implementación de nuevos productos. Finalmente, se valida que la frecuencia de la comunicación, la confianza afectiva y la relación marketing-ventas, se relacionan positivamente con la planificación integrada en la implementación de la innovación. El estudio contribuye a la comprensión de los factores que las empresas pueden emplear para mejorar la relación inter-funcional entre marketing y ventas y la implementación de la innovación en empresas de consumo masivo. El aporte de esta investigación puede ser valorado de dos maneras, los aportes a la gestión y a la academia. Desde el punto de vista empresarial, provee a los líderes al frente de empresas de consumo masivo, del conocimiento sobre los factores que afectan la implementación de la innovación y en definitiva el éxito del negocio a mediano y largo plazo. Desde el punto de vista académico aporta al conocimiento del proceso de implementación de la innovación y en la efectividad de la interface marketing y ventas en un caso de buenas prácticas en el mercado de consumo masivo. A su vez incorpora por primera vez un estudio empírico en geografías emergentes capaces de recuperar el camino de crecimiento posterior a una profunda crisis económica a través de la exitosa implementación de la innovación en sus mercados. ABSTRACT This thesis is focused on the identification, analysis and relationship study of factors which may benefit or hinder the successful deployment of innovation, from a marketing-sales interface perspective. Considering the non-existent investigation dedicated to the study of new products launches into markets in which Fast Moving Consumer Goods (FMCG) companies’ subsidiaries operate, it is that this investigation has been carried out. FMCG companies rely on innovation as their key process for a competitive growth on a medium and long term basis. Nowadays, the life-cycle of products is getting shorter as a result of new technological and scientific development, having impact on consumer behavior, and therefore companies are forced to dedicating more resources to the development of new products, reengineering and innovation programs (Mundra, Gulati and Gupta, 2013). However, in spite of the investment increase, the innovation success rates have been reported to be lower than 25% (Evanschitzky, Eisend, Calantone y Jiang, 2012). Increasing success rates on innovation processes has been considered as a key element on the survival and competitiveness of companies, outperforming competitors and developing new business models. Despite new studies which try to comprehend the process of new products launch, a prototype of innovation management has not yet been identified (Gupta et al, 2007). Emphasizing on success factors, authors Keupp, Palmié and Gassman (2012) recognize that successful innovation does not solely depend on innovation processes’ selection strategy, but it is also based on the way in which these are implemented (Klein and Sorra, 1996; Repenning, 2002; Keupp, Palmié y Gassmann, 2012). While analyzing the implementation of projects for new products releases on massive consumption companies, the two departments in charge of taking this forward are marketing and sales, by focusing on communication strategies with consumers and clients respectively (Ernst, Hoyer y Rubsaamen, 2010). This means that having success on innovation implementation requires an effective management of inter-functional relationship among marketing and sales (Ernst, Hoyer y Rubsaamen, 2010; Hughes, Le Bon y Malshe, 2012). In spite of the importance on the integration between marketing and sales on the conceptualization and implementation of innovation, this subject has not been studied in depth (Hughes, Le Bon y Malshe, 2012; Keupp, Palmié y Gassmann, 2012). In multinational companies, previous research has confirmed that the performance of their subsidiaries determine the competitive success of the company on a global scale. The challenge of said subsidiaries is to conjugate the global innovation development and communication with the local consumer and market behavior. Therefore, this empirical study aims to respond to the academic and management question of how to improve the success rates of new product launches into MNE subsidiary’ markets, from a marketing-sales relationship perspective. Particularly, this investigation analyses how the formalization of products and communication mechanisms affect interpersonal trust and marketing-sales interface effectiveness and also on how these factors affect the overall planning of the implementation of innovation. The determination of which factors build the hypothesis of the innovation execution process was taken forward through an extensive research on the extant literature on functional interfaces and innovation processes. More than 50 items were selected which were in turn validated by marketing and sales referents on Uruguay and Argentina through in depth interviews. Based on the identified factors, two theoretical models were proposed: (1) Relative to the influence that interpersonal trust dimensions have on inter functional linkages effectiveness and how organizational mechanisms such as frequency and quality of communication between departments affect trust and their relationship. (2) Relative to the integrated planning and innovation implementation dimensions. Marketing and sales department use formal process thus allowing inter-personal trust, which affects positively their relationship and also enables the development of integrated planning between them. The study was performed within a massive consumption company which is part of the “Global 500” (Fortune, 2015), with subsidiaries all over the world and more than 25 participant brands in 15 categories, having implemented over 150 innovation projects in the year under study. The analyzed subsidiary group has been awarded worldwide for their performance in competitive growth and their high contribution to the total growth. The model being analyzed in this thesis was implemented throughout Latin America, representing a remarkable case of innovation implementation excellence for subsidiaries of multinational companies. Data recollection was carried out through a structured and confidential questionnaire, sent to the universe of marketing-sales directors and managers’ database available with a high level of responsiveness of 70%, resulting in 152 valid cases. Data exploration involved a descriptive analysis, followed by a reliability estimation and an exploratory factorial analysis carried out through SPSS v.20. Confirmatory factorial analysis and path analysis (to examine relations between the different study factors) were studied using “R” software (Package 2.15.1., R Core Team, 2012) (Fox, 2006). Finally, in depth interviews were carried out to several marketing and sales managers in each of the six countries so as to further confirm the hypothesis and their relations. The models results prove that communication frequency has a positive impact on the quality of the same, which in turn has direct effects on the marketing-sales relations. Additionally, communication quality has an impact on the cognitive trust, which also relates not only to affective trust, but also to the relation between both areas. This means that in order to improve the implementation of innovation, managers should strive to enforce marketing-sales relations, facilitating the interpersonal trust construction (firstly cognitive, followed by affective trust), increasing the communication frequency, and therefore nurturing the communication quality among both areas. Through the second model, the results confirm the importance of creating effective relationships between sales and marketing to facilitate planning integrated new product implementations. While formalized new product development processes provide opportunities for sales and marketing to communicate, this does not directly influence the planning of integrated new product implementations. By using these formal opportunities to communicate to create information quality, it is possible to improve sales and marketing’s ability to integrate information during the planning process. Further, communication quality creates inter-personal trust in the other party’s competences (cognitive-based trust), leading to affect-based trust. Affect-based inter-personal trust, not only to improve the overall effectiveness of the sales and marketing relationship, but also helps in planning integrated new product implementations. This study contributes to the understanding of factors which enterprises can use to improve the inter-functional relations between marketing and sales, and the implementation of innovation in FMCG companies. The contribution of this investigation can be measured in two ways: enrichment of management and contribution to the academic area. From a business perspective, it provides massive consumption businesses leaders with knowledge on which factors affect innovation implementation, which results on mid and long-term success for the company. From an academic point of view, it provides knowledge on a prototype of successful innovation implementation management based on the marketing-sales interface effectiveness through a case study in the FMCG consumption market. Last but not least, it incorporates for the first time an empiric study on emerging geographies capable of recovery post a deep economic crisis through successful innovation implementation on their markets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto ha sido estructurado en tres bloques diferenciados que tiene como objetivo analizar el presente, pasado y futuro de la gestión de proyectos con una orientación clara a ofrecer apoyo a aquellas empresas que planeen realizar un giro en sus estructura de organización de trabajo hacia filosofías ágiles. La gestión de proyectos a acompañado al hombre desde el inicio de los tiempos, pero sin embargo no fue hasta nuestra historia más cercana cuando se comienza a tener conciencia de la necesidad de establecer aplicar métodos generales a la hora de afrontar proyectos de ingeniería. Pioneros fueron en este sentido personajes como Taylor, Fayol o Gantt, cuyas aportaciones iniciales posibilitaron el nacimiento de la gestión de proyectos a mediados del siglo XX. En las década sucesivas hasta nuestros días han aparecido un número considerable de metodologías, perfeccionando elementos anteriormente asimilados y adaptándose a la realidad tecnológica y social del momento. Este recorrido histórico se aborda en el primer bloque de este proyecto. Los puntos revisados en la introducción histórica proporcionan las bases de conocimiento para entender las principales características entre las grandes familias de metodologías que actualmente son implantadas en el mundo empresarial. Es precisamente este punto, el de la exposición y análisis de las metodologías más extendidas y contemporáneas a la elaboración de este proyecto, lo que se aborda en el segundo bloque. En él se desarrolla con intenso detalle dos metodologías de la familia de filosofías ágiles, elegidas entre las más extendidas en la industria: Scrum, eXtreme Programming (XP) y un híbrido de ambas. Para entender la dimensión del cambio filosófico en cuanto a la gestión de proyectos que emprenden estas metodologías, se hace necesario repasar cuales son las metodologías no ágiles más extendidas actualmente. Para ello se introducen metodologías como la llamada tradicional o PRINCE2, principalmente, ya que también se realiza un repaso más superficial por otras aproximaciones notables. El último bloque que construye el desenlace del proyecto, intenta responder a las cuestiones futuras relacionadas con la adopción de metodologías ágiles. Para ello se revisa los puntos más conflictivos a señalar en este proceso y se ofrecerán soluciones teóricas y prácticas para ayudar a las empresas en su fase de migración hacia filosofías de organización ágiles. Ya que toda empresa hoy en día debería tener un soporte tecnológico que ofrezca apoyo a su desarrollo empresarial, gran parte de la elaboración de este proyecto se ha dedicado a hacer un estudio comparativo de las actuales herramientas Open Source. Se han instalado y probado 25 herramientas para posteriormente seleccionar 3 que han sido analizadas en profundidad. Así mismo, se enumeran pros y contras de estas herramientas, aportando ideas de mejoras y trazando cuál debería ser su evolución para ofrecer una alternativa real a las herramientas comerciales orientadas a esta labor. Las empresas pueden utilizar este índice de herramientas de software para decidir si pueden sustentar su proceso de migración en una herramienta Open Source o si deben orientarse a herramientas comerciales o de creación propias. ABSTRACT. This project has been divided into three different blocks that aims to analyze the past, present and future of project management with a clear focus on providing support to those companies that are planning to make a shift in its organizational structure working towards agile philosophies . The project management has walked together with the humanity since the beginning of time , but it was on our recent history when it begins to become aware of the need to establish general methods to apply to engineering projects. There was pioneers like Taylor , Fayol or Gantt, whose contributions made possible the birth of project management in the mid- twentieth century. In the following decades, there was a considerable number of new methodologies, improving concepts and adapting then to the technological and social reality of the moment . This historical journey is addressed in the first block of this project. The different facts reviewed at the first block provide the knowledge to understand the key features among the most important families of methodologies that nowadays are implemented in the business world. It is precisely this point, the presentation and analysis of the most widespread methodologies what is addressed in the second block. Two of the most widespread agile methodologies are detailed: Scrum , eXtreme Programming ( XP ) and a hybrid of both . In order to understand the philosophical shift in terms of project management performed by these methodologies , it is necessary to review what are the most widespread no agile methodologies currently. For this purpose, methodologies like Waterfall or PRINCE2 are explained. Other no agile methodologies are explained as well, but not so deeply in comparison with them. The last section of this project is the conclusion, it tries to answer future questions related to the adoption of agile methodologies. For that reason, the most important milestones are reviewed to provide theoretical and practical solutions and answers to help companies in this migration process toward agile methodologies. Since every company should has a solid technical support for its business development, a considerably part of the time has been applied to make a comparative study of the existing Open Source tools. 25 tools have been installed and tested. Then, 3 tools has been selected to be analyzed deeply. Also, pros and cons of these tools have been exposed in order to suggest a roadmap to offer a real alternative to the existing commercial tools in this business area. The companies that are involved in a migration progress toward a agile methodology can used this study about the available Open Source tools to decide if they can afford the migration process based on one of them or if they should use a commercial tool or a tailor-made software.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El desarrollo de las redes IP ha marcado un creciente interés por unificar todas las comunicaciones sobre una misma infraestructura aprovechando así el cableado existente. Con esta idea nació la tecnología conocida como VoIP (Voice Over Internet Protocol) que consiste en la trasmisión de la voz sobre paquetes IP. El objetivo principal de este proyecto es el diseño e implementación de una infraestructura de voz sobre IP que utilice una red de datos existente. La primera parte del proyecto estará formada por un estudio detallado de los factores que influyen en esta tecnología: codecs, protocolos y otros factores a tener en cuenta. Tras esta parte, aprovechando la experiencia adquirida durante casi tres años en una empresa integradora de servicios, se realizará un caso de estudio en el que, bajo las premisas impuestas por un supuesto cliente, se diseñará una solución que cumpla todos los requisitos y aporte un valor añadido sobre el sistema de telefonía que posee el cliente. El diseño de la mejor solución se hará utilizando productos del fabricante Cisco Systems y, además del coste económico, se valorarán los esfuerzos personales que costará montar dicha solución, incluyendo un valor añadido como es el dotar de buzón de voz y mensajería a todos los usuarios. La última parte del caso de estudio consistirá en la implementación de la infraestructura anteriormente diseñada adquiriendo conocimientos sobre virtualización de servidores utilizando productos de la compañía VMWare (especialista en virtualización), instalación y parametrización de aplicativos de Cisco y, finalmente, la interconexión con la red pública a través de gateways para poder hacer llamadas al exterior. El proyecto finalizará con la presentación de unas conclusiones finales y la exposición de unas líneas futuras de trabajo. ABSTRACT. The IP network development has marked a growing interest in unifying all communications over the same infrastructure taking advantage of the existing wiring. From this idea, a technology was born known as VoIP (Voice Over Internet Protocol) which consists of the transmission of voice packets over the IP network. The main goal of this project is the design and implementation of a VoIP infrastructure for transmitting voice packets over the existing wired network infrastructure on the client. The first part of the project will consist of a detailed study of the factors influencing this technology: codecs, protocols, and other factors to consider. After this part, drawing on the experience gained during nearly three years in an integrated services company, a case study will be made under the premises imposed for a supposed client. A solution that serves all the requirements will be designed and provide an added value on the customer’s telephone system. The design of the best solution will be done using Cisco Systems products and besides the economic cost of the whole solution, the personal effort cost will be valued. The added value named before will be provided with two important applications such as voice mail and instant messaging for all users. The last part of the case study will consist in the implementation of an infrastructure designed to acquire knowledge about virtualization, using VMWare company products (specialist in virtualization), installation and configuration of applications from Cisco Systems and finally the interconnection with the public network through gateway routers in order to make external calls. The project will end with the presentation of final conclusions and exposing future working lines.