40 resultados para Análisis y desempeño de tareas

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con el devenir de los tiempos e incentivado por el desarrollo tecnológico, la cantidad y complejidad de los experimentos realizados en el conocido laboratorio de física de partículas, C.E.R.N, ha alcanzado límites insospechados. Además, su evolución se acentúa y motiva con cada nuevo descubrimiento. Prueba de estas ansias por desvelar las entrañas y secretos del universo se encuentra en el choque de 13 TeV que tuvo lugar el pasado mes de mayo. Con él, no sólo se marcaban inequívocamente las expectativas del complejo para este nuevo ciclo de funcionamiento, sino que además se daba el pistoletazo de salida a la carrera que culminaría con el descubrimiento de los pentaquarks. A nivel ingenieril, esta mejora de las capacidades del complejo implica un exponencial endurecimiento de las exigencias impuestas a los sistemas empleados. Por consiguiente y de forma inevitable, las condiciones del interior del acelerador migran hacia baremos cada vez más drásticos. Tanto es así que los niveles de radiación alcanzados actualmente limitan notablemente el acceso de personal al acelerador; lo que se traduce en un incremento de los tiempos de mantenimiento y reparación. Actualmente estos retardos tratan de ser mitigados mediante el uso de robots móviles operados remotamente. De entre ellos, llama la atención aquél conocido bajo el acrónimo T.I.M (Train for RP Survey and visual inspection in LHC). Este tren, constituido por 5 vagones, se desplaza a lo largo del acelerador de partículas midiendo los niveles de radiación y oxígeno al tiempo que proporciona realimentación visual. En el presente proyecto se propone la mejora de las tareas de inspección y mantenimiento mediante la integración de un manipulador robótico de 6 grados de libertad en uno de los vagones del citado tren. De este modo, se consigue un sistema capaz de trasladarse a cualquier punto del acelerador, en un tiempo record, y realizar una gran cantidad de tareas de mantenimiento que comprenden desde simples inspecciones visuales a complejas labores como puede ser desatornillado o extracción de componentes dañados. Por otro lado, se plantea un segundo desarrollo sobre el que sustentar el diseño propuesto: “Construcción de un simulador robótico de alta fiabilidad, basado en ROS y Gazebo”. Adicionalmente, esta herramienta Software atiende a otros fines complementarios: sirve de trampolín para futuros desarrollos encauzados a la mejora del sistema mecánico; entrega una herramienta de bajo coste con la que analizar la integración de nuevos hitos en robótica y, por último, permite evaluar la adopción de un nuevo paradigma de programación en el que ROS se encuentre inmerso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la primera parte de este trabajo se define la gobernanza como un concepto político que responde adecuadamente a las necesidades sociales de la naturaleza humana. En consecuencia, la adecuada conceptualización de este término puede servir para resolver los problemas sociales y también para orientar hacia el éxito los esfuerzos de la cooperación al desarrollo. Este concepto político resulta particularmente apropiado para la situación actual de la sociedad peruana, donde la existencia de conflictos sociales manifiesta la necesidad de una planificación liderada desde el ámbito público que enfrente la diversidad cultural y social que caracteriza a esta sociedad. Después de un análisis de las políticas de la cooperación internacional en Perú y de las últimas intervenciones para el desarrollo de la gobernanza, es posible concluir que en el país no existe una política para la cooperación internacional; que no hay un enfoque territorial en las intervenciones y que la práctica planificadora no considera una unión entre conocimiento y acción, limitándose a un enfoque tradicional de la planificación en la cooperación para el desarrollo. Esta investigación aporta un modelo para orientar las intervenciones de la cooperación internacional para el desarrollo de la gobernanza que se caracteriza por un liderazgo del ámbito público, una innovación en la gestión de dicho ámbito y un modelo de planificación mixto, una unión del modelo de Análisis de Políticas y el modelo de Aprendizaje Social. Por último, el modelo propuesto puede tener una amplia aplicación en los programas de desarrollo en Perú. On the first part of this research I found that governance is a political concept which responds adequately to social needs of human being. Thus, an adequate conceptualization of governance could help to solve social problems and lead efforts of Development Cooperation to success. This political concept is particularly appropriate to current Peruvian society where exist social conflicts which show a clear necessity of planning which should be leaded by the public sector. This is necessary to face cultural and social diversity which characterize this society. After an analysis of the International Cooperation management in Peru and a review of the last projects for developing governance, I found there is not a Politic for International Cooperation; projects does not have a territorial focusing; and planning does not characterize as union between knowledge and action. In this sense, there is a traditional planning in Development Cooperation. This research contributes with a model to lead International Cooperation projects for developing governance. This model is characterized by a leadership of public sector; an innovation in the public sector management; and a mix planning model between Politics Analysis and Social Learning. Finally, as the model was validated by two International Cooperation projects focused in sectorial objective, this model could have a wide application in Development programs in Peru.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The important technological advances experienced along the last years have resulted in an important demand for new and efficient computer vision applications. On the one hand, the increasing use of video editing software has given rise to a necessity for faster and more efficient editing tools that, in a first step, perform a temporal segmentation in shots. On the other hand, the number of electronic devices with integrated cameras has grown enormously. These devices require new, fast, and efficient computer vision applications that include moving object detection strategies. In this dissertation, we propose a temporal segmentation strategy and several moving object detection strategies, which are suitable for the last generation of computer vision applications requiring both low computational cost and high quality results. First, a novel real-time high-quality shot detection strategy is proposed. While abrupt transitions are detected through a very fast pixel-based analysis, gradual transitions are obtained from an efficient edge-based analysis. Both analyses are reinforced with a motion analysis that allows to detect and discard false detections. This analysis is carried out exclusively over a reduced amount of candidate transitions, thus maintaining the computational requirements. On the other hand, a moving object detection strategy, which is based on the popular Mixture of Gaussians method, is proposed. This strategy, taking into account the recent history of each image pixel, adapts dynamically the amount of Gaussians that are required to model its variations. As a result, we improve significantly the computational efficiency with respect to other similar methods and, additionally, we reduce the influence of the used parameters in the results. Alternatively, in order to improve the quality of the results in complex scenarios containing dynamic backgrounds, we propose different non-parametric based moving object detection strategies that model both background and foreground. To obtain high quality results regardless of the characteristics of the analyzed sequence we dynamically estimate the most adequate bandwidth matrices for the kernels that are used in the background and foreground modeling. Moreover, the application of a particle filter allows to update the spatial information and provides a priori knowledge about the areas to analyze in the following images, enabling an important reduction in the computational requirements and improving the segmentation results. Additionally, we propose the use of an innovative combination of chromaticity and gradients that allows to reduce the influence of shadows and reflects in the detections.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno de los retos actuales aún pendiente de lograr trabajando con espumas de aluminio, es el desarrollo de métodos de unión fácilmente reproducibles a nivel industrial que permitan la unión de espumas de aluminio entre sí o con otros componentes tipo pletinas, para así poder fabricar piezas de mayor tamaño o con formas complejas, a la vez que se conserven las propiedades y características principales de las espumas de aluminio, tanto en la zona principal de unión o cordón, como en la interfase y zona afectada térmicamente, que se encuentran anexa. Los actuales procesos de unión más utilizados con espumas de aluminio, se basan principalmente en adhesivos y uniones mecánicas. Estas soluciones a priori válidas, añaden problemas técnicos a determinadas aplicaciones de las espumas que frenan la completa integración de estos materiales en un entorno de fabricación flexible y global. Por esta razón, los actuales procesos de producción de las espumas de aluminio se restringen a determinadas ofertas hechas a la medida del cliente, no pudiendo atender por falta de soluciones, a una gran parte del potencial mercado de estos materiales. En el presente trabajo de investigación se han desarrollado y caracterizado diferentes métodos de unión de espumas de aluminio, en configuración a tope y de espumas de aluminio con pletinas en configuración a solape, basados en procesos por soldeo térmico. One of the current challenges even pending of being achieved working with aluminium foams, is the development of easily reproducible methods at industrial level that allow the joint of aluminium foams between them or with other elements as for example aluminium plates for making bigger pieces or with more complex forms, remaining simultaneously in the weld bead the properties and main characteristics of aluminium foam, so much in the joint area or interface, since in the affected closer thermal zone. Currently, the most used joint processes for applying to aluminium foams are based mainly on adhesives and mechanical joins. These solutions initially valid, add technical problems to certain aluminium foams applications, which stop the complete integration of these materials in a more flexible and global manufacture environment. For this reason, current aluminium foam manufacturing processes are restricted to certain offers done to a specific customer requirement, not being able to attend for lack of available solutions, to a great potential market of these materials. In the present work, different joint methods between aluminium foams and between aluminium foams and plates for butt and lap configurations have been developed and characterized based on thermal welding processes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El estudio de materiales, especialmente biológicos, por medios no destructivos está adquiriendo una importancia creciente tanto en las aplicaciones científicas como industriales. Las ventajas económicas de los métodos no destructivos son múltiples. Existen numerosos procedimientos físicos capaces de extraer información detallada de las superficie de la madera con escaso o nulo tratamiento previo y mínima intrusión en el material. Entre los diversos métodos destacan las técnicas ópticas y las acústicas por su gran versatilidad, relativa sencillez y bajo coste. Esta tesis pretende establecer desde la aplicación de principios simples de física, de medición directa y superficial, a través del desarrollo de los algoritmos de decisión mas adecuados basados en la estadística, unas soluciones tecnológicas simples y en esencia, de coste mínimo, para su posible aplicación en la determinación de la especie y los defectos superficiales de la madera de cada muestra tratando, en la medida de lo posible, no alterar su geometría de trabajo. Los análisis desarrollados han sido los tres siguientes: El primer método óptico utiliza las propiedades de la luz dispersada por la superficie de la madera cuando es iluminada por un laser difuso. Esta dispersión produce un moteado luminoso (speckle) cuyas propiedades estadísticas permiten extraer propiedades muy precisas de la estructura tanto microscópica como macroscópica de la madera. El análisis de las propiedades espectrales de la luz laser dispersada genera ciertos patrones mas o menos regulares relacionados con la estructura anatómica, composición, procesado y textura superficial de la madera bajo estudio que ponen de manifiesto características del material o de la calidad de los procesos a los que ha sido sometido. El uso de este tipo de láseres implica también la posibilidad de realizar monitorizaciones de procesos industriales en tiempo real y a distancia sin interferir con otros sensores. La segunda técnica óptica que emplearemos hace uso del estudio estadístico y matemático de las propiedades de las imágenes digitales obtenidas de la superficie de la madera a través de un sistema de scanner de alta resolución. Después de aislar los detalles mas relevantes de las imágenes, diversos algoritmos de clasificacion automatica se encargan de generar bases de datos con las diversas especies de maderas a las que pertenecían las imágenes, junto con los márgenes de error de tales clasificaciones. Una parte fundamental de las herramientas de clasificacion se basa en el estudio preciso de las bandas de color de las diversas maderas. Finalmente, numerosas técnicas acústicas, tales como el análisis de pulsos por impacto acústico, permiten complementar y afinar los resultados obtenidos con los métodos ópticos descritos, identificando estructuras superficiales y profundas en la madera así como patologías o deformaciones, aspectos de especial utilidad en usos de la madera en estructuras. La utilidad de estas técnicas esta mas que demostrada en el campo industrial aun cuando su aplicación carece de la suficiente expansión debido a sus altos costes y falta de normalización de los procesos, lo cual hace que cada análisis no sea comparable con su teórico equivalente de mercado. En la actualidad gran parte de los esfuerzos de investigación tienden a dar por supuesto que la diferenciación entre especies es un mecanismo de reconocimiento propio del ser humano y concentran las tecnologías en la definición de parámetros físicos (módulos de elasticidad, conductividad eléctrica o acústica, etc.), utilizando aparatos muy costosos y en muchos casos complejos en su aplicación de campo. Abstract The study of materials, especially the biological ones, by non-destructive techniques is becoming increasingly important in both scientific and industrial applications. The economic advantages of non-destructive methods are multiple and clear due to the related costs and resources necessaries. There are many physical processes capable of extracting detailed information on the wood surface with little or no previous treatment and minimal intrusion into the material. Among the various methods stand out acoustic and optical techniques for their great versatility, relative simplicity and low cost. This thesis aims to establish from the application of simple principles of physics, surface direct measurement and through the development of the more appropriate decision algorithms based on statistics, a simple technological solutions with the minimum cost for possible application in determining the species and the wood surface defects of each sample. Looking for a reasonable accuracy without altering their work-location or properties is the main objetive. There are three different work lines: Empirical characterization of wood surfaces by means of iterative autocorrelation of laser speckle patterns: A simple and inexpensive method for the qualitative characterization of wood surfaces is presented. it is based on the iterative autocorrelation of laser speckle patterns produced by diffuse laser illumination of the wood surfaces. The method exploits the high spatial frequency content of speckle images. A similar approach with raw conventional photographs taken with ordinary light would be very difficult. A few iterations of the algorithm are necessary, typically three or four, in order to visualize the most important periodic features of the surface. The processed patterns help in the study of surface parameters, to design new scattering models and to classify the wood species. Fractal-based image enhancement techniques inspired by differential interference contrast microscopy: Differential interference contrast microscopy is a very powerful optical technique for microscopic imaging. Inspired by the physics of this type of microscope, we have developed a series of image processing algorithms aimed at the magnification, noise reduction, contrast enhancement and tissue analysis of biological samples. These algorithms use fractal convolution schemes which provide fast and accurate results with a performance comparable to the best present image enhancement algorithms. These techniques can be used as post processing tools for advanced microscopy or as a means to improve the performance of less expensive visualization instruments. Several examples of the use of these algorithms to visualize microscopic images of raw pine wood samples with a simple desktop scanner are provided. Wood species identification using stress-wave analysis in the audible range: Stress-wave analysis is a powerful and flexible technique to study mechanical properties of many materials. We present a simple technique to obtain information about the species of wood samples using stress-wave sounds in the audible range generated by collision with a small pendulum. Stress-wave analysis has been used for flaw detection and quality control for decades, but its use for material identification and classification is less cited in the literature. Accurate wood species identification is a time consuming task for highly trained human experts. For this reason, the development of cost effective techniques for automatic wood classification is a desirable goal. Our proposed approach is fully non-invasive and non-destructive, reducing significantly the cost and complexity of the identification and classification process.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Diseño y fabricación de una cubertería adaptada a personas discapacitadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los modelos promovidos por las normativas internacionales de análisis y gestión de riesgos en sistemas de información los activos están interrelacionados entre sí, de modo que un ataque sobre uno de ellos se puede transmitir a lo largo de toda la red, llegando a alcanzar a los activos más valiosos para la Organización. Es necesario entonces asignar el valor de todos los activos, así como las relaciones de dependencia directas e indirectas entre éstos, o la probabilidad de materialización de una amenaza y la degradación que ésta puede provocar sobre los activos. Sin embargo, los expertos encargados de asignar tales valores, a menudo aportan únicamente información imprecisa, de modo que las técnicas borrosas pueden ser muy útiles en este ámbito. Para poder dar un tratamiento computacional a esta información imprecisa es necesario proveer a los expertos de un método con el que puedan expresar sus juicios probabilísticos o sus valoraciones sobre los activos de información en forma de números difusos y evitando sesgos informativos. Una vez obtenidos tales valores, hemos de construir algoritmos que nos permitan establecer indicadores de impacto y riesgo para las amenazas que se ciernen sobre los activos de información, y finalmente debemos proponer conjuntos óptimos de salvaguardas y controles para reducir el riesgo a un nivel asumible. En este trabajo desarrollamos elementos que permiten realizar todo este proceso partiendo de los conceptos básicos de Lógica Borrosa y de las metodologías internacionales de análisis y gestión de riesgos en los sistemas de información.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los últimos años, estamos siendo testigos de la alta implantación en la sociedad de dispositivos de comunicación. Lo que hace años estaba reservado a un público reducido, con claras necesidades en comunicación, se ha trasladado al público general, dado la amplia variedad de servicios que sobre los nuevos medios de comunicación se han desarrollado. De hecho, el mayor tráfico de datos en la actualidad no se produce al hilo de necesidades de máxima importancia, sino como producto de nuevos hábitos cotidianos. En este contexto de renovación tecnológica constante en busca de la eficiencia, las antenas reflectoras reflectarray (o, simplemente, los reflectarrays, RAs, [1]) se presentan como una opción competitiva contra los reflectores parabólicos metálicos. En su versión más simple, una antena reflectarray se trata de una estructura compuesta de un elemento alimentador radiante, como puede ser una bocina, y de una superficie plana, consistente en multitud de elementos individuales dispuestos en una rejilla periódica. Sobre esta superficie plana, los frentes de onda provenientes del alimentador son reflejados formando frentes de ondas planas, de una manera análoga a como lo hace un reflector parabólico. A partir de la configuración inicial, y centrándose en el principio de funcionamiento, se ha ido modificando el tipo de elemento RA empleado, consiguiendo RA cada vez más operativos. Es, sobre todo, con el nacimiento de la tecnología impresa cuando las antenas RAs vuelven a cobrar interés. Aunque el uso de tecnología impresa supuso un gran impulso en los RAs, también abrió otros desafíos en lo que al diseño de ellos se refiere. Desde el punto de vista del análisis, es común suponer que el elemento RA se encuentra en un ambiente infinitamente periódico, de forma que se puedan aplicar las condiciones de contorno de Floquet (suposición de periodicidad local). Desde un punto de vista funcional, en general, los elementos RA de tecnología impresa presentan un ancho de banda reducido, que condiciona el ancho de banda del RA completo. Entre las soluciones aportadas, es comúnmente aceptado que las estructuras multicapa, con resonadores a distintas frecuencias cercanas, pueden mitigar en parte el problema del ancho de banda. Por ello, en la actualidad, los elementos RA más comunes están compuestos por varios elementos resonadores, cuyas dimensiones constituyen los parámetros de diseño libres. Es decir, en función de dichas dimensiones, el elemento RA tendrá un valor del coeficiente de reflexión u otro. Esto supone un aumento en la complejidad a la hora de analizar dicho elemento por los métodos numéricos conocidos, como el Método de los Momentos (MoM) o el Método de Elementos Finitos (FEM, por las siglas de su traducción inglesa Finite Element Method), que redundará en un mayor tiempo de cómputo en el análisis. Por otra parte, como se muestra en la Figura R.1, el diseño de un RA conlleva analizar multitud de veces el elemento RA considerado. En efecto, se trata de un método de diseño indirecto, en donde las dimensiones de los parámetros geométricos libres de cada elemento RA se obtienen de manera iterativa usando un optimizador. Se ve claro, entonces, que el aumento en tiempo de análisis del elemento RA repercute en gran medida en el tiempo de diseño total, por lo que una reducción en el tiempo de análisis del elemento RA podría ser muy beneficioso. Uno de los métodos para conseguir reducir el tiempo de diseño de un RA, que se puede encontrar en la literatura, es emplear un modelo de la respuesta del elemento RA en función de los parámetros libres. La cuestión que aflora es cuál es la herramienta idónea para modelar la respuesta del elemento RA. En los últimos años se han propuestos varias formas. La primera de ellas consistía en encontrar un equivalente circuital. Esta aproximación está bien extendida para otras estructuras EM, donde los equivalentes circuitales con componentes LC ofrecen respuestas muy precisas con respecto a las que ofrecen las estructuras EM en sí. A raíz del carácter no lineal de la respuesta, hay autores que han propuesto para el diseño de RAs la creación de tablas de datos (look up tables) que, para cada parámetro de diseño de interés (suele ser el desfase introducido por el elemento) guardan las dimensiones de los parámetros geométricos libres asociados. De esta forma, consiguen un diseño rápido, pero poco versátil, ya que la tabla ofrece un único valor para cada entrada, por lo que es difícil jugar con más de una restricción de diseño. Más recientemente, se está comenzando a utilizar, para la caracterización de estructuras EM, unos sistemas llamados Redes Neuronales Artificiales (ANN, por sus siglas en inglés Artificial Neural Network). El uso fundamental de los mismos en EM es el de servir como interpoladores no lineales. Se trata de sistemas que admiten múltiples parámetros de entradas y múltiples parámetros de salida. Antes de poder ser usados como interpoladores, deben ser entrenados. Para ello, necesitan de un conjunto de pares de los parámetros de entrada a la red, con los valores de las salidas asociados. Algunos usos en electromagnetismo de las ANNs que se pueden encontrar en la literatura son: el modelado de filtros; la caracterización de dispositivos activos; la obtención de modelos que aceleran los algoritmos que calculan la dirección de llegada en antenas de radar; o el diseño de arrays de antenas. Volviendo al modelado de elementos RA, en este trabajo haremos uso de las ANNs para caracterizar distintos tipos de elementos RA. A lo largo de estos últimos años, se ha considerado esta posibilidad como una de las más prometedoras. De hecho, podemos encontrar algunas pocas referencias al respecto, varias de las cuales han sido publicadas por distintos autores durante la elaboración del trabajo recogido en esta Tesis. Como veremos, los resultados que vamos a presentar aportan novedades con respecto a la citada literatura. Particularmente, en este trabajo se ha realizado la caracterización de un elemento RA de tres capas, considerando hasta 9 parámetros de entrada (seis parámetros geométricos, las dos coordenadas del ángulo de incidencia, y la frecuencia) y 4 parámetros de salida complejos (los coeficientes de reflexión para dos polarizaciones ortogonales lineales). Haciendo uso de esta caracterización en el flujo de diseño de RAs, se ha realizado el análisis y el diseño de varias antenas RA con restricciones de diseño de comunicaciones espaciales. Los resultados fueron exitosos comparados con los resultados obtenidos por los métodos tradicionales. De manera puntualizada, podríamos resumir las aportaciones que se verán en esta Tesis como: Caracterización de distintos elementos RA mediante ANNs basadas en el Perceptrón Multicapa (MLP). En concreto, se ha realizado con éxito la caracterización de un elemento RA de parche acoplado a línea de retardo a través de apertura; la caracterización de un elemento RA basado en dipolos sobre substratos de distintas características eléctricas en el rango de centenas de GHz; y la caracterización de un elemento RA basado en 3 parches apilados, con 9 parámetros libres en su caracterización. Uso del FEM, de la técnica de segmentación en subdominios y de la generación y manipulación de accesos MAM para el análisis y la caracterización de elementos RA mediante ANNs. Desarrollo de una nueva técnica de obtención de muestras, para el caso de estructura multicapa cuyo estudio EM se pueda dividir en dos pasos: estudio de cada capa y conexión de capas. De esta forma, se ha podido reducir en varios órdenes de magnitud el tiempo necesario para obtener el set de entrenamiento de las ANNs. Valoración del uso de distintos métodos de entrenamiento de segundo orden para el entrenamiento de redes ANN MLP, en la caracterización de elementos RA. Desarrollo de una nueva técnica para realizar el entrenamiento de redes ANNs basadas en el MLP, denominada como Entrenamiento en Cascada. Dado el alto número de parámetros a caracterizar, era difícil conseguir una red que, partiendo del número de entradas deseado, proporcionara convergencia con precisión suficiente. Con el algoritmo propuesto y probado en esta Tesis, se consiguió entrenar redes de 8 parámetros de entradas (el noveno parámetro, la frecuencia, correspondía a redes diferentes para cada valor) con gran precisión. Desarrollo de un método adaptativo para mejorar la precisión de las ANNs en el análisis de antenas RA. Este método, basado en re-entrenar las ANNs para sub rangos de los parámetros de entrada en donde el error es mayor, aporta una precisión mayor, al mejorar el entrenamiento global de las ANNs, en un tiempo aceptable, ya que solo se incluyen nuevas muestras en torno a los valores donde el error es mayor. Análisis de antena RA completa, con cobertura según especificaciones de la misión AMAZONAS (haz conformado, banda Ku), usando las caracterización el elemento RA obtenida mediante ANNs. La mejora en tiempo de análisis conseguida con respecto al uso del MoM está en un factor 102, con precisiones comparables. Diseño de antenas RA completas, con especificaciones de haz pincel y EuTELSAT (banda Ku). De nuevo, la mejora en tiempo de diseño conseguida están en torno a 102. De todos los puntos anteriores, son de destacar los dos últimos, que forman el objetivo principal de esta Tesis. Esto es, el uso de modelos rápidos de elementos RA mediante ANNs para el análisis y el diseño de antenas para comunicaciones por satélite.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cyclic fluctuations of the atmospheric temperature on the dam site, of the water temperature in the reservoir and of the intensity of solar radiation on the faces of the dam cause significant stresses in the body of concrete dams. These stresses can be evaluated first by introducing in analysis models a linear temperature distribution statically equivalent to the real temperature distribution in the dam; the stress valúes obtained from this first step must be complemented (especially in the área of dam faces) with the stress valúes resuiting from the difference between the real temperature law and the linear law at each node. In the case of arch gravity dams, and because of their characteristics of arch dam featuring a thick section, both types of temperature-induced stresses are of similar importance. Thermal stress valúes are directly linked to a series of factors: atmospheric and water temperature and intensity of solar radiation at dam site, site latitude, azimuth of the dam, as well as geometrical characteristics of the dam and thermal properties of concrete. This thesis first presents a complete study of the physical phenomenon of heat exchange between the environment and the dam itself, and establishes the participation scheme of all parameters involved in the problem considered. A detailed documental review of available methods and techniques is then carried out both for the estimation of environmental thermal loads and for the evaluation of the stresses induced by these loads. Variation ranges are also established for the main parameters. The definition of the geometrical parameters of the dam is provided based on the description of a wide set of arch gravity dams built in Spain and abroad. As a practical reference of the parameters defining the thermal action of the environment, a set of zones, in which thermal parameters reach homogeneous valúes, was established for Spain. The mean valué and variation range of atmospheric temperature were then determined for each zone, based on a series of historical valúes. Summer and winter temperature increases caused by solar radiation were also defined for each zone. Since the hypothesis of thermal stratification in the reservoir has been considered, máximum and mínimum temperature valúes reached at the bottom of the reservoir were determined for each climatic zone, as well as the law of temperature variation in function of depth. Various dam-and-foundation configurations were analysed by means of finite element 3D models, in which the dam and foundation were each submitted to different load combinations. The seasonal thermal behaviour of sections of variable thickness was analysed through the application of numerical techniques to one-dimensional models. Contrasting the results of both analyses led to conclusions on the influence of environmental thermal action on the stress conditions of the structure. Las oscilaciones periódicas de la temperatura ambiente en el emplazamiento y de la temperatura del agua en el embalse, así como de la incidencia de la radiación solar sobre los paramentos de la presa, son causa de tensiones importantes en el cuerpo de las presas de hormigón. Estas tensiones pueden ser evaluadas en primer lugar introduciendo en los modelos tridimensionales de análisis, distribuciones lineales de temperatura estáticamente equivalentes a las correspondientes distribuciones reales en el cuerpo de la presa; las tensiones así obtenidas han de complementarse (sobre todo en las cercanías de los paramentos) con tensiones cuyo origen está en la temperatura diferencia entre la ley real y la lineal en cada punto. En el caso de las presas arco-gravedad y en razón de su doble característica de presas arco y de sección gruesa, ambas componentes de la tensión inducida por la temperatura son de magnitud similar. Los valores de estas tensiones de origen térmico están directamente relacionados con la temperatura del emplazamiento y del embalse, con la intensidad de la insolación, con la latitud y el azimut de la presa, con las características geométricas de la estructura y con las propiedades térmicas del hormigón. En esta tesis se realiza, en primer lugar, un estudio completo del fenómeno físico del intercambio de calor entre el medio ambiente y el cuerpo de la presa, estableciendo el mecanismo de participación de todos los parámetros que configuran el problema. En segundo lugar se realiza a cabo una revisión documental detallada de los métodos y técnicas utilizables tanto en la estimación de las cargas térmicas ambientales como en la evaluación de las tensiones inducidas por dichas cargas. En tercer lugar se establecen rangos de variación para los principales parámetros que configuran el problema. Los parámetros geométricos de la presa se definen a partir de la descripción de un amplio conjunto de presas arco-gravedad tanto españolas como del resto del mundo. Como referencia práctica de los parámetros que definen la acción térmica ambiental se establecen en España un conjunto de zonas caracterizadas por que, en cada una de ellas, los parámetros térmicos alcanzan valores homogéneos. Así, y en base a series de valores históricos, se establecen la media y la amplitud de la variación anual de la temperatura ambiental en cada una de las zonas. Igualmente, se han definido para cada zona los incrementos de temperatura que, en invierno y en verano, produce la insolación. En relación con el agua del embalse y en la hipótesis de estratificación térmica de este, se han definido los valores, aplicables en cada una de las zonas, de las temperaturas máxima y mínima en el fondo así como la ley de variación de la temperatura con la profundidad. Utilizando modelos tridimensionales de elementos finitos se analizan diferentes configuraciones de la presa y la cimentación sometidas, cada una de ellas, a diferentes combinaciones de carga. Aplicando técnicas numéricas a modelos unidimensionales se analiza el comportamiento térmico temporal de secciones de espesor variable. Considerando conjuntamente los resultados de los análisis anteriores se obtienen conclusiones parametrizadas de detalle sobre la influencia que tiene en el estado tensional de la estructura la consideración de la acción térmica ambiental.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La preocupación por el consumo energético, las emisiones de CO2 y la situación de crisis que tanto afecta al sector de la construcción en nuestro país, ha llevado a las administraciones públicas a promover un nuevo modelo constructivo, la rehabilitación. Sin embargo, la mayoría de las intervenciones se rigen todavía por parámetros estéticos a escala del edificio, mientras que los aspectos de mejora energética aún no tienen la importancia que deberían. En este aspecto, el comportamiento extremadamente disipativo del edificio, es el componente principal del consumo energético de la edificación. El elemento con mayor repercusión en el ahorro energético es el cerramiento de fachada, en algunos casos el ahorro tras la intervención de rehabilitación, puede superar el 70% del ahorro total posible. En este contexto, se ha desarrollado esta investigación, que tiene por finalidad servir de instrumento de ayuda para el técnico que debe afrontar la rehabilitación de fachadas de edificios residenciales. El procedimiento desarrollado, permitirá elegir los criterios para reducir el consumo energético de la edificación durante su vida útil conociendo a la vez el periodo de amortización de la intervención. Se elabora un procedimiento de análisis y evaluación sistematizada de la fachada existente, siguiendo los siguientes pasos: clasificación y caracterización de los sistemas constructivos de fachada del periodo de estudio seleccionado, análisis térmico de la envolvente vertical, clasificación y evaluación de criterios de mejora y estudio comparativo entre el ahorro energético y el coste de la inversión (cálculo de periodo de amortización). Éste cálculo permite realizar una comparación entre distintas soluciones de mejora para un mismo caso de estudio y por lo tanto conocer, previamente a la intervención, cuál es la actuación de rehabilitación más conveniente. Posteriormente se aplica esta metodología a un caso de estudio, un edificio residencial en el barrio madrileño de PInar del Rey.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta Tesis Doctoral presenta las investigaciones y los trabajos desarrollados durante los años 2008 a 2012 para el análisis y diseño de un patrón primario de ruido térmico de banda ancha en tecnología coaxial. Para ubicar esta Tesis en su campo científico es necesario tomar conciencia de que la realización de mediciones fiables y trazables forma parte del sostenimiento del bienestar de una sociedad moderna y juega un papel crítico en apoyo de la competitividad económica, la fabricación y el comercio, así como de la calidad de vida. En el mundo moderno actual, una infraestructura de medición bien desarrollada genera confianza en muchas facetas de nuestra vida diaria, porque nos permite el desarrollo y fabricación de productos fiables, innovadores y de alta calidad; porque sustenta la competitividad de las industrias y su producción sostenible; además de contribuir a la eliminación de barreras técnicas y de dar soporte a un comercio justo, garantizar la seguridad y eficacia de la asistencia sanitaria, y por supuesto, dar respuesta a los grandes retos de la sociedad moderna en temas tan complicados como la energía y el medio ambiente. Con todo esto en mente se ha desarrollado un patrón primario de ruido térmico con el fin de aportar al sistema metrológico español un nuevo patrón primario de referencia capaz de ser usado para desarrollar mediciones fiables y trazables en el campo de la medida y calibración de dispositivos de ruido electromagnético de radiofrecuencia y microondas. Este patrón se ha planteado para que cumpla en el rango de 10 MHz a 26,5 GHz con las siguientes especificaciones: Salida nominal de temperatura de ruido aproximada de ~ 83 K. Incertidumbre de temperatura de ruido menor que ± 1 K en todo su rango de frecuencias. Coeficiente de reflexión en todo su ancho de banda de 0,01 a 26,5 GHz lo más bajo posible. Se ha divido esta Tesis Doctoral en tres partes claramente diferenciadas. La primera de ellas, que comprende los capítulos 1, 2, 3, 4 y 5, presenta todo el proceso de simulaciones y ajustes de los parámetros principales del dispositivo con el fin de dejar definidos los que resultan críticos en su construcción. A continuación viene una segunda parte compuesta por el capítulo 6 en donde se desarrollan los cálculos necesarios para obtener la temperatura de ruido a la salida del dispositivo. La tercera y última parte, capítulo 7, se dedica a la estimación de la incertidumbre de la temperatura de ruido del nuevo patrón primario de ruido obtenida en el capítulo anterior. Más concretamente tenemos que en el capítulo 1 se hace una exhaustiva introducción del entorno científico en donde se desarrolla este trabajo de investigación. Además se detallan los objetivos que se persiguen y se presenta la metodología utilizada para conseguirlos. El capítulo 2 describe la caracterización y selección del material dieléctrico para el anillo del interior de la línea de transmisión del patrón que ponga en contacto térmico los dos conductores del coaxial para igualar las temperaturas entre ambos y mantener la impedancia característica de todo el patrón primario de ruido. Además se estudian las propiedades dieléctricas del nitrógeno líquido para evaluar su influencia en la impedancia final de la línea de transmisión. En el capítulo 3 se analiza el comportamiento de dos cargas y una línea de aire comerciales trabajando en condiciones criogénicas. Se pretende con este estudio obtener la variación que se produce en el coeficiente de reflexión al pasar de temperatura ambiente a criogénica y comprobar si estos dispositivos resultan dañados por trabajar a temperaturas criogénicas; además se estudia si se modifica su comportamiento tras sucesivos ciclos de enfriamiento – calentamiento, obteniendo una cota de la variación para poder así seleccionar la carga que proporcione un menor coeficiente de reflexión y una menor variabilidad. En el capítulo 4 se parte del análisis de la estructura del anillo de material dieléctrico utilizada en la nota técnica NBS 1074 del NIST con el fin de obtener sus parámetros de dispersión que nos servirán para calcular el efecto que produce sobre el coeficiente de reflexión de la estructura coaxial completa. Además se realiza un estudio posterior con el fin de mejorar el diseño de la nota técnica NBS 1074 del NIST, donde se analiza el anillo de material dieléctrico, para posteriormente realizar modificaciones en la geometría de la zona donde se encuentra éste con el fin de reducir la reflexión que produce. Concretamente se estudia el ajuste del radio del conductor interior en la zona del anillo para que presente la misma impedancia característica que la línea. Y para finalizar se obtiene analíticamente la relación entre el radio del conductor interior y el radio de la transición de anillo térmico para garantizar en todo punto de esa transición la misma impedancia característica, manteniendo además criterios de robustez del dispositivo y de fabricación realistas. En el capítulo 5 se analiza el comportamiento térmico del patrón de ruido y su influencia en la conductividad de los materiales metálicos. Se plantean las posibilidades de que el nitrógeno líquido sea exterior a la línea o que éste penetre en su interior. En ambos casos, dada la simetría rotacional del problema, se ha simulado térmicamente una sección de la línea coaxial, es decir, se ha resuelto un problema bidimensional, aunque los resultados son aplicables a la estructura real tridimensional. Para la simulación térmica se ha empleado la herramienta PDE Toolbox de Matlab®. En el capítulo 6 se calcula la temperatura de ruido a la salida del dispositivo. Se parte del estudio de la aportación a la temperatura de ruido final de cada sección que compone el patrón. Además se estudia la influencia de las variaciones de determinados parámetros de los elementos que conforman el patrón de ruido sobre las características fundamentales de éste, esto es, el coeficiente de reflexión a lo largo de todo el dispositivo. Una vez descrito el patrón de ruido electromagnético se procede, en el capítulo 7, a describir los pasos seguidos para estimar la incertidumbre de la temperatura de ruido electromagnético a su salida. Para ello se utilizan dos métodos, el clásico de la guía para la estimación de la incertidumbre [GUM95] y el método de simulación de Monte Carlo. En el capítulo 8 se describen las conclusiones y lo logros conseguidos. Durante el desarrollo de esta Tesis Doctoral se ha obtenido un dispositivo novedoso susceptible de ser patentado, que ha sido registrado en la Oficina Española de Patentes y Marcas (O.E.P.M.) en Madrid, de conformidad con lo establecido en el artículo 20 de la Ley 11/1986, de 20 de Marzo, de Patentes, con el título Patrón Primario de Ruido Térmico de Banda Ancha (Referencia P-101061) con fecha 7 de febrero de 2011. ABSTRACT This Ph. D. work describes a number of investigations that were performed along the years 2008 to 2011, as a preparation for the study and design of a coaxial cryogenic reference noise standard. Reliable and traceable measurement underpins the welfare of a modern society and plays a critical role in supporting economic competitiveness, manufacturing and trade as well as quality of life. In our modern world, a well developed measurement infrastructure gives confidence in many aspects of our daily life, for example by enabling the development and manufacturing of reliable, high quality and innovative products; by supporting industry to be competitive and sustainable in its production; by removing technical barriers to trade and supporting fair trade; by ensuring safety and effectiveness of healthcare; by giving response to the major challenges in key sectors such energy and environment, etc. With all this in mind we have developed a primary standard thermal noise with the aim of providing the Spanish metrology system with a new primary standard for noise reference. This standard will allow development of reliable and traceable measurements in the field of calibration and measurement of electromagnetic noise RF and microwave devices. This standard has been designed to work in the frequency range from 10 MHz to 26.5 GHz, meeting the following specifications: 1. Noise temperature output is to be nominally ~ 83 K. 2. Noise temperature uncertainty less than ± 1 K in the frequency range from 0.01 to 26.5 GHz. 3. Broadband performance requires as low a reflection coefficient as possible from 0.01 to 26.5 GHz. The present Ph. D. work is divided into three clearly differentiated parts. The first one, which comprises Chapters 1 to 5, presents the whole process of simulation and adjustment of the main parameters of the device in order to define those of them which are critical for the manufacturing of the device. Next, the second part consists of Chapter 6 where the necessary computations to obtain the output noise temperature of the device are carried out. The third and last part, Chapter 7, is devoted to the estimation of the uncertainty related to the noise temperature of the noise primary standard as obtained in the preceding chapter. More specifically, Chapter 1 provides a thorough introduction to the scientific and technological environment where this research takes place. It also details the objectives to be achieved and presents the methodology used to achieve them. Chapter 2 describes the characterization and selection of the bead dielectric material inside the transmission line, intended to connect the two coaxial conductors equalizing the temperature between the two of them and thus keeping the characteristic impedance constant for the whole standard. In addition the dielectric properties of liquid nitrogen are analyzed in order to assess their influence on the impedance of the transmission line. Chapter 3 analyzes the behavior of two different loads and of a commercial airline when subjected to cryogenic working conditions. This study is intended to obtain the variation in the reflection coefficient when the temperature changes from room to cryogenic temperature, and to check whether these devices can be damaged as a result of working at cryogenic temperatures. Also we try to see whether the load changes its behavior after successive cycles of cooling / heating, in order to obtain a bound for the allowed variation of the reflection coefficient of the load. Chapter 4 analyzes the ring structure of the dielectric material used in the NBS technical note 1074 of NIST, in order to obtain its scattering parameters that will be used for computation of its effect upon the reflection coefficient of the whole coaxial structure. Subsequently, we perform a further investigation with the aim of improving the design of NBS technical note 1074 of NIST, and modifications are introduced in the geometry of the transition area in order to reduce the reflection it produces. We first analyze the ring, specifically the influence of the radius of inner conductor of the bead, and then make changes in its geometry so that it presents the same characteristic impedance as that of the line. Finally we analytically obtain the relationship between the inner conductor radius and the radius of the transition from ring, in order to ensure the heat flow through the transition thus keeping the same reflection coefficient, and at the same time meeting the robustness requirements and the feasibility of manufacturing. Chapter 5 analyzes the thermal behavior of the noise standard and its influence on the conductivity of metallic materials. Both possibilities are raised that the liquid nitrogen is kept outside the line or that it penetrates inside. In both cases, given the rotational symmetry of the structure, we have simulated a section of coaxial line, i.e. the equivalent two-dimensional problem has been resolved, although the results are applicable to the actual three-dimensional structure. For thermal simulation Matlab™ PDE Toolbox has been used. In Chapter 6 we compute the output noise temperature of the device. The starting point is the analysis of the contribution to the overall noise temperature of each section making up the standard. Moreover the influence of the variations in the parameters of all elements of the standard is analyzed, specifically the variation of the reflection coefficient along the entire device. Once the electromagnetic noise standard has been described and analyzed, in Chapter 7 we describe the steps followed to estimate the uncertainty of the output electromagnetic noise temperature. This is done using two methods, the classic analytical approach following the Guide to the Estimation of Uncertainty [GUM95] and numerical simulations made with the Monte Carlo method. Chapter 8 discusses the conclusions and achievements. During the development of this thesis, a novel device was obtained which was potentially patentable, and which was finally registered through the Spanish Patent and Trademark Office (SPTO) in Madrid, in accordance with the provisions of Article 20 of Law 11/1986 about Patents, dated March 20th, 1986. It was registered under the denomination Broadband Thermal Noise Primary Standard (Reference P-101061) dated February 7th, 2011.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resulta sorprendente la escasa utilización que tiene el video como herramienta de representación arquitectónica. No nos referimos al video divulgativo que se emite en programas culturales, donde los edificios son mostrados con un ritmo lento e imparcial por una cámara que pretende sustituir al posible visitante; sino al video realizado por el propio autor del proyecto. En este caso, el video debería tener un grado de intención y subjetividad similar al del proyecto que muestra. Su contenido no tendría porque limitarse a imágenes reales, podría combinarlas con imágenes virtuales, animaciones 3D, planos, fotos, etc. Podría ser, incluso, completamente virtual, es decir, emplearse en la presentación y representación de proyectos. Asímismo, se echa de menos la utilización del video digital –basado en el montaje– como parte del trabajo de análisis y crítica arquitectónica. Es decir, su empleo, por parte del crítico, en la interpretación de la arquitectura y en la búsqueda de las posibles relaciones que se presentan en la misma. En nuestro caso, utilizamos el video como parte de las conclusiones de la tesis doctoral La arquitectura de Mondrian1. El trabajo consistía en discriminar entre las obras arquitectónicas realizadas por miembros del grupo De Stijl –o de su órbita– aquéllas que entroncaran con el elaborado discurso teórico de Mondrian. Nuestro interés se centró en buscar en la arquitectura moderna ejemplos en los que pudiéramos encontrar paralelismos fundamentales (de fondo) entre determinados edificios y la teoría de las artes de Mondrian. Para ello el video se mostró como una herramienta capaz de ilustrar –y enfatizar–, de forma intuitiva y gráfica, las conclusiones del trabajo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Aunque imperfectos, los topónimos se consideran desde siempre los identificadores geográficos más extendidos entre los usuarios para acceder al conjunto de datos fundamental de las IDE de los países. Su función esencial en la lectura e interpretación de la información de las IDE no debe eclipsar otras valiosas misiones que cumplen, que deben ser tenidas en cuenta a la hora de incorporarse a los catálogos básicos de información geográfica. En un trabajo anterior presentado con motivo de las JIIDE de 2012, los autores abordaron, en un primer nivel, el reconocimiento del papel de la toponimia en el marco de las IDE para la delimitación de las áreas de referencia de las entidades geográficas no definidas administrativamente. Se propuso, en este sentido, avanzar en la definición de las áreas de referencia de los topónimos a partir de la relación entre topónimos e imaginarios de los ciudadanos. Las diferentes concepciones de las áreas y elementos que designan los distintos nombres geográficos permiten diferenciar entre áreas de referencia segura de los topónimos, áreas de referencia difusa y áreas de ambigüedad, lo que facilita la optimización del valor de las IDE como herramientas de una complejidad rica y precisa. En este nuevo trabajo se aspira a poner de manifiesto que no solo hay que profundizar en el análisis del valor referencial espacial de la toponimia, sino también en su propio valor como herramienta discursiva. Se aspira a poner de manifiesto la importancia que puede llegar a tener el tratamiento que se da a los topónimos en una IDE, dado, por un lado, el valor patrimonial inmaterial de los nombres geográficos y, por otro lado, su capacidad de afectar al discurso por las connotaciones que adquiere como signo y símbolo al referirse a una entidad geográfica. Así, en el presente documento se abordará, en primer lugar, los motivos que hacen necesario extremar precauciones en el uso de las denominaciones toponímicas y, en segundo lugar, cómo se estima que deberían resolverse los problemas que pueden surgir a este respecto en el caso de las Infraestructuras de Datos Espaciales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta investigación tiene por objeto determinar la estructura factorial del modelo de relaciones entre el sistema de gestión de la calidad (SGC) y el desempeño organizacional (DO), así como también, el efecto mediador que sobre dichas relaciones ejercen la gestión del conocimiento (GC) y satisfacción del cliente interno (SCI). El estudio fue de tipo descriptivo-correlacional,no experimental, transversal y expost-facto; analizado factorialmente, a través de técnicas multivariantes. La población fue de 369 trabajadores del área de la calidad de la industria petrolera venezolana (IPV). A la muestra no probabilística se le aplicó un cuestionario, diseñado y validado por los investigadores, a través del método de panel de expertos y de una prueba piloto, la cual alcanzó un α(Cronbach)= 0,899. Se determinó que en el modelo de relaciones subyacen tres factores o variables latentes: ENCSCIAO (Eliminación de la No Conformidad, Satisfacción del Cliente Interno y el Aprendizaje Organizacional), SGC (Sistema de Gestión de la Calidad) y DOOA (Desempeño Organizacional y Organización de Aprendizaje) y que el efecto mediador es ejercido por el factor ENCSCIAO, constituyendo la SCI el núcleo dinamizador del efecto mediador, a través de la dimensión activos físicos, constituida por los indicadores ‘instalaciones aptas’ e ‘información visual entendible’. Se concluye que el modelo teórico formulado sirvió para la configuración de un nuevo modelo empírico de relaciones, en el cual la SCI representa el principal constructo, que favorece un mejor desempeño en la larga cadena de valor de la IPV.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Aunque esta no es la primera vez que nuevas compañías y tecnologías revolucionan la forma de entender una industria determinada, los modelos over-the-top (OTT) han provocado una explosión en el consumo de contenidos a través de internet, una revolución en la forma tradicional de comunicarse, de disfrutar de nuevas posibilidades de ocio digital y, por tanto, una transformación a la hora de entender los modelos de monetización de las compañías, actualmente buscando su lugar en la nueva cadena de valor. Ya no cabe duda de que este tipo de servicios se han hecho un hueco en la rutina diaria de las personas pero, a pesar de su rápida adopción y alta tasa de penetración, todo parece indicar que es sólo el comienzo de una nueva era, donde estos nuevos modelos disruptivos, están todavía por definirse. Tras unos años de cambios en el sector de las comunicaciones y entretenimiento digital, es ahora el del consumo audiovisual de entretenimiento el que se está viviendo sus debates más intensos. Este trabajo, presentado como proyecto final dentro del Máster de Consultoría en Gestión de Empresas fruto de la colaboración entre la UPM y la AEC, analiza en profundidad los cambios que está generando la adopción de soluciones dedeo-OTT en el mercado a todos los niveles: cambios en los patrones de comportamiento de las personas, impactos en los sectores tradicionales (y su traducción en términos económicos y legales), evolución de la tecnología, etc. Todos estos aspectos se visitan haciendo especial hincapié en la cadena de valor y los nuevos modelos de negocio derivados de estas nuevas soluciones permitiendo monetizar estos cambios en un mercado complejo. Como complemento, se presenta un análisis de una de las soluciones líderes en el mercado, NETFLIX. Profundizar en un modelo de negocio de una compañía como esta permite analizar las estrategias seguidas y resultados obtenidos en función de la caracterización del mercado existente en cada momento, tomando notas para tener en cuenta en el planteamiento de modelos de negocio similares. Adicionalmente, en el apartado de recomendaciones para la cadena de valor, se establecen una serie de modelos de negocio que permitan enfrentar la aparición y crecimiento de los servicios OTT desde dos puntos de vista: diferenciación y participación de los mismos. Las aportaciones de valor presentadas, prestan especial atención también sobre las operadoras de telecomunicaciones, uno de los sectores más castigados por la entrada en el mercado de las soluciones dedeo-OTT, junto con la televisión de pago. Por último, se utilizan todas las conclusiones extraídas de los anteriores apartados (que sirven como caracterización de entorno) para establecer un plan de negocio definiendo una propuesta que podría ser interesante desarrollar en el mercado español, carente actualmente de una solución líder que destaque, como ocurre en otros países. En base a este trabajo, se puede concluir que este tipo de servicios dedeo-OTT presentan un potencial todavía por desarrollar y que conviene incluir en las estrategias de los próximos años de las compañías del sector, si éstas no quieren perder cuota de un mercado que sin duda evolucionará y revolucionará el mundo de la televisión tal y como existe actualmente.