972 resultados para estimación por punto
Resumo:
Los adhesivos se conocen y han sido utilizados en multitud de aplicaciones a lo lago de la historia. En la actualidad, la tecnología de la adhesión como método de unión de materiales estructurales está en pleno crecimiento. Los avances científicos han permitido comprender mejor los fenómenos de adhesión, así como, mejorar y desarrollar nuevas formulaciones poliméricas que incrementan el rango de aplicaciones de los adhesivos. Por otro lado, el desarrollo de nuevos materiales y la necesidad de aligerar peso, especialmente en el sector transporte, hace que las uniones adhesivas se introduzcan en aplicaciones hasta ahora reservadas a otros sistemas de unión como la soldadura o las uniones mecánicas, ofreciendo rendimientos similares y, en ocasiones, superiores a los aportados por estas. Las uniones adhesivas ofrecen numerosas ventajas frente a otros sistemas de unión. En la industria aeronáutica y en automoción, las uniones adhesivas logran una reducción en el número de componentes (tales como los tornillos, remaches, abrazaderas) consiguiendo como consecuencia diseños más ligeros y una disminución de los costes de manipulación y almacenamiento, así como una aceleración de los procesos de ensamblaje, y como consecuencia, un aumento de los procesos de producción. En el sector de la construcción y en la fabricación de equipos industriales, se busca la capacidad para soportar la expansión y contracción térmica. Por lo tanto, se usan las uniones adhesivas para evitar producir la distorsión del sustrato al no ser necesario el calentamiento ni la deformación de las piezas cuando se someten a un calentamiento elevado y muy localizado, como en el caso de la soldadura, o cuando se someten a esfuerzos mecánicos localizados, en el caso de montajes remachados. En la industria naval, se están desarrollando técnicas de reparación basadas en la unión adhesiva para distribuir de forma más uniforme y homogénea las tensiones con el objetivo de mejorar el comportamiento frente a fatiga y evitar los problemas asociados a las técnicas de reparación habituales de corte y soldadura. Las uniones adhesivas al no requerir importantes aportes de calor como la soldadura, no producen modificaciones microestructurales indeseables como sucede en la zona fundida o en la zona afectada térmicamente de las uniones soldadas, ni deteriora los recubrimientos protectores de metales de bajo punto de fusión o de naturaleza orgánica. Sin embargo, las uniones adhesivas presentan una desventaja que dificulta su aplicación, se trata de su durabilidad a largo plazo. La primera causa de rotura de los materiales es la rotura por fatiga. Este proceso de fallo es la causa del 85% de las roturas de los materiales estructurales en servicio. La rotura por fatiga se produce cuando se somete al material a la acción de cargas que varían cíclicamente o a vibraciones durante un tiempo prolongado. Las uniones y estructuras sometidas a fatiga pueden fallar a niveles de carga por debajo del límite de resistencia estática del material. La rotura por fatiga en las uniones adhesivas no se produce por un proceso de iniciación y propagación de grieta de forma estable, el proceso de fatiga va debilitando poco a poco la unión hasta que llega un momento que provoca una rotura de forma rápida. Underhill explica este mecanismo como un proceso de daño irreversible de los enlaces más débiles en determinados puntos de la unión. Cuando se ha producido el deterioro de estas zonas más débiles, su área se va incrementando hasta que llega un momento en que la zona dañada es tan amplia que se produce el fallo completo de la unión. En ensayos de crecimiento de grieta realizados sobre probetas preagrietadas en viga con doble voladizo (DCB), Dessureault identifica los procesos de iniciación y crecimiento de grietas en muestras unidas con adhesivo epoxi como una acumulación de microfisuras en la zona próxima al fondo de grieta que, luego, van coalesciendo para configurar la grieta principal. Lo que supone, igualmente, un proceso de daño del adhesivo en la zona de mayor concentración de tensiones que, posteriormente, conduce al fallo de la unión. La presente tesis surge con el propósito de aumentar los conocimientos existentes sobre el comportamiento a fatiga de las uniones adhesivas y especialmente las realizadas con dos tipos de adhesivos estructurales aplicados en aceros con diferentes acabados superficiales. El estudio incluye la obtención de las curvas de tensión frente al número de ciclos hasta el fallo del componente, curvas SN o curvas de Wöhler, que permitirán realizar una estimación de la resistencia a la fatiga de un determinado material o estructura. Los ensayos de fatiga realizados mediante ciclos predeterminados de carga sinusoidales, de amplitud y frecuencia constantes, han permitido caracterizar el comportamiento a la fatiga por el número de ciclos hasta la rotura, siendo el límite de fatiga el valor al que tiende la tensión cuando el número de ciclos es muy grande. En algunos materiales, la fatiga no tiende a un valor límite sino que decrece de forma constante a medida que aumenta el número de ciclos. Para estas situaciones, se ha definido la resistencia a la fatiga (o límite de resistencia) por la tensión en que se produce la rotura para un número de ciclos predeterminado. Todos estos aspectos permitirán un mejor diseño de las uniones y las condiciones de trabajo de los adhesivos con el fin de lograr que la resistencia a fatiga de la unión sea mucho más duradera y el comportamiento total de la unión sea mucho mejor, contribuyendo al crecimiento de la utilización de las uniones adhesivas respecto a otras técnicas. ABSTRACT Adhesives are well-known and have been used in many applications throughout history. At present, adhesion bonding technology of structural materials is experiencing an important growth. Scientific advances have enabled a better understanding of the phenomena of adhesion, as well as to improve and develop new polymeric formulations that increase the range of applications. On the other hand, the development of new materials and the need to save weight, especially in the transport sector, have promote the use of adhesive bonding in many applications previously reserved for other joining technologies such as welded or mechanical joints, presenting similar or even higher performances. Adhesive bonding offers many advantages over other joining methods. For example, in the aeronautic industry and in the automation sector, adhesive bonding allows a reduction in the number of components (such as bolts, rivets, clamps) and as consequence, resulting in lighter designs and a decrease in handling and storage costs, as well as faster assembly processes and an improvement in the production processes. In the construction sector and in the industrial equipment manufacturing, the ability to withstand thermal expansion and contraction is required. Therefore, adhesion bonding technology is used to avoid any distortion of the substrate since this technology does not require heating nor the deformation of the pieces when these are exposed to very high and localized heating, as in welding, or when are subjected to localized mechanical stresses in the case of riveted joints. In the naval industry, repair techniques based in the adhesive bonding are being developed in order to distribute stresses more uniform and homogeneously in order to improve the performance against fatigue and to avoid the problems associated with standard repair techniques as cutting and welding. Adhesive bonding does not require the use of high temperatures and as consequence they do not produce undesirable microstructural changes, as it can be observed in molten zones or in heat-affected zones in the case of welding, neither is there damage of the protective coating of metals with low melting points or polymeric films. However, adhesive bonding presents a disadvantage that limits its application, the low longterm durability. The most common cause of fractures of materials is fatigue fracture. This failure process is the cause of 85% of the fracture of structural materials in service. Fatigue failure occurs when the materials are subjected to the action of cyclic loads or vibrations for a long period of time. The joints and structures subjected to fatigue can fail at stress values below the static strength of the material. Fatigue failure do not occurs by a static and homogeneous process of initiation and propagation of crack. The fatigue process gradually weakens the bond until the moment in which the fracture occurs very rapidly. Underhill explains this mechanism as a process of irreversible damage of the weakest links at certain points of the bonding. When the deterioration in these weaker zones occurs, their area increase until the damage zone is so extensive that the full failure of the joint occurs. During the crack growth tests performed on precracked double-cantilever beam specimen, (DCB), Dessureault identified the processes of crack initiation and growth in samples bonded with epoxy adhesive as a process of accumulation of microcracks on the zone near the crack bottom, then, they coalesced to configure the main crack. This is a damage process of the adhesive in the zone of high stress concentration that leads to failure of the bond. This thesis aims to further the understanding of the fatigue behavior of the adhesive bonding, primarily those based on two different types of structural adhesives used on carbon-steel with different surface treatments. This memory includes the analysis of the SN or Wöhler curves (stress vs. number of cycles curves up to the failure), allowing to carry out an estimation of the fatigue strength of a specific material or structure. The fatigue tests carried out by means of predetermined cycles of sinusoidal loads, with a constant amplitude and frequency, allow the characterisation of the fatigue behaviour. For some materials, there is a maximum stress amplitude below which the material never fails for any number of cycles, known as fatigue limit. In the other hand, for other materials, the fatigue does not tend toward a limit value but decreases constantly as the number of cycles increases. For these situations, the fatigue strength is defined by the stress at which the fracture occurs for a predetermined number of cycles. All these aspects will enable a better joint design and service conditions of adhesives in order to get more durable joints from the fatigue failure point of view and in this way contribute to increase the use of adhesive bonding over other joint techniques.
Resumo:
El ruido de ocio que se produce hoy en día, es un problema de salud y de bienestar en la vida de las personas. Sin embargo, no existen modelos que ayuden a prever los problemas que puedan ocasionar. Este proyecto es el primer paso en la creación de estos modelos, centrándose en terrazas y veladores. Los objetivos principales del proyecto son la creación de una base de datos de ruidos de terrazas y la definición de una metodología para la estimación de la potencia que emiten. Para alcanzar estos objetivos, será necesario, en primer lugar, seleccionar una serie de terrazas en las que llevar a cabo las mediciones, definir el método de cálculo y llevar a cabo las mismas. Cuando se alcanza este punto, llega el momento de estudiar los distintos escenarios que han tenido lugar durante la etapa de medidas para poder simularlos en un software de estimación acústica que sea capaz de recrearlos. Si se siguen estos pasos, se podrá saber cuáles son los valores de potencia acústica de las terrazas estudiadas así como las características de emisión de ruido. Creada la base de datos y definida la metodología para la estimación de potencia acústica emitida por terrazas, se analizan los resultados llegando a la conclusión de que el nivel de potencia acústica depende del número de personas en la terraza y las mesas ocupadas, aunque es difícil ver la relación exacta. También se llega a la conclusión de que las terrazas suelen tener un nivel estable de potencia acústica que tiene un valor promedio de entre 76dBA y 78dBA. ABSTRACT. Nowadays, leisure noise is a health and wellness problem in the lives of people. However, there are no models that help anticipate problems that may arise. This project is the first step to creating these models, focusing on terraces. The main objectives are the creation of a database of noise made by terraces and the definition of a methodology for estimating the noise level. To achieve these objectives, it is necessary, first, selecting a series of terraces where measure, define the calculation method and perform the measures. When this point is reached, it is time to study the different scenarios that have taken place during the period of measures to simulate them with an acoustic estimation software that is able to recreate them. If you follow these steps, you will know the values of sound power of the terraces studied as well as noise emission characteristics. Created the database and defined the methodology for estimation of acoustic power emitted by terraces, you can see that the sound power level depends on the number of people on the terrace and tables occupied, although it is difficult see the exact relationship. You also can conclude that the terraces usually have a stable sound power level which has an average value of between 76 dBA and 78dBA.
Resumo:
Esta tesis se centra en desarrollo de tecnologías para la interacción hombre-robot en entornos nucleares de fusión. La problemática principal del sector de fusión nuclear radica en las condiciones ambientales tan extremas que hay en el interior del reactor, y la necesidad de que los equipos cumplan requisitos muy restrictivos para poder aguantar esos niveles de radiación, magnetismo, ultravacío, temperatura... Como no es viable la ejecución de tareas directamente por parte de humanos, habrá que utilizar dispositivos de manipulación remota para llevar a cabo los procesos de operación y mantenimiento. En las instalaciones de ITER es obligatorio tener un entorno controlado de extrema seguridad, que necesita de estándares validados. La definición y uso de protocolos es indispensable para regir su buen funcionamiento. Si nos centramos en la telemanipulación con algo grado de escalado, surge la necesidad de definir protocolos para sistemas abiertos que permitan la interacción entre equipos y dispositivos de diversa índole. En este contexto se plantea la definición del Protocolo de Teleoperación que permita la interconexión entre dispositivos maestros y esclavos de distinta tipología, pudiéndose comunicar bilateralmente entre sí y utilizar distintos algoritmos de control según la tarea a desempeñar. Este protocolo y su interconectividad se han puesto a prueba en la Plataforma Abierta de Teleoperación (P.A.T.) que se ha desarrollado e integrado en la ETSII UPM como una herramienta que permita probar, validar y realizar experimentos de telerrobótica. Actualmente, este Protocolo de Teleoperación se ha propuesto a través de AENOR al grupo ISO de Telerobotics como una solución válida al problema existente y se encuentra bajo revisión. Con el diseño de dicho protocolo se ha conseguido enlazar maestro y esclavo, sin embargo con los niveles de radiación tan altos que hay en ITER la electrónica del controlador no puede entrar dentro del tokamak. Por ello se propone que a través de una mínima electrónica convenientemente protegida se puedan multiplexar las señales de control que van a través del cableado umbilical desde el controlador hasta la base del robot. En este ejercicio teórico se demuestra la utilidad y viabilidad de utilizar este tipo de solución para reducir el volumen y peso del cableado umbilical en cifras aproximadas de un 90%, para ello hay que desarrollar una electrónica específica y con certificación RadHard para soportar los enormes niveles de radiación de ITER. Para este manipulador de tipo genérico y con ayuda de la Plataforma Abierta de Teleoperación, se ha desarrollado un algoritmo que mediante un sensor de fuerza/par y una IMU colocados en la muñeca del robot, y convenientemente protegidos ante la radiación, permiten calcular las fuerzas e inercias que produce la carga, esto es necesario para poder transmitirle al operador unas fuerzas escaladas, y que pueda sentir la carga que manipula, y no otras fuerzas que puedan influir en el esclavo remoto, como ocurre con otras técnicas de estimación de fuerzas. Como el blindaje de los sensores no debe ser grande ni pesado, habrá que destinar este tipo de tecnología a las tareas de mantenimiento de las paradas programadas de ITER, que es cuando los niveles de radiación están en sus valores mínimos. Por otro lado para que el operador sienta lo más fielmente posible la fuerza de carga se ha desarrollado una electrónica que mediante el control en corriente de los motores permita realizar un control en fuerza a partir de la caracterización de los motores del maestro. Además para aumentar la percepción del operador se han realizado unos experimentos que demuestran que al aplicar estímulos multimodales (visuales, auditivos y hápticos) aumenta su inmersión y el rendimiento en la consecución de la tarea puesto que influyen directamente en su capacidad de respuesta. Finalmente, y en referencia a la realimentación visual del operador, en ITER se trabaja con cámaras situadas en localizaciones estratégicas, si bien el humano cuando manipula objetos hace uso de su visión binocular cambiando constantemente el punto de vista adecuándose a las necesidades visuales de cada momento durante el desarrollo de la tarea. Por ello, se ha realizado una reconstrucción tridimensional del espacio de la tarea a partir de una cámara-sensor RGB-D, lo cual nos permite obtener un punto de vista binocular virtual móvil a partir de una cámara situada en un punto fijo que se puede proyectar en un dispositivo de visualización 3D para que el operador pueda variar el punto de vista estereoscópico según sus preferencias. La correcta integración de estas tecnologías para la interacción hombre-robot en la P.A.T. ha permitido validar mediante pruebas y experimentos para verificar su utilidad en la aplicación práctica de la telemanipulación con alto grado de escalado en entornos nucleares de fusión. Abstract This thesis focuses on developing technologies for human-robot interaction in nuclear fusion environments. The main problem of nuclear fusion sector resides in such extreme environmental conditions existing in the hot-cell, leading to very restrictive requirements for equipment in order to deal with these high levels of radiation, magnetism, ultravacuum, temperature... Since it is not feasible to carry out tasks directly by humans, we must use remote handling devices for accomplishing operation and maintenance processes. In ITER facilities it is mandatory to have a controlled environment of extreme safety and security with validated standards. The definition and use of protocols is essential to govern its operation. Focusing on Remote Handling with some degree of escalation, protocols must be defined for open systems to allow interaction among different kind of equipment and several multifunctional devices. In this context, a Teleoperation Protocol definition enables interconnection between master and slave devices from different typologies, being able to communicate bilaterally one each other and using different control algorithms depending on the task to perform. This protocol and its interconnectivity have been tested in the Teleoperation Open Platform (T.O.P.) that has been developed and integrated in the ETSII UPM as a tool to test, validate and conduct experiments in Telerobotics. Currently, this protocol has been proposed for Teleoperation through AENOR to the ISO Telerobotics group as a valid solution to the existing problem, and it is under review. Master and slave connection has been achieved with this protocol design, however with such high radiation levels in ITER, the controller electronics cannot enter inside the tokamak. Therefore it is proposed a multiplexed electronic board, that through suitable and RadHard protection processes, to transmit control signals through an umbilical cable from the controller to the robot base. In this theoretical exercise the utility and feasibility of using this type of solution reduce the volume and weight of the umbilical wiring approximate 90% less, although it is necessary to develop specific electronic hardware and validate in RadHard qualifications in order to handle huge levels of ITER radiation. Using generic manipulators does not allow to implement regular sensors for force feedback in ITER conditions. In this line of research, an algorithm to calculate the forces and inertia produced by the load has been developed using a force/torque sensor and IMU, both conveniently protected against radiation and placed on the robot wrist. Scaled forces should be transmitted to the operator, feeling load forces but not other undesirable forces in slave system as those resulting from other force estimation techniques. Since shielding of the sensors should not be large and heavy, it will be necessary to allocate this type of technology for programmed maintenance periods of ITER, when radiation levels are at their lowest levels. Moreover, the operator perception needs to feel load forces as accurate as possible, so some current control electronics were developed to perform a force control of master joint motors going through a correct motor characterization. In addition to increase the perception of the operator, some experiments were conducted to demonstrate applying multimodal stimuli (visual, auditory and haptic) increases immersion and performance in achieving the task since it is directly correlated with response time. Finally, referring to the visual feedback to the operator in ITER, it is usual to work with 2D cameras in strategic locations, while humans use binocular vision in direct object manipulation, constantly changing the point of view adapting it to the visual needs for performing manipulation during task procedures. In this line a three-dimensional reconstruction of non-structured scenarios has been developed using RGB-D sensor instead of cameras in the remote environment. Thus a mobile virtual binocular point of view could be generated from a camera at a fixed point, projecting stereoscopic images in 3D display device according to operator preferences. The successful integration of these technologies for human-robot interaction in the T.O.P., and validating them through tests and experiments, verify its usefulness in practical application of high scaling remote handling at nuclear fusion environments.
Resumo:
El sector energético, en España en particular, y de forma similar en los principales países de Europa, cuenta con una significativa sobrecapacidad de generación, debido al rápido y significativo crecimiento de las energías renovables en los últimos diez años y la reducción de la demanda energética, como consecuencia de la crisis económica. Esta situación ha hecho que las centrales térmicas de generación de electricidad, y en concreto los ciclos combinados de gas, operen con un factor de utilización extremadamente bajo, del orden del 10%. Además de la reducción de ingresos, esto supone para las plantas trabajar continuamente fuera del punto de diseño, provocando una significativa pérdida de rendimiento y mayores costes de explotación. En este escenario, cualquier contribución que ayude a mejorar la eficiencia y la condición de los equipos, es positivamente considerada. La gestión de activos está ganando relevancia como un proceso multidisciplinar e integrado, tal y como refleja la reciente publicación de las normas ISO 55000:2014. Como proceso global e integrado, la gestión de activos requiere el manejo de diversos procesos y grandes volúmenes de información, incluso en tiempo real. Para ello es necesario utilizar tecnologías de la información y aplicaciones de software. Esta tesis desarrolla un concepto integrado de gestión de activos (Integrated Plant Management – IPM) aplicado a centrales de ciclo combinado y una metodología para estimar el beneficio aportado por el mismo. Debido a las incertidumbres asociadas a la estimación del beneficio, se ha optado por un análisis probabilístico coste-beneficio. Así mismo, el análisis cuantitativo se ha completado con una validación cualitativa del beneficio aportado por las tecnologías incorporadas al concepto de gestión integrada de activos, mediante una entrevista realizada a expertos del sector de generación de energía. Los resultados del análisis coste-beneficio son positivos, incluso en el desfavorable escenario con un factor de utilización de sólo el 10% y muy prometedores para factores de utilización por encima del 30%. ABSTRACT The energy sector particularly in Spain, and in a similar way in Europe, has a significant overcapacity due to the big growth of the renewable energies in the last ten years, and it is seriously affected by the demand decrease due to the economic crisis. That situation has forced the thermal plants and in particular, the combined cycles to operate with extremely low annual average capacity factors, very close to 10%. Apart from the incomes reduction, working in out-of-design conditions, means getting a worse performance and higher costs than expected. In this scenario, anything that can be done to improve the efficiency and the equipment condition is positively received. Asset Management, as a multidisciplinary and integrated process, is gaining prominence, reflected in the recent publication of the ISO 55000 series in 2014. Dealing Asset Management as a global, integrated process needs to manage several processes and significant volumes of information, also in real time, that requires information technologies and software applications to support it. This thesis proposes an integrated asset management concept (Integrated Plant Management-IPM) applied to combined cycle power plants and develops a methodology to assess the benefit that it can provide. Due to the difficulties in getting deterministic benefit estimation, a statistical approach has been adopted for the cot-benefit analysis. As well, the quantitative analysis has been completed with a qualitative validation of the technologies included in the IPM and their contribution to key power plant challenges by power generation sector experts. The cost- benefit analysis provides positive results even in the negative scenario of annual average capacity factor close to 10% and is promising for capacity factors over 30%.
Resumo:
El empleo de refuerzos de FRP en vigas de hormigón armado es cada vez más frecuente por sus numerosas ventajas frente a otros métodos más tradicionales. Durante los últimos años, la técnica FRP-NSM, consistente en introducir barras de FRP sobre el recubrimiento de una viga de hormigón, se ha posicionado como uno de los mejores métodos de refuerzo y rehabilitación de estructuras de hormigón armado, tanto por su facilidad de montaje y mantenimiento, como por su rendimiento para aumentar la capacidad resistente de dichas estructuras. Si bien el refuerzo a flexión ha sido ampliamente desarrollado y estudiado hasta la fecha, no sucede lo mismo con el refuerzo a cortante, debido principalmente a su gran complejidad. Sin embargo, se debería dedicar más estudio a este tipo de refuerzo si se pretenden conservar los criterios de diseño en estructuras de hormigón armado, los cuales están basados en evitar el fallo a cortante por sus consecuencias catastróficas Esta ausencia de información y de normativa es la que justifica esta tesis doctoral. En este pro-yecto se van a desarrollar dos metodologías alternativas, que permiten estimar la capacidad resistente de vigas de hormigón armado, reforzadas a cortante mediante la técnica FRP-NSM. El primer método aplicado consiste en la implementación de una red neuronal artificial capaz de predecir adecuadamente la resistencia a cortante de vigas reforzadas con este método a partir de experimentos anteriores. Asimismo, a partir de la red se han llevado a cabo algunos estudios a fin de comprender mejor la influencia real de algunos parámetros de la viga y del refuerzo sobre la resistencia a cortante con el propósito de lograr diseños más seguros de este tipo de refuerzo. Una configuración óptima de la red requiere discriminar adecuadamente de entre los numerosos parámetros (geométricos y de material) que pueden influir en el compor-tamiento resistente de la viga, para lo cual se han llevado a cabo diversos estudios y pruebas. Mediante el segundo método, se desarrolla una ecuación de proyecto que permite, de forma sencilla, estimar la capacidad de vigas reforzadas a cortante con FRP-NSM, la cual podría ser propuesta para las principales guías de diseño. Para alcanzar este objetivo, se plantea un pro-blema de optimización multiobjetivo a partir de resultados de ensayos experimentales llevados a cabo sobre vigas de hormigón armado con y sin refuerzo de FRP. El problema multiobjetivo se resuelve mediante algoritmos genéticos, en concreto el algoritmo NSGA-II, por ser más apropiado para problemas con varias funciones objetivo que los métodos de optimización clásicos. Mediante una comparativa de las predicciones realizadas con ambos métodos y de los resulta-dos de ensayos experimentales se podrán establecer las ventajas e inconvenientes derivadas de la aplicación de cada una de las dos metodologías. Asimismo, se llevará a cabo un análisis paramétrico con ambos enfoques a fin de intentar determinar la sensibilidad de aquellos pa-rámetros más sensibles a este tipo de refuerzo. Finalmente, se realizará un análisis estadístico de la fiabilidad de las ecuaciones de diseño deri-vadas de la optimización multiobjetivo. Con dicho análisis se puede estimar la capacidad resis-tente de una viga reforzada a cortante con FRP-NSM dentro de un margen de seguridad espe-cificado a priori. ABSTRACT The use of externally bonded (EB) fibre-reinforced polymer (FRP) composites has gained acceptance during the last two decades in the construction engineering community, particularly in the rehabilitation of reinforced concrete (RC) structures. Currently, to increase the shear resistance of RC beams, FRP sheets are externally bonded (EB-FRP) and applied on the external side surface of the beams to be strengthened with different configurations. Of more recent application, the near-surface mounted FRP bar (NSM-FRP) method is another technique successfully used to increase the shear resistance of RC beams. In the NSM method, FRP rods are embedded into grooves intentionally prepared in the concrete cover of the side faces of RC beams. While flexural strengthening has been widely developed and studied so far, the same doesn´t occur to shearing strength mainly due to its great complexity. Nevertheless, if design criteria are to be preserved more research should be done to this sort of strength, which are based on avoiding shear failure and its catastrophic consequences. However, in spite of this, accurately calculating the shear capacity of FRP shear strengthened RC beams remains a complex challenge that has not yet been fully resolved due to the numerous variables involved in the procedure. The objective of this Thesis is to develop methodologies to evaluate the capacity of FRP shear strengthened RC beams by dealing with the problem from a different point of view to the numerical modeling approach by using artificial intelligence techniques. With this purpose two different approaches have been developed: one concerned with the use of artificial neural networks and the other based on the implementation of an optimization approach developed jointly with the use of artificial neural networks (ANNs) and solved with genetic algorithms (GAs). With these approaches some of the difficulties concerned regarding the numerical modeling can be overcome. As an alternative tool to conventional numerical techniques, neural networks do not provide closed form solutions for modeling problems but do, however, offer a complex and accurate solution based on a representative set of historical examples of the relationship. Furthermore, they can adapt solutions over time to include new data. On the other hand, as a second proposal, an optimization approach has also been developed to implement simple yet accurate shear design equations for this kind of strengthening. This approach is developed in a multi-objective framework by considering experimental results of RC beams with and without NSM-FRP. Furthermore, the results obtained with the previous scheme based on ANNs are also used as a filter to choose the parameters to include in the design equations. Genetic algorithms are used to solve the optimization problem since they are especially suitable for solving multi-objective problems when compared to standard optimization methods. The key features of the two proposed procedures are outlined and their performance in predicting the capacity of NSM-FRP shear strengthened RC beams is evaluated by comparison with results from experimental tests and with predictions obtained using a simplified numerical model. A sensitivity study of the predictions of both models for the input parameters is also carried out.
Resumo:
El desarrollo de nuevas estructuras aeroespaciales optimizadas, utilizan materiales compuestos, para los componentes críticos y subsistemas, principalmente polímeros reforzados con fibra de carbono (CFRP). Un conocimiento profundo del estado de daño por fatiga de estructuras de CFRP avanzado, es esencial para predecir la vida residual y optimizar los intervalos de inspección estructural, reparaciones y/o sustitución de componentes. Las técnicas actuales se basan principalmente en la medición de cargas estructurales a lo largo de la vida útil de la estructura mediante galgas extensométricas eléctricas. Con esos datos, se estima la vida a fatiga utilizando modelos de acumulación de daño. En la presente tesis, se evalúa la metodología convencional para la estimación de la vida a fatiga de un CFRP aeronáutico. Esta metodología está basada en la regla de acumulación de daño lineal de Palmgren-Miner, y es aplicada para determinar la vida a fatiga de estructuras sometidas a cargas de amplitud variable. Se ha realizado una campaña de ensayos con cargas de amplitud constante para caracterizar un CFRP aeronáutico a fatiga, obteniendo las curvas clásicas S-N, en diferentes relaciones de esfuerzo. Se determinaron los diagramas de vida constante, (CLD), también conocidos como diagramas de Goodman, utilizando redes neuronales artificiales debido a la ausencia de modelos coherentes para materiales compuestos. Se ha caracterizado la degradación de la rigidez debido al daño por fatiga. Se ha ensayado un segundo grupo de probetas con secuencias estandarizadas de cargas de amplitud variable, para obtener la vida a fatiga y la degradación de rigidez en condiciones realistas. Las cargas aplicadas son representativas de misiones de aviones de combate (Falstaff), y de aviones de transporte (Twist). La vida a fatiga de las probetas cicladas con cargas de amplitud variable, se comparó con el índice de daño teórico calculado en base a la regla de acumulación de daño lineal convencional. Los resultados obtenidos muestran predicciones no conservativas. Esta tesis también presenta el estudio y desarrollo, de una nueva técnica de no contacto para evaluar el estado de daño por fatiga de estructuras de CFRP por medio de cambios de los parámetros de rugosidad. La rugosidad superficial se puede medir fácilmente en campo con métodos sin contacto, mediante técnicas ópticas tales como speckle y perfilómetros ópticos. En el presente estudio, se han medido parámetros de rugosidad superficial, y el factor de irregularidad de la superficie, a lo largo de la vida de las probetas cicladas con cargas de amplitud constante y variable, Se ha obtenido una buena tendencia de ajuste al correlacionar la magnitud de la rugosidad y el factor de irregularidad de la superficie con la degradación de la rigidez de las probetas fatigadas. Estos resultados sugieren que los cambios en la rugosidad superficial medida en zonas estratégicas de componentes y estructuras hechas de CFRP, podrían ser indicativas del nivel de daño interno debido a cargas de fatiga. Los resultados también sugieren que el método es independiente del tipo de carga de fatiga que ha causado el daño. Esto último hace que esta técnica de medición sea aplicable como inspección para una amplia gama de estructuras de materiales compuestos, desde tanques presurizados con cargas de amplitud constante, estructuras aeronáuticas como alas y colas de aeronaves cicladas con cargas de amplitud variable, hasta aplicaciones industriales como automoción, entre otros. ABSTRACT New optimized aerospace structures use composite materials, mainly carbon fiber reinforced polymer composite (CFRP), for critical components and subsystems. A strong knowledge of the fatigue state of highly advanced (CFRP) structures is essential to predict the residual life and optimize intervals of structural inspection, repairs, and/or replacements. Current techniques are based mostly on measurement of structural loads throughout the service life by electric strain gauge sensors. These sensors are affected by extreme environmental conditions and by fatigue loads in such a way that the sensors and their systems require exhaustive maintenance throughout system life. In the present thesis, the conventional methodology based on linear damage accumulation rules, applied to determine the fatigue life of structures subjected to variable amplitude loads was evaluated for an aeronautical CFRP. A test program with constant amplitude loads has been performed to obtain the classical S-N curves at different stress ratios. Constant life diagrams, CLDs, where determined by means of Artificial Neural Networks due to the absence of consistent models for composites. The stiffness degradation due to fatigue damage has been characterized for coupons under cyclic tensile loads. A second group of coupons have been tested until failure with a standardized sequence of variable amplitude loads, representative of missions for combat aircraft (Falstaff), and representative of commercial flights (Twist), to obtain the fatigue life and the stiffness degradation under realistic conditions. The fatigue life of the coupons cycled with variable amplitude loads were compared to the theoretical damage index calculated based on the conventional linear damage accumulation rule. The obtained results show non-conservative predictions. This thesis also presents the evaluation of a new non-contact technique to evaluate the fatigue damage state of CFRP structures by means of measuring roughness parameters to evaluate changes in the surface topography. Surface roughness can be measured easily on field with non-contact methods by optical techniques such as speckle and optical perfilometers. In the present study, surface roughness parameters, and the surface irregularity factor, have been measured along the life of the coupons cycled with constant and variable amplitude loads of different magnitude. A good agreement has been obtained when correlating the magnitude of the roughness and the surface irregularity factor with the stiffness degradation. These results suggest that the changes on the surface roughness measured in strategic zones of components and structures made of CFRP, could be indicative of the level of internal damage due to fatigue loads. The results also suggest that the method is independent of the type of fatigue load that have caused the damage. It makes this measurement technique applicable for a wide range of inspections of composite materials structures, from pressurized tanks with constant amplitude loads, to variable amplitude loaded aeronautical structures like wings and empennages, up to automotive and other industrial applications.
Resumo:
Existe normalmente el propósito de obtener la mejor solución posible cuando se plantea un problema estructural, entendiendo como mejor la solución que cumpliendo los requisitos estructurales, de uso, etc., tiene un coste físico menor. En una primera aproximación se puede representar el coste físico por medio del peso propio de la estructura, lo que permite plantear la búsqueda de la mejor solución como la de menor peso. Desde un punto de vista práctico, la obtención de buenas soluciones—es decir, soluciones cuyo coste sea solo ligeramente mayor que el de la mejor solución— es una tarea tan importante como la obtención de óptimos absolutos, algo en general difícilmente abordable. Para disponer de una medida de la eficiencia que haga posible la comparación entre soluciones se propone la siguiente definición de rendimiento estructural: la razón entre la carga útil que hay que soportar y la carga total que hay que contabilizar (la suma de la carga útil y el peso propio). La forma estructural puede considerarse compuesta por cuatro conceptos, que junto con el material, definen una estructura: tamaño, esquema, proporción, y grueso.Galileo (1638) propuso la existencia de un tamaño insuperable para cada problema estructural— el tamaño para el que el peso propio agota una estructura para un esquema y proporción dados—. Dicho tamaño, o alcance estructural, será distinto para cada material utilizado; la única información necesaria del material para su determinación es la razón entre su resistencia y su peso especifico, una magnitud a la que denominamos alcance del material. En estructuras de tamaño muy pequeño en relación con su alcance estructural la anterior definición de rendimiento es inútil. En este caso —estructuras de “talla nula” en las que el peso propio es despreciable frente a la carga útil— se propone como medida del coste la magnitud adimensional que denominamos número de Michell, que se deriva de la “cantidad” introducida por A. G. M. Michell en su artículo seminal de 1904, desarrollado a partir de un lema de J. C. Maxwell de 1870. A finales del siglo pasado, R. Aroca combino las teorías de Galileo y de Maxwell y Michell, proponiendo una regla de diseño de fácil aplicación (regla GA), que permite la estimación del alcance y del rendimiento de una forma estructural. En el presente trabajo se estudia la eficiencia de estructuras trianguladas en problemas estructurales de flexión, teniendo en cuenta la influencia del tamaño. Por un lado, en el caso de estructuras de tamaño nulo se exploran esquemas cercanos al optimo mediante diversos métodos de minoración, con el objetivo de obtener formas cuyo coste (medido con su numero deMichell) sea muy próximo al del optimo absoluto pero obteniendo una reducción importante de su complejidad. Por otro lado, se presenta un método para determinar el alcance estructural de estructuras trianguladas (teniendo en cuenta el efecto local de las flexiones en los elementos de dichas estructuras), comparando su resultado con el obtenido al aplicar la regla GA, mostrando las condiciones en las que es de aplicación. Por último se identifican las líneas de investigación futura: la medida de la complejidad; la contabilidad del coste de las cimentaciones y la extensión de los métodos de minoración cuando se tiene en cuenta el peso propio. ABSTRACT When a structural problem is posed, the intention is usually to obtain the best solution, understanding this as the solution that fulfilling the different requirements: structural, use, etc., has the lowest physical cost. In a first approximation, the physical cost can be represented by the self-weight of the structure; this allows to consider the search of the best solution as the one with the lowest self-weight. But, from a practical point of view, obtaining good solutions—i.e. solutions with higher although comparable physical cost than the optimum— can be as important as finding the optimal ones, because this is, generally, a not affordable task. In order to have a measure of the efficiency that allows the comparison between different solutions, a definition of structural efficiency is proposed: the ratio between the useful load and the total load —i.e. the useful load plus the self-weight resulting of the structural sizing—. The structural form can be considered to be formed by four concepts, which together with its material, completely define a particular structure. These are: Size, Schema, Slenderness or Proportion, and Thickness. Galileo (1638) postulated the existence of an insurmountable size for structural problems—the size for which a structure with a given schema and a given slenderness, is only able to resist its self-weight—. Such size, or structural scope will be different for every different used material; the only needed information about the material to determine such size is the ratio between its allowable stress and its specific weight: a characteristic length that we name material structural scope. The definition of efficiency given above is not useful for structures that have a small size in comparison with the insurmountable size. In this case—structures with null size, inwhich the self-weight is negligible in comparisonwith the useful load—we use as measure of the cost the dimensionless magnitude that we call Michell’s number, an amount derived from the “quantity” introduced by A. G. M. Michell in his seminal article published in 1904, developed out of a result from J. C.Maxwell of 1870. R. Aroca joined the theories of Galileo and the theories of Maxwell and Michell, obtaining some design rules of direct application (that we denominate “GA rule”), that allow the estimation of the structural scope and the efficiency of a structural schema. In this work the efficiency of truss-like structures resolving bending problems is studied, taking into consideration the influence of the size. On the one hand, in the case of structures with null size, near-optimal layouts are explored using several minimization methods, in order to obtain forms with cost near to the absolute optimum but with a significant reduction of the complexity. On the other hand, a method for the determination of the insurmountable size for truss-like structures is shown, having into account local bending effects. The results are checked with the GA rule, showing the conditions in which it is applicable. Finally, some directions for future research are proposed: the measure of the complexity, the cost of foundations and the extension of optimization methods having into account the self-weight.
Resumo:
Este proyecto se incluye en una línea de trabajo que tiene como objetivo final la optimización de la energía consumida por un dispositivo portátil multimedia mediante la aplicación de técnicas de control realimentado, a partir de una modificación dinámica de la frecuencia de trabajo del procesador y de su tensión de alimentación. La modificación de frecuencia y tensión se realiza a partir de la información de realimentación acerca de la potencia consumida por el dispositivo, lo que supone un problema ya que no suele ser posible la monitorización del consumo de potencia en dispositivos de estas características. Este es el motivo por el que se recurre a la estimación del consumo de potencia, utilizando para ello un modelo de predicción. A partir del número de veces que se producen ciertos eventos en el procesador del dispositivo, el modelo de predicción es capaz de obtener una estimación de la potencia consumida por dicho dispositivo. El trabajo llevado a cabo en este proyecto se centra en la implementación de un modelo de estimación de potencia en el kernel de Linux. La razón por la que la estimación se implementa en el sistema operativo es, en primer lugar para lograr un acceso directo a los contadores del procesador. En segundo lugar, para facilitar la modificación de frecuencia y tensión, una vez obtenida la estimación de potencia, ya que esta también se realiza desde el sistema operativo. Otro motivo para implementar la estimación en el sistema operativo, es que la estimación debe ser independiente de las aplicaciones de usuario. Además, el proceso de estimación se realiza de forma periódica, lo que sería difícil de lograr si no se trabajase desde el sistema operativo. Es imprescindible que la estimación se haga de forma periódica ya que al ser dinámica la modificación de frecuencia y tensión que se pretende implementar, se necesita conocer el consumo de potencia del dispositivo en todo momento. Cabe destacar también, que los algoritmos de control se tienen que diseñar sobre un patrón periódico de actuación. El modelo de estimación de potencia funciona de manera específica para el perfil de consumo generado por una única aplicación determinada, que en este caso es un decodificador de vídeo. Sin embargo, es necesario que funcione de la forma más precisa posible para cada una de las frecuencias de trabajo del procesador, y para el mayor número posible de secuencias de vídeo. Esto es debido a que las sucesivas estimaciones de potencia se pretenden utilizar para llevar a cabo la modificación dinámica de frecuencia, por lo que el modelo debe ser capaz de continuar realizando las estimaciones independientemente de la frecuencia con la que esté trabajando el dispositivo. Para valorar la precisión del modelo de estimación se toman medidas de la potencia consumida por el dispositivo a las distintas frecuencias de trabajo durante la ejecución del decodificador de vídeo. Estas medidas se comparan con las estimaciones de potencia obtenidas durante esas mismas ejecuciones, obteniendo de esta forma el error de predicción cometido por el modelo y realizando las modificaciones y ajustes oportunos en el mismo. ABSTRACT. This project is included in a work line which tries to optimize consumption of handheld multimedia devices by the application of feedback control techniques, from a dynamic modification of the processor work frequency and its voltage. The frequency and voltage modification is performed depending on the feedback information about the device power consumption. This is a problem because normally it is not possible to monitor the power consumption on this kind of devices. This is the reason why a power consumption estimation is used instead, which is obtained from a prediction model. Using the number of times some events occur on the device processor, the prediction model is able to obtain a power consumption estimation of this device. The work done in this project focuses on the implementation of a power estimation model in the Linux kernel. The main reason to implement the estimation in the operating system is to achieve a direct access to the processor counters. The second reason is to facilitate the frequency and voltage modification, because this modification is also done from the operating system. Another reason to implement the estimation in the operating system is because the estimation must be done apart of the user applications. Moreover, the estimation process is done periodically, what is difficult to obtain outside the operating system. It is necessary to make the estimation in a periodic way because the frequency and voltage modification is going to be dynamic, so it needs to know the device power consumption at every time. Also, it is important to say that the control algorithms have to be designed over a periodic pattern of action. The power estimation model works specifically for the consumption profile generated by a single application, which in this case is a video decoder. Nevertheless, it is necessary that the model works as accurate as possible for each frequency available on the processor, and for the greatest number of video sequences. This is because the power estimations are going to be used to modify dynamically the frequency, so the model must be able to work independently of the device frequency. To value the estimation model precision, some measurements of the device power consumption are taken at different frequencies during the video decoder execution. These measurements are compared with the power estimations obtained during that execution, getting the prediction error committed by the model, and if it is necessary, making modifications and settings on this model.
Resumo:
Esta tesis se centra en la identificación y análisis de los factores que pueden favorecer o actuar como barreras del éxito de la implementación de la innovación y las relaciones entre sí, desde el enfoque de la interface marketing-ventas. El trabajo empírico se enmarca en el vacío de investigación existente en el campo del proceso de lanzamiento de nuevos productos en los mercados donde operan subsidiarias de empresas multinacionales de consumo masivo (FMCG). Las empresas FMCG son altamente dependientes de la innovación como proceso clave determinante del crecimiento competitivo de mediano y largo plazo. En un contexto de acortamiento del ciclo de vida de los productos, como resultado del desarrollo tecnológico y científico que impactan en el comportamiento de los consumidores, las empresas invierten un mayor nivel de recursos en el desarrollo de nuevos productos, reingeniería y programas de innovación (Mundra, Gulati y Gupta, 2013). Sin embargo, a pesar del aumento en la inversión, las tasas de éxito de la innovación reportadas son inferiores al 25% (Evanschitzky, Eisend, Calantone y Jiang, 2012). Aumentar las tasas de éxito de los proyectos de innovación es reconocida en la literatura como un elemento clave para la supervivencia y competitividad de las empresas, para ser superiores a su competencia y desarrollar nuevos modelos de negocios. A pesar de la existencia de estudios que intentan comprender el proceso de lanzamiento de nuevos productos, no se ha identificado un claro prototipo de gestión de la innovación (Gupta et al, 2007). Profundizando en los factores de éxito, los autores Keupp, Palmié y Gassman (2012) reconocen que la innovación exitosa no depende solamente de la estrategia de selección de los proyectos de innovación, sino también la forma en que los mismos son implementados (Klein and Sorra, 1996; Repenning, 2002; Keupp, Palmié y Gassmann, 2012). Al analizar la implementación de los proyectos de lanzamiento de nuevos productos al mercado, en empresas FMCG, dicho proceso es responsabilidad principalmente de las funciones de marketing y ventas a través de la comunicación con los consumidores y los clientes respectivamente (Ernst, Hoyer y Rubsaamen, 2010). Es decir que el éxito en la implementación de la innovación requiere la gestión efectiva de la relación inter-funcional entre marketing y ventas (Ernst, Hoyer y Rubsaamen, 2010; Hughes, Le Bon y Malshe, 2012). A pesar de la importancia de la integración entre marketing y ventas en la conceptualización e implementación de la innovación, este tema no ha sido estudiado en profundidad (Hughes, Le Bon y Malshe, 2012; Keupp, Palmié y Gassmann, 2012). En las empresas multinacionales, está demostrado que el desempeño de las subsidiarias determinan el éxito competitivo de la empresa a nivel global. El desafío de dichas subsidiarias es conjugar el desarrollo global de innovación y comunicación con las características locales de comportamiento del consumidor y el mercado. Por lo tanto, esta investigación empírica responde a la pregunta académica y de gestión acerca de cómo mejorar las tasas de éxito de lanzamiento de nuevos productos al mercado en subsidiarias de empresas de consumo masivo, desde la perspectiva de la relación entre marketing y ventas. En particular analiza cómo afectan la formalización de los procesos y los mecanismos de comunicación a la confianza interpersonal y a la efectividad de la interface marketing-ventas y dichos factores a su vez sobre la planificación integrada de la implementación de la innovación. La determinación de los factores o ítems que conforman cada uno de los constructos del proceso de ejecución de la innovación, se llevó a cabo a partir de una revisión exhaustiva del estado del arte de la literatura sobre las interfaces funcionales y el proceso de innovación. Posteriormente, los ítems seleccionados (más de 50 en total) fueron validados por referentes de marketing y ventas de Argentina y Uruguay a través de entrevistas en profundidad. A partir de los factores identificados se construyeron dos modelos teóricos: • (1) relativo a la influencia de las dimensiones de confianza interpersonal sobre la efectividad de las uniones inter-funcionales y como los mecanismos organizacionales, tales como la frecuencia y la calidad de la comunicación entre las áreas, afectan la confianza y la relación entre ellas; • (2) relativo a la dimensión planificación integrada de la implementación de la innovación, ya que durante el lanzamiento de nuevos productos al mercado, marketing y ventas utilizan procesos formales que facilitan la comunicación frecuente y efectiva, desarrollando confianza inter-personal que no solamente afecta la efectividad de su relación sino también el desarrollo de planes integrados entre ambas áreas. El estudio fue llevado a cabo en una empresa multinacional de consumo masivo que integra la lista Global 500 (Fortune, 2015), presente en todo el mundo con más de 25 marcas participantes en más de 15 categorías, implementando 150 proyectos de innovación en el último año. El grupo de subsidiarias en estudio fue reconocido a nivel mundial por su desempeño en crecimiento competitivo y su alta contribución al crecimiento total. El modelo analizado en esta tesis fue expandido al resto de América Latina, tratándose entonces de un caso ejemplar que representa una práctica de excelencia en la implementación de la innovación en subsidiarias de una empresa multinacional. La recolección de los datos fue llevado a cabo a través de un cuestionario estructurado y confidencial, enviado a la base de datos de todo el universo de directores y gerentes de marketing y ventas. El nivel de respuesta fue muy elevado (70%), logrando 152 casos válidos. El análisis de datos comprendió el análisis descriptivo de los mismos, estimación de fiabilidad y análisis factorial exploratorio a través del software SPSS v.20. El análisis factorial confirmatorio y el análisis de senderos para examinar las relaciones entre los factores se estudiaron mediante el software R (Package 2.15.1., R Core Team, 2012) (Fox, 2006). Finalmente se llevaron a cabo entrevistas en profundidad a gerentes de marketing y ventas de cada uno de los seis países con el fin de profundizar en los constructos y sus relaciones. Los resultados de los modelos demuestran que la frecuencia de comunicación impacta positivamente en la calidad de la misma, que a su vez afecta directamente la relación entre marketing y ventas. Adicionalmente, la calidad de la comunicación impacta sobre la confianza cognitiva, que a su vez se relaciona no solamente con la confianza afectiva sino también con la relación entre ambas áreas. Esto significa que para mejorar la implementación de la innovación, los gerentes deberían orientarse a reforzar la relación entre marketing y ventas facilitando la construcción de confianza interpersonal primero cognitiva y luego afectiva, incrementando la frecuencia de la comunicación que alimenta la calidad de la comunicación entre ambas áreas. A través del segundo modelo se demuestra que durante el lanzamiento de nuevos productos al mercado, marketing y ventas necesitan emplear procesos formales que faciliten la comunicación frecuente y efectiva. De esta forma se contrarresta el efecto negativo de la formalización sobre la planificación integrada entre ambas áreas. Adicionalmente, los gerentes de ambos departamentos deberían promover la construcción de confianza interpersonal, no solamente para mejorar la efectividad de la relación, sino también para desarrollar planes integrados de implementación de nuevos productos. Finalmente, se valida que la frecuencia de la comunicación, la confianza afectiva y la relación marketing-ventas, se relacionan positivamente con la planificación integrada en la implementación de la innovación. El estudio contribuye a la comprensión de los factores que las empresas pueden emplear para mejorar la relación inter-funcional entre marketing y ventas y la implementación de la innovación en empresas de consumo masivo. El aporte de esta investigación puede ser valorado de dos maneras, los aportes a la gestión y a la academia. Desde el punto de vista empresarial, provee a los líderes al frente de empresas de consumo masivo, del conocimiento sobre los factores que afectan la implementación de la innovación y en definitiva el éxito del negocio a mediano y largo plazo. Desde el punto de vista académico aporta al conocimiento del proceso de implementación de la innovación y en la efectividad de la interface marketing y ventas en un caso de buenas prácticas en el mercado de consumo masivo. A su vez incorpora por primera vez un estudio empírico en geografías emergentes capaces de recuperar el camino de crecimiento posterior a una profunda crisis económica a través de la exitosa implementación de la innovación en sus mercados. ABSTRACT This thesis is focused on the identification, analysis and relationship study of factors which may benefit or hinder the successful deployment of innovation, from a marketing-sales interface perspective. Considering the non-existent investigation dedicated to the study of new products launches into markets in which Fast Moving Consumer Goods (FMCG) companies’ subsidiaries operate, it is that this investigation has been carried out. FMCG companies rely on innovation as their key process for a competitive growth on a medium and long term basis. Nowadays, the life-cycle of products is getting shorter as a result of new technological and scientific development, having impact on consumer behavior, and therefore companies are forced to dedicating more resources to the development of new products, reengineering and innovation programs (Mundra, Gulati and Gupta, 2013). However, in spite of the investment increase, the innovation success rates have been reported to be lower than 25% (Evanschitzky, Eisend, Calantone y Jiang, 2012). Increasing success rates on innovation processes has been considered as a key element on the survival and competitiveness of companies, outperforming competitors and developing new business models. Despite new studies which try to comprehend the process of new products launch, a prototype of innovation management has not yet been identified (Gupta et al, 2007). Emphasizing on success factors, authors Keupp, Palmié and Gassman (2012) recognize that successful innovation does not solely depend on innovation processes’ selection strategy, but it is also based on the way in which these are implemented (Klein and Sorra, 1996; Repenning, 2002; Keupp, Palmié y Gassmann, 2012). While analyzing the implementation of projects for new products releases on massive consumption companies, the two departments in charge of taking this forward are marketing and sales, by focusing on communication strategies with consumers and clients respectively (Ernst, Hoyer y Rubsaamen, 2010). This means that having success on innovation implementation requires an effective management of inter-functional relationship among marketing and sales (Ernst, Hoyer y Rubsaamen, 2010; Hughes, Le Bon y Malshe, 2012). In spite of the importance on the integration between marketing and sales on the conceptualization and implementation of innovation, this subject has not been studied in depth (Hughes, Le Bon y Malshe, 2012; Keupp, Palmié y Gassmann, 2012). In multinational companies, previous research has confirmed that the performance of their subsidiaries determine the competitive success of the company on a global scale. The challenge of said subsidiaries is to conjugate the global innovation development and communication with the local consumer and market behavior. Therefore, this empirical study aims to respond to the academic and management question of how to improve the success rates of new product launches into MNE subsidiary’ markets, from a marketing-sales relationship perspective. Particularly, this investigation analyses how the formalization of products and communication mechanisms affect interpersonal trust and marketing-sales interface effectiveness and also on how these factors affect the overall planning of the implementation of innovation. The determination of which factors build the hypothesis of the innovation execution process was taken forward through an extensive research on the extant literature on functional interfaces and innovation processes. More than 50 items were selected which were in turn validated by marketing and sales referents on Uruguay and Argentina through in depth interviews. Based on the identified factors, two theoretical models were proposed: (1) Relative to the influence that interpersonal trust dimensions have on inter functional linkages effectiveness and how organizational mechanisms such as frequency and quality of communication between departments affect trust and their relationship. (2) Relative to the integrated planning and innovation implementation dimensions. Marketing and sales department use formal process thus allowing inter-personal trust, which affects positively their relationship and also enables the development of integrated planning between them. The study was performed within a massive consumption company which is part of the “Global 500” (Fortune, 2015), with subsidiaries all over the world and more than 25 participant brands in 15 categories, having implemented over 150 innovation projects in the year under study. The analyzed subsidiary group has been awarded worldwide for their performance in competitive growth and their high contribution to the total growth. The model being analyzed in this thesis was implemented throughout Latin America, representing a remarkable case of innovation implementation excellence for subsidiaries of multinational companies. Data recollection was carried out through a structured and confidential questionnaire, sent to the universe of marketing-sales directors and managers’ database available with a high level of responsiveness of 70%, resulting in 152 valid cases. Data exploration involved a descriptive analysis, followed by a reliability estimation and an exploratory factorial analysis carried out through SPSS v.20. Confirmatory factorial analysis and path analysis (to examine relations between the different study factors) were studied using “R” software (Package 2.15.1., R Core Team, 2012) (Fox, 2006). Finally, in depth interviews were carried out to several marketing and sales managers in each of the six countries so as to further confirm the hypothesis and their relations. The models results prove that communication frequency has a positive impact on the quality of the same, which in turn has direct effects on the marketing-sales relations. Additionally, communication quality has an impact on the cognitive trust, which also relates not only to affective trust, but also to the relation between both areas. This means that in order to improve the implementation of innovation, managers should strive to enforce marketing-sales relations, facilitating the interpersonal trust construction (firstly cognitive, followed by affective trust), increasing the communication frequency, and therefore nurturing the communication quality among both areas. Through the second model, the results confirm the importance of creating effective relationships between sales and marketing to facilitate planning integrated new product implementations. While formalized new product development processes provide opportunities for sales and marketing to communicate, this does not directly influence the planning of integrated new product implementations. By using these formal opportunities to communicate to create information quality, it is possible to improve sales and marketing’s ability to integrate information during the planning process. Further, communication quality creates inter-personal trust in the other party’s competences (cognitive-based trust), leading to affect-based trust. Affect-based inter-personal trust, not only to improve the overall effectiveness of the sales and marketing relationship, but also helps in planning integrated new product implementations. This study contributes to the understanding of factors which enterprises can use to improve the inter-functional relations between marketing and sales, and the implementation of innovation in FMCG companies. The contribution of this investigation can be measured in two ways: enrichment of management and contribution to the academic area. From a business perspective, it provides massive consumption businesses leaders with knowledge on which factors affect innovation implementation, which results on mid and long-term success for the company. From an academic point of view, it provides knowledge on a prototype of successful innovation implementation management based on the marketing-sales interface effectiveness through a case study in the FMCG consumption market. Last but not least, it incorporates for the first time an empiric study on emerging geographies capable of recovery post a deep economic crisis through successful innovation implementation on their markets.
Resumo:
Radon gas (Rn) is a natural radioactive gas present in some soils and able to penetrate buildings through the building envelope in contact with the soil. Radon can accumulate within buildings and consequently be inhaled by their occupants. Because it is a radioactive gas, its disintegration process produces alpha particles that, in contact with the lung epithelia, can produce alterations potentially giving rise to cancer. Many international organizations related to health protection, such as WHO, confirm this causality. One way to avoid the accumulation of radon in buildings is to use the building envelope as a radon barrier. The extent to which concrete provides such a barrier is described by its radon diffusion coefficient (DRn), a parameter closely related to porosity (ɛ) and tortuosity factor (τ). The measurement of the radon diffusion coefficient presents challenges, due to the absence of standard procedures, the requirement to establish adequate airtightness in testing apparatus (referred to here as the diffusion cell), and due to the fact that measurement has to be carried out in an environment certified for use of radon calibrated sources. In addition to this calibrated radon sources are costly. The measurement of the diffusion coefficient for non-radioactive gas is less complex, but nevertheless retains a degree of difficulty due to the need to provide reliably airtight apparatus for all tests. Other parameters that can characterize and describe the process of gas transport through concrete include the permeability coefficient (K) and the electrical resistivity (ρe), both of which can be measured relatively easily with standardized procedure. The use of these parameters would simplify the characterization of concrete behaviour as a radon barrier. Although earlier studies exist, describing correlation among these parameters, there is, as has been observed in the literature, little common ground between the various research efforts. For precisely this reason, prior to any attempt to measure radon diffusion, it was deemed necessary to carry out further research in this area, as a foundation to the current work, to explore potential relationships among the following parameters: porosity-tortuosity, oxygen diffusion coefficient, permeability coefficient and resistivity. Permeability coefficient measurement (m2) presents a more straightforward challenge than diffusion coefficient measurement. Some authors identify a relationship between both coefficients, including Gaber (1988), who proposes: k= a•Dn Equation 1 Where: a=A/(8ΠD020), A = sample cross-section, D020 = diffusion coefficient in air (m2/s). Other studies (Klink et al. 1999, Gaber and Schlattner 1997, Gräf and Grube et al. 1986), experimentally relate both coefficients of different types of concrete confirming that this relationship exists, as represented by the simplified expression: k≈Dn Equation 2 In each particular study a different value for n was established, varying from 1.3 to 2.5, but this requires determination of a value for n in a more general way because these proposed models cannot estimate diffusion coefficient. If diffusion coefficient has to be measured to be able to establish n, these relationships are not interesting. The measurement of electric resistivity is easier than diffusion coefficient measurement. Correlation between the parameters can be established via Einstein´s law that relates movement of electrical charges to media conductivity according to the expression: D_e=k/ρ Equation 3 Where: De = diffusion coefficient (cm2/s), K = constant, ρ = electric resistivity (Ω•cm). The tortuosity factor is used to represent the uneven geometry of concrete pores, which are described as being not straight, but tortuous. This factor was first introduced in the literature to relate global porosity with fluid transport in a porous media, and can be formulated in a number of different ways. For example, it can take the form of equation 4 (Mason y Malinauskas), which combines molecular and Knudsen diffusion using the tortuosity factor: D=ε^τ (3/2r √(πM/8RT+1/D_0 ))^(-1) Equation 4 Where: r = medium radius obtained from MIP (µm), M = gas molecular mass, R = ideal gases constant, T = temperature (K), D0 = coefficient diffusion in the air (m2/s). Few studies provide any insight as to how to obtain the tortuosity factor. The work of Andrade (2012) is exceptional in this sense, as it outlines how the tortuosity factor can be deduced from pore size distribution (from MIP) from the equation: ∅_th=∅_0•ε^(-τ). Equation 5 Where: Øth = threshold diameter (µm), Ø0 = minimum diameter (µm), ɛ = global porosity, τ = tortuosity factor. Alternatively, the following equation may be used to obtain the tortuosity factor: DO2=D0*ɛτ Equation 6 Where: DO2 = oxygen diffusion coefficient obtained experimentally (m2/s), DO20 = oxygen diffusion coefficient in the air (m2/s). This equation has been inferred from Archie´s law ρ_e=〖a•ρ〗_0•ɛ^(-m) and from the Einstein law mentioned above, using the values of oxygen diffusion coefficient obtained experimentally. The principal objective of the current study was to establish correlations between the different parameters that characterize gas transport through concrete. The achievement of this goal will facilitate the assessment of the useful life of concrete, as well as open the door to the pro-active planning for the use of concrete as a radon barrier. Two further objectives were formulated within the current study: 1.- To develop a method for measurement of gas coefficient diffusion in concrete. 2.- To model an analytic estimation of radon diffusion coefficient from parameters related to concrete porosity and tortuosity factor. In order to assess the possible correlations, parameters have been measured using the standardized procedures or purpose-built in the laboratory for the study of equations 1, 2 y 3. To measure the gas diffusion coefficient, a diffusion cell was designed and manufactured, with the design evolving over several cycles of research, leading ultimately to a unit that is reliably air tight. The analytic estimation of the radon diffusion coefficient DRn in concrete is based on concrete global porosity (ɛ), whose values may be experimentally obtained from a mercury intrusion porosimetry test (MIP), and from its tortuosity factor (τ), derived using the relations expressed in equations 5 y 6. The conclusions of the study are: Several models based on regressions, for concrete with a relative humidity of 50%, have been proposed to obtain the diffusion coefficient following the equations K=Dn, K=a*Dn y D=n/ρe. The final of these three relations is the one with the determination coefficient closest to a value of 1: D=(19,997*LNɛ+59,354)/ρe Equation 7 The values of the obtained oxygen diffusion coefficient adjust quite well to those experimentally measured. The proposed method for the measurement of the gas coefficient diffusion is considered to be adequate. The values obtained for the oxygen diffusion coefficient are within the range of those proposed by the literature (10-7 a 10-8 m2/s), and are consistent with the other studied parameters. Tortuosity factors obtained using pore distribution and the expression Ø=Ø0*ɛ-τ are inferior to those from resistivity ρ=ρ0*ɛ-τ. The closest relationship to it is the one with porosity of pore diameter 1 µm (τ=2,07), being 7,21% inferior. Tortuosity factors obtained from the expression DO2=D0*ɛτ are similar to those from resistivity: for global tortuosity τ=2,26 and for the rest of porosities τ=0,7. Estimated radon diffusion coefficients are within the range of those consulted in literature (10-8 a 10-10 m2/s).ABSTRACT El gas radón (Rn) es un gas natural radioactivo presente en algunos terrenos que puede penetrar en los edificios a través de los cerramientos en contacto con el mismo. En los espacios interiores se puede acumular y ser inhalado por las personas. Al ser un gas radioactivo, en su proceso de desintegración emite partículas alfa que, al entrar en contacto con el epitelio pulmonar, pueden producir alteraciones del mismo causando cáncer. Muchos organismos internacionales relacionados con la protección de la salud, como es la OMS, confirman esta causalidad. Una de las formas de evitar que el radón penetre en los edificios es utilizando las propiedades de barrera frente al radón de su propia envolvente en contacto con el terreno. La principal característica del hormigón que confiere la propiedad de barrera frente al radón cuando conforma esta envolvente es su permeabilidad que se puede caracterizar mediante su coeficiente de difusión (DRn). El coeficiente de difusión de un gas en el hormigón es un parámetro que está muy relacionado con su porosidad (ɛ) y su tortuosidad (τ). La medida del coeficiente de difusión del radón resulta bastante complicada debido a que el procedimiento no está normalizado, a que es necesario asegurar una estanquidad a la celda de medida de la difusión y a que la medida tiene que ser realizada en un laboratorio cualificado para el uso de fuentes de radón calibradas, que además son muy caras. La medida del coeficiente de difusión de gases no radioactivos es menos compleja, pero sigue teniendo un alto grado de dificultad puesto que tampoco está normalizada, y se sigue teniendo el problema de lograr una estanqueidad adecuada de la celda de difusión. Otros parámetros que pueden caracterizar el proceso son el coeficiente de permeabilidad (K) y la resistividad eléctrica (ρe), que son más fáciles de determinar mediante ensayos que sí están normalizados. El uso de estos parámetros facilitaría la caracterización del hormigón como barrera frente al radón, pero aunque existen algunos estudios que proponen correlaciones entre estos parámetros, en general existe divergencias entre los investigadores, como se ha podido comprobar en la revisión bibliográfica realizada. Por ello, antes de tratar de medir la difusión del radón se ha considerado necesario realizar más estudios que puedan clarificar las posibles relaciones entre los parámetros: porosidad-tortuosidad, coeficiente de difusión del oxígeno, coeficiente de permeabilidad y resistividad. La medida del coeficiente de permeabilidad (m2) es más sencilla que el de difusión. Hay autores que relacionan el coeficiente de permeabilidad con el de difusión. Gaber (1988) propone la siguiente relación: k= a•Dn Ecuación 1 En donde: a=A/(8ΠD020), A = sección de la muestra, D020 = coeficiente de difusión en el aire (m2/s). Otros estudios (Klink et al. 1999, Gaber y Schlattner 1997, Gräf y Grube et al. 1986) relacionan de forma experimental los coeficientes de difusión de radón y de permeabilidad de distintos hormigones confirmando que existe una relación entre ambos parámetros, utilizando la expresión simplificada: k≈Dn Ecuación 2 En cada estudio concreto se han encontrado distintos valores para n que van desde 1,3 a 2,5 lo que lleva a la necesidad de determinar n porque no hay métodos que eviten la determinación del coeficiente de difusión. Si se mide la difusión ya deja de ser de interés la medida indirecta a través de la permeabilidad. La medida de la resistividad eléctrica es muchísimo más sencilla que la de la difusión. La relación entre ambos parámetros se puede establecer a través de una de las leyes de Einstein que relaciona el movimiento de cargas eléctricas con la conductividad del medio según la siguiente expresión: D_e=k/ρ_e Ecuación 3 En donde: De = coeficiente de difusión (cm2/s), K = constante, ρe = resistividad eléctrica (Ω•cm). El factor de tortuosidad es un factor de forma que representa la irregular geometría de los poros del hormigón, al no ser rectos sino tener una forma tortuosa. Este factor se introduce en la literatura para relacionar la porosidad total con el transporte de un fluido en un medio poroso y se puede formular de distintas formas. Por ejemplo se destaca la ecuación 4 (Mason y Malinauskas) que combina la difusión molecular y la de Knudsen utilizando el factor de tortuosidad: D=ε^τ (3/2r √(πM/8RT+1/D_0 ))^(-1) Ecuación 4 En donde: r = radio medio obtenido del MIP (µm), M = peso molecular del gas, R = constante de los gases ideales, T = temperatura (K), D0 = coeficiente de difusión de un gas en el aire (m2/s). No hay muchos estudios que proporcionen una forma de obtener este factor de tortuosidad. Destaca el estudio de Andrade (2012) en el que deduce el factor de tortuosidad de la distribución del tamaño de poros (curva de porosidad por intrusión de mercurio) a partir de la ecuación: ∅_th=∅_0•ε^(-τ) Ecuación 5 En donde: Øth = diámetro umbral (µm), Ø0 = diámetro mínimo (µm), ɛ = porosidad global, τ = factor de tortuosidad. Por otro lado, se podría utilizar también para obtener el factor de tortuosidad la relación: DO2=D0*-τ Ecuación 6 En donde: DO2 = coeficiente de difusión del oxígeno experimental (m2/s), DO20 = coeficiente de difusión del oxígeno en el aire (m2/s). Esta ecuación está inferida de la ley de Archie ρ_e=〖a•ρ〗_0•ɛ^(-m) y la de Einstein mencionada anteriormente, utilizando valores del coeficiente de difusión del oxígeno DO2 obtenidos experimentalmente. El objetivo fundamental de la tesis es encontrar correlaciones entre los distintos parámetros que caracterizan el transporte de gases a través del hormigón. La consecución de este objetivo facilitará la evaluación de la vida útil del hormigón así como otras posibilidades, como la evaluación del hormigón como elemento que pueda ser utilizado en la construcción de nuevos edificios como barrera frente al gas radón presente en el terreno. Se plantean también los siguientes objetivos parciales en la tesis: 1.- Elaborar una metodología para la medida del coeficiente de difusión de los gases en el hormigón. 2.- Plantear una estimación analítica del coeficiente de difusión del radón a partir de parámetros relacionados con su porosidad y su factor de tortuosidad. Para el estudio de las correlaciones posibles, se han medido los parámetros con los procedimientos normalizados o puestos a punto en el propio Instituto, y se han estudiado las reflejadas en las ecuaciones 1, 2 y 3. Para la medida del coeficiente de difusión de gases se ha fabricado una celda que ha exigido una gran variedad de detalles experimentales con el fin de hacerla estanca. Para la estimación analítica del coeficiente de difusión del radón DRn en el hormigón se ha partido de su porosidad global (ɛ), que se obtiene experimentalmente del ensayo de porosimetría por intrusión de mercurio (MIP), y de su factor de tortuosidad (τ), que se ha obtenido a partir de las relaciones reflejadas en las ecuaciones 5 y 6. Las principales conclusiones obtenidas son las siguientes: Se proponen modelos basados en regresiones, para un acondicionamiento con humedad relativa de 50%, para obtener el coeficiente de difusión del oxígeno según las relaciones: K=Dn, K=a*Dn y D=n/ρe. La propuesta para esta última relación es la que tiene un mejor ajuste con R2=0,999: D=(19,997*LNɛ+59,354)/ρe Ecuación 7 Los valores del coeficiente de difusión del oxígeno así estimados se ajustan a los obtenidos experimentalmente. Se considera adecuado el método propuesto de medida del coeficiente de difusión para gases. Los resultados obtenidos para el coeficiente de difusión del oxígeno se encuentran dentro del rango de los consultados en la literatura (10-7 a 10-8 m2/s) y son coherentes con el resto de parámetros estudiados. Los resultados de los factores de tortuosidad obtenidos de la relación Ø=Ø0*ɛ-τ son inferiores a la de la resistividad (ρ=ρ0*ɛ-τ). La relación que más se ajusta a ésta, siendo un 7,21% inferior, es la de la porosidad correspondiente al diámetro 1 µm con τ=2,07. Los resultados de los factores de tortuosidad obtenidos de la relación DO2=D0*ɛτ son similares a la de la resistividad: para la porosidad global τ=2,26 y para el resto de porosidades τ=0,7. Los coeficientes de difusión de radón estimados mediante estos factores de tortuosidad están dentro del rango de los consultados en la literatura (10-8 a 10-10 m2/s).
Resumo:
Las limitaciones en la capacidad de movilidad pueden ser consideradas en la actualidad como una forma de discriminación tremenda y a la vez invisible dentro de la sociedad. Para poder evitar esta discriminación es necesario que las políticas de transporte, que hasta ahora han basado sus actuaciones particularmente sobre las necesidades de acceso al empleo, reconozcan las exigencias de las personas dependientes y de aquellas que realizan las tareas no remuneradas del cuidado de otros y de atención a la familia. Las personas que trabajan en las tareas domésticas, en la mayoría de los casos mujeres, tienen muchas dificultades para sincronizar sus obligaciones con los tiempos y las distancias. Estas personas desempeñan un trabajo diario, que tiene lugar tanto fuera como dentro del hogar y tienen necesidades específicas de movilidad. El problema principal es que este tipo de trabajo no suele ser tomado en consideración, ya que no entra en la esfera del trabajo remunerado. Pero es una labor que está estrictamente ligada a la actividad de la sociedad y es un elemento indispensable para el funcionamiento de la vida urbana. Es un trabajo real, que tiene lugar en el espacio urbano, que exige un considerable esfuerzo físico y emocional, y que ayuda a garantizar la calidad de la vida cotidiana. Es un aspecto indispensable a tener en cuenta en el ejercicio de las políticas públicas y sociales. Sobre la base de estas consideraciones se introduce el concepto “Movilidad del cuidado” (Sánchez de Madariaga, 2009a y 2009b), mediante el cual se reconoce la necesidad de evaluar y hacer visible los desplazamientos diarios asociados con el trabajo del cuidado. Por trabajo del cuidado se entiende el trabajo no remunerado, realizado por los adultos para los niños u otras personas dependientes, incluido el trabajo relacionado con el mantenimiento del hogar. El análisis de este tipo de viajes exige ciertos cambios significativos en las formas de recoger datos estadísticos. No se trata solo de sumar los desplazamientos que actualmente aparecen en las estadísticas como viajes de compras, acompañamiento, gestiones, cuidado de otros, etc. El problema es que los datos sobre movilidad se recogen con una serie de sesgos que infravaloran los viajes de cuidado: las estadísticas no cuentan los viajes cortos a pie y tampoco reflejan bien los viajes encadenados, ambos típicamente femeninos; no se deslindan con precisión los viajes de cuidado de otro tipo de viajes, de manera que muchos desplazamientos relacionados con la esfera reproductiva aparecen como viajes personales o de ocio y en muchos casos se encasillan en la categoría otros. Mediante esta investigación se pretende estimar el peso que la movilidad del cuidado tiene en el total de la movilidad y describirla de manera precisa en un contexto geográfico determinado, en el caso específico Madrid. Los estudios sobre el tema realizados hasta el momento reconocen la necesidad de llevar a cabo encuestas de movilidad que tengan en cuenta las variables socio económicas que caracterizan a la población y también se demanda la segregación de los datos recogidos por sexo, así como el uso del género como una categoría analítica. Igualmente es indispensable atribuir la misma importancia que tienen los viajes relacionados con la esfera productiva a los que están relacionados con la esfera reproductiva. No obstante, es solo mediante la introducción del concepto de “movilidad del cuidado” que se propone una nueva categorización de los motivos de desplazamiento dentro de las “clásicas” encuestas de movilidad y, por primera vez, mediante esta investigación se aplica este concepto a un ejemplo práctico a partir del cual queda en evidencia la necesidad de un cambio de enfoque en las políticas de transporte. Así, a través el uso de encuestas cuantitativas y cualitativas realizadas ad hoc sobre la base de la metodología propuesta, se capturan los patrones de viajes significativos para poder describir en maneara exhaustiva la movilidad de las personas que tienen responsabilidades de cuidado. El objetivo es crear una base de conocimiento más amplia sobre los patrones de movilidad, comportamientos y necesidades, además de mejorar los conceptos operacionales y establecer políticas de transporte más equitativas, que respondan de mejor manera a las necesidades de género, beneficiando así a toda la sociedad. ABSTRACT Nowadays, limitations in urban mobility can be considered as some type of extreme discrimination, which remains invisible to the society. In order to avoid this kind of discrimination, new transport policies are required, especially considering that so far they have been based and organized particularly in relation to the needs derived from the access to employment. These policies must take into account the demands of people depending on the support of others as well as of unpaid caregivers in charge of looking after other individuals and taking care of the family. Most of the people devoted to domestic work, which in the vast majority of cases is carried out by women, find it difficult to coordinate their obligations with time and distances. These people carry out a daily job that takes place both inside their homes as well as outside, and they have specific mobility needs. The main issue is that this type of work is usually not taken into consideration, since it is not included under the scope of paid employment. However, this work is strictly related to the activities of society and is therefore a crucial element in the functioning of urban life. It is an actual job that takes place in an urban space, requires a considerable amount of physical and emotional effort and guarantees quality of life on a daily basis. This is an important aspect that should be taken into account when drafting public and social policies. The concept of “Mobility of care” (Sánchez de Madariaga, 2009a and 2009b) is introduced under these considerations. This concept acknowledges the need to evaluate and identify daily movements from one place to another that are related to caregiving. Caregiving is understood, in this case, as unpaid work that is carried out by adults for children and other people that depend on the support of others, and it also includes duties related to home maintenance. The analysis of these types of movements requires some significant changes in the way in which statistic data is gathered. The idea is to not only add up the movements that appear in statistics such as shopping trips, accompanying someone, dealings, caregiving, etc. The problem with data on mobility is that it is gathered with bias that undervalues mobility related to caregiving: statistics do not take into consideration short trips that are made walking nor do they properly reflect connected trips, both of which are typically feminine; moreover, there is an imprecise differentiation of trips related to caregiving and other kind of trips, and because of that, many of the trips related to the reproductive sphere are considered personal or recreational trips, and are many times labelled as others. This investigation aims to evaluate the importance that mobility of care has in mobility in general, describing it in a precise manner within a specific geographical context that in this case is Madrid. To this date, most of the studies on this subject have acknowledged the need to carry out mobility surveys that include socio economic variables that characterize the population and they have also requested that collected data is segregated by sex and that gender is used as an analytical category. Likewise, it is fundamental to give the same importance to mobility related to the sphere of reproduction as to that related to the sphere of productiveness. However, it is only through the implementation of the concept of “mobility of care” that a new categorization of mobility, within classic mobility surveys, is proposed. Also, for the first time and by this investigation, this concept is applied to a practical case, shining a light on the need to change the focus of transport policies. Through the use of ad hoc quantitative and qualitative surveys based on the proposed methodology, the patterns of relevant movements are identified in order to thoroughly describe the mobility of people responsible of caregiving. The aim is to create a broader knowledge base on patterns of mobility, behaviour and necessities, in addition to improving functional concepts and transport policies to make them more equitable and responsive to gender needs, thus benefitting society as a whole.
Resumo:
El presente proyecto tiene como objetivo la realización de un cuadricóptero de bajo coste desarrollado con herramientas de software libre, con el fin de permitir el acceso y modificación del mismo a cualquiera que posea los conocimientos necesarios. Los cuadricópteros se definen como un vehículo aéreo no tripulado con cuatro rotores en los extremos. Los ejemplos existentes de estos tipos de vehículos son casi siempre de grandes cuadricópteros, los cuales utilizan diferentes tecnologías en los motores y control de los mismos. Los cuadricópteros de similar tamaño al que se pretende realizar son por lo general de compañías con hardware y software cerrado. En el caso de este proyecto se ha realizado un cuadricóptero de tamaño menor a 5 x 5 cm. La innovación que se propone con este proyecto es una forma de detectar obstáculos para cuadricópteros de tamaño similar, en los que la limitación del peso del dron supone una disminución de las opciones disponibles. Se desea que el cuadricóptero sea capaz de realizar un vuelo estable detectando y esquivando obstáculos sin necesidad de ayuda externa como operadores con mando de radio frecuencia. Para la creación del cuadricóptero, se ha realizado tanto el diseño de los esquemáticos como el diseño de las huellas para la utilización en el desarrollo de la PCB. Para ello se ha hecho uso de herramientas de software libre como es Kicad, software para el desarrollo de esquemáticos y placas de circuito impreso con las funcionalidades principales de cualquier software privativo relacionado. Se pretende de esta forma aportar a la literatura, un aspecto práctico de la realización de cuadricópteros, tanto desde los aspectos teóricos del diseño como los aspectos prácticos de la fabricación y soldadura de los componentes del cuadricóptero. En la realización del presente proyecto se ha tenido en cuenta los diferentes algoritmos que existen para la fusión de datos de la unidad de medida inercial, tanto la facilidad de implementación de los mismos como la facilidad de los cálculos resultantes de esta implementación. Se ha hecho una implementación de un filtro complementario, dando resultados satisfactorios debido a las características intrínsecas de la unidad de medida inercial. Además del filtro complementario, se ha realizado una implementación del filtro diseñado por Sebastian Madgwick [1]. Este filtro está especialmente diseñado para la fusión de los datos provenientes de la unidad de medida inercial, proporcionando la orientación del sistema haciendo uso de la representación en cuaternios de los datos del acelerómetro y giróscopo, permitiendo el uso del método del gradiente para el cálculo del error del giróscopo. Para la selección de los componentes, se ha hecho un análisis pormenorizado de las diferentes opciones disponibles, tomando como punto de partida los cuadricópteros que existen en la actualidad. Se han elegido estos componentes en función de las características de los mismos, prestando especial atención al tamaño, relacionado directamente con el peso de los mismos así como del precio, para lograr un cuadricóptero fácilmente reproducible de bajo coste. En este análisis se ha tenido en cuenta las dificultades existentes en la selección de determinados componentes como son los motores y las hélices. Al ser estos dos componentes caracterizados mediante tablas creadas por los fabricantes y usuarios de los mismos, la selección de los mismos se ha visto dificultada a la hora de elegir componentes de coste reducido al poseer poca información sobre los mismos. En especial, las formulas desarrolladas para el cálculo del empuje de los motores están directamente relacionados con los parámetros de las hélices. Estos parámetros están caracterizados para la mayoría de las hélices comerciales utilizadas en cuadricópteros. Para caracterizar las hélices se utiliza un banco de trabajo en donde es posible medir el empuje realizado por el conjunto del motor y hélice. En el caso del presente proyecto, no se disponía de la herramienta necesaria por lo que se ha realizado una estimación de los parámetros en función de las tablas disponibles para hélices similares de mayor tamaño. Para la elección de los sensores para la detección de los obstáculos se ha realizado un estudio de los diferentes sensores disponibles, analizando las ventajas y desventajas de los mismos para la elección del más adecuado para el proyecto. Se ha decidido el uso de sensores de distancia basados en tecnología infrarroja por ser los únicos que se adaptan a los requisitos de peso impuesto por el modelo. Además en este proyecto se ha realizado el montaje y soldadura de los componentes de la PCB. Estos componentes al ser de tamaño reducido, se ha comprobado que para la soldadura de los mismos es necesario el uso de herramientas especializadas, como puede ser estaciones de soldadura y pistola de aire caliente lo que dificulta su soldadura de manera no profesional. Al término de este proyecto se ha comprobado la dificultad de la realización de una correcta soldadura de los componentes, lo que introduce errores de conectividad entre los componentes, en concreto se ha detectado errores entre el microprocesador y unidad de medida inercial. Además de estos errores, se ha comprobado la dificultad de regular el sistema, no logrando un vuelo estable en el tiempo de escritura del presente proyecto. Por último se presenta el prototipo creado a lo largo del proyecto, al cual se le pueden hacer diferentes modificaciones como posibles líneas futuras, entre las que se encuentran una mejor regulación que permita el vuelo de un conjunto de drones.
Resumo:
La evolución de los teléfonos móviles inteligentes, dotados de cámaras digitales, está provocando una creciente demanda de aplicaciones cada vez más complejas que necesitan algoritmos de visión artificial en tiempo real; puesto que el tamaño de las señales de vídeo no hace sino aumentar y en cambio el rendimiento de los procesadores de un solo núcleo se ha estancado, los nuevos algoritmos que se diseñen para visión artificial han de ser paralelos para poder ejecutarse en múltiples procesadores y ser computacionalmente escalables. Una de las clases de procesadores más interesantes en la actualidad se encuentra en las tarjetas gráficas (GPU), que son dispositivos que ofrecen un alto grado de paralelismo, un excelente rendimiento numérico y una creciente versatilidad, lo que los hace interesantes para llevar a cabo computación científica. En esta tesis se exploran dos aplicaciones de visión artificial que revisten una gran complejidad computacional y no pueden ser ejecutadas en tiempo real empleando procesadores tradicionales. En cambio, como se demuestra en esta tesis, la paralelización de las distintas subtareas y su implementación sobre una GPU arrojan los resultados deseados de ejecución con tasas de refresco interactivas. Asimismo, se propone una técnica para la evaluación rápida de funciones de complejidad arbitraria especialmente indicada para su uso en una GPU. En primer lugar se estudia la aplicación de técnicas de síntesis de imágenes virtuales a partir de únicamente dos cámaras lejanas y no paralelas—en contraste con la configuración habitual en TV 3D de cámaras cercanas y paralelas—con información de color y profundidad. Empleando filtros de mediana modificados para la elaboración de un mapa de profundidad virtual y proyecciones inversas, se comprueba que estas técnicas son adecuadas para una libre elección del punto de vista. Además, se demuestra que la codificación de la información de profundidad con respecto a un sistema de referencia global es sumamente perjudicial y debería ser evitada. Por otro lado se propone un sistema de detección de objetos móviles basado en técnicas de estimación de densidad con funciones locales. Este tipo de técnicas es muy adecuada para el modelado de escenas complejas con fondos multimodales, pero ha recibido poco uso debido a su gran complejidad computacional. El sistema propuesto, implementado en tiempo real sobre una GPU, incluye propuestas para la estimación dinámica de los anchos de banda de las funciones locales, actualización selectiva del modelo de fondo, actualización de la posición de las muestras de referencia del modelo de primer plano empleando un filtro de partículas multirregión y selección automática de regiones de interés para reducir el coste computacional. Los resultados, evaluados sobre diversas bases de datos y comparados con otros algoritmos del estado del arte, demuestran la gran versatilidad y calidad de la propuesta. Finalmente se propone un método para la aproximación de funciones arbitrarias empleando funciones continuas lineales a tramos, especialmente indicada para su implementación en una GPU mediante el uso de las unidades de filtraje de texturas, normalmente no utilizadas para cómputo numérico. La propuesta incluye un riguroso análisis matemático del error cometido en la aproximación en función del número de muestras empleadas, así como un método para la obtención de una partición cuasióptima del dominio de la función para minimizar el error. ABSTRACT The evolution of smartphones, all equipped with digital cameras, is driving a growing demand for ever more complex applications that need to rely on real-time computer vision algorithms. However, video signals are only increasing in size, whereas the performance of single-core processors has somewhat stagnated in the past few years. Consequently, new computer vision algorithms will need to be parallel to run on multiple processors and be computationally scalable. One of the most promising classes of processors nowadays can be found in graphics processing units (GPU). These are devices offering a high parallelism degree, excellent numerical performance and increasing versatility, which makes them interesting to run scientific computations. In this thesis, we explore two computer vision applications with a high computational complexity that precludes them from running in real time on traditional uniprocessors. However, we show that by parallelizing subtasks and implementing them on a GPU, both applications attain their goals of running at interactive frame rates. In addition, we propose a technique for fast evaluation of arbitrarily complex functions, specially designed for GPU implementation. First, we explore the application of depth-image–based rendering techniques to the unusual configuration of two convergent, wide baseline cameras, in contrast to the usual configuration used in 3D TV, which are narrow baseline, parallel cameras. By using a backward mapping approach with a depth inpainting scheme based on median filters, we show that these techniques are adequate for free viewpoint video applications. In addition, we show that referring depth information to a global reference system is ill-advised and should be avoided. Then, we propose a background subtraction system based on kernel density estimation techniques. These techniques are very adequate for modelling complex scenes featuring multimodal backgrounds, but have not been so popular due to their huge computational and memory complexity. The proposed system, implemented in real time on a GPU, features novel proposals for dynamic kernel bandwidth estimation for the background model, selective update of the background model, update of the position of reference samples of the foreground model using a multi-region particle filter, and automatic selection of regions of interest to reduce computational cost. The results, evaluated on several databases and compared to other state-of-the-art algorithms, demonstrate the high quality and versatility of our proposal. Finally, we propose a general method for the approximation of arbitrarily complex functions using continuous piecewise linear functions, specially formulated for GPU implementation by leveraging their texture filtering units, normally unused for numerical computation. Our proposal features a rigorous mathematical analysis of the approximation error in function of the number of samples, as well as a method to obtain a suboptimal partition of the domain of the function to minimize approximation error.
Resumo:
La medición del volumen de hormigón puesto en obra con la mayor precisión posible es de la mayor importancia cuando este se coloca sin utilizar encofrados que restrinjan su movimiento, como puede ocurrir durante la ejecución de pilotes in situ por el método de barrena continua con inyección de hormigón a través de la misma (Pilotes CFA) o en la ejecución del sostenimiento de túneles mediante el método de proyección de hormigón. En ambos casos se utilizan bombas alternativas para transportar el hormigón, y en ambos casos un control de calidad adecuado requeriría efectuar una correlación entre la posición del útil de colocación de hormigón (extremo inyector de la barrena para los pilotes CFA, tobera o boquilla en las máquinas de proyectar hormigón) y el volumen de hormigón colocado. La medición continua volumen -normalmente obtenido integrando el caudal- no ha sido sin embargo resuelta de forma satisfactoria. La práctica habitual de contar emboladas, multiplicarlas por el volumen de cada una y por la eficiencia de la bomba, es propensa a error, y propuestas innovadoras como la de R. D. Browne y P. B. Bamforth para la determinación en línea de la eficiencia no se han implementado en la práctica. El trabajo que se presenta en esta Tesis Doctoral pretende aportar nueva luz sobre el problema de la estimación en línea del volumen bombeado, cuando se utilizan bombas alternativas para la puesta en obra del mismo, con independencia del tipo de mezcla que se emplee. El estudio intenta abarcar todo el proceso de bombeo desde que la mezcla suministrada entra en la tolva de la máquina hasta que la misma llega al final del circuito de transporte. El trabajo se inicia con una exposición del problema y un estudio crítico del estado del arte, seguido por la presentación de la instalación experimental con la que se efectuó un importante número de ensayos de bombeo, en los que se obtuvieron registros continuos y discontinuos de las variables que intervienen en el proceso y de los resultados del mismo (volumen bombeado). Se realiza a continuación un primer análisis de los datos obtenidos, que incluye el del comportamiento de las mezclas en el bombeo y su evolución en el tiempo, la forma en que los parámetros de mezcla y operación afectan a la forma de los pulsos de presión y una comparación entre los volúmenes medidos y los estimados por el método utilizado en la actualidad y por el propuesto por Browne y Bamforth, que pone de manifiesto los errores a que estos pueden conducir. Posteriormente, se realiza un conjunto de análisis que permite establecer un modelo del proceso de bombeo tanto en régimen estacionario como transitorio, que a su vez permite calcular numéricamente la evolución en el tiempo de la presión en cualquier punto de una tubería de transporte de este material para una instalación, mezcla y condiciones de operación dadas. Este modelo depende de un conjunto de 9 parámetros, que en su mayoría, o bien son fijos, o son medibles, o son calculables en forma continua, siendo el resto, entre ellos la eficiencia volumétrica de la bomba, medibles de forma discontinua. En la práctica, si se instala sobre una bomba la instrumentación adecuada, solo uno de los parámetros del modelo puede considerarse como incógnita: la eficiencia volumétrica de la bomba. Sobre esta base, por último, se propone un método para la estimación en línea de la eficiencia volumétrica, basado en un ajuste paramétrico utilizando el modelo del proceso, que permite estimar el volumen bombeado con una precisión del orden del 1%. Como resultado adicional, pero con entidad propia, se propone un método para el control en línea de la bombeabilidad del hormigón, basado en datos obtenidos monitorizando el proceso de bombeo.
Resumo:
The role of matter has remained central to the making and the thinking of architecture, yet many attempts to capture its essence have been trapped in a dialectic tension between form and materiality, between material consistency and immaterial modes of perception, between static states and dynamic processes, between the real and the virtual, thus advancing an increasing awareness of the perplexing complexity of the material world. Within that complexity, the notion of agency – emerging from and within ecological, politico-economic and socio-cultural processes – calls for a reconceptualization of matter, and consequently processes of materialisation, offering a new understanding of context and space, approached as a field of dynamic relationships. In this context, cutting across boundaries between architectural discourse and practice as well as across the vast trans-disciplinary territory, this dissertation aims to illustrate a variety of design methodologies that have derived from the relational approach. More specifically, the intention is to offer new insights into spatial epistemologies embedded within the notion of atmosphere – commonly associated with the so-called New Phenomenology – and to reflect upon its implications for architectural production. In what follows, the intended argumentation has a twofold dimension. First, through a scrutiny of the notion of atmosphere, the aim is to explore ways of thinking and shaping reality through relations, thus acknowledging the aforementioned complexity of the material universe disclosed through human and non-human as well as material and immaterial forces. Secondly, despite the fact that concerns for atmospherics have flourished over the last few decades, the objective is to reveal that the conceptual foundations and procedures for the production of atmosphere might be found beneath the surface of contemporary debates. Hence, in order to unfold and illustrate previously advocated assumptions, an archaeological approach is adopted, tracing a particular projective genealogy, one that builds upon an atmospheric awareness. Accordingly, in tracing such an atmospheric awareness the study explores the notoriously ambiguous nature and the twofold dimension of atmosphere – meteorological and aesthetic – and the heterogeneity of meanings embedded in them. In this context, the notion of atmosphere is presented as parallactic. It transgresses the formal and material boundaries of bodies. It calls for a reevaluation of perceptual experience, opening a new gap that exposes the orthodox space-bodyenvironment relationships to questioning. It offers to architecture an expanded domain in which to manifest itself, defining architectural space as a contingent construction and field of engagement, and presenting matter as a locus of production/performance/action. Consequently, it is such an expanded or relational dimension that constitutes the foundation of what in the context of this study is to be referred to as affective tectonics. Namely, a tectonics that represents processual and experiential multiplicity of convergent time and space, body and environment, the material and the immaterial; a tectonics in which matter neither appears as an inert and passive substance, nor is limited to the traditionally regarded tectonic significance or expressive values, but is presented as an active element charged with inherent potential and vitality. By defining such a relational materialism, the intention is to expand the spectrum of material attributes revealing the intrinsic relationships between the physical properties of materials and their performative, transformative and affective capacities, including effects of interference and haptic dynamics – i.e. protocols of transmission and interaction. The expression that encapsulates its essence is: ACTIVE MATERIALITY RESUMEN El significado de la materia ha estado desde siempre ligado al pensamiento y el quehacer arquitectónico. Sin embargo, muchos intentos de capturar su esencia se han visto sumergidos en una tensión dialéctica entre la forma y la materialidad, entre la consistencia material y los modos inmateriales de la percepción, entre los estados estáticos y los procesos dinámicos, entre lo real y lo virtual, revelando una creciente conciencia de la desconcertante complejidad del mundo material. En esta complejidad, la noción de la operatividad o capacidad agencial– que emerge desde y dentro de los procesos ecológicos, políticos y socio-culturales– requiere de una reconceptualización de la materia y los procesos inherentes a la materialización, ofreciendo una nueva visión del contexto y el espacio, entendidos como un campo relacional dinámico. Oscilando entre el discurso arquitectónico y la práctica arquitectónica, y atravesando un extenso territorio trans-disciplinar, el objetivo de la presente tesis es ilustrar la variedad de metodologías proyectuales que emergieron desde este enfoque relacional. Concretamente, la intención es indagar en las epistemologías espaciales vinculadas a la noción de la atmósfera– generalmente asociada a la llamada Nueva Fenomenología–, reflexionando sobre su impacto en la producción arquitectónica. A continuación, el estudio ofrece una doble línea argumental. Primero, a través del análisis crítico de la noción de atmósfera, el objetivo es explorar maneras de pensar y dar forma a la realidad a través de las relaciones, reconociendo la mencionada complejidad del universo material revelado a través de fuerzas humanas y no-humanas, materiales e inmateriales. Segundo, a pesar de que el interés por las atmósferas ha florecido en las últimas décadas, la intención es demostrar que las bases conceptuales y los protocolos proyectuales de la creación de atmósferas se pueden encontrar bajo la superficie de los debates contemporáneos. Para corroborar e ilustrar estas hipótesis se propone una metodología de carácter arqueológico, trazando una particular genealogía de proyectos– la que se basa en una conciencia atmosférica. Asimismo, al definir esta conciencia atmosférica, el estudio explora tanto la naturaleza notoriamente ambigua y la dimensión dual de la atmósfera– meteorológica y estética–, como la heterogeneidad de significados derivados de ellas. En este contexto, la atmósfera se entiende como un concepto detonante, ya que sobrepasa los limites formales y materiales de los cuerpos, llevando a la re-evaluación de la experiencia perceptiva y abriendo a preguntas la ortodoxa relación espacio- cuerpo-ambiente. En consecuencia, la noción de la atmósfera ofrece a la arquitectura una dimensión expandida donde manifestarse, definiendo el espacio como una construcción contingente, performativa y afectiva, y presentando la materia como locus de producción/ actuación/ acción. Es precisamente esta dimensión expandida relacional la que constituye una base para lo que en el contexto del presente estudio se define como una tectónica afectiva. Es decir, una tectónica que representa una multiplicidad procesual y experiencial derivada de la convergencia entre el tiempo y el espacio, el cuerpo y el entorno, lo material y lo inmaterial; una tectónica en la que la materia no aparece como una substancia pasiva e inerte, ni es limitada al significado considerado tradicionalmente constructivo o a sus valores expresivos, sino que se presenta como elemento activo cargado de un potencial y vitalidad inherentes. A través de la definición de este tipo de materialismo afectivo, la intención es expandir el espectro de los atributos materiales, revelando las relaciones intrínsecas entre las propiedades físicas de los materiales y sus capacidades performativas, transformativas y afectivas, incluyendo efectos de interferencias y dinámicas hápticas– o dicho de otro modo, protocolos de transmisión e interacción. Una expresión que encapsula su esencia vendría a ser: MATERIALIDAD ACTIVA