987 resultados para Máquinas herramientas-Automatización


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rafael Moneo se enfrenta a la arquitectura religiosa en la madurez de su carrera profesional. Toma como punto de partida el tipo, y confía en la manipulación del mismo como herramienta proyectual, y recurre a su memoria del espacio sagrado, sus recuerdos de la mejor arquitectura religiosa. Con el primer proceso dispone el edificio en el lugar y organiza su funcionamiento. En el segundo, trata de dotar de carácter al espacio, muy importante en estos casos para que los fieles se puedan identificar con el edificio. Las arquitecturas del pasado, Bizancio, las catedrales góticas, el Barroco, y referentes más recientes, como Bryggman, Scarpa, y principalmente la capilla de Ronchamp. En la arquitectura religiosa de Rafael Moneo están presentes los temas que han sido importantes a lo largo de su trayectoria. Así la atención a los condicionantes específicos del lugar en el que se asienta la obra, la integración de la historia de la arquitectura con las nuevas disciplinas y los modos de construcción, la reflexión sobre el tipo y la simbiosis que establece entre el tratamiento de la luz y la materialidad del edificio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo general de este trabajo es explorar las potenciales interacciones entre la alteración hidrológica y el estado de la vegetación de ribera en diversas cuencas hidrográficas españolas. La mayor parte del área de estudio está dentro de la región Mediterránea, una región caracterizada por un particular comportamiento climatológico, ecológico y socio-económico. Las cuencas estudiadas son: Guadiana, Guadalquivir, Tajo, y Duero. Para complementar el estudio y comparar resultados con otras regiones climáticas españolas se estudiaron dos Demarcaciones atlánticas: Cantábrico y Miño-Sil. El funcionamiento fluvial, en las áreas mediterráneas, presenta grandes variaciones en el régimen hídrico, siendo uno de los principales controladores de la estructura, composición y distribución de la vegetación de ribera. Para investigar las interacciones mencionadas previamente, se presenta un nuevo índice, Riparian Forest Evaluation (RFV). El objetivo de este índice es valorar el estado de la vegetación de ribera en base a los principales controladores hidro-morfológicos responsables de la dinámica fluvial, y por tanto, relacionados con el desarrollo del corredor ribereño. RFV divide la evaluación del bosque de ribera en cuatro componentes: continuidad longitudinal, transversal, y vertical (dimensiones espaciales), y condiciones del regenerado (dimensión temporal). La clasificación final está basada en las mismas cinco clases fijadas por la Directiva europea Marco del Agua (DMA) (2000/60/CE) para valorar el estado ecológico de las masas de agua. La aplicación de este índice en 187 masas de agua ha mostrado su facilidad de aplicación y su consistencia desde un punto de vista legislativo y técnicocientífico. En paralelo al diseño del índice RFV, se ha desarrollado una nueva herramienta para dar apoyo a la evaluación del bosque de ribera (RFV) y la extracción de variables hidromorfológicas a escala de masa de agua en lugar de a escala local (muestreo de campo local). Se trata de Riparian Characterisation by LiDAR (RiC-DAR), que permite valorar el estado del bosque de ribera de una manera semiautomática, en un modo cuasi-continuo, usando LiDAR de alta resolución. Esto hecho permite mejorar significativamente la calidad y cantidad de información comparado con la toma de datos en campo, lo que permite reducir los recursos, particularmente cuando se trabaja a escala de masas de agua. Una de las potenciales causas de la degradación del bosque de ribera es la alteración hidrológica; así una vez se ha realizado la evaluación del bosque de ribera basada en elementos hidro-morfológicos ligados al régimen hídrico (RFV), se han identificado las potenciales relaciones entre la alteración hidrológica y la degradación de la vegetación riparia. Para ello, se requiere contar con series de aforos fiables y de una duración apropiada. Para satisfacer este requerimiento, se ha creado una nueva herramienta: el Servidor de Datos para el Estudio de la Alteración Hidrológica (SEDAH). Esta herramienta genera datos diarios y mensuales completados para más años, construyendo así bases de datos más aptas para el estudio de la alteración hidrológica. (http://ambiental.cedex.es/Sedah) Haciendo uso de las herramientas y métodos desarrollados previamente, se han calculado diferentes indicadores de alteración hidrológica en 87 masas de agua que han sido analizados conjuntamente con el estado de la vegetación de ribera. Los resultados estadísticos han mostrado relaciones significativas entre ellos: la degradación de la vegetación podría estar fuertemente ligada a la alteración del régimen hídrico en años secos y a las sequías en el entorno mediterráneo. A su vez se ha analizado la relación del estado del bosque de ribera con el estado ecológico basado en la DMA, mostrando una relación no significativa. Esta y otras potenciales relaciones son discutidas a lo largo del documento. Los resultados permiten proponer recomendaciones de gestión de la vegetación de ribera y de manejo del régimen de caudales para masas de agua reguladas. ABSTRACT The general objective of this work is to explore the potential interactions between hydrologic alteration and degradation of the riparian vegetation, mainly focused in the Mediterranean Environment. The majority of the study area is part of the Spanish Mediterranean region, a geographical environment characterized by a singular climatologic, ecological and socio-economical behavior. The basins analysed in this work are: Guadiana, Guadalquivir, Tagus, Douro. In order to complete the results and compare those to other climatic regions in Spain, two Atlantic Districts where selected: Cantábrico and Miño-Sil. The river functioning, in the Mediterranean areas, presents great variations in the flow regimes being one of the main drivers of the riparian vegetation development. To explore the interactions stated above, a new index is presented, Riparian Forest Evaluation (RFV). This index is aimed to assess the status of the riparian vegetation based on the main hydromorphological drivers responsible of the river dynamic, and so, related to the development of the riparian corridor. RFV split the evaluation of the riparian forest into four components: longitudinal continuity, transversal continuity, vertical (structure) continuity and regeneration (temporal) continuity. The final classification is based in the same five classes to those stated in the European Water Frame Work directive to assess the ecological status. The application of this index over 187 water bodies has shown to be easily applicable and consistent from a regulatory perspective. In parallel to the design of RFV, a new tool has been developed to enhance the evaluation of the riparian forest and river morphology (RFV and morphological parameters) at water body scale rather than at local scale, i.e. when field surveyed at different sites. The Riparian Characterisation by LiDAR, RiC-DAR allows to assess the status of the riparian vegetation semi-automatically in a quasi-continuous way using high resolution LiDAR. This improves significantly the quantity and quality of information gathered through field sampling methods, reducing resources when working at larger scales. One of the potential major causes of degradation of the riparian forest is the hydrologic alteration; hence, once the evaluation of the riparian forest is done consistently based on hydro-morphological features linked to the hydrological regime (RVF), this work has identified potential relationships between hydrologic alteration and degradation of riparian vegetation. In order to do this, it is required to count with reliable series of flow records describing both reference and altered regimes. To satisfy this need, a new tool has been created, SEDAH, data server for assessing hydrologic alteration. This tool has completed daily and monthly gaps in the flow series to build up an improved database to assess the hydrologic alteration. This application is available on line (http://ambiental.cedex.es). Making use of the tools and methods developed previously, this work uses these data to work out indicators of hydrologic alteration through 87 water bodies to be analysed against the riparian status. These indicators are statistically analysed exploring significant relationships with the status of riparian vegetation and ecological status, showing some potential significant relationships; hence it seems that the degradation of riparian vegetation, particularly the regeneration, is associated with the alteration of the hydrologic regimen in dry years and draughts in Mediterranean environments. Furthermore, the analysis of the status of the ecological status and the status of the riparian vegetation has shown the lack of significant influence of the riparian vegetation in the final ecological status using the WFD approach applied in Spain. This and other potential relationships are discussed in this work. The results allow giving guidance on the management of both riparian vegetation and environmental flows of water bodies affected by flow regulation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los sistemas empotrados son cada día más comunes y complejos, de modo que encontrar procesos seguros, eficaces y baratos de desarrollo software dirigidos específicamente a esta clase de sistemas es más necesario que nunca. A diferencia de lo que ocurría hasta hace poco, en la actualidad los avances tecnológicos en el campo de los microprocesadores de los últimos tiempos permiten el desarrollo de equipos con prestaciones más que suficientes para ejecutar varios sistemas software en una única máquina. Además, hay sistemas empotrados con requisitos de seguridad (safety) de cuyo correcto funcionamiento depende la vida de muchas personas y/o grandes inversiones económicas. Estos sistemas software se diseñan e implementan de acuerdo con unos estándares de desarrollo software muy estrictos y exigentes. En algunos casos puede ser necesaria también la certificación del software. Para estos casos, los sistemas con criticidades mixtas pueden ser una alternativa muy valiosa. En esta clase de sistemas, aplicaciones con diferentes niveles de criticidad se ejecutan en el mismo computador. Sin embargo, a menudo es necesario certificar el sistema entero con el nivel de criticidad de la aplicación más crítica, lo que hace que los costes se disparen. La virtualización se ha postulado como una tecnología muy interesante para contener esos costes. Esta tecnología permite que un conjunto de máquinas virtuales o particiones ejecuten las aplicaciones con unos niveles de aislamiento tanto temporal como espacial muy altos. Esto, a su vez, permite que cada partición pueda ser certificada independientemente. Para el desarrollo de sistemas particionados con criticidades mixtas se necesita actualizar los modelos de desarrollo software tradicionales, pues estos no cubren ni las nuevas actividades ni los nuevos roles que se requieren en el desarrollo de estos sistemas. Por ejemplo, el integrador del sistema debe definir las particiones o el desarrollador de aplicaciones debe tener en cuenta las características de la partición donde su aplicación va a ejecutar. Tradicionalmente, en el desarrollo de sistemas empotrados, el modelo en V ha tenido una especial relevancia. Por ello, este modelo ha sido adaptado para tener en cuenta escenarios tales como el desarrollo en paralelo de aplicaciones o la incorporación de una nueva partición a un sistema ya existente. El objetivo de esta tesis doctoral es mejorar la tecnología actual de desarrollo de sistemas particionados con criticidades mixtas. Para ello, se ha diseñado e implementado un entorno dirigido específicamente a facilitar y mejorar los procesos de desarrollo de esta clase de sistemas. En concreto, se ha creado un algoritmo que genera el particionado del sistema automáticamente. En el entorno de desarrollo propuesto, se han integrado todas las actividades necesarias para desarrollo de un sistema particionado, incluidos los nuevos roles y actividades mencionados anteriormente. Además, el diseño del entorno de desarrollo se ha basado en la ingeniería guiada por modelos (Model-Driven Engineering), la cual promueve el uso de los modelos como elementos fundamentales en el proceso de desarrollo. Así pues, se proporcionan las herramientas necesarias para modelar y particionar el sistema, así como para validar los resultados y generar los artefactos necesarios para el compilado, construcción y despliegue del mismo. Además, en el diseño del entorno de desarrollo, la extensión e integración del mismo con herramientas de validación ha sido un factor clave. En concreto, se pueden incorporar al entorno de desarrollo nuevos requisitos no-funcionales, la generación de nuevos artefactos tales como documentación o diferentes lenguajes de programación, etc. Una parte clave del entorno de desarrollo es el algoritmo de particionado. Este algoritmo se ha diseñado para ser independiente de los requisitos de las aplicaciones así como para permitir al integrador del sistema implementar nuevos requisitos del sistema. Para lograr esta independencia, se han definido las restricciones al particionado. El algoritmo garantiza que dichas restricciones se cumplirán en el sistema particionado que resulte de su ejecución. Las restricciones al particionado se han diseñado con una capacidad expresiva suficiente para que, con un pequeño grupo de ellas, se puedan expresar la mayor parte de los requisitos no-funcionales más comunes. Las restricciones pueden ser definidas manualmente por el integrador del sistema o bien pueden ser generadas automáticamente por una herramienta a partir de los requisitos funcionales y no-funcionales de una aplicación. El algoritmo de particionado toma como entradas los modelos y las restricciones al particionado del sistema. Tras la ejecución y como resultado, se genera un modelo de despliegue en el que se definen las particiones que son necesarias para el particionado del sistema. A su vez, cada partición define qué aplicaciones deben ejecutar en ella así como los recursos que necesita la partición para ejecutar correctamente. El problema del particionado y las restricciones al particionado se modelan matemáticamente a través de grafos coloreados. En dichos grafos, un coloreado propio de los vértices representa un particionado del sistema correcto. El algoritmo se ha diseñado también para que, si es necesario, sea posible obtener particionados alternativos al inicialmente propuesto. El entorno de desarrollo, incluyendo el algoritmo de particionado, se ha probado con éxito en dos casos de uso industriales: el satélite UPMSat-2 y un demostrador del sistema de control de una turbina eólica. Además, el algoritmo se ha validado mediante la ejecución de numerosos escenarios sintéticos, incluyendo algunos muy complejos, de más de 500 aplicaciones. ABSTRACT The importance of embedded software is growing as it is required for a large number of systems. Devising cheap, efficient and reliable development processes for embedded systems is thus a notable challenge nowadays. Computer processing power is continuously increasing, and as a result, it is currently possible to integrate complex systems in a single processor, which was not feasible a few years ago.Embedded systems may have safety critical requirements. Its failure may result in personal or substantial economical loss. The development of these systems requires stringent development processes that are usually defined by suitable standards. In some cases their certification is also necessary. This scenario fosters the use of mixed-criticality systems in which applications of different criticality levels must coexist in a single system. In these cases, it is usually necessary to certify the whole system, including non-critical applications, which is costly. Virtualization emerges as an enabling technology used for dealing with this problem. The system is structured as a set of partitions, or virtual machines, that can be executed with temporal and spatial isolation. In this way, applications can be developed and certified independently. The development of MCPS (Mixed-Criticality Partitioned Systems) requires additional roles and activities that traditional systems do not require. The system integrator has to define system partitions. Application development has to consider the characteristics of the partition to which it is allocated. In addition, traditional software process models have to be adapted to this scenario. The V-model is commonly used in embedded systems development. It can be adapted to the development of MCPS by enabling the parallel development of applications or adding an additional partition to an existing system. The objective of this PhD is to improve the available technology for MCPS development by providing a framework tailored to the development of this type of system and by defining a flexible and efficient algorithm for automatically generating system partitionings. The goal of the framework is to integrate all the activities required for developing MCPS and to support the different roles involved in this process. The framework is based on MDE (Model-Driven Engineering), which emphasizes the use of models in the development process. The framework provides basic means for modeling the system, generating system partitions, validating the system and generating final artifacts. The framework has been designed to facilitate its extension and the integration of external validation tools. In particular, it can be extended by adding support for additional non-functional requirements and support for final artifacts, such as new programming languages or additional documentation. The framework includes a novel partitioning algorithm. It has been designed to be independent of the types of applications requirements and also to enable the system integrator to tailor the partitioning to the specific requirements of a system. This independence is achieved by defining partitioning constraints that must be met by the resulting partitioning. They have sufficient expressive capacity to state the most common constraints and can be defined manually by the system integrator or generated automatically based on functional and non-functional requirements of the applications. The partitioning algorithm uses system models and partitioning constraints as its inputs. It generates a deployment model that is composed by a set of partitions. Each partition is in turn composed of a set of allocated applications and assigned resources. The partitioning problem, including applications and constraints, is modeled as a colored graph. A valid partitioning is a proper vertex coloring. A specially designed algorithm generates this coloring and is able to provide alternative partitions if required. The framework, including the partitioning algorithm, has been successfully used in the development of two industrial use cases: the UPMSat-2 satellite and the control system of a wind-power turbine. The partitioning algorithm has been successfully validated by using a large number of synthetic loads, including complex scenarios with more that 500 applications.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los nombres que se usan actualmente para las grúas los ponen las empresas fabricantes y muy frecuentemente no tienen relación con su tipología ni con su capacidad. Por otra parte, es de uso común en la construcción, llamar a las grúas usando su tonelaje nominal que coincide normalmente con su capacidad máxima que se obtiene a radio mínimo. Existe una controversia por el uso de este valor ya que no suele definir bien la capacidad de las maquinas. En cuanto el radio de trabajo se aleja de sus valores mínimos, las grúas están limitadas por el momento de vuelco que no tiene porque comportarse de manera proporcional o ni siquiera relacionada con el valor de la capacidad nominal. Esto hace que comparar grúas mediante sus capacidades nominales (que son sus denominaciones) pueda inducir a errores importantes. Como alternativa, se pretende estudiar el uso de momento máximo de vuelco MLM por sus siglas en ingles (Maximum Load Moment) para intentar definir la capacidad real de las grúas. Se procede a realizar un análisis técnico y financiero de grúas con respecto a ambos valores mencionados con objeto de poder determinar cual de los dos parámetros es más fiable a la hora de definir la capacidad real de estas maquinas. Para ello, se seleccionan dentro de las tres tipologías más importantes por su presencia e importancia en la construcción (grúas de celosía sobre cadenas, grúas telescópicas sobre camión y grúas torre) nueve grúas de distintos tamaños y capacidades con objeto de analizar una serie de parámetros técnicos y sus costes. Se realizan de este modo diversas comparativas analizando los resultados en función de las tipologías y de los tamaños de las distintas maquinas. Para cada máquina se obtienen las capacidades y los momentos de vuelco correspondientes a distintos radios de trabajo. Asimismo, se obtiene el MLM y el coste hora de cada grúa, este último como suma de la amortización de la máquina, intereses del capital invertido, consumos, mantenimiento y coste del operador. Los resultados muestran las claras deficiencias del tonelaje nominal como valor de referencia para definir la capacidad de las grúas ya que grúas con el mismo tonelaje nominal pueden dar valores de capacidad de tres a uno (e incluso mayores) cuando los radios de trabajo son importantes. A raiz de este análisis se propone el uso del MLM en lugar del tonelaje nominal para la denominación de las grúas ya que es un parámetro mucho más fiable. Siendo conscientes de la dificultad que supone un cambio de esta entidad al tratarse de un uso común a nivel mundial, se indican posibles actuaciones concretas que puedan ir avanzando en esa dirección como seria por ejemplo la nomenclatura oficial de los fabricantes usando el MLM dentro del nombre de la grúa que también podría incluir la tipología o al menos alguna actuación legislativa sencilla como obligar al fabricante a indicar este valor en las tablas y características de cada máquina. El ratio analizado Coste horario de la grúa / MLM resulta ser de gran interés y permite llegar a la conclusión que en todas las tipologías de grúas, la eficiencia del coste por hora y por la capacidad (dada por el MLM) aumenta al aumentar la capacidad de la grúa. Cuando los tamaños de cada tipología se reducen, esta eficiencia disminuye y en algunos casos incluso drasticamente. La tendencia del mundo de la construcción de prefabricación y modularización que conlleva pesos y dimensiones de cargas cada vez más grandes, demandan cada vez grúas de mayor capacidad y se podría pensar en un primer momento que ante un crecimiento de capacidades tan significativo, el coste de las grúas se podría disparar y por ello disminuir la eficiencia de estas máquinas. A la vista de los resultados obtenidos con este análisis, no solo no ocurre este problema sino que se observa que dicho aumento de tamaños y capacidades de grúas redunda en un aumento de su eficiencia en cualquiera de las tipologías de estas maquinas que han sido estudiadas. The crane names that are actually used are given by crane manufacturers and, very frequently, they do not have any relationship with the crane type nor with its capacity. On the other hand, it is common in construction to use the nominal capacity (which corresponds in general to the capacity at minimum radius) as crane name. The use of this figure is controversial since it does not really reflect the real crane capacity. When the working radius increases a certain amount from its minimum values, the crane capacity starts to be limited by the crane tipping load and the moment is not really related to the value of the nominal capacity. Therefore, comparing cranes by their nominal capacity (their names) can lead to important mistakes. As an alternative, the use of the maximum load moment (MLM) can be studied for a better definition of real crane capacity. A technical and financial analysis of cranes is conducted using both parameters to determine which one is more reliable in order to define crane’s real capacity. For this purpose, nine cranes with different sizes and capacities will be selected within the most relevant crane types (crawler lattice boom cranes, telescopic truck mounted cranes and tower cranes) in order to analyze several parameters. The technical and economic results will be compared according to the crane types and sizes of the machines. For each machine, capacities and load moments are obtained for several working radius as well as MLM and hourly costs of cranes. Hourly cost is calculated adding up depreciation, interests of invested capital, consumables, maintenance and operator’s cost. The results show clear limitations for the use of nominal capacity as a reference value for crane definition since cranes with the same nominal capacity can have capacity differences of 3 to 1 (or even bigger) when working on important radius. From this analysis, the use of MLM as crane name instead of nominal capacity is proposed since it is a much more reliable figure. Being aware of the difficulty of such change since nominal capacity is commonly used worldwide; specific actions are suggested to progress in that direction. One good example would be that manufacturers would include MLM in their official crane names which could also include the type as well. Even legal action can be taken by simply requiring to state this figure in the crane charts and characteristics of every machine. The analyzed ratio: hourly cost / MLM is really interesting since it leads to the conclusion that for all crane types, the efficiency of the hourly cost divided by capacity (given by MLM) increases when the crane capacity is higher. When crane sizes are smaller, this efficiency is lower and can fall dramatically in certain cases. The developments in the construction world regarding prefabrication and modularization mean bigger weights and dimensions, which create a demand for bigger crane capacities. On a first approach, it could be thought that crane costs could rise significantly because of this capacity hugh increase reducing in this way crane efficiency. From the results obtained here, it is clear that it is definitely not the case but the capacity increase of cranes will end up in higher efficiency levels for all crane types that have been studied.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El concepto de SIGP está referido al uso de la tecnología para integrar el conocimiento experto con el conocimiento experimentado en el ámbito de un proyecto. La tecnología permite la gestión, análisis y representación de grandes volúmenes de datos con proyección territorial, facilitando la comprensión de las múltiples variables que influyen en los procesos de toma de decisiones. Los SIGP presentan fortalezas y riesgos que han generado estudios de mejora de la práctica, asociados frecuentemente a aplicaciones online. El elemento fundamental de éxito es la participación, definida atendiendo al propósito, personas involucradas y forma de aplicación. En los proyectos de desarrollo rural, la aplicación de los SIGP debe tener como objetivo el desarrollo sostenible. Para ello la participación debe estar presente en cada una de las etapas del proceso, organizado según el esquema del Ciclo del Proyecto. La revisión de múltiples experiencias de SIGP en proyectos de desarrollo rural indica que en la mayoría de los casos no se analiza la participación y uso de esta tecnología en cada fase del proyecto. Esto justifica la definición de una metodología que integre el conocimiento experto y experimentado en la aplicación de los SIGP en las fases del Ciclo del Proyecto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de la línea de investigación seguida en esta tesis consiste en identificar palancas de gestión de las personas en las organizaciones que permitan mejorar su rendimiento mediante la gestión del compromiso de los profesionales de las organizaciones inmersas en la denominada sociedad del conocimiento. Para identificar dichas palancas se analizan algunos de los factores que, según la literatura científica, tienen como consecuencia cambios en la productividad, como son el compromiso organizacional y las conductas cívicas dentro de la organización. También, por su actualidad y relevancia en las prácticas de gestión de recursos humanos, se han analizado el impacto que tienen en estos factores en las prácticas empresariales que permiten conciliar vida profesional y personal el efecto del género en las distintas variables analizadas. Por todo lo anterior, en la investigación se analizan algunos de los factores de carácter psicosocial que promueven el compromiso en una organización, y se profundiza en dos conceptos: el análisis del compromiso de los profesionales con la organización para la que trabajan, y los comportamientos de ciudadanía organizativa que se exhiben en la organización por sus miembros. Para ello, se realiza un encuadramiento teórico de los siguientes conceptos: el compromiso como eje del trabajo; la ciudadanía organizativa como modelo cultural de la organización que promueve el compromiso; el rol de los líderes; los efectos de las políticas de conciliación; las diferencias de percepciones derivadas del género y un sistema de revisión de retributiva eficiente y coherente con el marco conceptual planteado. La metodología seleccionada para este trabajo ha sido el análisis en profundidad del caso de una empresa española, Red Eléctrica de España a través de tres pilares básicos: el primero consiste en el análisis exhaustivo de los datos obtenidos en las dos encuestas de clima social que dicha empresa realizó en el período 2006-2009; el segundo se centra en el desarrollo de un modelo matemático para el cálculo eficiente de recompensas salariales a través de un modelo de optimización; y el tercero es la consecuencia del conocimiento profundo que el autor tiene de la propia empresa, su cultura y funcionamiento, fruto de su experiencia profesional como directivo en el área de desarrollo de recursos humanos, función que desempeñó en la organización durante nueve años. En el análisis de este caso se ha investigado la influencia del género en el compromiso y la ciudadanía organizativa de los empleados de dicha organización, para identificar las diferencias de percepción que puedan ser explicadas por el género en una empresa muy masculina como es aquella. También, se ha incluido en este estudio de caso el análisis del efecto que presentan las medidas de conciliación en el compromiso de los empleados, por la relevancia que tiene este asunto en el panorama laboral español actual. Este análisis permite conocer hasta qué punto son o no motivadoras estas medidas en la organización analizada y, como consecuencia de ello, el tipo de gestión más oportuna de las mismas para conseguir no sólo los fines sociales que pretenden, garantizar que los empleados puedan compatibilizar sus exigencias laborales con una vida personal adecuada, sino también mejorar el clima, productividad y compromiso de éstos con la empresa. Para completar este análisis del caso, se han identificado de forma analítica los factores que mejor explican el clima de la organización y se ha concluido el papel central de la dirección que se concreta en la actuación de cada jefe, como motor del clima social en el equipo que dirige. Dado que la tesis pivota sobre el papel relevante que tiene la generación de una cultura de ciudadanía organizativa, se ha complementado el análisis con el desarrollo una herramienta de cálculo que facilita la determinación de los incrementos de la retribución fija de acuerdo con los principios de transparencia, equidad y justicia acordes con el modelo de empresa que promueve la virtud cívica de las personas empleadas en ella. Para ello se ha desarrollado un nuevo método de cálculo del incremento de retribución fija mediante un modelo analítico innovador y compacto de programación lineal entera mixta. Este modelo permite a las organizaciones realizar diseños de política retributiva de forma sencilla y rápida, a la vez que facilita la transparencia de las mismas en el proceso de gestión de la compensación. No se ha abordado el asunto de la determinación de la retribución variable, por ser un asunto relativamente menos complejo y profusamente tratado en la práctica directiva de las empresas. La primera de las conclusiones de la investigación realizada se refiere a los aspectos de la cultura organizativa que pueden identificarse como motores del compromiso. Se concluye que en el caso de estudio hay una fuerte relación mutua entre los rasgos que definen el compromiso emocional y los rasgos que determinan un comportamiento caracterizado como de ciudadanía organizativa. Se ha encontrado una correlación significativa y alta entre indicadores de compromiso y factores que recogen comportamientos de ciudadanía organizativa, correlación muy notable tanto para los factores de compromiso racional como para los de compromiso emocional. También se ha evidenciado que la correlación entre compromiso emocional y rasgos de comportamientos de ciudadanía organizacional es mayor que la que aparece entre compromiso racional y rasgos de comportamientos de ciudadanía organizacional. Desde el punto de vista de la práctica de gestión de recursos humanos, estas relaciones indican la conveniencia de promover una cultura organizacional basada en los principios de la ciudadanía organizativa para alcanzar altos niveles de compromiso emocional de los profesionales y mejorar la eficiencia organizativa. La segunda de las conclusiones se refiere al efecto de las políticas de conciliación en las organizaciones. Sobre este asunto se concluye que en el caso de estudio no puede considerarse que las medidas de conciliación tengan una fuerte relación con el compromiso emocional, y menos que puedan considerarse directamente una herramienta de generación de compromiso emocional. Sin embargo, sí que se detecta una cierta relación entre las percepciones de conciliación y de compromiso con la organización, y sobre todo, con el compromiso racional con la organización, que puede tener que ver con que para los empleados de la organización analizada, las medidas de conciliación son consideradas como una parte más de las condiciones laborales que ofrece la organización a los trabajadores. La tercera conclusión se refiere a la relación entre el género de los trabajadores y su nivel de compromiso y de ciudadanía organizativa. En el caso de estudio no se identifica una relación entre el género y el nivel de compromiso de los profesionales ni tampoco con la percepción de ciudadanía organizativa, variando la situación del período 2006 al período 2009. La cuarta conclusión se refiere al impacto que la actuación de los líderes (jefes) tiene en el clima social. En el caso de estudio, la actuación de los directivos y el nivel de compromiso que genera en los profesionales explica por sí sola más de un tercio de la varianza del clima organizativo, entendido como tal el que refleja el conjunto global de preguntas que constituyen la encuesta de clima del caso de estudio. Del análisis realizado se concluye que en el caso de estudio la percepción que los empleados tienen de sus jefes tiene un efecto relevante sobre el resto de percepciones de compromiso, ciudadanía organizativa y otros factores que conforman el clima social de la organización. La quinta y última conclusión supone la aportación de un modelo novedoso de cálculo de la recompensa económica coherente con un modelo de gestión empresarial mediante una cultura de ciudadanía organizativa. La solución que obtiene este modelo es el incremento salarial individual de cada profesional, que tiene en cuenta su rendimiento, posicionamiento salarial y encuadramiento profesional. Además de las restricciones presupuestarias, se consideran los principios de transparencia, equidad y justicia coherentes con el modelo conceptual planteado. La principal contribución de este trabajo es la formulación matemática de los criterios cualitativos que se emplean habitualmente en el proceso de revisión salarial. El método planteado supone una innovación que permite automatizar la metodología tradicional de gestión de incrementos salariales basados en matrices de incremento, así como evitar la aplicación de limitaciones en las valoraciones de desempeño derivadas de las restricciones presupuestarias que toda organización tiene. De esta manera se puede disponer de un mecanismo de revisión salarial que tiene en cuenta el desempeño de los profesionales, pero que permite la gestión “desacoplada” de la evaluación de rendimiento y la actualización de la retribución fija. ABSTRACT The aim of the research pursued in this thesis is to identify some human resources management levers in organizations to improve their performance through individual’s commitment management, focusing in organizations immersed in the so-called knowledge society. In order to find out these levers, the author analysed some of the psychosocial factors that promote engagement to the organizations and, according to the scientific literature, have effects in their productivity. These factors analysed are organisational commitment and citizenship behaviours. Additionally, the investigation also focuses on work-life balance policies and gender considerations, because of their relevance and topicality for the human resources’ policies. In the light of this, the investigation focuses on some of the psychosocial factors that promote organisational commitment, and delves into two concepts: the analysis of the commitment of professionals to the organization for which they work, and the organizational citizenship behaviours exhibited in the organization by its members. For this, a theoretical framework is performed for the following items: the professional’s commitment which is the pillar of this work; the organisational citizenship as a cultural model to promote that commitment; the role of the leaders; the effects of the work-life balance policies; the different perceptions of the professionals because of their gender; and an efficient salary review system, which is coherent with the conceptual framework set. The methodology selected for this work was the analysis in depth of the case of a Spanish company, Red Eléctrica de España, through three basic subjects: the first consists of a thorough analysis of the data obtained in the two work climate surveys made by this company in 2006 and 2009; the second focuses on the development of a mathematical model for calculating efficient salary reviews through an optimization model; and the third is the result of the author’s deep understanding of the company, its culture and its performance because of his professional experience as a manager in the area of human resource development, which was his role in the organization for nine years. The author investigated in the analysis of this case about the influence of gender on the employees’ organizational commitment and citizenship behaviours, in order to find out perception differences that can be explained by the highly masculine organisational culture such Red Eléctrica de España had during the studied period. Additionally, because of the importance of the work-life balance promotion in the Spanish labour scene, the case study analysis includes their effect in the employees’ commitment. This analysis allows to know motivating are these measures in the studied organization and, as a result, the most appropriate type of management thereof for social purposes, not only intended to ensure that employees can balance their work and personal demands, but also improving the work climate, the productivity and the organisational commitment. The investigation identifies the factors which best explain the work climate of the organization and concludes the central role of the leadership, embodied in the performance of every manager, to boost the work climate in their teams. Since this thesis pivots on the important role the generation of a culture of organizational citizenship has, the investigation has been complemented with the development of a analytic tool that facilitates the calculation of the salary review increments according to the principles of transparency, equity and justice in line with a work culture that promotes organisational citizenship behaviours. For this, this works develops a new method for calculating fixed salary increases through an innovative and compact mixed integer linear programming model. This model enables organizations to design compensation policies easily and quickly, and facilitates the transparency of the compensation management system. The method for determining variable remuneration has not been addressed because it is relatively less complex issue and widely discussed. The first conclusion of the conducted investigation concerns aspects of organizational culture that could be identified as commitment drivers. In the case study exists a strong and mutual relationship between the characteristics defining the emotional commitment and the organisational citizenship behaviours. The investigation has found out a meaningful and high correlation between indicators of commitment and the factors collecting organizational citizenship behaviour. This correlation with organisational citizenship is remarkable for both, rational and emotional, commitment. The correlation between organizational citizenship behaviours and emotional commitment and is greater than the one with rational commitment. From the practitioner point of view, these relationships show the importance of promoting an organizational culture based on the principles of organizational citizenship to achieve high levels of emotional engagement of professionals and improve organizational efficiency. The second conclusion relates to the effect of work-life balance policies in organizations. On this matter, the investigation concludes that for the case study, work-life balance measures do not have a strong relationship with the emotional commitment, and unless they can be usually considered as a tool to improve employees’ emotional commitment. However, a certain relationship between perceptions of work-life facilities and organisational commitment exists, especially with the rational commitment to the organization. This relationship appears because for employees of the analysed organization, work-life balance measures could be considered as a part of working conditions offered to them by the organization. The third conclusion concerns the relationship between the gender of workers and their level of commitment and organizational citizenship. In this case study, there is not any relationship between gender and the professional’s commitment level nor the perception of organizational citizenship; and the situation varies during the period studied. The fourth conclusion refers to the impact that the actions of the leaders have on the work climate. In the case study, the performance of management and the level of commitment generated, explains more than a third of the variance of work climate - understood as such reflecting the overall set of questions that constitute the work climate survey -. The analysis concludes that in the case study perception that employees have of their leaders has a significant effect on the rest of perceptions of commitment, organizational citizenship and other factors making the work climate of the organization. The fifth and last conclusion represents the contribution of a new model for calculating the salary increment, coherent with a corporate citizenship management culture. The solution obtained from this model consists of salary increases for each employee; these increases consider the employee’s professional performance, salary level relative to peers within the organization, and professional group. In addition to budget constraints, we modelled other elements typical of compensation systems, such as equity and justice. The major contribution of this work is the mathematical formulation of the criteria that are typically the basis for salary management. The compact formulation and the ease of obtaining the optimal solution facilitate its use in large companies that maintain very high levels of homogeneity across employees. Designing different strategies for specific groups within a company is also possible. A major benefit of this method is that it allows a company to independently manage its salary and assessment policies. Because obtaining salary-revision matrices without using the mathematical model we present in this paper is typically done iteratively by tuning previously defined matrices, managers commonly tune values for assessing employee performance to ensure that salary increases and performance assessments are consistent; however, this distorts the evaluation process and decreases employee motivation. In this MILP model, employee performance is only one parameter of several input parameters used in designing a salary policy that is independent of the results of performance-assessment values.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las metodologías de desarrollo ágiles han sufrido un gran auge en entornos industriales durante los últimos años debido a la rapidez y fiabilidad de los procesos de desarrollo que proponen. La filosofía DevOps y específicamente las metodologías derivadas de ella como Continuous Delivery o Continuous Deployment promueven la gestión completamente automatizada del ciclo de vida de las aplicaciones, desde el código fuente a las aplicaciones ejecutándose en entornos de producción. La automatización se ve como un medio para producir procesos repetibles, fiables y rápidos. Sin embargo, no todas las partes de las metodologías Continuous están completamente automatizadas. En particular, la gestión de la configuración de los parámetros de ejecución es un problema que ha sido acrecentado por la elasticidad y escalabilidad que proporcionan las tecnologías de computación en la nube. La mayoría de las herramientas de despliegue actuales pueden automatizar el despliegue de la configuración de parámetros de ejecución, pero no ofrecen soporte a la hora de fijar esos parámetros o de validar los ficheros que despliegan, principalmente debido al gran abanico de opciones de configuración y el hecho de que el valor de muchos de esos parámetros es fijado en base a preferencias expresadas por el usuario. Esto hecho hace que pueda parecer que cualquier solución al problema debe estar ajustada a una aplicación específica en lugar de ofrecer una solución general. Con el objetivo de solucionar este problema, propongo un modelo de configuración que puede ser inferido a partir de instancias de configuración existentes y que puede reflejar las preferencias de los usuarios para ser usado para facilitar los procesos de configuración. El modelo de configuración puede ser usado como la base de un proceso de configuración interactivo capaz de guiar a un operador humano a través de la configuración de una aplicación para su despliegue en un entorno determinado o para detectar cambios de configuración automáticamente y producir una configuración válida que se ajuste a esos cambios. Además, el modelo de configuración debería ser gestionado como si se tratase de cualquier otro artefacto software y debería ser incorporado a las prácticas de gestión habituales. Por eso también propongo un modelo de gestión de servicios que incluya información relativa a la configuración de parámetros de ejecución y que además es capaz de describir y gestionar propuestas arquitectónicas actuales tales como los arquitecturas de microservicios. ABSTRACT Agile development methodologies have risen in popularity within the industry in recent years due to the speed and reliability of the processes they propose. The DevOps philosophy and specifically the methodologies derived from it such as Continuous Delivery and Continuous Deployment push for a totally automated management of the application lifecycle, from the source code to the software running in production environment. Automation in this regard is used as a means to produce repeatable, reliable and fast processes. However, not all parts of the Continuous methodologies are completely automatized. In particular, management of runtime parameter configuration is a problem that has increased its impact in deployment process due to the scalability and elasticity provided by cloud technologies. Most deployment tools nowadays can automate the deployment of runtime parameter configuration, but they offer no support for parameter setting o configuration validation, as the range of different configuration options and the fact that the value of many of those parameters is based on user preference seems to imply that any solution to the problem will have to be tailored to a specific application. With the aim to solve this problem I propose a configuration model that can be inferred from existing configurations and reflect user preferences in order to ease the configuration process. The configuration model can be used as the base of an interactive configuration process capable of guiding a human operator through the configuration of an application for its deployment in a specific environment or to automatically detect configuration changes and produce valid runtime parameter configurations that take into account those changes. Additionally, the configuration model should be managed as any other software artefact and should be incorporated into current management practices. I also propose a service management model that includes the configuration information and that is able to describe and manage current architectural practices such as the microservices architecture.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En esta tesis se desarrolla un modelo físico-matemático, original, que permite simular el comportamiento de las máquinas de visión, en particular las máquinas ópticas digitales, cuando reciben información a través de la luz reflejada por los mensurandos. El modelo desarrollado se lia aplicado para la determinación de los parámetros que intervienen en el proceso de caracterización de formas geométricas básicas, tales como líneas, círculos y elipses. También se analizan las fuentes de error que intervienen a lo largo de la cadena metrológica y se proponen modelos de estimación de las incertidumbres de medida a través un nuevo enfoque basado en estadística bayesiana y resolución subpíxel. La validez del modelo se ha comprobado por comparación de los resultados teóricos, obtenidos a partir de modelos virtuales y simulaciones informáticas, y los reales, obtenidos mediante la realización de medidas de diferentes mensurandos del ámbito electromecánico y de dimensiones submilimétricas. Utilizando el modelo propuesto, es posible caracterizar adecuadamente mensurandos a partir del filtrado, segmentación y tratamiento matemático de las imágenes. El estudio experimental y validación definitiva de los resultados se ha realizado en el Laboratorio de Metrología Dimensional de la Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid. Los modelos desarrollados se han implementado sobre imágenes obtenidas con la máquina de visión marca TESA, modelo VISIO 300. Abstract In this PhD Thesis an original mathematic-physic model has been developed. It allows simulating the behaviour of the vision measuring machines, in particular the optical digital machines, where they receive information through the light reflected by the measurands. The developed model has been applied to determine the parameters involved in the process of characterization of basic geometrical features such as lines, circles and ellipses. The error sources involved along the metrological chain also are analyzed and new models for estimating measurement uncertainties through a new approach based on Bayesian statistics and subpixel resolution are proposed. The validity of the model has been verified by comparing the theoretical results obtained from virtual models and computer simulations, with actual ones, obtained by measuring of various measurands belonging to the electromechanical field and of submillimeter dimensions. Using the proposed model, it is possible to properly characterize measurands from filtering, segmentation and mathematical processing of images. The experimental study and final validation of the results has been carried out in the "Laboratorio de Metrología Dimensional" (Dimensional Metrology Laboratory) at the Escuela Técnica Superior de Ingeniería y Diseño Industrial (ETSIDI) (School of Engineering and Industrial Design) at Universidad Politécnica de Madrid (UPM). The developed models have been implemented on images obtained with the vision measuring machine of the brand TESA, model VISIO 300.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Internet está evolucionando hacia la conocida como Live Web. En esta nueva etapa en la evolución de Internet, se pone al servicio de los usuarios multitud de streams de datos sociales. Gracias a estas fuentes de datos, los usuarios han pasado de navegar por páginas web estáticas a interacturar con aplicaciones que ofrecen contenido personalizado, basada en sus preferencias. Cada usuario interactúa a diario con multiples aplicaciones que ofrecen notificaciones y alertas, en este sentido cada usuario es una fuente de eventos, y a menudo los usuarios se sienten desbordados y no son capaces de procesar toda esa información a la carta. Para lidiar con esta sobresaturación, han aparecido múltiples herramientas que automatizan las tareas más habituales, desde gestores de bandeja de entrada, gestores de alertas en redes sociales, a complejos CRMs o smart-home hubs. La contrapartida es que aunque ofrecen una solución a problemas comunes, no pueden adaptarse a las necesidades de cada usuario ofreciendo una solucion personalizada. Los Servicios de Automatización de Tareas (TAS de sus siglas en inglés) entraron en escena a partir de 2012 para dar solución a esta liminación. Dada su semejanza, estos servicios también son considerados como un nuevo enfoque en la tecnología de mash-ups pero centra en el usuarios. Los usuarios de estas plataformas tienen la capacidad de interconectar servicios, sensores y otros aparatos con connexión a internet diseñando las automatizaciones que se ajustan a sus necesidades. La propuesta ha sido ámpliamante aceptada por los usuarios. Este hecho ha propiciado multitud de plataformas que ofrecen servicios TAS entren en escena. Al ser un nuevo campo de investigación, esta tesis presenta las principales características de los TAS, describe sus componentes, e identifica las dimensiones fundamentales que los defines y permiten su clasificación. En este trabajo se acuña el termino Servicio de Automatización de Tareas (TAS) dando una descripción formal para estos servicios y sus componentes (llamados canales), y proporciona una arquitectura de referencia. De igual forma, existe una falta de herramientas para describir servicios de automatización, y las reglas de automatización. A este respecto, esta tesis propone un modelo común que se concreta en la ontología EWE (Evented WEb Ontology). Este modelo permite com parar y equiparar canales y automatizaciones de distintos TASs, constituyendo un aporte considerable paraa la portabilidad de automatizaciones de usuarios entre plataformas. De igual manera, dado el carácter semántico del modelo, permite incluir en las automatizaciones elementos de fuentes externas sobre los que razonar, como es el caso de Linked Open Data. Utilizando este modelo, se ha generado un dataset de canales y automatizaciones, con los datos obtenidos de algunos de los TAS existentes en el mercado. Como último paso hacia el lograr un modelo común para describir TAS, se ha desarrollado un algoritmo para aprender ontologías de forma automática a partir de los datos del dataset. De esta forma, se favorece el descubrimiento de nuevos canales, y se reduce el coste de mantenimiento del modelo, el cual se actualiza de forma semi-automática. En conclusión, las principales contribuciones de esta tesis son: i) describir el estado del arte en automatización de tareas y acuñar el término Servicio de Automatización de Tareas, ii) desarrollar una ontología para el modelado de los componentes de TASs y automatizaciones, iii) poblar un dataset de datos de canales y automatizaciones, usado para desarrollar un algoritmo de aprendizaje automatico de ontologías, y iv) diseñar una arquitectura de agentes para la asistencia a usuarios en la creación de automatizaciones. ABSTRACT The new stage in the evolution of the Web (the Live Web or Evented Web) puts lots of social data-streams at the service of users, who no longer browse static web pages but interact with applications that present them contextual and relevant experiences. Given that each user is a potential source of events, a typical user often gets overwhelmed. To deal with that huge amount of data, multiple automation tools have emerged, covering from simple social media managers or notification aggregators to complex CRMs or smart-home Hub/Apps. As a downside, they cannot tailor to the needs of every single user. As a natural response to this downside, Task Automation Services broke in the Internet. They may be seen as a new model of mash-up technology for combining social streams, services and connected devices from an end-user perspective: end-users are empowered to connect those stream however they want, designing the automations they need. The numbers of those platforms that appeared early on shot up, and as a consequence the amount of platforms following this approach is growing fast. Being a novel field, this thesis aims to shed light on it, presenting and exemplifying the main characteristics of Task Automation Services, describing their components, and identifying several dimensions to classify them. This thesis coins the term Task Automation Services (TAS) by providing a formal definition of them, their components (called channels), as well a TAS reference architecture. There is also a lack of tools for describing automation services and automations rules. In this regard, this thesis proposes a theoretical common model of TAS and formalizes it as the EWE ontology This model enables to compare channels and automations from different TASs, which has a high impact in interoperability; and enhances automations providing a mechanism to reason over external sources such as Linked Open Data. Based on this model, a dataset of components of TAS was built, harvesting data from the web sites of actual TASs. Going a step further towards this common model, an algorithm for categorizing them was designed, enabling their discovery across different TAS. Thus, the main contributions of the thesis are: i) surveying the state of the art on task automation and coining the term Task Automation Service; ii) providing a semantic common model for describing TAS components and automations; iii) populating a categorized dataset of TAS components, used to learn ontologies of particular domains from the TAS perspective; and iv) designing an agent architecture for assisting users in setting up automations, that is aware of their context and acts in consequence.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El examen a la singular aportación de João Archer, Nunes de Almeida y Rogério Ramos a la construcción del paisaje energético a través de la arquitectura se revela hoy de gran oportunidad para el avance de nuestra disciplina. Este colectivo de arquitectos que estudian en la Escuela de Oporto en el periodo en que el maestro Carlos Ramos realiza la reforma de la enseñanza de la Arquitectura en Portugal, proyecta y construye desde el interior del oficio de proyectos de la Hidroeléctica do Douro, las tres infraestructuras hidroeléctricas y las respectivas estructuras urbanas de Picote, Miranda y Bemposta, ubicadas en el Duero Internacional. El proceso cuyos parámetros de proyecto se exponen, está comprendido entre 1953 y 1964, y representa uno de los momentos más significativos y hercúleos en términos de infraestructura, industrialización y modernización de un Portugal entonces extremamente retrasado por la política de aislamiento de la dictadura de Salazar. Esto parece ser también el primer proyecto arquitectónico de infraestructuras a la escala del territorio en el cual se reconocen trazos específicos de la Escuela de Oporto y en donde se efectúa la revisión y transición de una modernidad enmarcada por el rigor de Loos y por un racionalismo de linaje gropiano, para un regionalismo crítico apropiado a la cultura del lugar, muy vinculado a Lúcio Costa, Wright y Aalto. Así, más que los logros espaciales, técnicos o constructivos conseguidos en los edificios, se expone el proceso utilizado por sus autores, su forma de entender y hacer un paisaje industrial de dimensión social y humanista a través de una arquitectura poética y minimalista sustentada en la cultura y en el carácter del lugar, valorando los argumentos, herramientas, principios y mecanismos que pueden constituirse referencia para nuestro oficio y aportar conocimiento que oriente la arquitectura hacia la construcción del paisaje contemporáneo. ABSTRACT Examining the singular contribution of João Archer, Nunes de Almeida and Rogério Ramos to the construction of the energy landscape through architecture, presents today a great opportunity for the advancement of our discipline. This collective of architects studying at the Porto School during the period in which master Carlos Ramos reformed the education of architecture in Portugal, designed and built from the Hidroeléctrica do Douro project office itself, the three hydropower infrastructures and the respective urban structures of Picote), Miranda and Bemposta, located in the International Douro. The project parameters are set between 1953 and 1964, representing one of the most significant moments of infrastructure, industrialization and modernization in a country at the time extremely delayed by the isolation resulting from the Salazar dictatorship. This is also the first architectural project of infrastructures within the scale of territory in which specific traits of the Porto School are recognized and wherein it came into effect the revision and transition from a modernity marked by the Loos rigor and Gropius rationalism lineage to a critical regionalism appropriate to the culture of the place, connected to Lúcio Costa, Wright and Aalto. Thus, rather than space, technical or constructive achievements of the buildings, it is exposed the process used by the authors, their way of understanding and projecting an industrial landscape with a social and humanistic dimension through a poetic and minimal architecture sustained in culture and character of the place, valuing arguments, tools, principles and mechanisms that can become a reference for our profession and provide knowledge to guide architecture towards the construction of the contemporary landscape.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este documento es una introducción con carácter divulgativo a los fundamentos matemáticos básicos empleados por Albert Einstein para la formulación de la teoría de relatividad general. La mayoría de ellos se pueden emplear en otros campos como la óptica no lineal o la teoría de cuerdas, donde muchas expresiones deben tener el carácter de covarianza general, es decir, sus expresiones no deben depender del sistema de referencia escogido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presente tesis propone un nuevo método de cartografía de ensayos no destructivos en edificios históricos mediante el uso de técnicas basadas en SIG. Primeramente, se define el método por el cual es posible elaborar y convertir una cartografía 3D basada en nubes de puntos de un elemento arquitectónico obtenida mediante fotogrametría, en cartografía raster y vectorial, legible por los sistemas SIG mediante un sistema de coordenadas particular que referencian cada punto de la nube obtenida por fotogrametría. A esta cartografía inicial la denominaremos cartografía base. Después, se define el método por el cual los puntos donde se realiza un ensayo NDT se referencian al sistema de coordenadas del plano base, lo que permite la generación de cartografías de los ensayos referenciadas y la posibilidad de obtener sobre un mismo plano base diferentes datos de múltiples ensayos. Estas nuevas cartografías las denominaremos cartografías de datos, y se demostrará la utilidad de las mismas en el estudio del deterioro y la humedad. Se incluirá el factor tiempo en las cartografías, y se mostrará cómo este nuevo hecho posibilita el trabajo interdisciplinar en la elaboración del diagnóstico. Finalmente, se generarán nuevas cartografías inéditas hasta entonces consistentes en la combinación de diferentes cartografías de datos con la misma planimetría base. Estas nuevas cartografías, darán pie a la obtención de lo que se ha definido como mapas de isograma de humedad, mapa de isograma de salinidad, factor de humedad, factor de evaporación, factor de salinidad y factor de degradación del material. Mediante este sistema se facilitará una mejor visión del conjunto de los datos obtenidos en el estudio del edificio histórico, lo que favorecerá la correcta y rigurosa interpretación de los datos para su posterior restauración. ABSTRACT This research work proposes a new mapping method of non-destructive testing in historical buildings, by using techniques based on GIS. First of all, the method that makes it possible to produce and convert a 3D map based on cloud points from an architectural element obtained by photogrammetry, are defined, as raster and vector, legible by GIS mapping systems using a particular coordinate system that will refer each cloud point obtained by photogrammetry. This initial mapping will be named base planimetry. Afterwards, the method by which the points where the NDT test is performed are referenced to the coordinate system of the base plane , which allows the generation of maps of the referenced tests and the possibility of obtaining different data from multiple tests on the same base plane. These new maps will be named mapping data and their usefulness will be demonstrated in the deterioration and moisture study. The time factor in maps will be included, and how this new fact will enable the interdisciplinary work in the elaboration of the diagnosis will be proved. Finally, new maps (unpublished until now) will be generated by combining different mapping from the same planimetry data base. These new maps will enable us to obtain what have been called isograma moisture maps, isograma salinity- maps, humidity factor, evaporation factor, salinity factor and the material degradation factor. This system will provide a better vision of all data obtained in the study of historical buildings , and will ease the proper and rigorous data interpretation for its subsequent restoration.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uno de los aspectos más complicados del diseño de sistemas HVAC en buques es la correcta evaluación de las necesidades de aire fresco y el correcto dimensionado de los conductos que suministran dicho aire y evacuan el calor generado a bordo. Contrariamente a lo que sucede en los sistemas de tuberías, las características particulares del caudal de aire hacen que el dimensionado de los conductos sea muy sensible al trazado y geometría de los mismos, por lo que para obtener un buen diseño es necesaria una relación muy estrecha y una integración bidireccional entre los cálculos y el trazado de los propios conductos en el buque. Asumida la utilización de sistemas CAD/CAM para las tareas de diseño, históricamente, aquellos que permitían modelar conductos HVAC no incluían en su alcance de suministro los aspectos de cálculo, y como consecuencia de ello, el trazado de conductos se reducía a la inclusión en el modelo 3D de circuitos y sistemas previamente calculados y dimensionados, Así, servían únicamente para calcular interferencias con otros elementos del modelo 3D y para obtener posteriormente planos de fabricación y montaje. Esto, que por sí no es poco, dejaba el diseño de sistemas HVAC pendiente de una importante interacción manual y de habituales retrabajos, ya que cualquier modificación en el trazado de los conductos, consecuencia de otras necesidades del diseño, obligaba a los diseñadores a recalcular y redimensionar los conductos en un entorno diferente al del propio sistema CAD/CAM, y volver a realizar el modelado de los mismos, reduciendo significativamente las ventajas de la utilización de un modelo 3D. Partiendo de esta situación real, y con objeto de solucionar el problema que para el diseño y la propia producción del buque se creaba, se concibió una herramienta que permitiera la definición en el modelo 3D de diagramas de ventilación, el cálculo de pérdidas de presión, el dimensionado automático de los conductos, y que toda esta información pudiera estar disponible y reutilizarse en las etapas posteriores del diseño. Con ello, los diseñadores podrían realizar su trabajo en un entorno único, totalmente integrado con el resto de disciplinas. El objeto de esta Tesis Doctoral es analizar en detalle el problema y las ineficiencias actuales del diseño de HVAC, describir la innovadora herramienta concebida para paliar estas ineficiencias, detallando las bases sobre la que se construye, y destacar las ventajas que se obtienen de su uso. La herramienta en cuestión fue concebida como una funcionalidad adicional del sistema CAD/CAM naval FORAN, referente tecnológico en el mundo del diseño y la construcción navales, y como consecuencia de ellos se llevó a cabo el desarrollo correspondiente. En la actualidad, el sistema FORAN incluye en su alcance de suministro una primera versión de esta herramienta, cuya utilidad queda avalada por el uso que de la misma hacen astilleros y oficinas técnicas en todo el mundo. Esta Tesis Doctoral es eminentemente práctica. No es un estudio teórico de dudosa aplicación, sino que tiene por objeto aportar una solución eficiente a un problema real que muchos astilleros y oficinas técnicas, incluidas los más avanzados, padecen hoy en día. No tiene otra motivación que servir de ayuda para lograr diseñar y construir mejores barcos, en un plazo más corto, y a un coste menor. Nada más, pero nada menos. ABSTRACT One of the most complicated aspects of the design of HVAC systems in shipbuilding is the correct evaluation of the fresh air needs, the correct balancing of the ducts that supply this air and evacuate the existing heat on board. In opposition to piping systems, due to the particular characteristics of the air flow, the balancing of the ducts is very sensitive to the routing and the aspect of the ducts, so the correct design requires a close interconnectivity between calculations and routing. Already assumed the use of CAD/CAM systems for design tasks, historically, those CAD/CAM systems capable of modelling HVAC ducts did not cover calculation aspects, with the result that the routing of HVAC ducts was reduced solely to the input of previously balanced circuits into the 3D Product Model for the purpose of interference checking and generation of fabrication and assembly drawings. This situation, not negligible at all, put the design of HVAC ducts very dependent on manual operations and common rework task, as any modification in the routing of the HVAC ducts, derived from design needs, obliged engineers to re-balance the ducts and eventually to re-size them independently of the CAD-CAM environment, thus annulling the advantages of the 3D Product Model. With this situation in mind, and with the objective of filling the gap created in the design and construction of the ship, it was conceived a tool allowing the definition, within the 3D Product model, of HVAC diagrams, the calculation of pressure drops, the automatic dimensioning of ducts. With this, engineers could make the complete HVAC design in a single working environment, fully integrated with the rest of the disciplines. The present Ph. D. thesis analyses in deep the existing problem and the current lack of efficiency in HVAC design, describes the innovative tool conceived to minimize it, details the basis on which the tool is built, and highlights the advantages of its use. This tool was conceived as an additional functionality of the marine CAD/CAM system FORAN, a technological reference in the shipdesign and shipbuilding industry. As a consequence, it was developed, and nowadays FORAN System includes in its scope of supply a first version of the tool, with its usefulness endorsed by the fact that it is used by shipyards and shipdesign offices all over the world. This Ph. D. thesis is on top everything, of practical nature. It is not a theoretical study with doubtful application. On the contrary, its objective is to provide with an efficient solution for solving a real problem that many shipyards and shipdesign offices, including those more advanced, suffer nowadays. It has no other motivation that to help in the process of designing and building better and cheaper ships, within a shorter deliver time. Nothing more, but nothing less.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hoy en día, existen numerosos sistemas (financieros, fabricación industrial, infraestructura de servicios básicos, etc.) que son dependientes del software. Según la definición de Ingeniería del Software realizada por I. Sommerville, “la Ingeniería del Software es una disciplina de la ingeniería que comprende todos los aspectos de la producción de software desde las etapas iniciales de la especificación del sistema, hasta el mantenimiento de éste después de que se utiliza.” “La ingeniería del software no sólo comprende los procesos técnicos del desarrollo de software, sino también actividades tales como la gestión de proyectos de software y el desarrollo de herramientas, métodos y teorías de apoyo a la producción de software.” Los modelos de proceso de desarrollo software determinan una serie de pautas para poder desarrollar con éxito un proyecto de desarrollo software. Desde que surgieran estos modelos de proceso, se investigado en nuevas maneras de poder gestionar un proyecto y producir software de calidad. En primer lugar surgieron las metodologías pesadas o tradicionales, pero con el avance del tiempo y la tecnología, surgieron unas nuevas llamadas metodologías ágiles. En el marco de las metodologías ágiles cabe destacar una determinada práctica, la integración continua. Esta práctica surgió de la mano de Martin Fowler, con el objetivo de facilitar el trabajo en grupo y automatizar las tareas de integración. La integración continua se basa en la construcción automática de proyectos con una frecuencia alta, promoviendo la detección de errores en un momento temprano para poder dar prioridad a corregir dichos errores. Sin embargo, una de las claves del éxito en el desarrollo de cualquier proyecto software consiste en utilizar un entorno de trabajo que facilite, sistematice y ayude a aplicar un proceso de desarrollo de una forma eficiente. Este Proyecto Fin de Grado (PFG) tiene por objetivo el análisis de distintas herramientas para configurar un entorno de trabajo que permita desarrollar proyectos aplicando metodologías ágiles e integración continua de una forma fácil y eficiente. Una vez analizadas dichas herramientas, se ha propuesto y configurado un entorno de trabajo para su puesta en marcha y uso. Una característica a destacar de este PFG es que las herramientas analizadas comparten una cualidad común y de alto valor, son herramientas open-source. El entorno de trabajo propuesto en este PFG presenta una arquitectura cliente-servidor, dado que la mayoría de proyectos software se desarrollan en equipo, de tal forma que el servidor proporciona a los distintos clientes/desarrolladores acceso al conjunto de herramientas que constituyen el entorno de trabajo. La parte servidora del entorno propuesto proporciona soporte a la integración continua mediante herramientas de control de versiones, de gestión de historias de usuario, de análisis de métricas de software, y de automatización de la construcción de software. La configuración del cliente únicamente requiere de un entorno de desarrollo integrado (IDE) que soporte el lenguaje de programación Java y conexión con el servidor. ABSTRACT Nowadays, numerous systems (financial, industrial production, basic services infrastructure, etc.) depend on software. According to the Software Engineering definition made by I.Sommerville, “Software engineering is an engineering discipline that is concerned with all aspects of software production from the early stages of system specification through to maintaining the system after it has gone into use.” “Software engineering is not just concerned with the technical processes of software development. It also includes activities such as software project management and the development of tools, methods, and theories to support software production.” Software development process models determine a set of guidelines to successfully develop a software development project. Since these process models emerged, new ways of managing a project and producing software with quality have been investigated. First, the so-called heavy or traditional methodologies appeared, but with the time and the technological improvements, new methodologies emerged: the so-called agile methodologies. Agile methodologies promote, among other practices, continuous integration. This practice was coined by Martin Fowler and aims to make teamwork easier as well as automate integration tasks. Nevertheless, one of the keys to success in software projects is to use a framework that facilitates, systematize, and help to deploy a development process in an efficient way. This Final Degree Project (FDP) aims to analyze different tools to configure a framework that enables to develop projects by applying agile methodologies and continuous integration in an easy and efficient way. Once tools are analyzed, a framework has been proposed and configured. One of the main features of this FDP is that the tools under analysis share a common and high-valued characteristic: they are open-source. The proposed framework presents a client-server architecture, as most of the projects are developed by a team. In this way, the server provides access the clients/developers to the tools that comprise the framework. The server provides continuous integration through a set of tools for control management, user stories management, software quality management, and software construction automatization. The client configuration only requires a Java integrated development environment and network connection to the server.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La restauración fílmica del audio es un proceso bastante complejo y se ha indagado poco en este campo. Antes de restaurar cualquier archivo, se debe preservar y conservar los archivos de la mejor manera posible. La preservación son las medidas que se deben tomar para garantizar el acceso permanente y la conservación asegura le existencia del archivo en su forma más original. Mientras que la restauración se basa en el estudio de los posibles deterioros que sufren los soportes fílmicos en el tiempo y los procesos que existen para corregirlos. La restauración siempre debe conservar la mayor originalidad posible, es decir debe mantener el audio como originalmente se expuso por primera vez. En la primera etapa, se identifican los posibles deterioros que se producen en los archivos, si conocemos en qué momento fue grabada la películas y cómo fue grabada, es decir con que máquina se realizó la grabación y el soporte fílmico en el que está grabado. Tanto las máquinas como los soportes han ido evolucionando a lo largo de la historia. El estudio de los soportes fílmicos nos permite conocer las degradaciones que sufren a lo largo del tiempo los archivos y por consecuencia, conocer las posibles restauraciones. Para intentar evitar degradaciones mayores, se intenta preservar y conservar en condiciones óptimas para el soporte. Según el soporte del archivo, tendrá unas condiciones típicas de temperatura, humedad, ventilación… en las cuales el material se conserva de la mejor manera. Tras estos pasos, se procede a restaurar. La restauración más típica es con materiales fotoquímicos, pero es bastante compleja y por tanto, en el proyecto se analiza la restauración tras digitalizar los archivos fílmicos. Para poder digitalizar correctamente los archivos, debemos tener presentes las normas y reglas de digitalización que están establecidas. La digitalización permite identificar las alteraciones típicas que aparecen en los materiales fílmicos, gracias a la herramienta del espectrograma podemos conocer las posibles soluciones de restauración para cada alteración. Las alteraciones que podemos encontrar e identificar son: · Zumbidos e Interferencias. · Siseo y Silbido. · Crujidos. · Pops y Clics. · Wow. · Lagunas o Abandonos. · Ruidos intermitentes. · Reverberación. La última parte del proyecto, una vez que se tienen todas las alteraciones típicas de los archivos fílmicos identificadas, se procede al estudio de cada una de ellas con las herramientas del espectrograma y se realiza el estudio de una manera más técnica. Con el espectrograma se determinan las herramientas que solucionan cada alteración como Reverb para la reverberación, Decrackle para los crujidos… y en el marco técnico se determina las características que tiene cada herramienta, es decir el tipo de filtro, ventana… que se puede utilizar para poder restaurar el audio de cada alteración. La restauración digital es un campo aún por investigar, pero se debería de empezar a concienciar que es una solución factible. Que este tipo de restauración puede mantener el sonido original y no va a modificar los archivos, como muchas veces se piensa. Ya que el paso del tiempo, poco a poco, ira degradando y destruyendo los soportes fílmicos en los que se encuentran, y el principal objetivo que se pretende conseguir es que los materiales fílmicos perduren a lo largo de la historia. ABSTRACT. The film audio restoration is a fairly complex process and little research has been done in this field. Before restoring any files, you must preserve and keep the files in the best way possible. The preservation is the measures to be taken to ensure continued access to and preservation ensures existence of the file in its original form. The restoration is based on the study of possible damage suffered by the film media in time and the processes that exist to correct them. The restoration must always retain the most original as possible, i.e. to keep the audio as originally discussed for the first time. In the first stage, potential impairments that occur in the files are identified, if you know what time it was recorded the movies and how it was recorded, i.e. that machine recording and film media on which is recorded took place. Both machines as media have evolved throughout history. The study of film media lets us know the suffering degradations over time and result files, make possible restorations. To try to prevent further degradation, are intended to preserve and keep in good condition for support. Depending on the media file, will have typical conditions of temperature, humidity, ventilation... in which the material is preserved in the best way. After these steps, we proceed to restore. The most typical is with photochemical restoration materials, but is rather complex and therefore the restoration project is analyzed after scanning film archives. To successfully scan the files must be aware of the rules and regulations are established digitization. Digitization allows identifying the typical alterations that appear in the film materials, thanks to the tool spectrogram we know the possible restoration solutions for each alteration. The alterations that can find and identify are: · Buzz and Interference. · Hiss and Hissing. · Crackle. · Pops and Clicks. · Wow and Flutter. · Audio Dropouts. The last part of the project, when we have all the typical alterations identified film archives, proceed to the study of each of them with the tools of spectrogram and the study of a more technical way is done . With the spectrogram tools that solve every alteration as Reverb for reverb, Decrackle for cracks... and the technical framework the features that each tool is determined, i.e. the type of filter, window... that can be used are determined for to restore the audio of each alteration. Digital restoration is an area for future research, but should start aware that it is a feasible solution. This type of restoration can keep the original sound and will not modify files, as is often thought. Since the passage of time, gradually degrading and destroying anger film media in which they are, and the main objective to be achieved is that the film materials endure throughout history.