944 resultados para Barajas-Impuestos
Resumo:
En el proceso de cálculo de redes de tuberías se maneja un conjunto de variables con unas características muy peculiares, ya que son discretas y estandarizadas. Por lo tanto su evolución se produce por escalones (la presión nominal, el diámetro y el costo de los tubos). Por otro lado la presión de diseño de la red es una función directa de la presión de cabecera. En el proceso de optimización mediante programación dinámica la presión de cabecera se va reduciendo gradualmente en cada secuencia del proceso, haciendo que evolucione a la par la presión de diseño, lo que genera a su vez saltos discriminados en la presión nominal de los tramos, y con ello en su costo y en su gradiente de cambio. En esta tesis doctoral se analiza si estos cambios discriminados que se producen en el gradiente de cambio de algunos tramos en el curso de una secuencia, ocasionados por la evolución de la presión de cabecera de la red, generan interferencias que alteran el proceso secuencial de la programación dinámica. La modificación del gradiente de cambio durante el transcurso de una secuencia se conoce con el nombre de mutación, la cual puede ser activa cuando involucra a un tramo optimo modificando las condiciones de la transacción o pasiva si no crea afección alguna. En el análisis realizado se distingue entre la mutación del gradiente de cambio de los tramos óptimos (que puede generarse exclusivamente en el conjunto de los trayectos que los albergan), y entre los efectos que el cambio de timbraje produce en el resto de los tramos de la red (incluso los situados aguas abajo de los nudos con holgura de presión nula) sobre el mecanismo iterativo, estudiando la compatibilidad de este fenómeno con el principio de óptimo de Bellman. En el proceso de investigación llevado a cabo se destaca la fortaleza que da al proceso secuencial del método Granados el hecho de que el gradiente de cambio siempre sea creciente en el avance hacia el óptimo, es decir que el costo marginal de la reducción de las pérdidas de carga de la red que se consigue en una iteración siempre sea más caro que el de la iteración precedente. Asimismo, en el estudio realizado se revisan los condicionantes impuestos al proceso de optimización, incluyendo algunos que hasta ahora no se han tenido en cuenta en los estudios de investigación, pero que están totalmente integrados en la ingeniería práctica, como es la disposición telescópica de las redes (reordenación de los diámetros de mayor a menor de cabeza a cola de la red), y la disposición de un único diámetro por tramo, en lugar de que estén compartidos por dos diámetros contiguos (con sus salvedades en caso de tramos de gran longitud, o en otras situaciones muy específicas). Finalmente se incluye un capítulo con las conclusiones, aportaciones y recomendaciones, las cuales se consideran de gran utilidad para la ingeniería práctica, entre las que se destaca la perfección del método secuencial, la escasa transcendencia de las mutaciones del gradiente de cambio y la forma en que pueden obviarse, la inocuidad de las mutaciones pasivas y el cumplimiento del principio de Bellman en todo el proceso de optimización. The sizing process of a water distribution network is based on several variables, being some of them special, as they are discrete and their values are standardized: pipe pressure rating, pipe diameter and pipe cost. On another note, the sizing process is directly related with the pressure at the network head. Given that during the optimization by means of the Granados’ Method (based on dynamic programming) the pressure at the network head is being gradually reduced, a jump from one pipe pressure rating to another may arise during the sequential process, leading to changes on the pipe cost and on the gradient change (unitary cost for reducing the head losses). This chain of changes may, in turn, affect the sequential process diverting it from an optimal policies path. This thesis analyses how the abovementioned alterations could influence the results of the dynamic programming algorithm, that is to say the compatibility with the Bellman’s Principle of Optimality, which states that the sequence has to follow a route of optimal policies, and that past decisions should not influence the remaining ones. The modification of the gradient change is known as mutation. Mutations are active when they affect the optimal link (the one which was selected to be changed during iteration) or passive when they do not alter the selection of the optimal link. The thesis analysed the potential mutations processes along the network, both on the optimal paths and also on the rest of the network, and its influence on the final results. Moreover, the investigation analysed the practical restrictions of the sizing process that are fully integrated in the applied engineering, but not always taken into account by the optimization tools. As the telescopic distribution of the diameters (i.e. larger diameters are placed at the network head) and the use of a unique diameter per link (with the exception of very large links, where two consecutive diameters may be placed). Conclusions regarding robustness of the dynamic programming algorithm are given. The sequence of the Granados Method is quite robust and it has been shown capable to auto-correct the mutations that could arise during the optimization process, and to achieve an optimal distribution even when the Bellman’s Principle of Optimality is not fully accomplished. The fact that the gradient change is always increasing during the optimization (that is to say, the marginal cost of reducing head losses is always increasing), provides robustness to the algorithm, as looping are avoided in the optimization sequence. Additionally, insight into the causes of the mutation process is provided and practical rules to avoid it are given, improving the current definition and utilization of the Granados’ Method.
Resumo:
En esta tesis se desarrolla una metodología alternativa para la determinación de la dureza Brinell a partir de imágenes obtenidas mediante microscopía confocal, que se ha mostrado robusta para mejorar los resultados de medición del diámetro en condiciones de reproducibilidad. Las validaciones realizadas evidencian su posibilidad real de implementación, especialmente para la certificación de patrones de dureza. Los estudios experimentales realizados ponen de manifiesto que la medición del diámetro de una huella de dureza Brinell, siguiendo la metodología tradicional, depende de la posición del patrón, de las características del equipo empleado y del propio operador. Dicha medida resulta crítica y las dificultades para identificar el borde de la huella incorporan a menudo una fuente adicional de incertidumbre difícil de soslayar. En esta investigación se han desarrollado dos modelos matemáticos que permiten identificar de forma unívoca el diámetro de la huella en el punto donde se produce el límite de contacto entre el indentador y el material de la probeta durante la realización del ensayo. Ambos modelos han sido implementados en Matlab® y se ha verificado su validez mediante datos sintéticos. Asimismo, se ha realizado una validación experimental sobre patrones de dureza certificados, empleando un microscopio confocal marca Leica, modelo DCM 3D disponible en el Laboratorio de Investigación de Materiales de Interés Tecnológico (LIMIT) de la Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid (ETSIDI – UPM). Dicha validación ha puesto de manifiesto la utilidad de esta nueva metodología por cuanto permite caracterizar las huellas, estimar las incertidumbres de medida y garantizar la trazabilidad metrológica de los resultados. ABSTRACT This PhD thesis presents an alternative methodology to determine the Brinell hardness from the images obtained by confocal microscopy that has proved to be robust to improve the results of indentation diameter measurements in reproducibility conditions. The validations carried out show the real possibility of its implementation, especially for calibration of hardness reference blocks. Experimental studies performed worldwide show that the measurement of the indentation diameter in a Brinell hardness test depends, when the traditional methodology is applied, on the position of the test block, the equipment characteristics and the operator. This measurement is critical and the difficulties to identify the edge of the indentation often bring an additional source of uncertainty with them that is hard to avoid. In this research two specific mathematical models have been developed to identify unambiguously the indentation diameter at the point where the edge of the boundary between the indenter and the test block is found during the test. Both models have been implemented on Matlab® and their validity has been verified by synthetic data An additional experimental validation with calibrated hardness reference blocks has been carried out using a Leica-brand confocal microscope, model DCM 3D, available in the Laboratory for Research on Materials of Technological Interest (LIMIT in its Spanish acronym) of the Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid (ETSIDI-UPM). This validation has shown the utility of this new methodology since it allows to characterize the indentation, to estimate the measurement uncertainties and to ensure the metrological traceability of the results.
Resumo:
La medida de calidad de vídeo sigue siendo necesaria para definir los criterios que caracterizan una señal que cumpla los requisitos de visionado impuestos por el usuario. Las nuevas tecnologías, como el vídeo 3D estereoscópico o formatos más allá de la alta definición, imponen nuevos criterios que deben ser analizadas para obtener la mayor satisfacción posible del usuario. Entre los problemas detectados durante el desarrollo de esta tesis doctoral se han determinado fenómenos que afectan a distintas fases de la cadena de producción audiovisual y tipo de contenido variado. En primer lugar, el proceso de generación de contenidos debe encontrarse controlado mediante parámetros que eviten que se produzca el disconfort visual y, consecuentemente, fatiga visual, especialmente en lo relativo a contenidos de 3D estereoscópico, tanto de animación como de acción real. Por otro lado, la medida de calidad relativa a la fase de compresión de vídeo emplea métricas que en ocasiones no se encuentran adaptadas a la percepción del usuario. El empleo de modelos psicovisuales y diagramas de atención visual permitirían ponderar las áreas de la imagen de manera que se preste mayor importancia a los píxeles que el usuario enfocará con mayor probabilidad. Estos dos bloques se relacionan a través de la definición del término saliencia. Saliencia es la capacidad del sistema visual para caracterizar una imagen visualizada ponderando las áreas que más atractivas resultan al ojo humano. La saliencia en generación de contenidos estereoscópicos se refiere principalmente a la profundidad simulada mediante la ilusión óptica, medida en términos de distancia del objeto virtual al ojo humano. Sin embargo, en vídeo bidimensional, la saliencia no se basa en la profundidad, sino en otros elementos adicionales, como el movimiento, el nivel de detalle, la posición de los píxeles o la aparición de caras, que serán los factores básicos que compondrán el modelo de atención visual desarrollado. Con el objetivo de detectar las características de una secuencia de vídeo estereoscópico que, con mayor probabilidad, pueden generar disconfort visual, se consultó la extensa literatura relativa a este tema y se realizaron unas pruebas subjetivas preliminares con usuarios. De esta forma, se llegó a la conclusión de que se producía disconfort en los casos en que se producía un cambio abrupto en la distribución de profundidades simuladas de la imagen, aparte de otras degradaciones como la denominada “violación de ventana”. A través de nuevas pruebas subjetivas centradas en analizar estos efectos con diferentes distribuciones de profundidades, se trataron de concretar los parámetros que definían esta imagen. Los resultados de las pruebas demuestran que los cambios abruptos en imágenes se producen en entornos con movimientos y disparidades negativas elevadas que producen interferencias en los procesos de acomodación y vergencia del ojo humano, así como una necesidad en el aumento de los tiempos de enfoque del cristalino. En la mejora de las métricas de calidad a través de modelos que se adaptan al sistema visual humano, se realizaron también pruebas subjetivas que ayudaron a determinar la importancia de cada uno de los factores a la hora de enmascarar una determinada degradación. Los resultados demuestran una ligera mejora en los resultados obtenidos al aplicar máscaras de ponderación y atención visual, los cuales aproximan los parámetros de calidad objetiva a la respuesta del ojo humano. ABSTRACT Video quality assessment is still a necessary tool for defining the criteria to characterize a signal with the viewing requirements imposed by the final user. New technologies, such as 3D stereoscopic video and formats of HD and beyond HD oblige to develop new analysis of video features for obtaining the highest user’s satisfaction. Among the problems detected during the process of this doctoral thesis, it has been determined that some phenomena affect to different phases in the audiovisual production chain, apart from the type of content. On first instance, the generation of contents process should be enough controlled through parameters that avoid the occurrence of visual discomfort in observer’s eye, and consequently, visual fatigue. It is especially necessary controlling sequences of stereoscopic 3D, with both animation and live-action contents. On the other hand, video quality assessment, related to compression processes, should be improved because some objective metrics are adapted to user’s perception. The use of psychovisual models and visual attention diagrams allow the weighting of image regions of interest, giving more importance to the areas which the user will focus most probably. These two work fields are related together through the definition of the term saliency. Saliency is the capacity of human visual system for characterizing an image, highlighting the areas which result more attractive to the human eye. Saliency in generation of 3DTV contents refers mainly to the simulated depth of the optic illusion, i.e. the distance from the virtual object to the human eye. On the other hand, saliency is not based on virtual depth, but on other features, such as motion, level of detail, position of pixels in the frame or face detection, which are the basic features that are part of the developed visual attention model, as demonstrated with tests. Extensive literature involving visual comfort assessment was looked up, and the development of new preliminary subjective assessment with users was performed, in order to detect the features that increase the probability of discomfort to occur. With this methodology, the conclusions drawn confirmed that one common source of visual discomfort was when an abrupt change of disparity happened in video transitions, apart from other degradations, such as window violation. New quality assessment was performed to quantify the distribution of disparities over different sequences. The results confirmed that abrupt changes in negative parallax environment produce accommodation-vergence mismatches derived from the increasing time for human crystalline to focus the virtual objects. On the other side, for developing metrics that adapt to human visual system, additional subjective tests were developed to determine the importance of each factor, which masks a concrete distortion. Results demonstrated slight improvement after applying visual attention to objective metrics. This process of weighing pixels approximates the quality results to human eye’s response.
Resumo:
Dentro del análisis y diseño estructural surgen frecuentemente problemas de ingeniería donde se requiere el análisis dinámico de grandes modelos de elementos finitos que llegan a millones de grados de libertad y emplean volúmenes de datos de gran tamaño. La complejidad y dimensión de los análisis se dispara cuando se requiere realizar análisis paramétricos. Este problema se ha abordado tradicionalmente desde diversas perspectivas: en primer lugar, aumentando la capacidad tanto de cálculo como de memoria de los sistemas informáticos empleados en los análisis. En segundo lugar, se pueden simplificar los análisis paramétricos reduciendo su número o detalle y por último se puede recurrir a métodos complementarios a los elementos .nitos para la reducción de sus variables y la simplificación de su ejecución manteniendo los resultados obtenidos próximos al comportamiento real de la estructura. Se propone el empleo de un método de reducción que encaja en la tercera de las opciones y consiste en un análisis simplificado que proporciona una solución para la respuesta dinámica de una estructura en el subespacio modal complejo empleando un volumen de datos muy reducido. De este modo se pueden realizar análisis paramétricos variando múltiples parámetros, para obtener una solución muy aproximada al objetivo buscado. Se propone no solo la variación de propiedades locales de masa, rigidez y amortiguamiento sino la adición de grados de libertad a la estructura original para el cálculo de la respuesta tanto permanente como transitoria. Adicionalmente, su facilidad de implementación permite un control exhaustivo sobre las variables del problema y la implementación de mejoras como diferentes formas de obtención de los autovalores o la eliminación de las limitaciones de amortiguamiento en la estructura original. El objetivo del método se puede considerar similar a los que se obtienen al aplicar el método de Guyan u otras técnicas de reducción de modelos empleados en dinámica estructural. Sin embargo, aunque el método permite ser empleado en conjunción con otros para obtener las ventajas de ambos, el presente procedimiento no realiza la condensación del sistema de ecuaciones, sino que emplea la información del sistema de ecuaciones completa estudiando tan solo la respuesta en las variables apropiadas de los puntos de interés para el analista. Dicho interés puede surgir de la necesidad de obtener la respuesta de las grandes estructuras en unos puntos determinados o de la necesidad de modificar la estructura en zonas determinadas para cambiar su comportamiento (respuesta en aceleraciones, velocidades o desplazamientos) ante cargas dinámicas. Por lo tanto, el procedimiento está particularmente indicado para la selección del valor óptimo de varios parámetros en grandes estructuras (del orden de cientos de miles de modos) como pueden ser la localización de elementos introducidos, rigideces, masas o valores de amortiguamientos viscosos en estudios previos en los que diversas soluciones son planteadas y optimizadas, y que en el caso de grandes estructuras, pueden conllevar un número de simulaciones extremadamente elevado para alcanzar la solución óptima. Tras plantear las herramientas necesarias y desarrollar el procedimiento, se propone un caso de estudio para su aplicación al modelo de elementos .nitos del UAV MILANO desarrollado por el Instituto Nacional de Técnica Aeroespacial. A dicha estructura se le imponen ciertos requisitos al incorporar un equipo en aceleraciones en punta de ala izquierda y desplazamientos en punta de ala derecha en presencia de la sustentación producida por una ráfaga continua de viento de forma sinusoidal. La modificación propuesta consiste en la adición de un equipo en la punta de ala izquierda, bien mediante un anclaje rígido, bien unido mediante un sistema de reducción de la respuesta dinámica con propiedades de masa, rigidez y amortiguamiento variables. El estudio de los resultados obtenidos permite determinar la optimización de los parámetros del sistema de atenuación por medio de múltiples análisis dinámicos de forma que se cumplan de la mejor forma posible los requisitos impuestos con la modificación. Se comparan los resultados con los obtenidos mediante el uso de un programa comercial de análisis por el método de los elementos .nitos lográndose soluciones muy aproximadas entre el modelo completo y el reducido. La influencia de diversos factores como son el amortiguamiento modal de la estructura original, el número de modos retenidos en la truncatura o la precisión proporcionada por el barrido en frecuencia se analiza en detalle para, por último, señalar la eficiencia en términos de tiempo y volumen de datos de computación que ofrece el método propuesto en comparación con otras aproximaciones. Por lo tanto, puede concluirse que el método propuesto se considera una opción útil y eficiente para el análisis paramétrico de modificaciones locales en grandes estructuras. ABSTRACT When developing structural design and analysis some projects require dynamic analysis of large finite element models with millions of degrees of freedom which use large size data .les. The analysis complexity and size grow if a parametric analysis is required. This problem has been approached traditionally in several ways: one way is increasing the power and the storage capacity of computer systems involved in the analysis. Other obvious way is reducing the total amount of analyses and their details. Finally, complementary methods to finite element analysis can also be employed in order to limit the number of variables and to reduce the execution time keeping the results as close as possible to the actual behaviour of the structure. Following this third option, we propose a model reduction method that is based in a simplified analysis that supplies a solution for the dynamic response of the structure in the complex modal space using few data. Thereby, parametric analysis can be done varying multiple parameters so as to obtain a solution which complies with the desired objetive. We propose not only mass, stiffness and damping variations, but also addition of degrees of freedom to the original structure in order to calculate the transient and steady-state response. Additionally, the simple implementation of the procedure allows an in-depth control of the problem variables. Furthermore, improvements such as different ways to obtain eigenvectors or to remove damping limitations of the original structure are also possible. The purpose of the procedure is similar to that of using the Guyan or similar model order reduction techniques. However, in our method we do not perform a true model order reduction in the traditional sense. Furthermore, additional gains, which we do not explore herein, can be obtained through the combination of this method with traditional model-order reduction procedures. In our procedure we use the information of the whole system of equations is used but only those nodes of interest to the analyst are processed. That interest comes from the need to obtain the response of the structure at specific locations or from the need to modify the structure at some suitable positions in order to change its behaviour (acceleration, velocity or displacement response) under dynamic loads. Therefore, the procedure is particularly suitable for parametric optimization in large structures with >100000 normal modes such as position of new elements, stiffness, mass and viscous dampings in previous studies where different solutions are devised and optimized, and in the case of large structures, can carry an extremely high number of simulations to get the optimum solution. After the introduction of the required tools and the development of the procedure, a study case is proposed with use the finite element model (FEM) of the MILANO UAV developed by Instituto Nacional de Técnica Aeroespacial. Due to an equipment addition, certain acceleration and displacement requirements on left wing tip and right wing tip, respectively, are imposed. The structure is under a continuous sinusoidal wind gust which produces lift. The proposed modification consists of the addition of an equipment in left wing tip clamped through a rigid attachment or through a dynamic response reduction system with variable properties of mass, stiffness and damping. The analysis of the obtained results allows us to determine the optimized parametric by means of multiple dynamic analyses in a way such that the imposed requirements have been accomplished in the best possible way. The results achieved are compared with results from a commercial finite element analysis software, showing a good correlation. Influence of several factors such as the modal damping of the original structure, the number of modes kept in the modal truncation or the precission given by the frequency sweep is analyzed. Finally, the efficiency of the proposed method is addressed in tems of computational time and data size compared with other approaches. From the analyses performed, we can conclude that the proposed method is a useful and efficient option to perform parametric analysis of possible local modifications in large structures.
Resumo:
En este estudio, englobado dentro del campo de la investigación operacional en aeropuertos, se considera el problema de la optimización de la secuencia de descontaminación de nieve de los tramos que componen el área de maniobras de un aeropuerto, denominado RM-AM. Este problema se enfrenta a la optimización de recursos limitados para retirar la nieve de las calles de rodadura y pistas, dejándolas en un estado aceptable para la operación de aeronaves. El campo de vuelos se divide en subconjuntos de tramos significativos para la operación y se establecen tiempos objetivo de apertura al tráfico de aeronaves. Se desarrollan varios algoritmos matemáticos en los que se proponen distintas funciones objetivo, como son la hora de finalización del proceso, la suma de las horas de finalización de cada tramo, o el retraso entre la hora estimada y la hora de finalización. Durante este proceso, se van introduciendo restricciones operativas relativas al cumplimiento de objetivos operativos parciales aplicados a las zonas de especial interés, o relativas a la operación de los equipos de descontaminación. El problema se resuelve mediante optimización basada en programación lineal. Los resultados de las pruebas computacionales se hacen sobre cinco modelos de área de maniobras en los que va creciendo la complejidad y el tamaño. Se comparan las prestaciones de los distintos algoritmos. Una vez definido el modelo matemático para la optiamización, se propone una metodología estructurada para abordar dicho problema para cualquier área de manobras. Se define una estrategia en la operación. Se acomete el área de maniobras por zonas, con la condición de que los subconjuntos de tramos significativos queden englobados dentro de una sola de estas zonas. El problema se resuelve mediante un proceso iterativo de optimización aplicado sucesivamente a las zonas que componen el área de maniobras durante cada iteración. Se analiza la repercusión de los resultados en los procesos DMAN, AMAN y TP, para la integración de los resultados en el cálculo de TSAT y EBIT. El método se particulariza para el caso del área de maniobras del Aeropuerto Adolfo Suárez Madrid Barajas. ABSTRACT This study, which lies within the field of operations research in airports, considers the optimisation of the sequence for clearing snow from stretches of the manoeuvring area of an airport, known as RM-AM. This issue involves the optimisation of limited resources to remove snow from taxiways and runways thereby leaving them in an acceptable condition for operating aircraft. The airfield is divided into subsets of significant stretches for the purpose of operations and target times are established during which these are open to aircraft traffic. The study contains several mathematical models each with different functions, such as the end time of the process, the sum of the end times of each stretch, and gap between the estimated and the real end times. During this process, we introduce different operating restrictions on partial fulfilment of the operational targets as applied to zones of special interest, or relating to the operation of the snow-clearing machines. The problem is solved by optimisation based on linear programming. Computational tests are carried out on five distinct models of the manoeuvring area, which cover increasingly complex situations and larger areas. The different algorithms are then compared to one other. Having defined the mathematical model for the optimisation, we then set out a structured methodology to deal with any type of manoeuvring area. In other words, we define an operational strategy. The airfield is divided into subsets of significant stretches for the purpose of operations and target times are set at which these are to be open to aircraft traffic. The manoeuvring area is also divided into zones, with the condition that the subsets of significant stretches lie within just one of these zones. The problem is solved by an iterative optimisation process based on linear programming applied successively to the zones that make up the manoeuvring area during each iteration. The impact of the results on DMAN, AMAN and TP processes is analysed for their integration into the calculation of TSAT and EBIT. The method is particularized for the case of the manoeuvring area of Adolfo Suarez Madrid - Barajas Airport.
Resumo:
El período de la Historia comprendido entre 1570 y 1620 nos ha dejado un importante conjunto de documentos relacionados con la construcción naval en la Península Ibérica. En una época convulsa en la que los reinos de España y Portugal se aglutinaron bajo una misma Corona, surgen una serie de manuscritos, libros y leyes que reflejan la creciente preocupación de la sociedad por el tema naval. Entre sus páginas encontramos las descripciones del proceso constructivo de los buques que sus autores consideraban más significativos para las demandas que se planteaban en ese momento. Este proceso que combinaba generación de formas y construcción del buque provenía de una secular tradición nacida en el Mediterráneo. Mediante reglas geométricas sencillas, el constructor naval trazaba las secciones centrales y el perfil de la nao, quedando los extremos de la misma (hasta más de la mitad de la eslora) a su buen hacer y experiencia. Las herramientas informáticas de generación de superficies mediante NURBs (Non- Uniform Rational B-spline) permiten reconstruir las formas de los navíos reproduciendo con fiabilidad las carenas de los mismos a partir de los documentos de la época. Mediante un estudio detallado de interpretación de los textos y transcribiendo los procesos, llegamos a obtener con un buen grado de precisión las carenas de los buques descritos en sus páginas. A partir de ahí y mediante el análisis cualitativo y cuantitativo de los parámetros obtenidos es posible valorar si las soluciones representadas por los barcos respondían a las preguntas planteadas por sus autores , la influencia de factores externos a la construcción naval tales como las regulaciones del Estado o identificar su relación con el germen y la expansión de la teoría que ha determinado los efectos de la Ciencia en la Arquitectura Naval. Comenzando por la nao veneciana de 1550, heredera de la secular tradición constructiva mediterránea, hasta llegar a las Reales Ordenanzas promulgadas en 1618, se reproducen hasta nueve carenas a partir de otros tantos documentos, se dibujan sus planos de formas y se exportan para su análisis hidrostático. El trabajo requiere la realización de otros estudios en paralelo necesarios para entender aquellos factores que formaron parte del desarrollo tecnológico naval como son, las unidades de medida en uso en los astilleros, los distintos sistemas de arqueo impuestos por la Corona y la representación de los diferentes instrumentos geométricos de modificación de los parámetros de diseño. A lo largo del trabajo se dan respuesta a interrogantes planteados por la arqueología en relación con el desarrollo de la arquitectura naval poniendo en evidencia que durante este período quedaron establecidos los fundamentos teórico-prácticos de lo que más adelante se convirtió en la ciencia de la ingeniería naval y se plantean nuevos retos para aquellos que deseen continuar la apasionante tarea de la investigación científica de nuestra historia. ABSTRACT The period of the History comprised between 1570 and 1620 has left an important set of shipbuilding documents in the Iberian Peninsula. In a turbulent time in which the kingdoms of Spain and Portugal were ruled under the same Crown, manuscripts, books and laws that reflect the growing concern of society for the naval theme arose. We found among their pages shipbuilding process descriptions of the more relevant vessels that responded to claims that arose at that time. This process brought together hull generation and shipbuilding and came from a secular tradition born in the Mediterranean. By means of simple geometric rules, the shipbuilder traced the central sections and profile of the ship, leaving the ends thereof (almost half of the length) to its good performance and experience. 3D computer modelling software by NURBs (Non-Uniform Rational B-spline) surfaces helps to reconstruct ships hulls from contemporary documents. Through a detailed texts interpretation and transcription processes, we manage to reach with a good degree of accuracy the ship hulls described in its pages. From there and through qualitative and quantitative analysis of the parameters obtained we can assess whether the solutions represented by ships gave response to the questions raised by the authors, the influence of external factors such as shipbuilding state regulations or identify their relationship to the origin and expansion of the theory that has determined the effects of Science in Naval Architecture. From the 1550 Venetian nao, inheritor of the secular Mediterranean building tradition, to the Royal Ordinances enacted in 1618, as nine hulls are reproduced, their line drawings are traced and exported for analysis hydrostatic. Further studies are needed to understand the factors that were part of shipbuilding technology development as the units of measure in use in shipyards, the different official regulations for calculating ship tonnage and the different geometric instruments to amend the design parameters. The work gives response to questions raised by archaeology in relation to the development of naval architecture highlighting that during this period were established the theoretical and practical foundations of what later became the science of naval engineering and raising new challenges for those wishing to continue the exciting task of scientific research of our History.
Resumo:
Texto firmado por Francisco Salvador de Pineda
Resumo:
Dada por Carlos IV
Resumo:
Hay un ejemplar encuadernado con: La Real Compañia formada por S.M. para llevar a efecto el canal de navegación y riego del reyno de Murcia, las... experiencias de que informa D. Domingo Aguirre... le han confirmado en los abusos y fraudes que hacen muchos... (XVIII/4279).
Resumo:
Hay un ejemplar encuadernado con: La Real Compañia formada por S.M. para llevar a efecto el canal de navegación y riego del reyno de Murcia, las... experiencias de que informa D. Domingo Aguirre... le han confirmado en los abusos y fraudes que hacen muchos... (XVIII/4279).
Resumo:
Hay un ejemplar encuadernado con: La Real Compañia formada por S.M. para llevar a efecto el canal de navegación y riego del reyno de Murcia, las... experiencias de que informa D. Domingo Aguirre... le han confirmado en los abusos y fraudes que hacen muchos... (XVIII/4279).
Resumo:
Los materiales lignocelulósicos son potenciales precursores de recursos bioenergéticos, por lo que sería interesante desarrollar tecnologías capaces de capturar su energía y utilizarla en el sector del transporte como combustibles. El azúcar contenido en los materiales lignocelulósicos puede ser liberado por medio de la hidrólisis y usado después por microorganismos. El objetivo del proyecto es encontrar un método de separación de la celulosa y la biomasa de chopo en monómeros de glucosa por medio de la hidrólisis. Para ello se han estudiado tres métodos de hidrólisis: la mecano-catálisis, utilizando diferentes tipos de molinos y caolinita como catalizador, la hidrólisis con líquidos iónicos, estudiando la viabilidad de los reactivos [C4mim+][I-] y [C4mim+][PF6-], y la hidrólisis ácida, usando HCl en concentraciones y temperaturas distintas para optimizar el proceso. En todos los casos se ha llevado a cabo un pretratamiento y se ha aplicado el método de TLC como verificación del proceso. Los tres métodos se han comparado y se ha desarrollado un método de correlación entre la mancha de TLC y la concentración del producto.
Resumo:
El presente trabajo recoge los resultados de una investigación sobre la «vivienda productiva», es decir, de la casa como lugar de trabajo. Dicha investigación se ha ocupado de explorar cómo influyen las cotidianeidades doméstico-laborales actuales —junto con sus arquitecturas y los urbanismos que estas generan— en la sociedad, en especial en temas sociales centrales como la construcción de las subjetividades, y de una vida en comunidad. Asimismo, explora cómo podrían influir en un futuro. La hipótesis sobre la que se trabaja, y que finalmente se intenta demostrar, consiste en que, en la territorialidad múltiple de lo laboral, la vivienda, como plataforma doméstica multiusos, productiva y reproductiva de la que muchas personas disponen, desempeña un papel nodal, y es posible que en el futuro su papel sea aún más importante y más visible. La vivienda productiva funciona como una infraestructura urbana desde la cual se construyen diferentes tipos de bienes materiales e inmateriales, pero sobre todo formas de relación, sociales y productivas con otros, además de imaginarios y afectos. La vivienda como infraestructura productiva y reproductiva es tanto «fábrica fundamental de lo social», como nos enseña Silvia Federici, como «fábrica de lo urbano». El trabajo en casa, como parte de diferentes dinámicas «dispersas» del trabajo que se dan en la actualidad, presenta tanto problemáticas y desafíos importantes, como capitales y posibilidades sociales. Por un lado, puede facilitar una absorción de tipo «24/7» vinculada a las lógicas de producción dispersa y consumo dominantes además de la que se da por las dinámicas patriarcales tradicionales, y en múltiples casos situaciones de evidente asimetría y de explotación laboral. También puede propiciar situaciones socialmente extendidas o impuestas de soledad y aislamiento. Sin embargo, está asimismo vinculado al surgimiento de espacios de experimentación tanto en soledad como en compañía, de cooperación y de intercambio, además de a la evidente posibilidad de construir rutinas propias y, por tanto, una subjetividad laboral propia. Por otro lado, frente a la idea general y homogénea del trabajador casero como un sujeto mayoritariamente aislado de su entorno, las jornadas de trabajo de los trabajadores caseros estudiados presentan una gran diversidad. Estas pueden conllevar aislamiento y exclusión, así como acompañar diferentes formas de construcción de una ciudadanía activa, tanto en solitario, como mediante formas de participación activa en la construcción de una vida en comunidad. En esta investigación se analizan, pues, desafíos y oportunidades de estas espacialidades del trabajo y, a través de este análisis, se indaga en el papel de los marcos físicos, organizativos y simbólicos actuales para la vivienda y para la ciudad pensada desde los trabajadores caseros. Al mismo tiempo se exploran nuevos tipos de vivienda y urbanismos que puedan quizás acompañar procesos sociales de inclusión, así como de emancipación, cooperación e intercambio y, en general, nuevas formas de vecindad y bienestar compartido en los ámbitos doméstico-productivos. Metodológicamente, las singularidades presentes en las realidades estudiadas invitan además a explorar protocolos de análisis, métodos de diseño, de gestión y gobierno que, desde lo micro, puedan dialogar con lo cotidiano y sus singularidades. Diego Barajas, autor de la tesis, es arquitecto dedicado a la práctica, a la investigación y la docencia. Su trabajo se focaliza en explorar el carácter mediador de la arquitectura frente a lo cotidiano y sus microrrealidades. Es profesor de proyectos de urbanismo en la IE School of Architecture y es miembro de Husos, una plataforma de investigación y diseño orientada a la innovación en arquitectura y urbanismo, con sede en Madrid. Es el autor del libro Dispersion, A Study of Global Mobility and the Dynamics of a Fictional Urbanism (Episode Publishers, Róterdam, 2003). Sus trabajos teóricos y de investigación han aparecido en libros y revistas internacionales tales como The Domestic and The Foreign in Architecture (010 Publishers, 2008), Public Spheres, a Europan Discussion (Europan9, 2007), Photoespaña 05 (La Fábrica, Madrid, 2005), Domus, Volume, Abitare, Architese, Plot, y Summa+. Su trabajo se ha expuesto en la Bienal de Venecia (selección principal), la Bienal de Róterdam, la Fundación Tapies, Photoespaña, entre otros y es parte de la colección permanente del FRAC Centre en Orleans y del Historisch Museum de Róterdam entre otros. Antes de estudiar en Róterdam, se gradúa con Honores en la Universidad de los Andes en 1999 y su tesis de grado de arquitectura recibe la máxima distinción como proyecto de Grado Meritorio. ABSTRACT The present study records an investigation into the «productive house», or the home as a workplace. This investigation looks at how working from home, its architectures, and the urban dynamics generated around it influence daily life and the construction of society. It also explores what influences home-based work might have in the future, particularly in central themes such as the biopolitical construction of subjectivities and community life. The central hypothesis revolves around the idea that the home, as a multi-use infrastructure that most of us have access to, plays a fundamental role in the contemporary work sphere, due to —or even in spite of— the omnipresence of work in practically every moment and area of our daily lives, and might play a main role in the future. The home functions as a kind of hub from which we create different kinds of material and immaterial goods, but above all relationships with others, both social and productive, as well as imaginaries and affections. The home, as a machine for production and reproduction, is as much a main «factory of the social» as Silvia Federici describes it, as a «factory of the urban». Working from home, as one of several «dispersed» work dynamics that are part of the contemporary world of work, presents as many important problematics and challenges as it does possibilities and social capital. On the one hand, it can contribute to kind of «24/7» absorption linked both to the logistics of the current dispersed production and consumption, and to that of traditional patriarchal dynamics, and in some cases even clearly asymmetrical situations that exploit the workforce. It can also lead to the socially widespread phenomena of isolation and loneliness, at times imposed upon home-based workers. However, by the same token, it is also linked to the growth of experimental spaces of cooperation and exchange, both solitary and in company, as well as the clear possibility of constructing individualised routines and, therefore, a personal laboural subjectivity. On the other hand, contrary to the generalised, homogenous idea of a home-based worker who is mostly isolated from his or her environment, the working days of those we studied went hand in hand with different ways of building subjectivities. This could be as much in exclusion and isolation as through building an active citizenship, at times in solitary and at times actively participating in the construction of communal life. In this investigation, therefore, the challenges and opportunities of the home as workplace have been analysed, and through this analysis we have inquired into the role of current physical, organisational and symbolic frameworks for the home and for the city from the perspective of home workers. At the same time we have explored new types of homes and of town planning that could perhaps accompany social processes of diversity and inclusion as well as emancipation, cooperation and exchange and, in general, new forms of shared welfare in productive domestic environments. Methodologically, the singularities present in the cases studied also invite us to explore protocols of analysis, methods of design, management and government that, from the micro level, could dialogue with the peculiarities of day-to-day life. The author of this thesis, Diego Barajas, is an architect dedicated to practice, investigation and teaching. His work is focussed on exploring the mediating nature of architecture and the built environment in terms of daily life and its microrealities. He is professor of urban projects at the IE School of Architecture and member of Husos, a platform for investigation and town planning based in Madrid. He is the author of the book Dispersion, A Study of Global Mobility and the Dynamics of a Fictional Urbanism (Episode Publishers, Rotterdam, 2003) and his theoretical works and investigations have appeared in books such as The Domestic and The Foreign in Architecture (010 Publishers, 2008), Public Spheres, a Europan Discussion (Europan9, 2007), Photoespaña 05 (La Fábrica, Madrid, 2005), and in international magazines such as Domus, Volume, Abitare, Architese, Plot and Summa+. His work has been exhibited in places such as the Venice Biennial (main selection), the Rotterdam Biennial, the Tapies Foundation and Photoespaña, among others, and forms part of the permanent collection of the FRAC Centre in Orleans and the Historisch Museum of Rotterdam. Before studying in Rotterdam, he graduated with Honours from the University of the Andes in 1999, and his architecture degree thesis received the maximum distinction of Meritorious Graduation Project.
Resumo:
Sign.: [A]-I2
Resumo:
El objetivo principal de este Proyecto Fin de Grado es el estudio experimental de la atenuación, producida por las precipitaciones, en los enlaces Tierra – satélite en banda Ka. En particular, se ha realizado el estudio para una frecuencia de 19,701 GHz, que corresponde con la frecuencia de una de las balizas del satélite Hot Bird 13 de Eutelsat. Para la realización del estudio se dispone de datos experimentales recogidos por sondeos realizados en la estación meteorológica de Madrid - Barajas y de datos sinópticos. La primera parte del proyecto comienza con una descripción de los fundamentos teóricos de los distintos fenómenos que afectan a la propagación en un enlace por satélite, y se enumeran los distintos modelos de predicción más importantes. Posteriormente se describen en más detalle algunos modelos de predicción propuestos por la Unión Internacional de Telecomunicaciones (UIT). En la segunda parte del mismo se explica en detalle el proceso necesario para el procesado de los datos experimentales, con el fin de poder manejarlos de forma más sencilla a la hora de presentar los resultados pertinentes. En una tercera parte se recogen los resultados experimentales obtenidos para el caso de la altura de la isoterma a 0˚C y de la atenuación por lluvia. El capítulo dedicado al estudio de la altura de la isoterma a 0˚C se centra en obtener dicho dato a partir de los datos experimentales de los sondeos, que fueron procesados con anterioridad. Así mismo, se realizará una comparativa de estos datos experimentales con los proporcionados por la UIT en la Recomendación 839. En el capítulo dedicado al estudio de la atenuación producida por la lluvia se compararán los resultados obtenidos de forma experimental con los datos proporcionados por la UIT en la Recomendación 618. Por último se recoge en un capítulo las conclusiones obtenidas con la realización de este PFG y las líneas futuras de investigación. ABSTRACT. The main aim of this Final Degree Project is the experimental study of attenuation by precipitation, in links Earth – Ka band satellite. In particular, the study was performed at a frequency of 19.701 GHz, which corresponds to the frequency of one of the beacons of the satellite Hot Bird 13 (Eutelsat). There is experimental data and synoptic data provided, which was collected from surveys in the Madrid- Barajas weather station. The first part of the project outlines some theoretical foundations regarding different phenomena which affect propagation in a satellite link and includes the most important prediction models. Additionally, some prediction models proposed by the International Telecommunication Union (ITU) are outlined in detail. In the second part, the process for the processing of the experimental data is explained in detail. This process is necessary in order to be able to utilize the data more easily when presenting the results of this project. In the third part, the experimental results obtained in the study are presented for both cases: isotherm height at 0°C and rain attenuation. The chapter dedicated to the study of the isotherm height at 0°C focuses on obtaining the real isotherm height at 0°C from the experimental data processed previously. Furthermore, a comparison will be made between the experimental results and data proposed by ITU in Recommendation 839. The chapter dedicated to the study of rain attenuation focuses on making a comparison between the results from the experimental data and data proposed by ITU in Recommendation 618. Finally, there is a chapter which revises all the conclusions obtained throughout this project and provides recommendations for future research.