19 resultados para Juan Gregorio de Las Heras
em Universidad Politécnica de Madrid
Resumo:
Juan de Álava, las bóvedas de crucería reticulares. Quinto Congreso Nacional de Historia de la Construcción, Burgos. Vol. II. Pags 725-732. ISBN. 978-84-9728-242. Sociedad Española de Historia de la Construcción
Resumo:
Este libro recoge los frutos de la colaboración y trabajo conjunto de un grupo de Universidades Iberoamericanas entre 2007 y 2012 el marco de las actividades del Programa de Cooperación Comunidad, Agua y Bosque en Centroamérica (CAB Centroamérica, http://www2.caminos.upm.es/Departamentos/imt/Topografia/Cab/cab.html ). Las actividades se han realizado con el apoyo del Programa de Cooperación Universitaria PCI-AECID IBEROAMÉRICA, de la Dirección de Cooperación para el Desarrollo de la Universidad Politécnica de Madrid y de los fondos propios de las Universidades latinoamericanas, con especial mención a la Universidad de Costa Rica, coordinadora de los trabajos en Centroamérica. El inicio de esta colaboración se produjo en 2007 a partir de la identificación de un objetivo común: profundizar la investigación sobre la dinámica agua-suelo-planta para mejorar la producción y la calidad del agua de los sistemas de abastecimiento comunitarios en Centroamérica.
Entre las buenas prácticas y las nuevas teorías. Caminos de ida y vuelta de la sostenibilidad urbana
Resumo:
Se trata de uno de los cinco informes del grupo de expertos encargados de seleccionar las buenas prácticas de sostenibilidad urbana españolas para el Concurso de Naciones Unidas de Dubai de 2012 (los otros cuatro artículos han sido elaborados por Juan Luis de las Rivas, Margarita Ortega, Enrique Jiménez Larrea y Graciela Malgesini). A partir de un análisis general del estado de la sostenibilidad en España en relación con las buenas prácticas y, tras constatar la importante aportación teórica y práctica que han supuesto la serie de catálogos de buenas prácticas elaborados por el Comité Hábitat español, el artículo plantea la necesidad de propiciar una nueva generación de buenas prácticas y a la vez construir un nuevo marco de referencia teórico a partir de la práctica en el aquí y ahora, mediante un proceso de reflexión colectiva atento sobre todo a las dicotomías e inconsistencias percibidas como factores de bloqueo o deriva de la práctica de la sostenibilidad, sin perder nunca de vista la realidad de los procesos y tratando de extraer los ejes fundamentales para una Nueva Cultura del Territorio.
Resumo:
El objeto de esta Tesis doctoral es el desarrollo de una metodologia para la deteccion automatica de anomalias a partir de datos hiperespectrales o espectrometria de imagen, y su cartografiado bajo diferentes condiciones tipologicas de superficie y terreno. La tecnologia hiperespectral o espectrometria de imagen ofrece la posibilidad potencial de caracterizar con precision el estado de los materiales que conforman las diversas superficies en base a su respuesta espectral. Este estado suele ser variable, mientras que las observaciones se producen en un numero limitado y para determinadas condiciones de iluminacion. Al aumentar el numero de bandas espectrales aumenta tambien el numero de muestras necesarias para definir espectralmente las clases en lo que se conoce como Maldicion de la Dimensionalidad o Efecto Hughes (Bellman, 1957), muestras habitualmente no disponibles y costosas de obtener, no hay mas que pensar en lo que ello implica en la Exploracion Planetaria. Bajo la definicion de anomalia en su sentido espectral como la respuesta significativamente diferente de un pixel de imagen respecto de su entorno, el objeto central abordado en la Tesis estriba primero en como reducir la dimensionalidad de la informacion en los datos hiperespectrales, discriminando la mas significativa para la deteccion de respuestas anomalas, y segundo, en establecer la relacion entre anomalias espectrales detectadas y lo que hemos denominado anomalias informacionales, es decir, anomalias que aportan algun tipo de informacion real de las superficies o materiales que las producen. En la deteccion de respuestas anomalas se asume un no conocimiento previo de los objetivos, de tal manera que los pixeles se separan automaticamente en funcion de su informacion espectral significativamente diferenciada respecto de un fondo que se estima, bien de manera global para toda la escena, bien localmente por segmentacion de la imagen. La metodologia desarrollada se ha centrado en la implicacion de la definicion estadistica del fondo espectral, proponiendo un nuevo enfoque que permite discriminar anomalias respecto fondos segmentados en diferentes grupos de longitudes de onda del espectro, explotando la potencialidad de separacion entre el espectro electromagnetico reflectivo y emisivo. Se ha estudiado la eficiencia de los principales algoritmos de deteccion de anomalias, contrastando los resultados del algoritmo RX (Reed and Xiaoli, 1990) adoptado como estandar por la comunidad cientifica, con el metodo UTD (Uniform Targets Detector), su variante RXD-UTD, metodos basados en subespacios SSRX (Subspace RX) y metodo basados en proyecciones de subespacios de imagen, como OSPRX (Orthogonal Subspace Projection RX) y PP (Projection Pursuit). Se ha desarrollado un nuevo metodo, evaluado y contrastado por los anteriores, que supone una variacion de PP y describe el fondo espectral mediante el analisis discriminante de bandas del espectro electromagnetico, separando las anomalias con el algortimo denominado Detector de Anomalias de Fondo Termico o DAFT aplicable a sensores que registran datos en el espectro emisivo. Se han evaluado los diferentes metodos de deteccion de anomalias en rangos del espectro electromagnetico del visible e infrarrojo cercano (Visible and Near Infrared-VNIR), infrarrojo de onda corta (Short Wavelenght Infrared-SWIR), infrarrojo medio (Meadle Infrared-MIR) e infrarrojo termico (Thermal Infrared-TIR). La respuesta de las superficies en las distintas longitudes de onda del espectro electromagnetico junto con su entorno, influyen en el tipo y frecuencia de las anomalias espectrales que puedan provocar. Es por ello que se han utilizado en la investigacion cubos de datos hiperepectrales procedentes de los sensores aeroportados cuya estrategia y diseno en la construccion espectrometrica de la imagen difiere. Se han evaluado conjuntos de datos de test de los sensores AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) y MASTER (MODIS/ASTER Simulator). Se han disenado experimentos sobre ambitos naturales, urbanos y semiurbanos de diferente complejidad. Se ha evaluado el comportamiento de los diferentes detectores de anomalias a traves de 23 tests correspondientes a 15 areas de estudio agrupados en 6 espacios o escenarios: Urbano - E1, Semiurbano/Industrial/Periferia Urbana - E2, Forestal - E3, Agricola - E4, Geologico/Volcanico - E5 y Otros Espacios Agua, Nubes y Sombras - E6. El tipo de sensores evaluados se caracteriza por registrar imagenes en un amplio rango de bandas, estrechas y contiguas, del espectro electromagnetico. La Tesis se ha centrado en el desarrollo de tecnicas que permiten separar y extraer automaticamente pixeles o grupos de pixeles cuya firma espectral difiere de manera discriminante de las que tiene alrededor, adoptando para ello como espacio muestral parte o el conjunto de las bandas espectrales en las que ha registrado radiancia el sensor hiperespectral. Un factor a tener en cuenta en la investigacion ha sido el propio instrumento de medida, es decir, la caracterizacion de los distintos subsistemas, sensores imagen y auxiliares, que intervienen en el proceso. Para poder emplear cuantitativamente los datos medidos ha sido necesario definir las relaciones espaciales y espectrales del sensor con la superficie observada y las potenciales anomalias y patrones objetivos de deteccion. Se ha analizado la repercusion que en la deteccion de anomalias tiene el tipo de sensor, tanto en su configuracion espectral como en las estrategias de diseno a la hora de registrar la radiacion prodecente de las superficies, siendo los dos tipos principales de sensores estudiados los barredores o escaneres de espejo giratorio (whiskbroom) y los barredores o escaneres de empuje (pushbroom). Se han definido distintos escenarios en la investigacion, lo que ha permitido abarcar una amplia variabilidad de entornos geomorfologicos y de tipos de coberturas, en ambientes mediterraneos, de latitudes medias y tropicales. En resumen, esta Tesis presenta una tecnica de deteccion de anomalias para datos hiperespectrales denominada DAFT en su variante de PP, basada en una reduccion de la dimensionalidad proyectando el fondo en un rango de longitudes de onda del espectro termico distinto de la proyeccion de las anomalias u objetivos sin firma espectral conocida. La metodologia propuesta ha sido probada con imagenes hiperespectrales reales de diferentes sensores y en diferentes escenarios o espacios, por lo tanto de diferente fondo espectral tambien, donde los resultados muestran los beneficios de la aproximacion en la deteccion de una gran variedad de objetos cuyas firmas espectrales tienen suficiente desviacion respecto del fondo. La tecnica resulta ser automatica en el sentido de que no hay necesidad de ajuste de parametros, dando resultados significativos en todos los casos. Incluso los objetos de tamano subpixel, que no pueden distinguirse a simple vista por el ojo humano en la imagen original, pueden ser detectados como anomalias. Ademas, se realiza una comparacion entre el enfoque propuesto, la popular tecnica RX y otros detectores tanto en su modalidad global como local. El metodo propuesto supera a los demas en determinados escenarios, demostrando su capacidad para reducir la proporcion de falsas alarmas. Los resultados del algoritmo automatico DAFT desarrollado, han demostrado la mejora en la definicion cualitativa de las anomalias espectrales que identifican a entidades diferentes en o bajo superficie, reemplazando para ello el modelo clasico de distribucion normal con un metodo robusto que contempla distintas alternativas desde el momento mismo de la adquisicion del dato hiperespectral. Para su consecucion ha sido necesario analizar la relacion entre parametros biofisicos, como la reflectancia y la emisividad de los materiales, y la distribucion espacial de entidades detectadas respecto de su entorno. Por ultimo, el algoritmo DAFT ha sido elegido como el mas adecuado para sensores que adquieren datos en el TIR, ya que presenta el mejor acuerdo con los datos de referencia, demostrando una gran eficacia computacional que facilita su implementacion en un sistema de cartografia que proyecte de forma automatica en un marco geografico de referencia las anomalias detectadas, lo que confirma un significativo avance hacia un sistema en lo que se denomina cartografia en tiempo real. The aim of this Thesis is to develop a specific methodology in order to be applied in automatic detection anomalies processes using hyperspectral data also called hyperspectral scenes, and to improve the classification processes. Several scenarios, areas and their relationship with surfaces and objects have been tested. The spectral characteristics of reflectance parameter and emissivity in the pattern recognition of urban materials in several hyperspectral scenes have also been tested. Spectral ranges of the visible-near infrared (VNIR), shortwave infrared (SWIR) and thermal infrared (TIR) from hyperspectral data cubes of AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) and MASTER (MODIS/ASTER Simulator) have been used in this research. It is assumed that there is not prior knowledge of the targets in anomaly detection. Thus, the pixels are automatically separated according to their spectral information, significantly differentiated with respect to a background, either globally for the full scene, or locally by the image segmentation. Several experiments on different scenarios have been designed, analyzing the behavior of the standard RX anomaly detector and different methods based on subspace, image projection and segmentation-based anomaly detection methods. Results and their consequences in unsupervised classification processes are discussed. Detection of spectral anomalies aims at extracting automatically pixels that show significant responses in relation of their surroundings. This Thesis deals with the unsupervised technique of target detection, also called anomaly detection. Since this technique assumes no prior knowledge about the target or the statistical characteristics of the data, the only available option is to look for objects that are differentiated from the background. Several methods have been developed in the last decades, allowing a better understanding of the relationships between the image dimensionality and the optimization of search procedures as well as the subpixel differentiation of the spectral mixture and its implications in anomalous responses. In other sense, image spectrometry has proven to be efficient in the characterization of materials, based on statistical methods using a specific reflection and absorption bands. Spectral configurations in the VNIR, SWIR and TIR have been successfully used for mapping materials in different urban scenarios. There has been an increasing interest in the use of high resolution data (both spatial and spectral) to detect small objects and to discriminate surfaces in areas with urban complexity. This has come to be known as target detection which can be either supervised or unsupervised. In supervised target detection, algorithms lean on prior knowledge, such as the spectral signature. The detection process for matching signatures is not straightforward due to the complications of converting data airborne sensor with material spectra in the ground. This could be further complicated by the large number of possible objects of interest, as well as uncertainty as to the reflectance or emissivity of these objects and surfaces. An important objective in this research is to establish relationships that allow linking spectral anomalies with what can be called informational anomalies and, therefore, identify information related to anomalous responses in some places rather than simply spotting differences from the background. The development in recent years of new hyperspectral sensors and techniques, widen the possibilities for applications in remote sensing of the Earth. Remote sensing systems measure and record electromagnetic disturbances that the surveyed objects induce in their surroundings, by means of different sensors mounted on airborne or space platforms. Map updating is important for management and decisions making people, because of the fast changes that usually happen in natural, urban and semi urban areas. It is necessary to optimize the methodology for obtaining the best from remote sensing techniques from hyperspectral data. The first problem with hyperspectral data is to reduce the dimensionality, keeping the maximum amount of information. Hyperspectral sensors augment considerably the amount of information, this allows us to obtain a better precision on the separation of material but at the same time it is necessary to calculate a bigger number of parameters, and the precision lowers with the increase in the number of bands. This is known as the Hughes effects (Bellman, 1957) . Hyperspectral imagery allows us to discriminate between a huge number of different materials however some land and urban covers are made up with similar material and respond similarly which produces confusion in the classification. The training and the algorithm used for mapping are also important for the final result and some properties of thermal spectrum for detecting land cover will be studied. In summary, this Thesis presents a new technique for anomaly detection in hyperspectral data called DAFT, as a PP's variant, based on dimensionality reduction by projecting anomalies or targets with unknown spectral signature to the background, in a range thermal spectrum wavelengths. The proposed methodology has been tested with hyperspectral images from different imaging spectrometers corresponding to several places or scenarios, therefore with different spectral background. The results show the benefits of the approach to the detection of a variety of targets whose spectral signatures have sufficient deviation in relation to the background. DAFT is an automated technique in the sense that there is not necessary to adjust parameters, providing significant results in all cases. Subpixel anomalies which cannot be distinguished by the human eye, on the original image, however can be detected as outliers due to the projection of the VNIR end members with a very strong thermal contrast. Furthermore, a comparison between the proposed approach and the well-known RX detector is performed at both modes, global and local. The proposed method outperforms the existents in particular scenarios, demonstrating its performance to reduce the probability of false alarms. The results of the automatic algorithm DAFT have demonstrated improvement in the qualitative definition of the spectral anomalies by replacing the classical model by the normal distribution with a robust method. For their achievement has been necessary to analyze the relationship between biophysical parameters such as reflectance and emissivity, and the spatial distribution of detected entities with respect to their environment, as for example some buried or semi-buried materials, or building covers of asbestos, cellular polycarbonate-PVC or metal composites. Finally, the DAFT method has been chosen as the most suitable for anomaly detection using imaging spectrometers that acquire them in the thermal infrared spectrum, since it presents the best results in comparison with the reference data, demonstrating great computational efficiency that facilitates its implementation in a mapping system towards, what is called, Real-Time Mapping.
Resumo:
Este proyecto tiene como objetivo ampliar, mediante la caracterización espectral y multitemporal por técnicas de teledetección y medidas in situ, el estudio del corredor fluvial para el río Tinguiririca en Chile. Consiste en estudiar la cobertura del terreno, evaluar su dinámica de cambio e identificar zonas de acumulación de materiales de alteración hidrotermal arcillosos y óxidos de hierro, presentes en la cuenca durante las últimas tres décadas que puedan explicar su evolución temporal. Se pretenden obtener nuevas variables geoespaciales que ayuden a comprender las posibles causas de variación del cauce, elaborando cartografía para una posterior fase de investigación mediante modelización hidráulica que vaya dirigida a paliar el impacto de las riadas periódicas. Para ello, se han empleado, tratado y explotado imágenes de los sensores remotos TM, ETM+, OLI y TIRS tomadas en un período comprendido entre 1993 y 2014, que se han contrastado con perfiles batimétricos, datos GPS, supervisión y muestreo tomados sobre el terreno. Se ha realizado así mismo, un estudio prospectivo de caso sobre cómo afectarían las variables obtenidas por teledetección a la modelización hidráulica, en particular, la rugosidad, proponiendo un marco metodológico global de integración de las tres técnicas: sistemas de información geográfica, teledetección y modelización hidráulica. ABSTRACT This project aims to develop the study of Tinguiririca River corridor in Chile, through spectral characterization and multitemporal remote sensing and other measurements. This involves studying the land cover, its dynamic changes and identifies clayey materials and iron oxides accumulations of hydrothermal alteration, present in the basin during the last three decades to explain their evolution. It aims to obtain new geospatial variables in order to understand the possible causes of channel variation, developing mapping to a later research stage using hydraulic modeling so as to mitigate the impact of periodic floods. In this way, it has used processed and exploited images of TM, ETM +, OLI and TIRS remote sensing, taken in a period between 1993 and 2014 which it has been compared with bathymetric profiles, GPS, monitoring and sampling data collected in the field . It has done a prospective study about the variables obtained condition on hydraulic modeling, roughness in particular, proposing IX a complete methodological framework about the integration of the three techniques: geographic information systems, remote sensing and modeling hydraulics
Resumo:
This paper explains the progress accomplished in the WP03 of the Terasense Project (TERAHERTZ TECHNOLOGY FOR ELECTROMAGNETIC SENSING APPLICATIONS) approved in the 2008 CONSOLIDERINGENIO program (project CSD2008-0068). The Radiation and Sensor Measurement Lab (RSMLab) is a laboratory based in the existing antenna measurement laboratories at UPM, UC3 and UNiOvi and the new capacities to extend the measurement range from the millimetre wave to the THz region. This laboratory is intended to be shared in more than one place and with more than one institution, in such a way that we could take advantage of other research financial sources and contributions from other institutions with interest in the same field of measurements. One important task will be the international links between the RSMLab and other European and international institutions dedicated to the antenna and sensor measurement in the same frequency range.
Resumo:
Las estructuras de hormigón son susceptibles de sufrir los efectos asociados a las acciones de fatiga cuando estas se ven sometidas a un elevado número de cargas repetidas. Muchas de estas estructuras no requieren armadura transversal para cumplir los condicionantes de dimensionamiento estático como por ejemplo las losas superiores de tableros de puentes, los muros de contención, las losas de transición de puentes, las torres eólicas o las estructuras marítimas. La mayor parte de los códigos de diseño vigentes no incluyen una comprobación específica del nivel de seguridad a cortante de estas estructuras para acciones de fatiga, y aquellas que lo hacen prefieren utilizar expresiones de tipo empírico basadas en curvas S-N que relacionan el número de ciclos resistentes con el valor de la carga aplicada. A pesar de que el empleo de curvas S-N es de gran utilidad desde un punto de vista práctico, estas curvas no permiten comprender el proceso de rotura por cortante para cargas repetidas. El objetivo principal de esta Tesis es el de estudiar el comportamiento a cortante de elementos de hormigón armado sin cercos sometidos a fatiga. Además, el análisis es ampliado al estudio del comportamiento transversal de los voladizos de las losas superiores de tableros de puentes de hormigón que de forma habitual son diseñados sin armadura de cortante. De forma habitual estos elementos se diseñan atendiendo a criterios de dimensionamiento estáticos sin tener en cuenta la resistencia a cortante cuando se ven sometidos a cargas cíclicas. A pesar de que las cargas de fatiga son inferiores a aquellas que producen el fallo estático, es importante tener en cuenta el comportamiento de estos elementos ante cargas repetidas. Los trabajos experimentales existentes en vigas de hormigón armado sin cercos evidenciaron diferencias significativas entre los modos de fallo ante cargas estáticas y cíclicas. Estos trabajos llegaron a la conclusión de que estos elementos diseñados para tener un fallo dúctil por flexión pueden llegar a desarrollar un tipo de fallo frágil por cortante cuando se ven sometidos a cargas repetidas. El proceso de rotura por cortante en elementos de hormigón armado sin cercos sometidos a fatiga es un proceso complejo que debe ser estudiado en profundidad debido al carácter frágil de este tipo de fallo. Los trabajos experimentales permitieron comprobar que el origen de este fallo tiene lugar tras la formación de una fisura de cortante a partir de una fisura de flexión formada durante los primeros ciclos en el vano de cortante. Tras la formación de esta fisura, esta se va propagando hacia la cabeza de compresión hasta que finalmente se produce el fallo como consecuencia de la destrucción de la cabeza de compresión cuando la altura alcanzada por esta es insuficiente para resistir la fuerza de compresión aplicada en esta zona. Por otra parte, la propagación de esta fisura diagonal puede desarrollarse por completo en el instante en el que esta se forma derivando en un tipo de fallo por cortante más frágil que el anterior. El proceso de fatiga es estudiado en esta Tesis mediante un modelo mecánico. Por una parte, se propone un modelo predictivo para determinar el número de ciclos acumulados hasta que se forma la fisura diagonal en función del estado tensional que se tiene en la punta de una fisura crítica de flexión formada en los primeros ciclos. Por otra parte, la resistencia a fatiga tras la formación de la fisura diagonal se analiza teniendo en cuenta el daño por fatiga acumulado en la cabeza de compresión y las variables que afectan a la propagación de esta fisura de cortante. Para la evaluación de la resistencia a fatiga tras la formación de la fisura crítica de cortante en este tipo de elementos, se plantea un modelo teórico basado en conceptos de Mecánica de la Fractura adaptados al hormigón. Este modelo puede ser aplicado a vigas de hormigón armado sin cercos de canto constante o variable siguiendo diferentes procedimientos. Una campaña experimental ha sido llevada a cabo con el objetivo de estudiar el comportamiento a cortante de vigas de hormigón armado sin cercos de canto variable sometidas a cargas estáticas y de fatiga. Se han desarrollado un total de diez ensayos estáticos y de fatiga para diferentes niveles de carga y esbelteces de cortante, teniendo lugar diferentes modos de fallo. Estos elementos fueron diseñados para reproducir, a escala real y de forma simplificada, los voladizos laterales de las losas superiores de tableros de puentes de carretera de hormigón. Los resultados experimentales demostraron que el tipo de fallo desarrollado depende de varios parámetros como por ejemplo el nivel de carga máxima, el nivel de oscilación de tensiones en la armadura longitudinal, la esbeltez de cortante o la calidad del hormigón utilizado entre otros. Para valores similares de esbeltez de cortante, los ensayos de fatiga realizados permitieron comprobar que la rotura por cortante de estos elementos está asociada a niveles de carga máxima elevados, mientras que el fallo por fatiga de la armadura longitudinal tiene mayor probabilidad de ocurrir en elementos sometidos a elevados niveles de oscilación de tensiones en esta armadura. Además, estos ensayos han sido analizados a través del modelo propuesto para tratar de comprender el comportamiento resistente de estos elementos sometidos a cargas de fatiga. Concrete structures are able to suffer fatigue when they are subjected to high number of cyclic loads. Many of these need not shear reinforcement to satisfy static design requirements, such as bridge deck slabs, retaining walls, bridge approach slabs, wind towers or maritime structures among others. Many codes of practice do not include a verification of the shear fatigue safety. Moreover, those which include it still prefer empirical S-N-based approaches that provide the number of cycles as a function of applied forces. S-N models are practical but they do not provide information to understand the shear fatigue process. The main objective of this Thesis is to study shear behaviour of reinforced concrete elements without stirrups subjected to fatigue loads. In addition, the analysis is extended in order to study the transverse behaviour of cantilever slabs of concrete bridges that traditionally are designed without shear reinforcement. These elements usually are designed on the basis of static strength and it is unusual that codes consider fatigue strength of concrete in shear. Accordingly, it is important to take into account the fatigue behaviour of structural members subjected to cyclic loads although these loads are lower than those which produce the static failure. Existing experimental works show important differences between the static and cyclic failure modes of reinforced concrete beams without stirrups. These works concluded that beams without transverse reinforcement, designed to have a ductile failure mode in flexure, can submit a brittle shear failure mode when they are subjected to repeated loads. Shear fatigue failure of reinforced concrete beams without stirrups is a rather complex process from the mechanical viewpoint. Since it leads to a brittle failure mode it should be better understood. Experimental evidence indicates that a diagonal crack first develops from the inclination of flexural cracks in the shear span. Thereafter, the diagonal crack propagates into the compression zone. Failure normally takes place by the destruction of the compression zone when its depth is too small to resist the applied force. The propagation of the diagonal crack can also be instantaneous, leading to sudden diagonal cracking fatigue failure rather than shear-compression failure. Fatigue process is studied in this Thesis on a mechanical basis. On the one hand, a predictive model is derived to obtain the number of cycles up to diagonal cracking, as a function of the stress state at the tip of a critical flexural crack. On the other hand, the residual fatigue strength after diagonal cracking is analyzed taking into account the fatigue damage accumulated by the compression zone and the variables affecting the propagation of the diagonal crack. In order to assess the residual fatigue strength after diagonal cracking of such elements, a theoretical model is proposed based on concepts from fracture mechanics adapted to concrete. This model can be successfully applied for straight or haunched reinforced concrete beams without stirrups following different procedures. In order to achieve a more advanced knowledge in this subject, an experimental campaign has been carried out with the aim of study the shear behaviour of reinforced concrete haunched beams without stirrups subjected to static and fatigue loads. A total of ten static and fatigue tests have been performed with distinct load levels and shear span-to-depth ratios, presenting different failures modes. These elements were designed to reproduce in a simplified form the cantilever slab of concrete bridges at real scale. Experimental results showed that the type of failure depends on several parameters as for example the maximum load level, the stress oscillation level on the longitudinal reinforcement, the shear span-to-depth ratio or the quality of the concrete used among others. For a similar value of the shear span-to-depth ratio, tests evidenced that shear fatigue failure is related to high maximum load levels, while steel fatigue failure is easier to occur in elements subjected to high stress oscillation level on the reinforcement bars. Besides, these tests have been analyzed through the proposed model in order to clarify the structural behaviour of such elements subjected to fatigue loads.
Resumo:
La Escuela Técnica Superior de Ingenieros de Minas de Madrid es un centro de la Universidad Politécnica de Madrid que, por su antigüedad, ha conservado un valioso patrimonio científico y cultural, que hoy se agrupa en el Museo Histórico Minero Don Felipe de Borbón y Grecia, perteneciente a dicha Escuela. Aunque tal vez poco conocidos del público, son especialmente ricos los conjuntos de minerales, fósiles, libros antiguos, conchas, instrumentos ópticos, eléctricos, mecánicos, químicos, de medida y control, etc. Todos estos elementos se usaron durante los últimos doscientos años en la enseñanza de la ingeniería a las sucesivas promociones de estudiantes que, desde 1777, llenan nuestras aulas. Se han perdido muchos, porque el tiempo y la falta de sensibilidad por lo antiguo han hecho bastante daño, pero aún puede decirse que la colección es una de las mejores de España y merece conocimiento, respeto y cuidado. Dentro de esta valiosa colección merece destacarse el conjunto de instrumentos topográficos. Se fueron acumulando éstos por los sucesivos profesores para las clases y la investigación. Mi memoria alcanza hasta los años 70 del pasado siglo, en los que el profesor de Topografía y Astronomía, D. Pedro Arsuaga Dabán, mostraba con orgullo su magnífica colección de teodolitos, niveles, brújulas, astrolabios y miras. Posteriormente, el catedrático de la asignatura, D. Ángel Valverde, llevó a cabo una excelente labor de conservación, durante muchos años, de todo aquel instrumental. Gracias a él, y a los profesores que le sucedieron, hemos “reencontrado” hace algún tiempo el conjunto de instrumentos que hoy se presenta en este libro. También ha tenido la Escuela la fortuna de contar con un profesor, D. Emilio de la Heras, que une a su profundo conocimiento de la Topografía y de su historia un notable afán divulgador, una forma de expresión clara y asequible y la infinita paciencia que hace falta para analizar uno a uno todos los instrumentos, reparar algunos, buscar en todos los datos esenciales de su fecha de fabricación, procedencia y uso, leer las actas y documentos antiguos de la Escuela para averiguar las fechas de adquisición y, en suma, recopilar la infinitud de datos que hacen este libro posible. El libro es mucho más que un mero catálogo. Es también una interesante historia de la Topografía, fácil de entender y enormemente ilustrativa, y una historia de la enseñanza de esta asignatura en la Escuela. Desde sus inicios, la medición de distancias y ángulos se mostró esencial en las labores mineras, agravada por la dificultad de que muchas de estas labores eran y son subterráneas. Ello dio lugar a que el ingenio minero crease instrumentos específicos, que Emilio de las Heras tan bien explica, y a que la Topografía fuese siempre asignatura esencial en la formación de los ingenieros de minas. Con la publicación de este libro, la Escuela pretende seguir la iniciativa, que ya tiene muchos años, de dar a conocer, por partes, su patrimonio histórico, cultural y científico. También establecer un catálogo, tan completo como sea posible, de los instrumentos antiguos o curiosos que constituyen dicho patrimonio. Por último, llevar al conocimiento del público en general algunos aspectos de la enseñanza de la minería, hoy poco conocida y valorada, aunque sea la base del suministro de las materias primas que todos necesitamos y empleamos diariamente. Agradecemos sinceramente al profesor Emilio de las Heras su esforzada y desinteresada labor, su incansable paciencia, su erudición profunda, puestas todas al servicio de la Escuela. Auguramos para el libro, que es ameno y muy documentado, un gran éxito entre todas las personas curiosas, con una mínima sensibilidad humanística, o simplemente interesadas por el desarrollo científico. Nos felicitamos, por fin, de que la Escuela cuente, en soporte de papel, un nuevo catálogo de los bienes que forman su patrimonio. La publicación de libros como éste es, sin duda, un elemento que contribuye a la conservación de dicho patrimonio.
Resumo:
The aim of this work is an approach using multisensor remote sensing techniques to recognize the potential remains and recreate the original landscape of three archaeological sites. We investigate the spectral characteristics of the reflectance parameter and emissivity in the pattern recognition of archaeological materials in several hyperspectral scenes of the prehispanic site in Palmar Sur (Costa Rica), the Jarama Valley site and the celtiberian city of Segeda in Spain. Spectral ranges of the visible-near infrared (VNIR), shortwave infrared (SWIR) and thermal infrared (TIR) from hyperspectral data cubes of HyMAP, AHS, MASTER and ATM have been used. Several experiments on natural scenarios of Costa Rica and Spain of different complexity, have been designed. Spectral patterns and thermal anomalies have been calculated as evidences of buried remains and change detection. First results, land cover change analyses and their consequences in the digital heritage registration are discussed.
Resumo:
Las exigencias de calidad, tanto en el ámbito de la rehabilitación como en el de las obras de nueva planta, obligan a evitar la fisuración de la tabiquería. Una de sus principales causas es la deformación excesiva de los forjados. Aunque en la mayoría de los casos no tiene efectos estructurales sino solamente estéticos, es necesario tomar precauciones para evitar la fisuración, pues es una de las patologías más frecuentes y en muchos casos motivo de reclamación de los usuarios. El aumento del consumo de los paneles de placa de yeso laminado y lana de roca para la realización de tabiquerías, justifica la necesidad de ahondar en el conocimiento del comportamiento y del mecanismo de fisuración de este material, pues hasta la fecha no se ha encontrado ningún trabajo especificamente dedicado al estudio del comportamiento en fractura de paneles sandwich de placa de yeso laminado y lana de roca en su plano. A la hora de abordar el estudio del comportamiento en fractura del material objeto de esta tesis, es preciso tener en cuenta que se trata de un material compuesto y, como tal, sus propiedades mecánicas y resistentes dependen en gran medida de las de sus componentes. Por tanto, para poder explicar el comportamiento en fractura del panel sandwich, habrá que estudiar también el de sus componentes. Por otro lado, se considera también muy útil disponer de una herramienta de calculo para la simulación de la fractura de paneles sandwich que sea predictiva. Este modelo hará posible facilitar el diseño de tabiquerías que no se fisure con este material, al poder relacionar las flechas que pueden tomar los forjados con su potencial fisuración. Para contrastar y validar un modelo de este tipo, es necesario disponer de suficientes datos experimentales del comportamiento en fractura del panel sandwich de placa de yeso laminado y lana de roca, que se puedan simular numericamente con el mismo. A partir de lo anteriormente expuesto se plantea, en primer lugar, una campaña experimental con el fin de obtener los parámetros necesarios para caracterizar el comportamiento en fractura de los paneles sandwich y sus componentes: placa de yeso laminado y lana de roca, estudiando también, su comportamiento en fractura en Modo Mixto, y el efecto del tamaño en los parámetros del panel. Por otro lado se propone un modelo de cálculo para la simulación de la fractura en Modo Mixto de paneles sandwich de placa de yeso laminado y lana de roca, comprobando la validez del modelo numérico a partir de los resultados experimentales obtenidos en la campaña de ensayos. Finalmente, se aplica el modelo para estudiar la fisuración de tabiquería realizada con el panel sandwich producida por la deformación de forjados unidireccionales realizados con viguetas de hormigón y bovedilla cerámica, por ser esta tipología la más usual en obras de edificación de viviendas. The quality requirements in terms of rehabilitation and new Works, force to prevent cracking on partitions and one of the main causes is the excessive deformation of the floor. In most of the cases, there are any structural damages, only aesthetic effects, but it is necessary to take precautions to avoid cracking because it is one of the most common diseases and in addition is the main reason of user’s complaints. The increased consumption of plasterboard panels and mineral wool used to build partitions, justifies the need to develop a deeper understanding of the cracking behaviour and mechanism, because by now, any specifically work dedicated to the study of fractures behaviour of sandwich plasterboard panels and rock wool has been found. When approaching the study of the fracture behaviour of the material it must bear in mind that we are referring to a composite material and as such, its mechanical and strength properties depend heavily on its components. Therefore, to explain the fracture behaviour of sandwich panels its components must be studied as well. On the other hand, it is also considered very useful to have a calculation tool to simulate the more likely fractures of the sandwich panel in order to predict it. This model used to perform simulations will enable the design of partitions built with these materials without cracks because it will relate the deflections in decks with its potential cracking. To contrast and validate this type of model, it is necessary and imperative to have enough experimental data of the sandwich plasterboard and rock wool fractures in order to enable its numerical simulation with it. On the basis of the above, the question arises firstly an experimental campaign in order to obtain the necessary parameters to characterize the cracking behaviour of sandwich panels and its components: plasterboard and rock wool, studying also its cracking behaviour in a mixed mode fracture and the effect of size parameters of the panel. Furthermore, a calculation model to simulate fractures in mixed mode of the sandwich panels made of plasterboard and rock wool is proposed in order to check the validity of the numerical model, based on experimental results obtained from the test campaign. Finally, this model is applied to study cracking on partitions built with sandwich panels resulting from the unidirectional floor’s deformations built with prestressed concrete beams and slab pottery pieces being this typology the most common one on residential buildings works.
Resumo:
Las personas con discapacidad a menudo se encuentran con problemas de acceso a las Tecnologías de la Información y la Comunicación (TIC), debido a diseños y desarrollos que no tienen en cuenta sus diferencias funcionales, y en consecuencia se encuentran en riesgo de exclusión social. Cada vez es más común encontrar productos de apoyo que permitan utilizar diferentes tecnologías (ordenadores, Internet, dispositivos móviles), pero muchos de ellos no se encuentran integrados debido a que funcionan esencialmente modificando la plataforma donde están instalados, siendo soluciones de acceso de segunda generación. Más allá del desarrollo de los productos de apoyo, que sin duda ha evolucionado positivamente en los últimos años, cabe resaltar que existe una falta de herramientas y de aproximación holística que ayuden a los desarrolladores y diseñadores hacer las TIC accesibles. Esta tesis doctoral pretende validar la hipótesis de que una metodología holística de desarrollo de aplicaciones y productos de apoyo TIC, llamada Marco Abierto Accesible, facilita el desarrollo y la integración de modo nativo de la accesibilidad en las aplicaciones y productos apoyo, independientemente de la tecnología utilizada, dando lugar a soluciones de acceso de tercera generación que permitan mejorar la utilización de dichas aplicaciones por parte de personas con discapacidad. Este trabajo se ha desarrollado en el marco del proyecto AEGIS (del inglés, open Accessibility Everywhere: Groundwork, Infrastructure, Standards), que fue parcialmente financiado por la Comisión Europea (CE) bajo el VII Programa Marco y tuvo una duración de cuatro años. La metodología para el diseño, desarrollo y validación seguida en esta tesis es una adaptación de dos metodologías de diseño existentes (el Diseño Centrado en el Usuario y el Diseño Orientado a Metas), la implementación del Marco Abierto Accesible y el uso de diferentes técnicas de validación. Además se ha desarrollado un marco metodológico de entrenamiento para minimizar el efecto que tiene la curva de aprendizaje cuando los usuarios prueban por primera vez las soluciones desarrolladas. En esta tesis se presenta el Marco Abierto Accesible aplicado a las TIC en las tres áreas en las que se desarrolla este trabajo: ordenadores, Internet y dispositivos móviles, partiendo de las necesidades y problemas que tienen los usuarios con discapacidad en el uso de las TIC. Diferentes instanciaciones del Marco Abierto Accesible se definen en las tres áreas TIC mencionadas anteriormente y se describen varios ejemplos de sus implementaciones particulares. Los resultados de las evaluaciones de las implementaciones particulares con usuarios finales y expertos, una vez discutidos y contrastados con las hipótesis, sirven para probar la validez del Marco Abierto Accesible para la integración nativa de productos de apoyo en Tecnologías de la Información y la Comunicación. Finalmente, se presentan las líneas de investigación y trabajo futuro en el área de la accesibilidad en las TIC. ABSTRACT People with disabilities often encounter problems of access to Information and Communications Technology (ICT), due to design and developments that do not take into account their functional differences and therefore put them at risk of social exclusion. It is increasingly common to find assistive products that allow to use different technologies (computers, Internet, mobile devices), but many of them are not well integrated because they work essentially modifying the platform where they are installed, beeing the second-generation access solutions. Beyond the assistive product development, which has certainly evolved positively in recent years, it is notable that there is a lack of tools and holistic approach to help developers and designers make accessible ICT. This doctoral thesis aims to validate the hypothesis that a holistic approach to application development and assistive ICT products, called Open Accessibility Framework, facilitates the development and integration of native accessible applications and assistive products, regardless of the technology used, resulting in third-generation access solutions that improve the use of such applications by people with disabilities. This work was developed under the AEGIS project (open Accessibility Everywhere: Groundwork, Infrastructure, Standards), which was partially funded by the European Commission (EC) under the Seventh Framework Programme and lasted four years. The methodology for the design, development and validation followed in this thesis is an adaptation of two existing design methodologies (User Centered Design and Goal Oriented Design), the implementation of the Open Accessibility Framework and the usage of different validation techniques. A training methodological framework ha also been developed to minimize the effect of the learning curve when users first try the solutions developed. This thesis presents the Open Accessibility Framework applied to ICT in three areas in which this work is developed: computers, Internet and mobile devices, based on the needs and problems of the disabled users in the use of ICT. Different instantiations of the Open Accessibility Framework are defined in the three aforementioned ICT areas and various examples of its particular implementations are described. The results of the evaluations of the particular implementations which have been carried with end users and experts, once discussed and contrasted with the hypotheses, have been used to test the validity of the Open Accessibility Framework for the native integration of assistive products in Information and Communications Technology. Finally, the future research lines and future work in the area of ICT accessibility are presented.
Resumo:
Los ataques a redes de información son cada vez más sofisticados y exigen una constante evolución y mejora de las técnicas de detección. Para ello, en este proyecto se ha diseñado e implementado una plataforma cooperativa para la detección de intrusiones basada en red. En primer lugar, se ha realizado un estudio teórico previo del marco tecnológico relacionado con este ámbito, en el que se describe y caracteriza el software que se utiliza para realizar ataques a sistemas (malware) así como los métodos que se utilizan para llegar a transmitir ese software (vectores de ataque). En el documento también se describen los llamados APT, que son ataques dirigidos con una gran inversión económica y temporal. Estos pueden englobar todos los malware y vectores de ataque existentes. Para poder evitar estos ataques, se estudiarán los sistemas de detección y prevención de intrusiones, describiendo brevemente los algoritmos que se tienden a utilizar en la actualidad. En segundo lugar, se ha planteado y desarrollado una plataforma en red dedicada al análisis de paquetes y conexiones para detectar posibles intrusiones. Este sistema está orientado a sistemas SCADA (Supervisory Control And Data Adquisition) aunque funciona sobre cualquier red IPv4/IPv6, para ello se definirá previamente lo que es un sistema SCADA, así como sus partes principales. Para implementar el sistema se han utilizado dispositivos de bajo consumo llamados Raspberry PI, estos se ubican entre la red y el equipo final que se quiera analizar. En ellos se ejecutan 2 aplicaciones desarrolladas de tipo cliente-servidor (la Raspberry central ejecutará la aplicación servidora y las esclavas la aplicación cliente) que funcionan de forma cooperativa utilizando la tecnología distribuida de Hadoop, la cual se explica previamente. Mediante esta tecnología se consigue desarrollar un sistema completamente escalable. La aplicación servidora muestra una interfaz gráfica que permite administrar la plataforma de análisis de forma centralizada, pudiendo ver así las alarmas de cada dispositivo y calificando cada paquete según su peligrosidad. El algoritmo desarrollado en la aplicación calcula el ratio de paquetes/tiempo que entran/salen del equipo final, procesando los paquetes y analizándolos teniendo en cuenta la información de señalización, creando diferentes bases de datos que irán mejorando la robustez del sistema, reduciendo así la posibilidad de ataques externos. Para concluir, el proyecto inicial incluía el procesamiento en la nube de la aplicación principal, pudiendo administrar así varias infraestructuras concurrentemente, aunque debido al trabajo extra necesario se ha dejado preparado el sistema para poder implementar esta funcionalidad. En el caso experimental actual el procesamiento de la aplicación servidora se realiza en la Raspberry principal, creando un sistema escalable, rápido y tolerante a fallos. ABSTRACT. The attacks to networks of information are increasingly sophisticated and demand a constant evolution and improvement of the technologies of detection. For this project it is developed and implemented a cooperative platform for detect intrusions based on networking. First, there has been a previous theoretical study of technological framework related to this area, which describes the software used for attacks on systems (malware) as well as the methods used in order to transmit this software (attack vectors). In this document it is described the APT, which are attacks directed with a big economic and time inversion. These can contain all existing malware and attack vectors. To prevent these attacks, intrusion detection systems and prevention intrusion systems will be discussed, describing previously the algorithms tend to use today. Secondly, a platform for analyzing network packets has been proposed and developed to detect possible intrusions in SCADA (Supervisory Control And Data Adquisition) systems. This platform is designed for SCADA systems (Supervisory Control And Data Acquisition) but works on any IPv4 / IPv6 network. Previously, it is defined what a SCADA system is and the main parts of it. To implement it, we used low-power devices called Raspberry PI, these are located between the network and the final device to analyze it. In these Raspberry run two applications client-server developed (the central Raspberry runs the server application and the slaves the client application) that work cooperatively using Hadoop distributed technology, which is previously explained. Using this technology is achieved develop a fully scalable system. The server application displays a graphical interface to manage analytics platform centrally, thereby we can see each device alarms and qualifying each packet by dangerousness. The algorithm developed in the application calculates the ratio of packets/time entering/leaving the terminal device, processing the packets and analyzing the signaling information of each packet, reating different databases that will improve the system, thereby reducing the possibility of external attacks. In conclusion, the initial project included cloud computing of the main application, being able to manage multiple concurrent infrastructure, but due to the extra work required has been made ready the system to implement this funcionality. In the current test case the server application processing is made on the main Raspberry, creating a scalable, fast and fault-tolerant system.
Resumo:
Hoy día nadie discute la importancia de predecir el comportamiento vibroacústico de estructuras (edificios, vehículos aeronaves, satélites). También se ha hecho patente, con el tiempo, que el rango espectral en el que la respuesta es importante se ha desplazado hacia alta frecuencia en prácticamente todos los campos. Esto ha hecho que los métodos de análisis en este rango alto de frecuencias cobren importancia y actualidad. Uno de los métodos más extendidos para este fin es el basado en el Análisis Estadístico de la Energía, SEA. Es un método que ha mostrado proporcionar un buen equilibrio entre potencia de calculo, precisión y fiabilidad. En un SEA el sistema (estructura, cavidades o aire circundante) se modela mediante una matriz de coeficientes que dependen directamente de los factores de pérdidas de las distintas partes del sistema. Formalmente es un método de análisis muy cómodo e intuitivo de manejar cuya mayor dificultad es precisamente la determinación de esos factores de pérdidas. El catálogo de expresiones analíticas o numéricas para su determinación no es suficientemente amplio por lo que normalmente siempre se suele acabar necesitando hacer uso de herramientas experimentales, ya sea para su obtención o la comprobación de los valores utilizados. La determinación experimental tampoco está exenta de problemas, su obtención necesita de configuraciones experimentales grandes y complejas con requisitos que pueden llegar a ser muy exigentes y en las que además, se ven involucrados problemas numéricos relacionados con los valores de los propios factores de pérdidas, el valor relativo entre ellos y las características de las matrices que conforman. Este trabajo estudia la caracterización de sistemas vibroacústicos mediante el análisis estadístico de energía. Se centra en la determinación precisa de los valores de los factores de pérdidas. Dados los problemas que puede presentar un sistema experimental de estas características, en una primera parte se estudia la influencia de todas las magnitudes que intervienen en la determinación de los factores de pérdidas mediante un estudio de incertidumbres relativas, que, por medio de los coeficientes de sensibilidad normalizados, indicará la importancia de cada una de las magnitudes de entrada (esencialmente energías y potencias) en los resultados. De esta parte se obtiene una visión general sobre a qué mensurados se debe prestar más atención, y de qué problemas pueden ser los que más influyan en la falta de estabilidad (o incoherencia) de los resultados. Además, proporciona un modelo de incertidumbres válido para los casos estudiados y ha permitido evaluar el error cometido por algún método utilizado habitualmente para la caracterización de factores de pérdidas como la aproximación a 2 subsistemas En una segunda parte se hace uso de las conclusiones obtenidas en la primera, de forma que el trabajo se orienta en dos direcciones. Una dirigida a la determi nación suficientemente fiel de la potencia de entrada que permita simplificar en lo posible la configuración experimental. Otra basada en un análisis detallado de las propiedades de la matriz que caracteriza un SEA y que conduce a la propuesta de un método para su determinación robusta, basada en un filtrado de Montecarlo y que, además, muestra cómo los problemas numéricos de la matriz SEA pueden no ser tan insalvables como se apunta en la literatura. Por último, además, se plantea una solución al caso en el que no todos los subsistemas en los que se divide el sistema puedan ser excitados. El método propuesto aquí no permite obtener el conjunto completo de coeficientes necesarios para definir un sistema, pero el solo hecho de poder obtener conjuntos parciales ya es un avance importante y, sobre todo, abre la puerta al desarrollo de métodos que permitan relajar de forma importante las exigencias que la determinación experimental de matrices SEA tiene. ABSTRACT At present there is an agreement about the importance to predict the vibroacoustic response of structures (buildings, vehicles, aircrafts, satellites, etc.). In addition, there has become clear over the time that the frequency range over which the response is important has been shift to higher frequencies in almost all the engineering fields. As a consequence, the numerical methods for high frequency analysis have increase in importance. One the most widespread methods for this type of analysis is the one based on the Statistical Energy Analysis, SEA. This method has shown to provide a good balance among calculation power, accuracy and liability. Within a SEA, a system (structure, cavities, surrounding air) is modeled by a coefficients matrix that depends directly on the loss factors of the different parts of the system. Formally, SEA is a very handy and intuitive analysis method whose greatest handicap is precisely the determination of the loss factors. The existing set of analytical or numerical equations to obtain the loss factor values is not enough, so that usually it is necessary to use experimental techniques whether it is to its determination to to check the estimated values by another mean. The experimental determination presents drawbacks, as well. To obtain them great and complex experimental setups are needed including requirements that can be very demanding including numerical problems related to the values of the loss factors themselves, their relative value and the characteristics of the matrices they define. The present work studies the characterization of vibroacousti systems by this SEA method. It focuses on the accurate determination of the loss factors values. Given all the problems an experimental setup of these characteristics can show, the work is divided in two parts. In the first part, the influence of all the quantities involved on the determination of the loss factors is studied by a relative uncertainty estimation, which, by means of the normalised sensitivity coefficients, will provide an insight about the importance of every input quantities (energies and input powers, mainly) on the final result. Besides, this part, gives an uncertainty model that has allowed assessing the error of one of the methods more widely used to characterize the loss factors: the 2-subsystem approach. In the second part, use of the former conclusions is used. An equation for the input power into the subsystems is proposed. This equation allows simplifying the experimental setup without changing the liability of the test. A detailed study of the SEA matrix properties leads to propose a robust determination method of this SEA matrix by a Monte Carlo filtering. In turn, this new method shows how the numerical problems of the SEA matrix can be overcome Finally, a solution is proposed for the case where not all the subsystems are excited. The method proposed do not allows obtaining the whole set of coefficients of the SEA matrix, but the simple fact of getting partial sets of loss factors is a significant advance and, over all, it opens the door to the development of new methods that loosen the requirements that an experimental determination of a SEA matrix have.
Resumo:
Las Casas de Oficios del Escorial en seis planos inéditos de su arquitecto: Juan de Herrera"