18 resultados para Máximas y Aforismos


Relevância:

80.00% 80.00%

Publicador:

Resumo:

In the last few years there has been a heightened interest in data treatment and analysis with the aim of discovering hidden knowledge and eliciting relationships and patterns within this data. Data mining techniques (also known as Knowledge Discovery in Databases) have been applied over a wide range of fields such as marketing, investment, fraud detection, manufacturing, telecommunications and health. In this study, well-known data mining techniques such as artificial neural networks (ANN), genetic programming (GP), forward selection linear regression (LR) and k-means clustering techniques, are proposed to the health and sports community in order to aid with resistance training prescription. Appropriate resistance training prescription is effective for developing fitness, health and for enhancing general quality of life. Resistance exercise intensity is commonly prescribed as a percent of the one repetition maximum. 1RM, dynamic muscular strength, one repetition maximum or one execution maximum, is operationally defined as the heaviest load that can be moved over a specific range of motion, one time and with correct performance. The safety of the 1RM assessment has been questioned as such an enormous effort may lead to muscular injury. Prediction equations could help to tackle the problem of predicting the 1RM from submaximal loads, in order to avoid or at least, reduce the associated risks. We built different models from data on 30 men who performed up to 5 sets to exhaustion at different percentages of the 1RM in the bench press action, until reaching their actual 1RM. Also, a comparison of different existing prediction equations is carried out. The LR model seems to outperform the ANN and GP models for the 1RM prediction in the range between 1 and 10 repetitions. At 75% of the 1RM some subjects (n = 5) could perform 13 repetitions with proper technique in the bench press action, whilst other subjects (n = 20) performed statistically significant (p < 0:05) more repetitions at 70% than at 75% of their actual 1RM in the bench press action. Rate of perceived exertion (RPE) seems not to be a good predictor for 1RM when all the sets are performed until exhaustion, as no significant differences (p < 0:05) were found in the RPE at 75%, 80% and 90% of the 1RM. Also, years of experience and weekly hours of strength training are better correlated to 1RM (p < 0:05) than body weight. O'Connor et al. 1RM prediction equation seems to arise from the data gathered and seems to be the most accurate 1RM prediction equation from those proposed in literature and used in this study. Epley's 1RM prediction equation is reproduced by means of data simulation from 1RM literature equations. Finally, future lines of research are proposed related to the problem of the 1RM prediction by means of genetic algorithms, neural networks and clustering techniques. RESUMEN En los últimos años ha habido un creciente interés en el tratamiento y análisis de datos con el propósito de descubrir relaciones, patrones y conocimiento oculto en los mismos. Las técnicas de data mining (también llamadas de \Descubrimiento de conocimiento en bases de datos\) se han aplicado consistentemente a lo gran de un gran espectro de áreas como el marketing, inversiones, detección de fraude, producción industrial, telecomunicaciones y salud. En este estudio, técnicas bien conocidas de data mining como las redes neuronales artificiales (ANN), programación genética (GP), regresión lineal con selección hacia adelante (LR) y la técnica de clustering k-means, se proponen a la comunidad del deporte y la salud con el objetivo de ayudar con la prescripción del entrenamiento de fuerza. Una apropiada prescripción de entrenamiento de fuerza es efectiva no solo para mejorar el estado de forma general, sino para mejorar la salud e incrementar la calidad de vida. La intensidad en un ejercicio de fuerza se prescribe generalmente como un porcentaje de la repetición máxima. 1RM, fuerza muscular dinámica, una repetición máxima o una ejecución máxima, se define operacionalmente como la carga máxima que puede ser movida en un rango de movimiento específico, una vez y con una técnica correcta. La seguridad de las pruebas de 1RM ha sido cuestionada debido a que el gran esfuerzo requerido para llevarlas a cabo puede derivar en serias lesiones musculares. Las ecuaciones predictivas pueden ayudar a atajar el problema de la predicción de la 1RM con cargas sub-máximas y son empleadas con el propósito de eliminar o al menos, reducir los riesgos asociados. En este estudio, se construyeron distintos modelos a partir de los datos recogidos de 30 hombres que realizaron hasta 5 series al fallo en el ejercicio press de banca a distintos porcentajes de la 1RM, hasta llegar a su 1RM real. También se muestra una comparación de algunas de las distintas ecuaciones de predicción propuestas con anterioridad. El modelo LR parece superar a los modelos ANN y GP para la predicción de la 1RM entre 1 y 10 repeticiones. Al 75% de la 1RM algunos sujetos (n = 5) pudieron realizar 13 repeticiones con una técnica apropiada en el ejercicio press de banca, mientras que otros (n = 20) realizaron significativamente (p < 0:05) más repeticiones al 70% que al 75% de su 1RM en el press de banca. El ínndice de esfuerzo percibido (RPE) parece no ser un buen predictor del 1RM cuando todas las series se realizan al fallo, puesto que no existen diferencias signifiativas (p < 0:05) en el RPE al 75%, 80% y el 90% de la 1RM. Además, los años de experiencia y las horas semanales dedicadas al entrenamiento de fuerza están más correlacionadas con la 1RM (p < 0:05) que el peso corporal. La ecuación de O'Connor et al. parece surgir de los datos recogidos y parece ser la ecuación de predicción de 1RM más precisa de aquellas propuestas en la literatura y empleadas en este estudio. La ecuación de predicción de la 1RM de Epley es reproducida mediante simulación de datos a partir de algunas ecuaciones de predicción de la 1RM propuestas con anterioridad. Finalmente, se proponen futuras líneas de investigación relacionadas con el problema de la predicción de la 1RM mediante algoritmos genéticos, redes neuronales y técnicas de clustering.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La evaluación de consumo y emisiones de los vehículos se puede realizar mediante medidas en ciclos estándar o por medidas en operación real. La primera opción presenta la ventaja de la repetibilidad, pero debe asegurarse que el ciclo representa correctamente las condiciones operativas. Además, algunos tipos de vehículos presentan ciclos cinemáticos muy característicos. Este es el caso de los autobuses urbanos o vehículos de recogida de residuos. En concreto, en el primer caso, existen ciclos desarrollados a partir de medidas en diferentes ciudades. Sin embargo, estos ciclos se basan únicamente en una muestra limitada de líneas y consideran que todas las líneas tienen características semejantes. Este enfoque impide, por ejemplo, probar autobuses sobre líneas de propiedades diferentes con el fin de decidir cual es la distribución óptima de la flota en cuanto a ahorro de consumo y reducción de emisiones, ya que ciertas tecnologías pueden trabajar significativamente mejor que otras con unos parámetros de conducción. Este artículo presenta una metodología para la construcción de los ciclos de conducción estándar de estos vehículos. Para ello, primero, se realiza una agrupación preliminar de las líneas en conglomerados en función de variables macroscópicas. A continuación, se realiza la medición de ciclos cinemáticos en una selección representativa de líneas a lo largo de días completos de operación mediante un dispositivo no intrusivo embarcado en los vehículos. Estos datos cinemáticos han sido analizados diferenciando microciclos y estudiando sus características, como tipología de microciclo, velocidades máximas y medias, duraciones totales, niveles de aceleración y deceleración, etc. A partir del estudio estadístico de dichas variables se han planteado algoritmos para redefinir los algoritmos que permiten la formación de conglomerados de líneas con características semejantes. Finalmente, a partir de las conclusiones del paso anterior, se han construido ciclos estándar para cada uno de los conglomerados de líneas que reproducen las propiedades fundamentales de los ciclos reales.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tesis doctoral presenta el desarrollo, verificación y aplicación de un método original de regionalización estadística para generar escenarios locales de clima futuro de temperatura y precipitación diarias, que combina dos pasos. El primer paso es un método de análogos: los "n" días cuya configuración atmosférica de baja resolución es más parecida a la del día problema, se seleccionan de un banco de datos de referencia del pasado. En el segundo paso, se realiza un análisis de regresión múltiple sobre los "n" días más análogos para la temperatura, mientras que para la precipitación se utiliza la distribución de probabilidad de esos "n" días análogos para obtener la estima de precipitación. La verificación de este método se ha llevado a cabo para la España peninsular y las Islas Baleares. Los resultados muestran unas buenas prestaciones para temperatura (BIAS cerca de 0.1ºC y media de errores absolutos alrededor de 1.9ºC); y unas prestaciones aceptables para la precipitación (BIAS razonablemente bajo con una media de -18%; error medio absoluto menor que para una simulación de referencia (la persistencia); y una distribución de probabilidad simulada similar a la observada según dos test no-paramétricos de similitud). Para mostrar la aplicabilidad de la metodología desarrollada, se ha aplicado en detalle en un caso de estudio. El método se aplicó a cuatro modelos climáticos bajo diferentes escenarios futuros de emisiones de gases de efecto invernadero, para la región de Aragón, produciendo así proyecciones futuras de precipitación y temperaturas máximas y mínimas diarias. La fiabilidad de la técnica de regionalización fue evaluada de nuevo para el caso de estudio mediante un proceso de verificación. Para determinar la capacidad de los modelos climáticos para simular el clima real, sus simulaciones del pasado (la denominada salida 20C3M) se regionalizaron y luego se compararon con el clima observado (los resultados son bastante robustos para la temperatura y menos concluyentes para la precipitación). Las proyecciones futuras a escala local presentan un aumento significativo durante todo el siglo XXI de las temperaturas máximas y mínimas para todos los futuros escenarios de emisiones considerados. Las simulaciones de precipitación presentan mayores incertidumbres. Además, la aplicabilidad práctica del método se demostró también mediante su utilización para producir escenarios climáticos futuros para otros casos de estudio en los distintos sectores y regiones del mundo. Se ha prestado especial atención a una aplicación en Centroamérica, una región que ya está sufriendo importantes impactos del cambio climático y que tiene un clima muy diferente. ABSTRACT This doctoral thesis presents the development, verification and application of an original downscaling method for daily temperature and precipitation, which combines two statistical approaches. The first step is an analogue approach: the “n” days most similar to the day to be downscaled are selected. In the second step, a multiple regression analysis using the “n” most analogous days is performed for temperature, whereas for precipitation the probability distribution of the “n” analogous days is used to obtain the amount of precipitation. Verification of this method has been carried out for the Spanish Iberian Peninsula and the Balearic Islands. Results show good performance for temperature (BIAS close to 0.1ºC and Mean Absolute Errors around 1.9ºC); and an acceptable skill for precipitation (reasonably low BIAS with a mean of - 18%, Mean Absolute Error lower than for a reference simulation, i.e. persistence, and a well-simulated probability distribution according to two non-parametric tests of similarity). To show the applicability of the method, a study case has been analyzed. The method was applied to four climate models under different future emission scenarios for the region of Aragón, thus producing future projections of daily precipitation and maximum and minimum temperatures. The reliability of the downscaling technique was re-assessed for the study case by a verification process. To determine the ability of the climate models to simulate the real climate, their simulations of the past (the 20C3M output) were downscaled and then compared with the observed climate – the results are quite robust for temperature and less conclusive for the precipitation. The downscaled future projections exhibit a significant increase during the entire 21st century of the maximum and minimum temperatures for all the considered future emission scenarios. Precipitation simulations exhibit greater uncertainties. Furthermore, the practical applicability of the method was demonstrated also by using it to produce future climate scenarios for some other study cases in different sectors and regions of the world. Special attention was paid to an application of the method in Central America, a region that is already suffering from significant climate change impacts and that has a very different climate from others where the method was previously applied.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La obra está destinada a introducir a los profesionales de la minería y estudiantes de ingenieía en el concepto del desarrollo minero sostenible y en la necesidad de integración de estrategias de éste tipo en la actividad extractiva de recursos minerales. Se describen las líneas de desarrollo minero sostenible desde la perspetiva europea, así como las estrategias europeas sobre el uso de los recursos minerales y el contexto jurídico vigente a éste respecto. El libro describe desde un punto de vista general las distintas directivas europeas que configuran el nuevo marco regulatorio en el que deben desenvolverse la producción, circulación y utilización de sustancias minerales para garantizar las máximas cotas de seguridad y sostenibilidad. La parte final del libro aborda la gestión medioambiental de las empresas mineras en éste nuevo contexto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Es importante disponer de una herramienta con la cual diseñar dispositivos de uso industrial y comercial que trabajen con metales líquidos (fuentes de neutrones de alta intensidad, núcleos de sistemas de transmutación nuclear, reactores de fisión de nueva generación, instalaciones de irradiación de materiales o reactores de fusión nuclear). Los códigos CFD (Computational Fluid Dynamics) son una de esas herramientas, y la manera de llevar a cabo su validación es la simulación de experimentos existentes. La turbulencia y la presencia de dos o más fases, son los dos principales problemas a los que tiene que hacer frente un código CFD. La mayoría de los modelos de turbulencia presentes en los códigos CFD se basan en considerar la proporcionalidad directa entre el transporte de cantidad de movimiento turbulento y el transporte turbulento de calor. Precisamente, el coeficiente de difusión del calor turbulento, se asume que sea proporcional a la viscosidad turbulenta a través de una constante empírica, llamada número de Prandtl turbulento. El valor de este número, en los códigos comerciales está entre 0,9 y 0,85 dependiendo del modelo de turbulencia, lo cual significa que en los códigos se asume que el transporte turbulento tanto de cantidad de movimiento como de calor, son prácticamente equivalentes. Esta asunción no es cierta en los flujos de metales líquidos, donde se demuestra que la transmisión de calor por turbulencia es pequeña frente a la transmisión de calor molecular. La solución pasa por aumentar el número de Prandtl turbulento, o abandonar la analogía de Reynolds, en el tratamiento de la turbulencia. Por otro lado, en los metales líquidos la capa límite térmica es más ancha que la de velocidad, y las funciones de pared incluidas en los códigos no satisfacen adecuadamente los flujos turbulentos de los fluidos con bajo número de Prantdl (los metales líquidos). Sí serían adecuados, si el mallado es tal, que la celda más cercana a la pared, está dentro de la subcapa laminar, en la cual la propiedad dominante es la conductividad molecular. En la simulación de flujo multifase los códigos se encuentran con una serie de dificultades, que en el caso de que las densidades de los fluidos que intervienen sean muy diferentes entre sí (como ocurre con los metales líquidos y los gases), serán aún mayores. La modelización de la interfase gas metal líquido, así como el encontrar una correlación válida para los coeficientes de resistencia y sustentación para el movimiento de las burbujas en el seno del metal líquido, son dos de los principales retos en la simulación de este tipo de flujos. Las dificultades no se limitan sólo a la simulación mediante CFD, las medidas experimentales de velocidad de las burbujas y del metal líquido también son complicadas. Hay parámetros que no se pueden definir bien: la trayectoria y la forma de las burbujas entre ellos. En el campo de aplicación industrial de los metales líquidos, los altos valores de los coeficientes de expansión volumétrica y de conductividad térmica hacen que estos fluidos sean muy atractivos en la refrigeración por convección libre en dispositivos de alta densidad de potencia. Tomando como base uno de los diseños de ADS (Accelerator Driven System), y teniendo en cuenta la dificultad que conlleva el uso de múltiples modelos físicos, los cálculos realizados muestran cómo, en caso de fallo eléctrico, la operación de la instalación puede continuar de forma segura. Para la validación de los códigos CFD en su uso como herramienta de diseño, uno de los fenómenos donde cuantitativamente más dificultades encuentran los códigos es en los que aparecen en la modelización de las superficies libres. Un buen ajuste de los modelos multifase y de turbulencia es imprescindible en este tipo de simulaciones. Efectivamente, en la instalación de irradiación de materiales IFMIF, la formación de ondas en la superficie libre del flujo de Litio, es un fenómeno que hay que tratar de evitar, y además se requiere predecir las temperaturas, para ver si hay peligro de ebullición del metal líquido. La simulación llevada a cabo se enfoca al análisis termohidráulico. Variando la velocidad de inyección de Litio desde 10 hasta 20 m/s, se comprueba que las temperaturas máximas quedan alejadas del punto de ebullición del Litio, debido al aumento de presión producido por la fuerza centrífuga. Una de las cuestiones más críticas que se presentan en las fuentes de neutrones sería la refrigeración de la ventana metálica sobre la que incide el haz de protones. La simulación de experimentos como MEGAPIE y TS-1, permite la “visualización” de recirculación en el flujo, de los puntos de estancamiento, de los puntos calientes, etc, y da una fotografía de las zonas críticas del diseño.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente estudio evalúa el efecto que 6 diferentes géneros hongos aislados a partir de semillas de 54 diferentes cultivares de cardo y sus extractos acuosos tienen sobre la germinación y nascencia de las semillas. Se han realizado pruebas de patogenicidad con dos aislados de cada uno de los seis géneros de mayor frecuencia del inventario (Aspergillus, Penicillium, Fusarium, Rhizopus, Cladosporium y Alternaria), así como de los extractos producidos tras 3, 7 y 11 días de incubación de los micetos. Los resultados de las inoculaciones con los micetos muestran efectos negativos sobre los porcentajes de germinación, con reducciones en la germinación que fueron máximas tras las inoculaciones con Rhizopus stolonifer (29% de disminución) y Fusarium verticillioides (23%). Los porcentajes de emergencia disminuyen tras duplicar la concentración del inóculo, aumentando además drásticamente el número de plántulas dañadas sobre el total de las emergidas. En el significativo caso de la inoculación con Cladosporium la duplicación del inóculo disminuyó la germinación hasta en un 31% respecto al testigo. Las plántulas emergidas tras las inoculaciones con los extractos obtenidos a partir de cultivos líquidos de los hongos ensayados presentaban los mismos síntomas de atrofias y daños sobre raíz y coleóptilo que los descritos para cada hongo. Los extractos acuosos de los géneros estudiados disminuyen también la germinación. Los resultados nos muestran la diferente capacidad parasitaria de cada una de las especies estudiadas apreciándose además diferencias según los diferentes periodos de agitación de los hongos y permiten asegurar que la producción de toxinas está regulada por el hongo, y que no aumenta linealmente con el crecimiento miceliar.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El análisis de la velocidad de carrera mediante sensores láser permite la obtención de datos en tiempo real siendo ventajosos frente a otros sistemas. El objetivo de este estudio fue valorar la validez y fiabilidad del sensor láser del sistema BioLaserSport® para el cálculo de velocidades medias y máximas mediante estadísticos relativos y absolutos. Los participantes fueron 17 varones (20.85 ± 1.54 años). Se utilizó un sensor láser tipo 1 (LDM301, Jenoptik, Germany) que registró posiciones de los deportistas a 2000 Hz. Los datos se trataron con la rutina DSL-30 creada con DasyLab v.10.0. Para la validación se utilizó un sistema de fotogrametría-2D con una cámara de alta velocidad (Exilim High Speed EX-F1, Casio) y SkillSpector v.1.3.2. (Video4coach, Grubbemollevej). Además, se utilizaron foto-células de doble haz (Polifemo Light, Microgate, Italy) y un cronómetro Racetime2 (Microgate, Italy). Se registraron, durante dos días, tres series de 30 m de carrera a máxima velocidad. El sensor láser proporcionó, con relación a la fotogrametría, diferencias en las velocidades medias y máximas de -0.11 m•s-1 y 0.14 m•s-1, respectivamente, con unos coeficientes de correlación superiores a 0.86, y mayores de 0.92 con las foto-células para las velocidades medias. Este mostró una excelente fiabilidad test-retest para las velocidades medias con un coeficiente de correlación intraclase (ICC) entre 0.7-0.9 y un error estándar de la media (SEM y SEM%), intrasesión e intersesión, menor de 0.05 m•s-1 y 0.12 m•s-1, respectivamente, y menores de 0.75% y de 2%, respectivamente. Para las velocidades máximas,los valores fueron menores de 0.10 m•s-1 y 0.17 m•s-1, respectivamente, y en ambos casos menores a 1.36% y 1,89%. El láser fue capaz de identificar mínimos cambios detectables (MDC y MDC%) intrasesión, para ambas variables, menores a 0.14 m•s-1 y 0.29 m•s-1, respectivamente (< 2.09% y < 3.76%) e intersesión, menores de 0.34 m•s-1 y 0.47 m•s-1 (< 5.56% y < 5.25%), respectivamente. En consecuencia, es un instrumento útil para el análisis de la evolución de la velocidad intrasujeto y entre sujetos en la carrera de velocidad entre 0-30 m, proporcionando resultados en tiempo real, pero se han de considerar los SEM, SEM%, MDC y MDC% para valorar la mejora del rendimiento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El apartado <4.2 Altavoz> de la Norma Internacional UNE-EN ISO 140-5 y de fachadas> [1] especifica que la directividad del altavoz usado en el ensayo debe asegurar en todas las bandas de frecuencias de interés, unas diferencias de nivel locales inferiores a 5dB (o a 10 dB para fachadas de dimensiones mayores a 5m), medidas en campo libre, sobre una superficie del mismo tamaño y orientación que la pared o elemento a ensayar. Este requisito debe verificarse en unas bandas de frecuencia de interés que sean como mínimo los tercios de octava desde 100Hz hasta 3150Hz, y preferiblemente desde 50Hz hasta 5kHz. Desde hace unos años, en el Laboratorio de sonido de la EUIT de Telecomunicación de la Universidad Politécnica de Madrid, los autores han implementado un método en el que, a partir de las medidas de directividad en cámara anecoica de la fuente sonora a ensayar, se calcula el campo sonoro directo sobre una superficie ficticia que representa un elemento de fachada en la misma disposición que se indica en la norma ICO 140-5 y con unas dimensiones según se requieran en el procedimiento. También se estima la dimensión horizontal máxima ΔXmax de una fachada rectangular en relación de aspecto fija que permite verificar la norma con los criterios de 5dB y 10dB de diferencias máximas de niveles directos en dicha fachada. En esta ponencia se detalla el procedimiento anterior. ABSTRACT. The Section "4.2 loudspeaker" of the UNE-EN ISO 140-5 International Standard: "Field measurements of airborne sound insulation of façade elements and façades", specifies that the directivity of the loudspeaker used in the test must ensure in all frequency bands of interest, local level differences less than 5dB (or 10dB for façade dimensions greater than 5m), measured in free field over an area of the same size and orientation as the wall or element to be tested. This requirement must be verified in the frequency bands of interest which are, at least, the third octave bands from 100Hz to 3150Hz, preferably from 50Hz to 5kHz. In recent years, in the Laboratory of Sound of the EUIT Telecomunicación (Universidad Politécnica de Madrid), the authors have implemented a method that, from directivity measurements of loudspeakers performed in the anechoic room, the direct sound field on a surface in the same layout as indicated in the ISO standard is calculated. It is also estimated the maximum horizontal dimension Δxmax of a rectangular façade for each aspect ratio which verify the standard criteria of either 5dB or 10dB for the maximum differences of direct levels in the façade. This paper details the procedure above introduced.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El arquitecto Curro Inza (1929-1976) pertenece al grupo que se ha denominado como organicismo madrileño y Escuela de Madrid, cuyas máximas realizaciones se produjeron durante los años sesenta del pasado siglo. Hasta ahora su obra y persona han generado opiniones bien extremas, pero apenas han sido investigadas, cuando en realidad su arquitectura trata asuntos que hoy se muestran de actual interés. El estudio que aquí se presenta tiene un doble objetivo. El primero es agrupar la información arquitectónica del autor y catalogar las obras de su archivo personal (inédito hasta ahora). Se ordena, clasifica y cataloga toda la documentación arquitectónica del archivo Inza, dejándose depositada en la Biblioteca de la ETSAM, quedando disponible y facilitando posteriores investigaciones sobre este arquitecto. Se procede asimismo a la digitalizaran de los proyectos principales garantizando su optima conservación para el futuro Una vez logrado el primer objetivo, el segundo consiste en realizar un análisis proyectual y critico de su obra, un punto de vista hasta ahora apenas abordado. Me propongo profundizar en una obra definida como compleja pero poco explicada, realizando una revisión crítica de sus escritos y de sus proyectos, y relacionando esta con otras arquitecturas (nacionales e internacionales) que sitúen al autor dentro del discurso contemporáneo. Para desentrañar las claves de su arquitectura se aborda el trabajo de Inza desde cinco miradas distintas y simultaneas. Desde cada una de estas miradas o categorías) se hace una aproximación crítica recorriendo los proyectos. Unas categorías que, a la postre, conforman el índice de este trabajo. Aunque la compilación y revisión del archivo posee algo de búsqueda arqueológica, el estudio no pretende tener un interés únicamente o intrínsecamente histórico. El trabajo tiene en realidad como fin estudiar la forma de proyectar de un arquitecto hasta ahora poco referencial y que entiendo, puede hoy establecer puentes con el presente y el futuro a través de su arquitectura. Intentar entender los mecanismos que arman esta arquitectura, sus orígenes, su evolución y la construcción de su lenguaje. En resumen, explicar y analizar la obra desde un punto de vista proyectual haciendo una lectura critica que desentrañe estrategias de las que hoy pudiéramos aprender y nos resultasen operativas.ABSTRACT: The architect Curro Inza (1929-1976) belongs to the group known as Madrilian organicism and the School of Madrid, whose most important works were built during the 1960 and 1970 decades. Curro Inza's work has received up until now very different, even extreme opinions, but his work has not been studied in depth, which is surprising if we consider that his architecture treats issues which are of great interest today. The present study has aimed at two objectives. The first has been to gather the information concerned with the author and his work, and to catalog all of the works of this personal archive (unpublished up until now). The work we have done here has consisted in compiling, digitalizing, classifying and cataloguing all of the documentation found in Curro Inza's personal archive; this archive has been deposited in the Biblioteca de la Escuela Superior de Artquitectura de Madrid (ETSAM) . We have also digitalized the main projects in order to assure the best storage conditions for the future. The second objective has consisted in analyzing Curro Inza's work from a project and critical point of view, an approach which has not yet been explored. Within this second objective, I have studied Inza's work, which is well defined and personal as well as complex, but which has received little attention and has not been explained. I have done a critical revision of both his projects and his writings, and have related these with other, both national and international, architectures, in order to place Inza's work within the contemporary architectural discourse. In order to decipher the essence of Inza's architecture, I have approached his work from five, simultaneous perspectives. I have described the projects critically from each of the five perspectives or categories; these five categories give shape to the organization of the dissertation. Even if the compilation and revision of Inza's archive is somehow an archaeological search, this study aims at having a larger scope than its strict, exclusive historical interest. In this study I have studied Inza's projects from a critical point of view and in relation to contemporary architecture and architectural thought, attempting to draw connections between Inza's work and modern, present architecture. We have also attempted to understand and describe Inza's language and conception of architectural discourse, as well as his origins, evolution and expression of his thought. In summary, I have analyzed and explained Curro Inza's work from a projectual point of view, drawing a critical reading of the strategies used by the author, and from which we could learn and work today.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En nuestra cultura, asumimos el error como algo vergonzoso, como un resultado ajeno a nuestra consciente autoría. Normalmente queremos desentendernos de él, pues se suele asociar a que ha sido el resultado de un accidente involuntario. Sin embargo, también es cierto que se suele usar como un mecanismo que despierta nuestro humor, la curiosidad, el extrañamiento y la sorpresa. El error en nuestra cultura se esconde en inverosímiles mensajes que nos rodean. Si se toma como ejemplo los errores que se encierran en la serie humorística de dibujos animados "El-coyote-y-el-correcaminos"1, se puede descubrir las numerosas consecuencias y actitudes encriptadas donde el error participa. A modo resumen estos son cinco de los mensajes capturados donde los errores participan. 1- El Coyote, siempre hambriento, y con ganas de atrapar al Correcaminos, tiene una gran variedad de modos acercamiento y decisiones de caza. Las tácticas parecen perfectas pero siempre tienen un error que, aunque hacen que no lleguen a su fin, cada vez son más divertidas y locas. El Coyote se enfrenta continuamente al cómo hacerlo con una creatividad, tan abierta como errada. 2- El Correcaminos en cambio, inconscientemente es capaz de usar las trampas que construye el Coyote sin que estás funcionen. Sin saber que pueden atraparle, las usa como si supiera que el no va a errar. El Coyote en cambio es incapaz de hacer esto, y las trampas siempre se vuelven contra él. 3- El Coyote en ocasiones se ve inmiscuido en un proceso de construcción de trampas laborioso. Este proceso, a su vez, también suele estar cargado de errores. A pesar de que por ensayo y error termina haciendo las cosas como preveía, todo acaba saltando por los aires y no funciona. 4- Más allá de los fallos constructivos de las trampas de caza, el Coyote erra a menudo cuando piensa que es “normal”, es decir se da cuenta que no puede hacer unas series de cosas y finalmente no las hace. Por ejemplo, unas veces en medio del aire cae porque piensa que le afecta la gravedad, otras, justo cuando va a atrapar el Correcaminos se extraña por ser más rápido y al final no lo consigue. 5- Por último, el Coyote cansado de artilugios, recurre a la estrategia. Asume que el Correcaminos es más rápido que él y por ello le dibuja en una pared un túnel con una carretera. El Correcaminos entonces, utiliza el túnel o la carretera como uno ya existente se tratara. Mientras, el Coyote sorprendido intenta seguirlo pero no puede, se choca con la pared, cae en su propia trampa. De estos lugares que se encuentran en la cultura y donde campa el error, se sirve la tesis para localizar su correspondencia con la arquitectura. Por lo que se plantean estos contextos de estudio: 1- La historia de la arquitectura está llena de diferentes modos de hacer y tomar decisiones, de proyecto. Existen diversos planteamientos para enfrentarse a una teoría y una práctica. Todos parecen seguros y certeros, en cambio se tiene la convicción de que no es así. La historia de la arquitectura siempre ha sido tan caótica, divertida y llena de errores como son los autores que la construyen. De ahí que se plantee la búsqueda de los errores en el estudio de la teoría de los conocimientos y procesos lógicos que han guiado a la ciencia hasta donde estamos hoy, la búsqueda del error en la arquitectura a través del error en la epistemología. 2- En la cotidianidad de la arquitectura se "juntan" dibujos hechos en planta con los hechos en sección, se viaja por los planos buscando referencias de secciones, se buscan entradas o salidas, se llevan parcialidades de una planta a otra, se leen pies de plano para interpretar lo que ocurre, se dialoga sobre un proyecto buscando un concepto, se montan volúmenes de documentos que te lo dan en planta, se intentan comprender situaciones volumétricas de dibujos en hechos en "2d" o se intenta comprender un montaje gravitatorio. Situaciones donde somos conscientes y otras no, donde se pone en marcha un ejercicio mental de acoplamiento estructural de todas las partes que se “juntan”, a pesar de que estas entre sí no estén realmente relacionadas y sí llenas de errores. Aprovechándose de la confianza del intercambio de información, los errores se cuelan hasta el final y no llegamos a reconocerlos. 3- En la arquitectura uno de los modos más habituales de enfrentarse al proyecto es a través del método de ensayo y error, a través del cual se hacen continuos dibujos o maquetas, una y otra vez. En arquitectura es común necesitar de la insistencia para localizar algo, reiterar la búsqueda de un deseo. Cada una de ellas con modificaciones de la anterior, con nuevas posibilidades y tanteos. Afrontar este proceso más allá de lo que es enfrentarse a un error, encierra actitudes, voluntades, potencialidades y afecciones diferentes entre sí. A la vez, este ejercicio, suele ser personal, por lo que cada acción de ensayo y error es difícil que se deba a un sólo nivel de funcionamiento, hay factores que se escapan del control o de la previsibilidad. Aunque a priori parece que el proceso por ensayo y error en el hacer arquitectónico intenta eliminar el error, hay ocasiones donde éste desvela nuevas posibilidades. 4- Las fichas de patologías de los edificios en arquitectura suelen ser documentos técnicos que aluden a los problemas constructivos de manera directa; humedades, grietas, fisuras, desprendimientos. Errores constructivos que sin embargo se olvidan de lo que pueden ser “errores arquitectónicos”. Es decir, el proceso de construcción, la espacialidad, el programa, el contexto o la iluminación se pueden trabar erróneamente, pero no necesariamente con fallos constructivos. Errores arquitectónicos que no se suelen registrar como tal. Se cree que hay un mundo de arquitectura patológica que va más allá de la situación de la normalidad edificatoria que se suele tratar. Errores integrados en el hacer arquitectónico que han terminado por generar una arquitectura singular pero no excéntrica, anormal y difícilmente genérica. Arquitecturas creadas bajo un “error de vida”, las cuales demuestran que se pueden alcanzar equilibrios ajenos a los que la razón habitual impone en el hacer. 5- Es también común en la arquitectura, la capacidad de proyectar futuro a través de los diferentes campos de oportunidad que se generan. Las oportunidades unas veces las ofrecen las normativas, pero otras son los errores que estas tienen las que se convierten en resquicios para construir realidades que se escapan a sus rigideces. Alturas máximas, edificaciones límites, espacios libres, alineaciones de fachada, programa permitido…, normalmente leyes de control que se imponen en la ciudad y que a veces se convierten en un modo de dominación. Reglas que antes de su puesta en funcionamiento se creen cerradas y lógicas e infranqueables, pero en su puesta en uso, empiezan a errar. Los resultados no salen como debían, y las palabras son interpretadas de forma diferente, por lo que el usuario empieza a aprovecharse de estos errores como vía de escape sobre ellas. Una vez planteados estos cinco lugares vinculados a sistemas arquitectónicos y que a la vez encierran de alguna forma la mirada positiva que en ocasiones la cultura ofrece, cabría ser más específicos y plantearse la pregunta: .Como el error ha sido y puede ser productivo en la arquitectura? Para responder en estos cinco contextos descritos y habituales en el hacer arquitectónico, se crean cinco “planos secuencia” como respuesta. Que usados como técnica de planificación de un pensamiento, permiten responder sin cortes y durante un tiempo prolongado reflexiones concatenadas entre sí. De este modo, los cinco planos secuencias son respuestas a la pregunta pero desde distintos ámbitos. Respuestas donde los resultados del error no avergüenzan a la arquitectura, sino que animan a usarlo, a experimentar con ello. Los planos secuencias son una cantera que contiene las marcas de los errores, tanto de un pasado como de un futuro inmanente. Un modo de ordenar la información, donde el tiempo no es una marca de linealidad cronológica, sino la búsqueda hacia delante y hacia atrás de la maduración de un concepto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se realiza un estudio experimental del comportamiento de veinte vigas de madera aserrada de pino silvestre para uso estructural, de dimensiones 155x75x1090mm y reforzadas con materiales compuestos de fibra de carbono. La procedencia de la madera es el aserradero de Valsaín. Los ensayos se han realizado en el Laboratorio de Materiales de Construcción de la Escuela Universitaria de Arquitectura Técnica de Madrid con una máquina de ensayos Universal. El objetivo del trabajo es el análisis del comportamiento a flexión de las piezas ensayadas reforzadas con materiales compuestos de fibra de carbono realizados con tejidos unidireccionales y bidireccionales. De las veinte vigas ensayadas nueve fueron sin reforzar y el resto se reforzaron con el refuerzo en forma de ?U?, adhiriendo el material compuesto a la cara inferior y los laterales de las vigas, hasta una altura de la mitad del canto. Para la realización de los FRP se han empleado tejidos de fibra de carbono unidireccionales y bidireccionales. El gramaje de los tejidos unidireccionales es de 300gr/m2 y se ha aplicado en una capa. Los tejidos bidireccionales utilizados tienen dos gramajes distintos, 160gr/m2 y 210gr/m2. Éstos últimos se han aplicado en una y en dos capas. Las nueve vigas ensayadas sin reforzar han servido como testigo para analizar el aumento de la capacidad de carga de las vigas reforzadas. A partir de los datos facilitados por el software se asociado a la máquina de ensayos se trazaron los gráficos carga-desplazamiento, con el fin de analizar las cargas máximas de rotura alcanzadas, desplazamientos y rigidez de las piezas. Posteriormente se realiza un análisis analítico hallando los valores medio de las cargas de rotura y los desplazamientos, realizando una comparación entre los datos obtenidos para las vigas sin reforzar y las reforzadas con los distintos sistemas. En las conclusiones se presentan los resultados del análisis realizado, estudiando el incremento de la capacidad de carga de las vigas reforzadas con respecto a las no reforzadas, y comparando entre sí el funcionamiento de los refuerzos aplicados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En esta Tesis Doctoral se aborda un tema poco estudiado en el ámbito de los túneles y cuya problemática está basada en los riesgos e incertidumbres que representa el diseño y ejecución de túneles en macizos calizos karstificados. Mediante un estudio profundo del comportamiento de distintos casos reales de túneles en macizos kársticos calizos, aportando la realización de modelos y la experiencia constructiva del autor, se pretende proponer un procedimiento que permita sistematizar las actuaciones, investigación, evaluación y tratamiento en los túneles en karst, como herramienta básica para la toma de decisiones primarias correctas. Además, se proponen herramientas que pueden ayudar a mejorar el diseño y a decidir las medidas más eficientes para afrontar los problemas que genera el karst en los túneles, minimizando los riesgos para todos los actores, su probabilidad e impacto. Se profundiza en tres fases principales (que son referidas en la tesis en cuatro Partes): La INVESTIGACIÓN del macizo rocoso: La investigación engloba todas las actuaciones observacionales encaminadas a obtener el IK (Índice de Karstificación), así como las investigaciones necesarias mediante recopilación de datos superficiales, hidrogeológicos, climáticos, topográficos, así como los datos de investigaciones geofísicas, fotointerpretación, sondeos y ensayos geotécnicos que sean posibles. Mediante la misma, se debe alcanzar un conocimiento suficiente para llevar a cabo la determinación de la Caracterización geomecánica básica del macizo rocoso a distintas profundidades, la determinación del Modelo o modo de karstificación del macizo rocoso respecto al túnel y la Zonificación del índice de karstificación en el ámbito de actuación en el que se implantará el túnel. En esta primera fase es necesaria la correcta Definición geométrica y trazado de la obra subterránea: En función de las necesidades que plantee el proyecto y de los condicionantes externos de la infraestructura, se deben establecer los requisitos mínimos de gálibo necesarios, así como las condiciones de máximas pendientes para el trazado en alzado y los radios mínimos de las curvas en planta, en función del procedimiento constructivo y motivación de construcción del túnel (ferrocarril, carretera o hidráulico, etc...). Estas son decisiones estratégicas o primerias para las que se ha de contar con un criterio y datos adecuados. En esta fase, son importantes las decisiones en cuanto a las monteras o profundidades relativas a la karstificación dominante e investigación de las tensiones naturales del macizo, tectónica, así como las dimensiones del túnel en función de las cavidades previstas, tratamientos, proceso de excavación y explotación. En esta decisión se debe definir, conocida ya de forma parcial la geotecnia básica, el procedimiento de excavación en función de las longitudes del túnel y la clasificación geomecánica del terreno, así como sus monteras mínimas, accesos y condicionantes medioambientales, pero también en función de la hidrogeología. Se establecerá la afección esperable en el túnel, identificando en la sectorización del túnel, la afección esperable de forma general para las secciones pésimas del túnel. Con todos estos datos, en esta primera aproximación, es posible realizar el inventario de casos posibles a lo largo del trazado, para poder, posteriormente, minimizar el número de casos con mayores riesgos (técnicos, temporales o económicos) que requieran de tratamiento. Para la fase de EVALUACIÓN de la matriz de casos posibles en función del trazado inicial escogido (que puede estar ya impuesto por el proyecto, si no se ha podido intervenir en dicha fase), es necesario valorar el comportamiento teórico del túnel en toda su longitud, estudiando las secciones concretas según el tipo y el modo de afección (CASOS) y todo ello en función de los resultados de los estudios realizados en otros túneles. Se debe evaluar el riesgo para cada uno de los casos en función de las longitudes de túnel que se esperan que sean afectadas y el proceso constructivo y de excavación que se vaya a adoptar, a veces varios. Es importante tener en cuenta la existencia o no de agua o relleno arcilloso o incluso heterogéneo en las cavidades, ya que los riesgos se multiplican, así mismo se tendrá en cuenta la estabilidad del frente y del perímetro del túnel. En esta segunda fase se concluirá una nueva matriz con los resultados de los riesgos para cada uno de los casos que se presentarán en el túnel estudiado. El TRATAMIENTO, que se debe proponer al mismo tiempo que una serie de actuaciones para cada uno de los casos (combinación de tipos y modos de afección), debiendo evaluar la eficacia y eficiencia, es decir la relevancia técnica y económica, y como se pueden optimizar los tratamientos. Si la tabla de riesgos que se debe generar de nuevo introduciendo los factores técnicos y económicos no resulta aceptable, será necesaria la reconsideración de los parámetros determinados en fases anteriores. Todo el desarrollo de estas tres etapas se ha recogido en 4 partes, en la primera parte se establece un método de estudio e interpretativo de las investigaciones superficiales y geotécnicas, denominado índice de karstificación. En la segunda parte, se estudia la afección a las obras subterráneas, modelos y tipos de afección, desde un punto de vista teórico. La tercera parte trata de una recopilación de casos reales y las consecuencias extraídas de ellos. Y finalmente, la cuarta parte establece los tratamientos y actuaciones para el diseño y ejecución de túneles en macizos kársticos calizos. Las novedades más importantes que presenta este trabajo son: El estudio de los casos de túneles realizados en karst calizo. Propuesta de los tratamientos más efectivos en casos generales. La evaluación de riesgos en función de las tipologías de túnel y afecciones en casos generales. La propuesta de investigación superficial mediante el índice de karstificación observacional. La evaluación mediante modelos del comportamiento teórico de los túneles en karst para casos muy generales de la influencia de la forma, profundidad y desarrollo de la karstificación. In this doctoral thesis is studied the recommended investigation, evaluation and treatment when a tunnel is planed and constructed in karstic calcareous rock masses. Calcareous rock masses were selected only because the slow disolution produces stable conduct and caves instead the problems of sudden disolutions. Karstification index (IK) that encompasses various aspects of research karstic rock mass is presented. The karst rock masses are all unique and there are no similarities between them in size or density cavities ducts, but both their formation mechanisms, like, geological and hydrogeological geomorphological evidence allow us, through a geomechanical survey and geological-photo interpretation in the surface, establish a karst evaluation index specific for tunnelling, which allows us to set a ranking of the intensity of karstification and the associated stadistic to find caves and its risk in tunnelling. This index is estimated and useful for decision-making and evaluation of measures to be considered in the design of a tunnel and is set in degrees from 0 to 100, with similar to the RMR degrees. The sectorization of the tunnel section and the types of condition proposed in this thesis, are estimated also useful to understand the different effects that interception of ducts and cavities may have in the tunnel during construction and service life. Simplified calculations using two-dimensional models contained in the thesis, have been done to establish the relationship between the position of the cavities relative to the section of the tunnel and its size in relation to the safety factors for each ground conditions, cover and natural stresses. Study of over 100 cases of tunnels that have intercepted cavities or karst conduits have been used in this thesis and the list of risks found in these tunnels have been related as well. The most common and effective treatments are listed and finally associated to the models and type of affection generated to give the proper tool to help in the critical decision when the tunnels intercept cavities. Some existing studies from Marinos have been considered for this document. The structure of the thesis is mainly divided 4 parts included in 3 steps: The investigation, the evaluation and the treatments, which match with the main steps needed for the critical decisions to be made during the design and construction of tunnels in karstic rockmasses, very important to get a successfully project done.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se realiza un estudio experimental del comportamiento de veinte vigas de madera aserrada de pino silvestre para uso estructural, de dimensiones 155x75x1090mm y reforzadas con materiales compuestos de fibra de carbono. La procedencia de la madera es el aserradero de Valsaín. Los ensayos se han realizado en el Laboratorio de Materiales de Construcción de la Escuela Universitaria de Arquitectura Técnica de Madrid con una máquina de ensayos Universal. El objetivo del trabajo es el análisis del comportamiento a flexión de las piezas ensayadas reforzadas con materiales compuestos de fibra de carbono realizados con tejidos unidireccionales y bidireccionales. De las veinte vigas ensayadas nueve fueron sin reforzar y el resto se reforzaron con el refuerzo en forma de ?U?, adhiriendo el material compuesto a la cara inferior y los laterales de las vigas, hasta una altura de la mitad del canto. Para la realización de los FRP se han empleado tejidos de fibra de carbono unidireccionales y bidireccionales. El gramaje de los tejidos unidireccionales es de 300gr/m2 y se ha aplicado en una capa. Los tejidos bidireccionales utilizados tienen dos gramajes distintos, 160gr/m2 y 210gr/m2. Éstos últimos se han aplicado en una y en dos capas. Las nueve vigas ensayadas sin reforzar han servido como testigo para analizar el aumento de la capacidad de carga de las vigas reforzadas. A partir de los datos facilitados por el software se asociado a la máquina de ensayos se trazaron los gráficos carga-desplazamiento, con el fin de analizar las cargas máximas de rotura alcanzadas, desplazamientos y rigidez de las piezas. Posteriormente se realiza un análisis analítico hallando los valores medio de las cargas de rotura y los desplazamientos, realizando una comparación entre los datos obtenidos para las vigas sin reforzar y las reforzadas con los distintos sistemas. En las conclusiones se presentan los resultados del análisis realizado, estudiando el incremento de la capacidad de carga de las vigas reforzadas con respecto a las no reforzadas, y comparando entre sí el funcionamiento de los refuerzos aplicados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El 12 de agosto de 2014, se registró un sismo de magnitud 5.1, a una profundidad focal de 4 km., en el segmento de falla Bellavista Catequilla, el mismo que fue registrado en 8 estaciones localizadas en la ciudad de Quito. Estas se encuentran ubicadas a distancias epicentrales entre 12 y 19 km. En este artículo se comparan las aceleraciones máximas obtenidas en campo libre, con las que se obtienen al emplear las ecuaciones de movimientos fuertes de Campbell y Borzognia (2013) y el de Zhao et al. (2006). Para ello previamente se determina un plano de ruptura del sismo, utilizando las ecuaciones propuestas por Leonard (2010) y la geometría de las fallas ciegas propuestas por Alvarado (2014). ABSTRACT: On August 12 th 2014, a magnitude 5.1 earthquake occurred at a depth of 4 km, in the Bellavista Catequilla fault segment. This event was recorded by 8 strong-motion stations located between 12 and 19 km from the epicenter, in the city of Quito. In this article, the maximum ground accelerations recorded in free field are compared with the accelerations estimated using the models by Campbell y Borzognia (2013) and Zh ao et al. (2006). To this end, the earthquake rupture plane is determined using the equations proposed by Leonard (2010) and the geometry of the blind fault system of Quito proposed by Alvarado (2014).