973 resultados para Máximas y proverbios


Relevância:

30.00% 30.00%

Publicador:

Resumo:

El análisis de la velocidad de carrera mediante sensores láser permite la obtención de datos en tiempo real siendo ventajosos frente a otros sistemas. El objetivo de este estudio fue valorar la validez y fiabilidad del sensor láser del sistema BioLaserSport® para el cálculo de velocidades medias y máximas mediante estadísticos relativos y absolutos. Los participantes fueron 17 varones (20.85 ± 1.54 años). Se utilizó un sensor láser tipo 1 (LDM301, Jenoptik, Germany) que registró posiciones de los deportistas a 2000 Hz. Los datos se trataron con la rutina DSL-30 creada con DasyLab v.10.0. Para la validación se utilizó un sistema de fotogrametría-2D con una cámara de alta velocidad (Exilim High Speed EX-F1, Casio) y SkillSpector v.1.3.2. (Video4coach, Grubbemollevej). Además, se utilizaron foto-células de doble haz (Polifemo Light, Microgate, Italy) y un cronómetro Racetime2 (Microgate, Italy). Se registraron, durante dos días, tres series de 30 m de carrera a máxima velocidad. El sensor láser proporcionó, con relación a la fotogrametría, diferencias en las velocidades medias y máximas de -0.11 m•s-1 y 0.14 m•s-1, respectivamente, con unos coeficientes de correlación superiores a 0.86, y mayores de 0.92 con las foto-células para las velocidades medias. Este mostró una excelente fiabilidad test-retest para las velocidades medias con un coeficiente de correlación intraclase (ICC) entre 0.7-0.9 y un error estándar de la media (SEM y SEM%), intrasesión e intersesión, menor de 0.05 m•s-1 y 0.12 m•s-1, respectivamente, y menores de 0.75% y de 2%, respectivamente. Para las velocidades máximas,los valores fueron menores de 0.10 m•s-1 y 0.17 m•s-1, respectivamente, y en ambos casos menores a 1.36% y 1,89%. El láser fue capaz de identificar mínimos cambios detectables (MDC y MDC%) intrasesión, para ambas variables, menores a 0.14 m•s-1 y 0.29 m•s-1, respectivamente (< 2.09% y < 3.76%) e intersesión, menores de 0.34 m•s-1 y 0.47 m•s-1 (< 5.56% y < 5.25%), respectivamente. En consecuencia, es un instrumento útil para el análisis de la evolución de la velocidad intrasujeto y entre sujetos en la carrera de velocidad entre 0-30 m, proporcionando resultados en tiempo real, pero se han de considerar los SEM, SEM%, MDC y MDC% para valorar la mejora del rendimiento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El apartado <4.2 Altavoz> de la Norma Internacional UNE-EN ISO 140-5 y de fachadas> [1] especifica que la directividad del altavoz usado en el ensayo debe asegurar en todas las bandas de frecuencias de interés, unas diferencias de nivel locales inferiores a 5dB (o a 10 dB para fachadas de dimensiones mayores a 5m), medidas en campo libre, sobre una superficie del mismo tamaño y orientación que la pared o elemento a ensayar. Este requisito debe verificarse en unas bandas de frecuencia de interés que sean como mínimo los tercios de octava desde 100Hz hasta 3150Hz, y preferiblemente desde 50Hz hasta 5kHz. Desde hace unos años, en el Laboratorio de sonido de la EUIT de Telecomunicación de la Universidad Politécnica de Madrid, los autores han implementado un método en el que, a partir de las medidas de directividad en cámara anecoica de la fuente sonora a ensayar, se calcula el campo sonoro directo sobre una superficie ficticia que representa un elemento de fachada en la misma disposición que se indica en la norma ICO 140-5 y con unas dimensiones según se requieran en el procedimiento. También se estima la dimensión horizontal máxima ΔXmax de una fachada rectangular en relación de aspecto fija que permite verificar la norma con los criterios de 5dB y 10dB de diferencias máximas de niveles directos en dicha fachada. En esta ponencia se detalla el procedimiento anterior. ABSTRACT. The Section "4.2 loudspeaker" of the UNE-EN ISO 140-5 International Standard: "Field measurements of airborne sound insulation of façade elements and façades", specifies that the directivity of the loudspeaker used in the test must ensure in all frequency bands of interest, local level differences less than 5dB (or 10dB for façade dimensions greater than 5m), measured in free field over an area of the same size and orientation as the wall or element to be tested. This requirement must be verified in the frequency bands of interest which are, at least, the third octave bands from 100Hz to 3150Hz, preferably from 50Hz to 5kHz. In recent years, in the Laboratory of Sound of the EUIT Telecomunicación (Universidad Politécnica de Madrid), the authors have implemented a method that, from directivity measurements of loudspeakers performed in the anechoic room, the direct sound field on a surface in the same layout as indicated in the ISO standard is calculated. It is also estimated the maximum horizontal dimension Δxmax of a rectangular façade for each aspect ratio which verify the standard criteria of either 5dB or 10dB for the maximum differences of direct levels in the façade. This paper details the procedure above introduced.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El arquitecto Curro Inza (1929-1976) pertenece al grupo que se ha denominado como organicismo madrileño y Escuela de Madrid, cuyas máximas realizaciones se produjeron durante los años sesenta del pasado siglo. Hasta ahora su obra y persona han generado opiniones bien extremas, pero apenas han sido investigadas, cuando en realidad su arquitectura trata asuntos que hoy se muestran de actual interés. El estudio que aquí se presenta tiene un doble objetivo. El primero es agrupar la información arquitectónica del autor y catalogar las obras de su archivo personal (inédito hasta ahora). Se ordena, clasifica y cataloga toda la documentación arquitectónica del archivo Inza, dejándose depositada en la Biblioteca de la ETSAM, quedando disponible y facilitando posteriores investigaciones sobre este arquitecto. Se procede asimismo a la digitalizaran de los proyectos principales garantizando su optima conservación para el futuro Una vez logrado el primer objetivo, el segundo consiste en realizar un análisis proyectual y critico de su obra, un punto de vista hasta ahora apenas abordado. Me propongo profundizar en una obra definida como compleja pero poco explicada, realizando una revisión crítica de sus escritos y de sus proyectos, y relacionando esta con otras arquitecturas (nacionales e internacionales) que sitúen al autor dentro del discurso contemporáneo. Para desentrañar las claves de su arquitectura se aborda el trabajo de Inza desde cinco miradas distintas y simultaneas. Desde cada una de estas miradas o categorías) se hace una aproximación crítica recorriendo los proyectos. Unas categorías que, a la postre, conforman el índice de este trabajo. Aunque la compilación y revisión del archivo posee algo de búsqueda arqueológica, el estudio no pretende tener un interés únicamente o intrínsecamente histórico. El trabajo tiene en realidad como fin estudiar la forma de proyectar de un arquitecto hasta ahora poco referencial y que entiendo, puede hoy establecer puentes con el presente y el futuro a través de su arquitectura. Intentar entender los mecanismos que arman esta arquitectura, sus orígenes, su evolución y la construcción de su lenguaje. En resumen, explicar y analizar la obra desde un punto de vista proyectual haciendo una lectura critica que desentrañe estrategias de las que hoy pudiéramos aprender y nos resultasen operativas.ABSTRACT: The architect Curro Inza (1929-1976) belongs to the group known as Madrilian organicism and the School of Madrid, whose most important works were built during the 1960 and 1970 decades. Curro Inza's work has received up until now very different, even extreme opinions, but his work has not been studied in depth, which is surprising if we consider that his architecture treats issues which are of great interest today. The present study has aimed at two objectives. The first has been to gather the information concerned with the author and his work, and to catalog all of the works of this personal archive (unpublished up until now). The work we have done here has consisted in compiling, digitalizing, classifying and cataloguing all of the documentation found in Curro Inza's personal archive; this archive has been deposited in the Biblioteca de la Escuela Superior de Artquitectura de Madrid (ETSAM) . We have also digitalized the main projects in order to assure the best storage conditions for the future. The second objective has consisted in analyzing Curro Inza's work from a project and critical point of view, an approach which has not yet been explored. Within this second objective, I have studied Inza's work, which is well defined and personal as well as complex, but which has received little attention and has not been explained. I have done a critical revision of both his projects and his writings, and have related these with other, both national and international, architectures, in order to place Inza's work within the contemporary architectural discourse. In order to decipher the essence of Inza's architecture, I have approached his work from five, simultaneous perspectives. I have described the projects critically from each of the five perspectives or categories; these five categories give shape to the organization of the dissertation. Even if the compilation and revision of Inza's archive is somehow an archaeological search, this study aims at having a larger scope than its strict, exclusive historical interest. In this study I have studied Inza's projects from a critical point of view and in relation to contemporary architecture and architectural thought, attempting to draw connections between Inza's work and modern, present architecture. We have also attempted to understand and describe Inza's language and conception of architectural discourse, as well as his origins, evolution and expression of his thought. In summary, I have analyzed and explained Curro Inza's work from a projectual point of view, drawing a critical reading of the strategies used by the author, and from which we could learn and work today.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En nuestra cultura, asumimos el error como algo vergonzoso, como un resultado ajeno a nuestra consciente autoría. Normalmente queremos desentendernos de él, pues se suele asociar a que ha sido el resultado de un accidente involuntario. Sin embargo, también es cierto que se suele usar como un mecanismo que despierta nuestro humor, la curiosidad, el extrañamiento y la sorpresa. El error en nuestra cultura se esconde en inverosímiles mensajes que nos rodean. Si se toma como ejemplo los errores que se encierran en la serie humorística de dibujos animados "El-coyote-y-el-correcaminos"1, se puede descubrir las numerosas consecuencias y actitudes encriptadas donde el error participa. A modo resumen estos son cinco de los mensajes capturados donde los errores participan. 1- El Coyote, siempre hambriento, y con ganas de atrapar al Correcaminos, tiene una gran variedad de modos acercamiento y decisiones de caza. Las tácticas parecen perfectas pero siempre tienen un error que, aunque hacen que no lleguen a su fin, cada vez son más divertidas y locas. El Coyote se enfrenta continuamente al cómo hacerlo con una creatividad, tan abierta como errada. 2- El Correcaminos en cambio, inconscientemente es capaz de usar las trampas que construye el Coyote sin que estás funcionen. Sin saber que pueden atraparle, las usa como si supiera que el no va a errar. El Coyote en cambio es incapaz de hacer esto, y las trampas siempre se vuelven contra él. 3- El Coyote en ocasiones se ve inmiscuido en un proceso de construcción de trampas laborioso. Este proceso, a su vez, también suele estar cargado de errores. A pesar de que por ensayo y error termina haciendo las cosas como preveía, todo acaba saltando por los aires y no funciona. 4- Más allá de los fallos constructivos de las trampas de caza, el Coyote erra a menudo cuando piensa que es “normal”, es decir se da cuenta que no puede hacer unas series de cosas y finalmente no las hace. Por ejemplo, unas veces en medio del aire cae porque piensa que le afecta la gravedad, otras, justo cuando va a atrapar el Correcaminos se extraña por ser más rápido y al final no lo consigue. 5- Por último, el Coyote cansado de artilugios, recurre a la estrategia. Asume que el Correcaminos es más rápido que él y por ello le dibuja en una pared un túnel con una carretera. El Correcaminos entonces, utiliza el túnel o la carretera como uno ya existente se tratara. Mientras, el Coyote sorprendido intenta seguirlo pero no puede, se choca con la pared, cae en su propia trampa. De estos lugares que se encuentran en la cultura y donde campa el error, se sirve la tesis para localizar su correspondencia con la arquitectura. Por lo que se plantean estos contextos de estudio: 1- La historia de la arquitectura está llena de diferentes modos de hacer y tomar decisiones, de proyecto. Existen diversos planteamientos para enfrentarse a una teoría y una práctica. Todos parecen seguros y certeros, en cambio se tiene la convicción de que no es así. La historia de la arquitectura siempre ha sido tan caótica, divertida y llena de errores como son los autores que la construyen. De ahí que se plantee la búsqueda de los errores en el estudio de la teoría de los conocimientos y procesos lógicos que han guiado a la ciencia hasta donde estamos hoy, la búsqueda del error en la arquitectura a través del error en la epistemología. 2- En la cotidianidad de la arquitectura se "juntan" dibujos hechos en planta con los hechos en sección, se viaja por los planos buscando referencias de secciones, se buscan entradas o salidas, se llevan parcialidades de una planta a otra, se leen pies de plano para interpretar lo que ocurre, se dialoga sobre un proyecto buscando un concepto, se montan volúmenes de documentos que te lo dan en planta, se intentan comprender situaciones volumétricas de dibujos en hechos en "2d" o se intenta comprender un montaje gravitatorio. Situaciones donde somos conscientes y otras no, donde se pone en marcha un ejercicio mental de acoplamiento estructural de todas las partes que se “juntan”, a pesar de que estas entre sí no estén realmente relacionadas y sí llenas de errores. Aprovechándose de la confianza del intercambio de información, los errores se cuelan hasta el final y no llegamos a reconocerlos. 3- En la arquitectura uno de los modos más habituales de enfrentarse al proyecto es a través del método de ensayo y error, a través del cual se hacen continuos dibujos o maquetas, una y otra vez. En arquitectura es común necesitar de la insistencia para localizar algo, reiterar la búsqueda de un deseo. Cada una de ellas con modificaciones de la anterior, con nuevas posibilidades y tanteos. Afrontar este proceso más allá de lo que es enfrentarse a un error, encierra actitudes, voluntades, potencialidades y afecciones diferentes entre sí. A la vez, este ejercicio, suele ser personal, por lo que cada acción de ensayo y error es difícil que se deba a un sólo nivel de funcionamiento, hay factores que se escapan del control o de la previsibilidad. Aunque a priori parece que el proceso por ensayo y error en el hacer arquitectónico intenta eliminar el error, hay ocasiones donde éste desvela nuevas posibilidades. 4- Las fichas de patologías de los edificios en arquitectura suelen ser documentos técnicos que aluden a los problemas constructivos de manera directa; humedades, grietas, fisuras, desprendimientos. Errores constructivos que sin embargo se olvidan de lo que pueden ser “errores arquitectónicos”. Es decir, el proceso de construcción, la espacialidad, el programa, el contexto o la iluminación se pueden trabar erróneamente, pero no necesariamente con fallos constructivos. Errores arquitectónicos que no se suelen registrar como tal. Se cree que hay un mundo de arquitectura patológica que va más allá de la situación de la normalidad edificatoria que se suele tratar. Errores integrados en el hacer arquitectónico que han terminado por generar una arquitectura singular pero no excéntrica, anormal y difícilmente genérica. Arquitecturas creadas bajo un “error de vida”, las cuales demuestran que se pueden alcanzar equilibrios ajenos a los que la razón habitual impone en el hacer. 5- Es también común en la arquitectura, la capacidad de proyectar futuro a través de los diferentes campos de oportunidad que se generan. Las oportunidades unas veces las ofrecen las normativas, pero otras son los errores que estas tienen las que se convierten en resquicios para construir realidades que se escapan a sus rigideces. Alturas máximas, edificaciones límites, espacios libres, alineaciones de fachada, programa permitido…, normalmente leyes de control que se imponen en la ciudad y que a veces se convierten en un modo de dominación. Reglas que antes de su puesta en funcionamiento se creen cerradas y lógicas e infranqueables, pero en su puesta en uso, empiezan a errar. Los resultados no salen como debían, y las palabras son interpretadas de forma diferente, por lo que el usuario empieza a aprovecharse de estos errores como vía de escape sobre ellas. Una vez planteados estos cinco lugares vinculados a sistemas arquitectónicos y que a la vez encierran de alguna forma la mirada positiva que en ocasiones la cultura ofrece, cabría ser más específicos y plantearse la pregunta: .Como el error ha sido y puede ser productivo en la arquitectura? Para responder en estos cinco contextos descritos y habituales en el hacer arquitectónico, se crean cinco “planos secuencia” como respuesta. Que usados como técnica de planificación de un pensamiento, permiten responder sin cortes y durante un tiempo prolongado reflexiones concatenadas entre sí. De este modo, los cinco planos secuencias son respuestas a la pregunta pero desde distintos ámbitos. Respuestas donde los resultados del error no avergüenzan a la arquitectura, sino que animan a usarlo, a experimentar con ello. Los planos secuencias son una cantera que contiene las marcas de los errores, tanto de un pasado como de un futuro inmanente. Un modo de ordenar la información, donde el tiempo no es una marca de linealidad cronológica, sino la búsqueda hacia delante y hacia atrás de la maduración de un concepto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se realiza un estudio experimental del comportamiento de veinte vigas de madera aserrada de pino silvestre para uso estructural, de dimensiones 155x75x1090mm y reforzadas con materiales compuestos de fibra de carbono. La procedencia de la madera es el aserradero de Valsaín. Los ensayos se han realizado en el Laboratorio de Materiales de Construcción de la Escuela Universitaria de Arquitectura Técnica de Madrid con una máquina de ensayos Universal. El objetivo del trabajo es el análisis del comportamiento a flexión de las piezas ensayadas reforzadas con materiales compuestos de fibra de carbono realizados con tejidos unidireccionales y bidireccionales. De las veinte vigas ensayadas nueve fueron sin reforzar y el resto se reforzaron con el refuerzo en forma de ?U?, adhiriendo el material compuesto a la cara inferior y los laterales de las vigas, hasta una altura de la mitad del canto. Para la realización de los FRP se han empleado tejidos de fibra de carbono unidireccionales y bidireccionales. El gramaje de los tejidos unidireccionales es de 300gr/m2 y se ha aplicado en una capa. Los tejidos bidireccionales utilizados tienen dos gramajes distintos, 160gr/m2 y 210gr/m2. Éstos últimos se han aplicado en una y en dos capas. Las nueve vigas ensayadas sin reforzar han servido como testigo para analizar el aumento de la capacidad de carga de las vigas reforzadas. A partir de los datos facilitados por el software se asociado a la máquina de ensayos se trazaron los gráficos carga-desplazamiento, con el fin de analizar las cargas máximas de rotura alcanzadas, desplazamientos y rigidez de las piezas. Posteriormente se realiza un análisis analítico hallando los valores medio de las cargas de rotura y los desplazamientos, realizando una comparación entre los datos obtenidos para las vigas sin reforzar y las reforzadas con los distintos sistemas. En las conclusiones se presentan los resultados del análisis realizado, estudiando el incremento de la capacidad de carga de las vigas reforzadas con respecto a las no reforzadas, y comparando entre sí el funcionamiento de los refuerzos aplicados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En esta Tesis Doctoral se aborda un tema poco estudiado en el ámbito de los túneles y cuya problemática está basada en los riesgos e incertidumbres que representa el diseño y ejecución de túneles en macizos calizos karstificados. Mediante un estudio profundo del comportamiento de distintos casos reales de túneles en macizos kársticos calizos, aportando la realización de modelos y la experiencia constructiva del autor, se pretende proponer un procedimiento que permita sistematizar las actuaciones, investigación, evaluación y tratamiento en los túneles en karst, como herramienta básica para la toma de decisiones primarias correctas. Además, se proponen herramientas que pueden ayudar a mejorar el diseño y a decidir las medidas más eficientes para afrontar los problemas que genera el karst en los túneles, minimizando los riesgos para todos los actores, su probabilidad e impacto. Se profundiza en tres fases principales (que son referidas en la tesis en cuatro Partes): La INVESTIGACIÓN del macizo rocoso: La investigación engloba todas las actuaciones observacionales encaminadas a obtener el IK (Índice de Karstificación), así como las investigaciones necesarias mediante recopilación de datos superficiales, hidrogeológicos, climáticos, topográficos, así como los datos de investigaciones geofísicas, fotointerpretación, sondeos y ensayos geotécnicos que sean posibles. Mediante la misma, se debe alcanzar un conocimiento suficiente para llevar a cabo la determinación de la Caracterización geomecánica básica del macizo rocoso a distintas profundidades, la determinación del Modelo o modo de karstificación del macizo rocoso respecto al túnel y la Zonificación del índice de karstificación en el ámbito de actuación en el que se implantará el túnel. En esta primera fase es necesaria la correcta Definición geométrica y trazado de la obra subterránea: En función de las necesidades que plantee el proyecto y de los condicionantes externos de la infraestructura, se deben establecer los requisitos mínimos de gálibo necesarios, así como las condiciones de máximas pendientes para el trazado en alzado y los radios mínimos de las curvas en planta, en función del procedimiento constructivo y motivación de construcción del túnel (ferrocarril, carretera o hidráulico, etc...). Estas son decisiones estratégicas o primerias para las que se ha de contar con un criterio y datos adecuados. En esta fase, son importantes las decisiones en cuanto a las monteras o profundidades relativas a la karstificación dominante e investigación de las tensiones naturales del macizo, tectónica, así como las dimensiones del túnel en función de las cavidades previstas, tratamientos, proceso de excavación y explotación. En esta decisión se debe definir, conocida ya de forma parcial la geotecnia básica, el procedimiento de excavación en función de las longitudes del túnel y la clasificación geomecánica del terreno, así como sus monteras mínimas, accesos y condicionantes medioambientales, pero también en función de la hidrogeología. Se establecerá la afección esperable en el túnel, identificando en la sectorización del túnel, la afección esperable de forma general para las secciones pésimas del túnel. Con todos estos datos, en esta primera aproximación, es posible realizar el inventario de casos posibles a lo largo del trazado, para poder, posteriormente, minimizar el número de casos con mayores riesgos (técnicos, temporales o económicos) que requieran de tratamiento. Para la fase de EVALUACIÓN de la matriz de casos posibles en función del trazado inicial escogido (que puede estar ya impuesto por el proyecto, si no se ha podido intervenir en dicha fase), es necesario valorar el comportamiento teórico del túnel en toda su longitud, estudiando las secciones concretas según el tipo y el modo de afección (CASOS) y todo ello en función de los resultados de los estudios realizados en otros túneles. Se debe evaluar el riesgo para cada uno de los casos en función de las longitudes de túnel que se esperan que sean afectadas y el proceso constructivo y de excavación que se vaya a adoptar, a veces varios. Es importante tener en cuenta la existencia o no de agua o relleno arcilloso o incluso heterogéneo en las cavidades, ya que los riesgos se multiplican, así mismo se tendrá en cuenta la estabilidad del frente y del perímetro del túnel. En esta segunda fase se concluirá una nueva matriz con los resultados de los riesgos para cada uno de los casos que se presentarán en el túnel estudiado. El TRATAMIENTO, que se debe proponer al mismo tiempo que una serie de actuaciones para cada uno de los casos (combinación de tipos y modos de afección), debiendo evaluar la eficacia y eficiencia, es decir la relevancia técnica y económica, y como se pueden optimizar los tratamientos. Si la tabla de riesgos que se debe generar de nuevo introduciendo los factores técnicos y económicos no resulta aceptable, será necesaria la reconsideración de los parámetros determinados en fases anteriores. Todo el desarrollo de estas tres etapas se ha recogido en 4 partes, en la primera parte se establece un método de estudio e interpretativo de las investigaciones superficiales y geotécnicas, denominado índice de karstificación. En la segunda parte, se estudia la afección a las obras subterráneas, modelos y tipos de afección, desde un punto de vista teórico. La tercera parte trata de una recopilación de casos reales y las consecuencias extraídas de ellos. Y finalmente, la cuarta parte establece los tratamientos y actuaciones para el diseño y ejecución de túneles en macizos kársticos calizos. Las novedades más importantes que presenta este trabajo son: El estudio de los casos de túneles realizados en karst calizo. Propuesta de los tratamientos más efectivos en casos generales. La evaluación de riesgos en función de las tipologías de túnel y afecciones en casos generales. La propuesta de investigación superficial mediante el índice de karstificación observacional. La evaluación mediante modelos del comportamiento teórico de los túneles en karst para casos muy generales de la influencia de la forma, profundidad y desarrollo de la karstificación. In this doctoral thesis is studied the recommended investigation, evaluation and treatment when a tunnel is planed and constructed in karstic calcareous rock masses. Calcareous rock masses were selected only because the slow disolution produces stable conduct and caves instead the problems of sudden disolutions. Karstification index (IK) that encompasses various aspects of research karstic rock mass is presented. The karst rock masses are all unique and there are no similarities between them in size or density cavities ducts, but both their formation mechanisms, like, geological and hydrogeological geomorphological evidence allow us, through a geomechanical survey and geological-photo interpretation in the surface, establish a karst evaluation index specific for tunnelling, which allows us to set a ranking of the intensity of karstification and the associated stadistic to find caves and its risk in tunnelling. This index is estimated and useful for decision-making and evaluation of measures to be considered in the design of a tunnel and is set in degrees from 0 to 100, with similar to the RMR degrees. The sectorization of the tunnel section and the types of condition proposed in this thesis, are estimated also useful to understand the different effects that interception of ducts and cavities may have in the tunnel during construction and service life. Simplified calculations using two-dimensional models contained in the thesis, have been done to establish the relationship between the position of the cavities relative to the section of the tunnel and its size in relation to the safety factors for each ground conditions, cover and natural stresses. Study of over 100 cases of tunnels that have intercepted cavities or karst conduits have been used in this thesis and the list of risks found in these tunnels have been related as well. The most common and effective treatments are listed and finally associated to the models and type of affection generated to give the proper tool to help in the critical decision when the tunnels intercept cavities. Some existing studies from Marinos have been considered for this document. The structure of the thesis is mainly divided 4 parts included in 3 steps: The investigation, the evaluation and the treatments, which match with the main steps needed for the critical decisions to be made during the design and construction of tunnels in karstic rockmasses, very important to get a successfully project done.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se realiza un estudio experimental del comportamiento de veinte vigas de madera aserrada de pino silvestre para uso estructural, de dimensiones 155x75x1090mm y reforzadas con materiales compuestos de fibra de carbono. La procedencia de la madera es el aserradero de Valsaín. Los ensayos se han realizado en el Laboratorio de Materiales de Construcción de la Escuela Universitaria de Arquitectura Técnica de Madrid con una máquina de ensayos Universal. El objetivo del trabajo es el análisis del comportamiento a flexión de las piezas ensayadas reforzadas con materiales compuestos de fibra de carbono realizados con tejidos unidireccionales y bidireccionales. De las veinte vigas ensayadas nueve fueron sin reforzar y el resto se reforzaron con el refuerzo en forma de ?U?, adhiriendo el material compuesto a la cara inferior y los laterales de las vigas, hasta una altura de la mitad del canto. Para la realización de los FRP se han empleado tejidos de fibra de carbono unidireccionales y bidireccionales. El gramaje de los tejidos unidireccionales es de 300gr/m2 y se ha aplicado en una capa. Los tejidos bidireccionales utilizados tienen dos gramajes distintos, 160gr/m2 y 210gr/m2. Éstos últimos se han aplicado en una y en dos capas. Las nueve vigas ensayadas sin reforzar han servido como testigo para analizar el aumento de la capacidad de carga de las vigas reforzadas. A partir de los datos facilitados por el software se asociado a la máquina de ensayos se trazaron los gráficos carga-desplazamiento, con el fin de analizar las cargas máximas de rotura alcanzadas, desplazamientos y rigidez de las piezas. Posteriormente se realiza un análisis analítico hallando los valores medio de las cargas de rotura y los desplazamientos, realizando una comparación entre los datos obtenidos para las vigas sin reforzar y las reforzadas con los distintos sistemas. En las conclusiones se presentan los resultados del análisis realizado, estudiando el incremento de la capacidad de carga de las vigas reforzadas con respecto a las no reforzadas, y comparando entre sí el funcionamiento de los refuerzos aplicados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El 12 de agosto de 2014, se registró un sismo de magnitud 5.1, a una profundidad focal de 4 km., en el segmento de falla Bellavista Catequilla, el mismo que fue registrado en 8 estaciones localizadas en la ciudad de Quito. Estas se encuentran ubicadas a distancias epicentrales entre 12 y 19 km. En este artículo se comparan las aceleraciones máximas obtenidas en campo libre, con las que se obtienen al emplear las ecuaciones de movimientos fuertes de Campbell y Borzognia (2013) y el de Zhao et al. (2006). Para ello previamente se determina un plano de ruptura del sismo, utilizando las ecuaciones propuestas por Leonard (2010) y la geometría de las fallas ciegas propuestas por Alvarado (2014). ABSTRACT: On August 12 th 2014, a magnitude 5.1 earthquake occurred at a depth of 4 km, in the Bellavista Catequilla fault segment. This event was recorded by 8 strong-motion stations located between 12 and 19 km from the epicenter, in the city of Quito. In this article, the maximum ground accelerations recorded in free field are compared with the accelerations estimated using the models by Campbell y Borzognia (2013) and Zh ao et al. (2006). To this end, the earthquake rupture plane is determined using the equations proposed by Leonard (2010) and the geometry of the blind fault system of Quito proposed by Alvarado (2014).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La capacidad de transporte es uno de los baremos fundamentales para evaluar la progresión que puede llegar a tener un área económica y social. Es un sector de elevada importancia para la sociedad actual. Englobado en los distintos tipos de transporte, uno de los medios de transporte que se encuentra más en alza en la actualidad, es el ferroviario. Tanto para movilidad de pasajeros como para mercancías, el tren se ha convertido en un medio de transporte muy útil. Se encuentra dentro de las ciudades, entre ciudades con un radio pequeño entre ellas e incluso cada vez más, gracias a la alta velocidad, entre ciudades con gran distancia entre ellas. Esta Tesis pretende ayudar en el diseño de una de las etapas más importantes de los Proyectos de instalación de un sistema ferroviario: el sistema eléctrico de tracción. La fase de diseño de un sistema eléctrico de tracción ferroviaria se enfrenta a muchas dudas que deben ser resueltas con precisión. Del éxito de esta fase dependerá la capacidad de afrontar las demandas de energía de la explotación ferroviaria. También se debe atender a los costes de instalación y de operación, tanto costes directos como indirectos. Con la Metodología que se presenta en esta Tesis se ofrecerá al diseñador la opción de manejar un sistema experto que como soluciones le plantee un conjunto de escenarios de sistemas eléctricos correctos, comprobados por resolución de modelos de ecuaciones. Correctos desde el punto de vista de validez de distintos parámetros eléctrico, como de costes presupuestarios e impacto de costes indirectos. Por tanto, el diseñador al haber hecho uso de esta Metodología, tendría en un espacio de tiempo relativamente corto, un conjunto de soluciones factibles con las que poder elegir cuál convendría más según sus intereses finales. Esta Tesis se ha desarrollado en una vía de investigación integrada dentro del Centro de Investigaciones Ferroviarias CITEF-UPM. Entre otros proyectos y vías de investigación, en CITEF se ha venido trabajando en estudios de validación y dimensionamiento de sistemas eléctricos ferroviarios con diversos y variados clientes y sistemas ferroviarios. A lo largo de los proyectos realizados, el interés siempre ha girado mayoritariamente sobre los siguientes parámetros del sistema eléctrico: - Calcular número y posición de subestaciones de tracción. Potencia de cada subestación. - Tipo de catenaria a lo largo del recorrido. Conductores que componen la catenaria. Características. - Calcular número y posición de autotransformadores para sistemas funcionando en alterna bitensión o 2x25kV. - Posición Zonas Neutras. - Validación según normativa de: o Caídas de tensión en la línea o Tensiones máximas en el retorno de la línea o Sobrecalentamiento de conductores o Sobrecalentamiento de los transformadores de las subestaciones de tracción La idea es que las soluciones aportadas por la Metodología sugieran escenarios donde de estos parámetros estén dentro de los límites que marca la normativa. Tener la posibilidad de tener un repositorio de posibles escenarios donde los parámetros y elementos eléctricos estén calculados como correctos, aporta un avance en tiempos y en pruebas, que mejoraría ostensiblemente el proceso habitual de diseño para los sistemas eléctricos ferroviarios. Los costes directos referidos a elementos como subestaciones de tracción, autotransformadores, zonas neutras, ocupan un gran volumen dentro del presupuesto de un sistema ferroviario. En esta Tesis se ha querido profundizar también en el efecto de los costes indirectos provocados en la instalación y operación de sistemas eléctricos. Aquellos derivados del impacto medioambiental, los costes que se generan al mantener los equipos eléctricos y la instalación de la catenaria, los costes que implican la conexión entre las subestaciones de tracción con la red general o de distribución y por último, los costes de instalación propios de cada elemento compondrían los costes indirectos que, según experiencia, se han pensado relevantes para ejercer un cierto control sobre ellos. La Metodología cubrirá la posibilidad de que los diseños eléctricos propuestos tengan en cuenta variaciones de coste inasumibles o directamente, proponer en igualdad de condiciones de parámetros eléctricos, los más baratos en función de los costes comentados. Analizando los costes directos e indirectos, se ha pensado dividir su impacto entre los que se computan en la instalación y los que suceden posteriormente, durante la operación de la línea ferroviaria. Estos costes normalmente suelen ser contrapuestos, cuánto mejor es uno peor suele ser el otro y viceversa, por lo que hace falta un sistema que trate ambos objetivos por separado. Para conseguir los objetivos comentados, se ha construido la Metodología sobre tres pilares básicos: - Simulador ferroviario Hamlet: Este simulador integra módulos para construir esquemas de vías ferroviarios completos; módulo de simulación mecánica y de la tracción de material rodante; módulo de señalización ferroviaria; módulo de sistema eléctrico. Software realizado en C++ y Matlab. - Análisis y estudio de cómo focalizar los distintos posibles escenarios eléctricos, para que puedan ser examinados rápidamente. Pico de demanda máxima de potencia por el tráfico ferroviario. - Algoritmos de optimización: A partir de un estudio de los posibles algoritmos adaptables a un sistema tan complejo como el que se plantea, se decidió que los algoritmos genéticos serían los elegidos. Se han escogido 3 algoritmos genéticos, permitiendo recabar información acerca del comportamiento y resultados de cada uno de ellos. Los elegidos por motivos de tiempos de respuesta, multiobjetividad, facilidad de adaptación y buena y amplia aplicación en proyectos de ingeniería fueron: NSGA-II, AMGA-II y ɛ-MOEA. - Diseño de funciones y modelo preparado para trabajar con los costes directos e indirectos y las restricciones básicas que los escenarios eléctricos no deberían violar. Estas restricciones vigilan el comportamiento eléctrico y la estabilidad presupuestaria. Las pruebas realizadas utilizando el sistema han tratado o bien de copiar situaciones que se puedan dar en la realidad o directamente sistemas y problemas reales. Esto ha proporcionado además de la posibilidad de validar la Metodología, también se ha posibilitado la comparación entre los algoritmos genéticos, comparar sistemas eléctricos escogidos con los reales y llegar a conclusiones muy satisfactorias. La Metodología sugiere una vía de trabajo muy interesante, tanto por los resultados ya obtenidos como por las oportunidades que puede llegar a crear con la evolución de la misma. Esta Tesis se ha desarrollado con esta idea, por lo que se espera pueda servir como otro factor para trabajar con la validación y diseño de sistemas eléctricos ferroviarios. ABSTRACT Transport capacity is one of the critical points to evaluate the progress than a specific social and economical area is able to reach. This is a sector of high significance for the actual society. Included inside the most common types of transport, one of the means of transport which is elevating its use nowadays is the railway. Such as for passenger transport of weight movements, the train is being consolidated like a very useful mean of transport. Railways are installed in many geography areas. Everyone know train in cities, or connecting cities inside a surrounding area or even more often, taking into account the high-speed, there are railways infrastructure between cities separated with a long distance. This Ph.D work aims to help in the process to design one of the most essential steps in Installation Projects belonging to a railway system: Power Supply System. Design step of the railway power supply, usually confronts to several doubts and uncertainties, which must be solved with high accuracy. Capacity to supply power to the railway traffic depends on the success of this step. On the other hand is very important to manage the direct and indirect costs derived from Installation and Operation. With the Methodology is presented in this Thesis, it will be offered to the designer the possibility to handle an expert system that finally will fill a set of possible solutions. These solutions must be ready to work properly in the railway system, and they were tested using complex equation models. This Thesis has been developed through a research way, integrated inside Citef (Railway Research Centre of Technical University of Madrid). Among other projects and research ways, in Citef has been working in several validation studies and dimensioning of railway power supplies. It is been working by a large range of clients and railways systems. Along the accomplished Projects, the main goal has been rounded mostly about the next list of parameters of the electrical system: - Calculating number and location of traction substations. Power of each substation. - Type of Overhead contact line or catenary through the railway line. The wires which set up the catenary. Main Characteristics. - Calculating number and position of autotransformers for systems working in alternating current bi-voltage of called 2x25 kV. - Location of Neutral Zones. - Validating upon regulation of: o Drop voltages along the line o Maximum return voltages in the line o Overheating/overcurrent of the wires of the catenary o Avoiding overheating in the transformers of the traction substations. Main objective is that the solutions given by the Methodology, could be suggest scenarios where all of these parameters from above, would be between the limits established in the regulation. Having the choice to achieve a repository of possible good scenarios, where the parameters and electrical elements will be assigned like ready to work, that gives a great advance in terms of times and avoiding several tests. All of this would improve evidently the regular railway electrical systems process design. Direct costs referred to elements like traction substations, autotransformers, neutral zones, usually take up a great volume inside the general budget in railway systems. In this Thesis has been thought to bear in mind another kind of costs related to railway systems, also called indirect costs. These could be enveloped by those enmarked during installation and operation of electrical systems. Those derived from environmental impact; costs generated during the maintenance of the electrical elements and catenary; costs involved in the connection between traction substations and general electric grid; finally costs linked with the own installation of the whole electrical elements needed for the correct performance of the railway system. These are integrated inside the set has been collected taking into account own experience and research works. They are relevant to be controlled for our Methodology, just in case for the designers of this type of systems. The Methodology will cover the possibility that the final proposed power supply systems will be hold non-acceptable variations of costs, comparing with initial expected budgets, or directly assuming a threshold of budget for electrical elements in actual scenario, and achieving the cheapest in terms of commented costs from above. Analyzing direct and indirect costs, has been thought to divide their impact between two main categories. First one will be inside the Installation and the other category will comply with the costs often happens during Railway Operation time. These costs normally are opposed, that means when one is better the other turn into worse, in costs meaning. For this reason is necessary treating both objectives separately, in order to evaluate correctly the impact of each one into the final system. The objectives detailed before build the Methodology under three basic pillars: - Railway simulator Hamlet: This software has modules to configure many railway type of lines; mechanical and traction module to simulate the movement of rolling stock; signaling module; power supply module. This software has been developed using C++ and Matlab R13a - Previously has been mandatory to study how would be possible to work properly with a great number of feasible electrical systems. The target comprised the quick examination of these set of scenarios in terms of time. This point is talking about Maximum power demand peaks by railway operation plans. - Optimization algorithms. A railway infrastructure is a very complex system. At the beginning it was necessary to search about techniques and optimization algorithms, which could be adaptable to this complex system. Finally three genetic multiobjective algorithms were the chosen. Final decision was taken attending to reasons such as time complexity, able to multiobjective, easy to integrate in our problem and with a large application in engineering tasks. They are: NSGA-II, AMGA-II and ɛ-MOEA. - Designing objectives functions and equation model ready to work with the direct and indirect costs. The basic restrictions are not able to avoid, like budgetary or electrical, connected hardly with the recommended performance of elements, catenary and safety in a electrical railway systems. The battery of tests launched to the Methodology has been designed to be as real as possible. In fact, due to our work in Citef and with real Projects, has been integrated and configured three real railway lines, in order to evaluate correctly the final results collected by the Methodology. Another topic of our tests has been the comparison between the performances of the three algorithms chosen. Final step has been the comparison again with different possible good solutions, it means power supply system designs, provided by the Methodology, testing the validity of them. Once this work has been finished, the conclusions have been very satisfactory. Therefore this Thesis suggest a very interesting way of research and work, in terms of the results obtained and for the future opportunities can be created with the evolution of this. This Thesis has been developed with this idea in mind, so is expected this work could adhere another factor to work in the difficult task of validation and design of railway power supply systems.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La aparición y avance de la enfermedad del marchitamiento del pino (Pine Wilt Desease, PWD), causada por Bursaphelenchus xylophilus (Nematoda; Aphelenchoididae), el nematodo de la madera del pino (NMP), en el suroeste de Europa, ha puesto de manifiesto la necesidad de estudiar la fenología y la dispersión de su único vector conocido en Europa, Monochamus galloprovincialis (Col., Cerambycidae). El análisis de 12 series de emergencias entre 2010 y 2014, registradas en Palencia, València y Teruel, con material procedente de diversos puntos de la península ibérica, demostró una alta variabilidad en la fenología de M. galloprovincialis y la divergencia térmica respecto de las poblaciones portuguesas. Para éstas, el establecimiento de los umbrales térmicos de desarrollo de las larvas post-dormantes del vector (12,2 y 33,5ºC) permitió la predicción de la emergencia mediana para la fecha en la que se acumulaban de 822 grados-día. Ninguna de las series analizadas en este trabajo necesitó de dichos grados-día estimados para la emergencia mediana. Asimismo, la emergencia se adelantó en las regiones más calurosas, mientras que se retrasó en las zonas más templadas. Más allá de la posible variabilidad entre poblaciones locales peninsulares, se detectaron indicios de que la diferencia en la acumulación de calor durante el otoño puede afectar el grado de maduración de las larvas invernantes, y su posterior patrón temporal de emergencia. Por último, también fueron observados comportamientos de protandria en las emergencias. Respecto a la fenología de su vuelo, entre los años 2010 y 2015, fueron ejecutados un total de 8 experimentos de captura de M. galloprovincialis mediante trampas cebadas con atrayentes en diferentes regiones (Castellón, Teruel, Segovia y Alicante) permitiendo el seguimiento del periodo de vuelo. Su análisis permitió constatar la disminución de las capturas y el acortamiento del periodo de vuelo con la altitud, el inicio del vuelo en el mes de mayo/junio a partir de los 14ºC de temperatura media diaria, la influencia de las altas temperaturas en la disminución de las capturas estivales (potencial causante de perfiles bimodales en las curvas de vuelo en las zonas menos frías), la evolución de la proporción de sexos a lo largo del periodo de vuelo (que muestra una mayor captura de hembras al inicio y de machos al final) y el comportamiento diurno y ligado a las altas temperaturas del vuelo circadiano del insecto. Dos redes de muestreo sistemático de insectos saproxílicos instaladas en la Comunitat Valencia (Red MUFFET, 15 parcelas, año 2013) y en Murcia (Red ESFP, 20 parcelas, años 2008-2010) permitieron el estudio de la comunidad de insectos relacionada con M. galloprovincialis. Cada una de las parcelas contaba con una trampa cebada con atrayentes y una estación meteorológica. El registro de más de 250 especies de coleópteros saproxílicos demostró el potencial que tiene el empleo de redes de trampas vigía para la detección temprana de organismos exóticos, además de permitir la caracterización y evaluación de las comunidades de entomofauna útil, representando una de las mejores herramientas de la gestión integrada de plagas. En este caso, la comunidad de saproxílicos estudiada mostró ser muy homogénea respecto a la variación ambiental de las zonas de muestreo, y que pese a las pequeñas variaciones entre las comunidades de los diferentes ecosistemas, el rol que M. galloprovincialis desempeña en ellas a lo largo de todo el gradiente estudiado es el mismo. Con todo, el análisis mediante redes de interacción mostró su relevancia ecológica al actuar de conector entre los diferentes niveles tróficos. Por último, un total de 12 experimentos de marcaje-liberación-recaptura desarrollados entre 2009 y 2012 en Castellón, Teruel, Valencia y Murcia permitieron evaluar el comportamiento dispersivo de M. galloprovincialis. Las detecciones mediante trampas cebadas de los insectos liberados se dieron por lo menos 8 días después de la emergencia. La abundancia de población pareció relacionada con la continuidad, la naturalización de la masa, y con la afección previa de incendios. La dispersión no estuvo influida por la dirección ni la intensidad de los vientos dominantes. La abundancia de material hospedante (en lo referente a las variables de masa y a los índices de competencia) influyó en la captura del insecto en paisajes fragmentados, aunque la ubicación de las trampas optimizó el número de capturas cuando se ubicaron en el límite de la masa y en zonas visibles. Por último también se constató que M. galloprovincialis posee suficiente capacidad de dispersión como para recorrer hasta 1500 m/día, llegando a alcanzar distancias máximas de 13600m o de 22100 m. ABSTRACT The detection and expansion of the Pine Wilt Desease (PWD), caused by Bursaphelenchus xylophilus (Nematoda; Aphelenchoididae), Pine Wood Nematode (PWN), in southwestern Europe since 1999, has triggered off the study of the phenology and the dispersion of its unique vector in the continent, Monochamus galloprovincialis (Coleoptera, Cerambycidae). The analysis of 12 emergence series between 2010 and 2014 registered in Palencia, Teruel and Valencia (Spain), registered from field colonized material collected at several locations of the Iberian Peninsula, showed a high variability in the emergence phenology of M. galloprovincialis. In addition, these patterns showed a very acute thermal divergence regarding a development model fitted earlier in Portugal. Such model forecasted the emergence of 50% of M. galloprovincialis individuals in the Setúbal Peninsula (Portugal) when an average of 822 degree-days (DD) were reached, based on the accumulation of heat from the 1st of March until emergence and lower and upper thresholds of 12.2 ºC and 33,5 °C respectively. In our results, all analyzed series needed less than 822 DD to complete the 50% of the emergence. Also, emergency occurred earlier in the hottest regions, while it was delayed in more temperate areas. Beyond the possible variability between local populations, the difference in the heat accumulation during the fall season may have affected the degree of maturation of overwintering larvae, and subsequently, the temporal pattern of M. galloprovincialis emergences. Therefore these results suggest the need to differentiate local management strategies for the PWN vector, depending on the location, and the climatic variables of each region. Finally, protandrous emergence patterns were observed for M. galloprovincialis in most of the studied data-sets. Regarding the flight phenology of M. galloprovincialis, a total of 8 trapping experiments were carried out in different regions of the Iberian Peninsula (Castellón, Teruel, Segovia and Alicante) between 2010 and 2015. The use of commercial lures and traps allowed monitoring of the flight period of M. galloprovincialis. The analyses of such curves, helped confirming different aspects. First, a decline in the number of catches and a shortening of the flight period was observed as the altitude increased. Flight period was recorded to start in May / June when the daily average temperature went over 14 ° C. A significant influence of high temperatures on the decrease of catches in the summer was found in many occasions, which frequently lead to a bimodal profile of the flight curves in warm areas. The evolution of sex ratio along the flight period shows a greater capture of females at the beginning of the period, and of males at the end. In addition, the circadian response of M. galloprovincialis to lured traps was described for the first time, concluding that the insect is diurnal and that such response is linked to high temperatures. Two networks of systematic sampling of saproxylic insects were installed in the Region of Valencia (Red MUFFET, 15 plots, 2013) and Murcia (Red ICPF, 20 plots, 2008-2010). These networks, intended to serve the double purpose of early-detection and long term monitoring of the saproxylic beetle assemblies, allowed the study of insect communities related to M. galloprovincialis. Each of the plots had a trap baited with attractants and a weather station. The registration of almost 300 species of saproxylic beetles demonstrated the potential use of such trapping networks for the early detection of exotic organisms, while at the same time allows the characterization and evaluation of useful entomological fauna communities, representing one of the best tools for the integrated pest management. In this particular case, the studied community of saproxylic beetles was very homogeneous with respect to environmental variation of the sampling areas, and despite small variations between communities of different ecosystems, the role that M. galloprovincialis apparently plays in them across the studied gradient seems to be the same. However, the analysis through food-webs showed the ecological significance of M. galloprovincialis as a connector between different trophic levels. Finally, 12 mark-release-recapture experiments were carried out between 2009 and 2012 in Castellón, Teruel, Valencia and Murcia (Spain) with the aim to describe the dispersive behavior of M. galloprovincialis as well as the stand and landscape characteristics that could influence its abundance and dispersal. No insects younger than 8 days were caught in lured traps. Population abundance estimates from mark-release-recapture data, seemed related to forest continuity, naturalization, and to prior presence of forest fires. On the other hand, M. galloprovincialis dispersal was not found to be significantly influenced by the direction and intensity of prevailing winds. The abundance of host material, very related to stand characteristics and spacing indexes, influenced the insect abundance in fragmented landscapes. In addition, the location of the traps optimized the number of catches when they were placed in the edge of the forest stands and in visible positions. Finally it was also found that M. galloprovincialis is able to fly up to 1500 m / day, reaching maximum distances of up to 13600 m or 22100 m.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Manuel de Santo Tomas de Aquino utilizó entre otros el seudónimo de Amante de la Religion y Publica Felicidad

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Manuel de Santo Tomás de Aquino utilizó entre otros el seudónimo de Amante de la Religion y de la Publica Felicidad

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el ámbito de la robótica de servicio, actualmente no existe una solución automatizada para la inspección ultrasónica de las partes de material compuesto de una aeronave durante las operaciones de mantenimiento que realiza la aerolínea. El desarrollo de las nuevas técnicas de acoplamiento acústico en seco en el método de inspección no destructiva por ultrasonidos, está conduciendo a posibilitar su uso con soluciones de menor coste respecto a las técnicas tradicionales, sin perder eficacia para detectar las deficiencias en las estructuras de material compuesto. Aunque existen aplicaciones de esta técnica con soluciones manuales, utilizadas en las fases de desarrollo y fabricación del material compuesto, o con soluciones por control remoto en sectores diferentes al aeronáutico para componentes metálicos, sin embargo, no existen con soluciones automatizadas para la inspección no destructiva por ultrasonidos de las zonas del avión fabricadas en material compuesto una vez la aeronave ha sido entregada a la aerolínea. El objetivo de este trabajo fin de master es evaluar el sistema de localización, basado en visión por ordenador, de una solución robotizada aplicada la inspección ultrasónica estructural de aeronaves en servicio por parte de las propias aerolíneas, utilizando las nuevas técnicas de acoplamiento acústico en seco, buscando la ventaja de reducir los tiempos y los costes en las operaciones de mantenimiento. Se propone como solución un robot móvil autónomo de pequeño tamaño, con control de posición global basado en técnicas de SLAM Visual Monocular, utilizando marcadores visuales externos para delimitar el área de inspección. Se ha supuesto la inspección de elementos de la aeronave cuya superficie se pueda considerar plana y horizontal, como son las superficies del estabilizador horizontal o del ala. Este supuesto es completamente aceptable en zonas acotadas de estos componentes, y de cara al objetivo del proyecto, no le resta generalidad. El robot móvil propuesto es un vehículo terrestre triciclo, de dos grados de libertad, con un sistema de visión monocular completo embarcado, incluyendo el hardware de procesamiento de visión y control de trayectoria. Las dos ruedas delanteras son motrices y la tercera rueda, loca, sirve únicamente de apoyo. La dirección, de tipo diferencial, permite al robot girar sin necesidad de desplazamiento, al conseguirse por diferencia de velocidad entre la rueda motriz derecha e izquierda. El sistema de inspección ultrasónica embarcado está compuesto por el hardware de procesamiento y registro de señal, y una rueda-sensor situada coaxialmente al eje de las ruedas motrices, y centrada entre estas, de modo que la medida de inspección se realiza en el centro de rotación del robot. El control visual propuesto se realiza mediante una estrategia “ver y mover” basada en posición, ejecutándose de forma secuencial la extracción de características visuales de la imagen, el cálculo de la localización global del robot mediante SLAM visual y el movimiento de éste mediante un algoritmo de control de posición-orientación respecto a referencias de paso de la trayectoria. La trayectoria se planifica a partir del mapa de marcas visuales que delimitan el área de inspección, proporcionado también por SLAM visual. Para validar la solución propuesta se ha optado por desarrollar un prototipo físico tanto del robot como de los marcadores visuales externos, a los que se someterán a una prueba de validación como alternativa a utilizar un entorno simulado por software, consistente en el reconocimiento del área de trabajo, planeamiento de la trayectoria y recorrido de la misma, de forma autónoma, registrando el posicionamiento real del robot móvil junto con el posicionamiento proporcionado por el sistema de localización SLAM. El motivo de optar por un prototipo es validar la solución ante efectos físicos que son muy complicados de modelar en un entorno de simulación, derivados de las limitaciones constructivas de los sistemas de visión, como distorsiones ópticas o saturación de los sensores, y de las limitaciones constructivas de la mecánica del robot móvil que afectan al modelo cinemático, como son el deslizamiento de las ruedas o la fluctuación de potencia de los motores eléctricos. El prototipo de marcador visual externo utilizado para la prueba de validación, ha sido un símbolo plano vertical, en blanco y negro, que consta de un borde negro rectangular dentro del cual se incluye una serie de marcas cuadradas de color negro, cuya disposición es diferente para cada marcador, lo que permite su identificación. El prototipo de robot móvil utilizado para la prueba de validación, ha sido denominado VINDUSTOR: “VIsual controlled Non-Destructive UltraSonic inspecTOR”. Su estructura mecánica ha sido desarrollada a partir de la plataforma comercial de robótica educacional LEGO© MINDSTORMS NXT 2.0, que incluye los dos servomotores utilizados para accionar las dos ruedas motrices, su controlador, las ruedas delanteras y la rueda loca trasera. La estructura mecánica ha sido especialmente diseñada con piezas LEGO© para embarcar un ordenador PC portátil de tamaño pequeño, utilizado para el procesamiento visual y el control de movimiento, y el sistema de captación visual compuesto por dos cámaras web de bajo coste, colocadas una en posición delantera y otra en posición trasera, con el fin de aumentar el ángulo de visión. El peso total del prototipo no alcanza los 2 Kg, siendo sus dimensiones máximas 20 cm de largo, 25 cm de ancho y 26 cm de alto. El prototipo de robot móvil dispone de un control de tipo visual. La estrategia de control es de tipo “ver y mover” dinámico, en la que se realiza un bucle externo, de forma secuencial, la extracción de características en la imagen, la estimación de la localización del robot y el cálculo del control, y en un bucle interno, el control de los servomotores. La estrategia de adquisición de imágenes está basada en un sistema monocular de cámaras embarcadas. La estrategia de interpretación de imágenes está basada en posición tridimensional, en la que los objetivos de control se definen en el espacio de trabajo y no en la imagen. La ley de control está basada en postura, relacionando la velocidad del robot con el error en la posición respecto a las referencias de paso de una trayectoria. La trayectoria es generada a partir del mapa de marcadores visuales externo. En todo momento, la localización del robot respecto a un sistema de referencia externo y el mapa de marcadores, es realizado mediante técnicas de SLAM visual. La auto-localización de un robot móvil dentro de un entorno desconocido a priori constituye uno de los desafíos más importantes en la robótica, habiéndose conseguido su solución en las últimas décadas, con una formulación como un problema numérico y con implementaciones en casos que van desde robots aéreos a robots en entornos cerrados, existiendo numerosos estudios y publicaciones al respecto. La primera técnica de localización y mapeo simultáneo SLAM fue desarrollada en 1989, más como un concepto que como un algoritmo único, ya que su objetivo es gestionar un mapa del entorno constituido por posiciones de puntos de interés, obtenidos únicamente a partir de los datos de localización recogidos por los sensores, y obtener la pose del robot respecto al entorno, en un proceso limitado por el ruido de los sensores, tanto en la detección del entorno como en la odometría del robot, empleándose técnicas probabilísticas aumentar la precisión en la estimación. Atendiendo al algoritmo probabilístico utilizado, las técnicas SLAM pueden clasificarse en las basadas en Filtros de Kalman, en Filtros de Partículas y en su combinación. Los Filtros de Kalman consideran distribuciones de probabilidad gaussiana tanto en las medidas de los sensores como en las medidas indirectas obtenidas a partir de ellos, de modo que utilizan un conjunto de ecuaciones para estimar el estado de un proceso, minimizando la media del error cuadrático, incluso cuando el modelo del sistema no se conoce con precisión, siendo el más utilizado el Filtro de Kalman Extendido a modelos nolineales. Los Filtros de Partículas consideran distribuciones de probabilidad en las medidas de los sensores sin modelo, representándose mediante un conjunto de muestras aleatorias o partículas, de modo que utilizan el método Montecarlo secuencial para estimar la pose del robot y el mapa a partir de ellas de forma iterativa, siendo el más utilizado el Rao-Backwell, que permite obtener un estimador optimizado mediante el criterio del error cuadrático medio. Entre las técnicas que combinan ambos tipos de filtros probabilísticos destaca el FastSLAM, un algoritmo que estima la localización del robot con un Filtro de Partículas y la posición de los puntos de interés mediante el Filtro de Kalman Extendido. Las técnicas SLAM puede utilizar cualquier tipo de sensor que proporcionen información de localización, como Laser, Sonar, Ultrasonidos o Visión. Los sensores basados en visión pueden obtener las medidas de distancia mediante técnicas de visión estereoscópica o mediante técnica de visión monocular. La utilización de sensores basados en visión tiene como ventajas, proporcionar información global a través de las imágenes, no sólo medida de distancia, sino también información adicional como texturas o patrones, y la asequibilidad del hardware frente a otros sensores. Sin embargo, su principal inconveniente es el alto coste computacional necesario para los complejos algoritmos de detección, descripción, correspondencia y reconstrucción tridimensional, requeridos para la obtención de la medida de distancia a los múltiples puntos de interés procesados. Los principales inconvenientes del SLAM son el alto coste computacional, cuando se utiliza un número elevado de características visuales, y su consistencia ante errores, derivados del ruido en los sensores, del modelado y del tratamiento de las distribuciones de probabilidad, que pueden producir el fallo del filtro. Dado que el SLAM basado en el Filtro de Kalman Extendido es una las técnicas más utilizadas, se ha seleccionado en primer lugar cómo solución para el sistema de localización del robot, realizando una implementación en la que las medidas de los sensores y el movimiento del robot son simulados por software, antes de materializarla en el prototipo. La simulación se ha realizado considerando una disposición de ocho marcadores visuales que en todo momento proporcionan ocho medidas de distancia con ruido aleatorio equivalente al error del sensor visual real, y un modelo cinemático del robot que considera deslizamiento de las ruedas mediante ruido aleatorio. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-EKF presenta tendencia a corregir la localización obtenida mediante la odometría, pero no en suficiente cuantía para dar un resultado aceptable, sin conseguir una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. La conclusión obtenida tras la simulación ha sido que el algoritmo SLAMEKF proporciona inadecuada convergencia de precisión, debido a la alta incertidumbre en la odometría y a la alta incertidumbre en las medidas de posición de los marcadores proporcionadas por el sensor visual. Tras estos resultados, se ha buscado una solución alternativa. Partiendo de la idea subyacente en los Filtros de Partículas, se ha planteado sustituir las distribuciones de probabilidad gaussianas consideradas por el Filtro de Kalman Extendido, por distribuciones equi-probables que derivan en funciones binarias que representan intervalos de probabilidad no-nula. La aplicación de Filtro supone la superposición de todas las funciones de probabilidad no-nula disponibles, de modo que el resultado es el intervalo donde existe alguna probabilidad de la medida. Cómo la efectividad de este filtro aumenta con el número disponible de medidas, se ha propuesto obtener una medida de la localización del robot a partir de cada pareja de medidas disponibles de posición de los marcadores, haciendo uso de la Trilateración. SLAM mediante Trilateración Estadística (SLAM-ST) es como se ha denominado a esta solución propuesta en este trabajo fin de master. Al igual que con el algoritmo SLAM-EKF, ha sido realizada una implementación del algoritmo SLAM-ST en la que las medidas de los sensores y el movimiento del robot son simulados, antes de materializarla en el prototipo. La simulación se ha realizado en las mismas condiciones y con las mismas consideraciones, para comparar con los resultados obtenidos con el algoritmo SLAM-EKF. Durante la simulación, los resultados han mostrado que la localización estimada por el algoritmo SLAM-ST presenta mayor tendencia que el algoritmo SLAM-EKF a corregir la localización obtenida mediante la odometría, de modo que se alcanza una convergencia a una solución suficientemente cercana a la localización simulada del robot y los marcadores. Las conclusiones obtenidas tras la simulación han sido que, en condiciones de alta incertidumbre en la odometría y en la medida de posición de los marcadores respecto al robot, el algoritmo SLAM-ST proporciona mejores resultado que el algoritmo SLAM-EKF, y que la precisión conseguida sugiere la viabilidad de la implementación en el prototipo. La implementación del algoritmo SLAM-ST en el prototipo ha sido realizada en conjunción con la implementación del Sensor Visual Monocular, el Modelo de Odometría y el Control de Trayectoria. El Sensor Visual Monocular es el elemento del sistema SLAM encargado de proporcionar la posición con respecto al robot de los marcadores visuales externos, a partir de las imágenes obtenidas por las cámaras, mediante técnicas de procesamiento de imagen que permiten detectar e identificar los marcadores visuales que se hallen presentes en la imagen capturada, así como obtener las características visuales a partir de las cuales inferir la posición del marcador visual respecto a la cámara, mediante reconstrucción tridimensional monocular, basada en el conocimiento a-priori del tamaño real del mismo. Para tal fin, se ha utilizado el modelo matemático de cámara pin-hole, y se ha considerado las distorsiones de la cámara real mediante la calibración del sensor, en vez de utilizar la calibración de la imagen, tras comprobar el alto coste computacional que requiere la corrección de la imagen capturada, de modo que la corrección se realiza sobre las características visuales extraídas y no sobre la imagen completa. El Modelo de Odometría es el elemento del sistema SLAM encargado de proporcionar la estimación de movimiento incremental del robot en base a la información proporcionada por los sensores de odometría, típicamente los encoders de las ruedas. Por la tipología del robot utilizado en el prototipo, se ha utilizado un modelo cinemático de un robot tipo uniciclo y un modelo de odometría de un robot móvil de dos ruedas tipo diferencial, en el que la traslación y la rotación se determinan por la diferencia de velocidad de las ruedas motrices, considerando que no existe deslizamiento entre la rueda y el suelo. Sin embargo, el deslizamiento en las ruedas aparece como consecuencia de causas externas que se producen de manera inconstante durante el movimiento del robot que provocan insuficiente contacto de la rueda con el suelo por efectos dinámicos. Para mantener la validez del modelo de odometría en todas estas situaciones que producen deslizamiento, se ha considerado un modelo de incertidumbre basado en un ensayo representativo de las situaciones más habituales de deslizamiento. El Control de Trayectoria es el elemento encargado de proporcionar las órdenes de movimiento al robot móvil. El control implementado en el prototipo está basado en postura, utilizando como entrada la desviación en la posición y orientación respecto a una referencia de paso de la trayectoria. La localización del robot utilizada es siempre de la estimación proporcionada por el sistema SLAM y la trayectoria es planeada a partir del conocimiento del mapa de marcas visuales que limitan el espacio de trabajo, mapa proporcionado por el sistema SLAM. Las limitaciones del sensor visual embarcado en la velocidad de estabilización de la imagen capturada han conducido a que el control se haya implementado con la estrategia “mirar parado”, en la que la captación de imágenes se realiza en posición estática. Para evaluar el sistema de localización basado en visión del prototipo, se ha diseñado una prueba de validación que obtenga una medida cuantitativa de su comportamiento. La prueba consiste en la realización de forma completamente autónoma de la detección del espacio de trabajo, la planificación de una trayectoria de inspección que lo transite completamente, y la ejecución del recorrido de la misma, registrando simultáneamente la localización real del robot móvil junto con la localización proporcionada por el sistema SLAM Visual Monocular. Se han realizado varias ejecuciones de prueba de validación, siempre en las mismas condiciones iniciales de posición de marcadores visuales y localización del robot móvil, comprobando la repetitividad del ensayo. Los resultados presentados corresponden a la consideración de las medidas más pesimistas obtenidas tras el procesamiento del conjunto de medidas de todos los ensayos. Los resultados revelan que, considerando todo el espacio de trabajo, el error de posición, diferencia entre los valores de proporcionados por el sistema SLAM y los valores medidos de posición real, se encuentra en el entorno de la veintena de centímetros. Además, los valores de incertidumbre proporcionados por el sistema SLAM son, en todos los casos, superiores a este error. Estos resultados conducen a concluir que el sistema de localización basado en SLAM Visual, mediante un algoritmo de Trilateración Estadística, usando un sensor visual monocular y marcadores visuales externos, funciona, proporcionando la localización del robot móvil con respecto al sistema de referencia global inicial y un mapa de su situación de los marcadores visuales, con precisión limitada, pero con incertidumbre conservativa, al estar en todo momento el error real de localización por debajo del error estimado. Sin embargo, los resultados de precisión del sistema de localización no son suficientemente altos para cumplir con los requerimientos como solución robotizada aplicada a la inspección ultrasónica estructural de aeronaves en servicio. En este sentido, los resultados sugieren que la posible continuación de este trabajo en el futuro debe centrarse en la mejora de la precisión de localización del robot móvil, con líneas de trabajo encaminadas a mejorar el comportamiento dinámico del prototipo, en mejorar la precisión de las medidas de posición proporcionadas por el sensor visual y en optimizar el resultado del algoritmo SLAM. Algunas de estas líneas futuras podrían ser la utilización de plataformas robóticas de desarrollo alternativas, la exploración de técnicas de visión por computador complementarias, como la odometría visual, la visión omnidireccional, la visión estereoscópica o las técnicas de reconstrucción tridimensional densa a partir de captura monocular, y el análisis de algoritmos SLAM alternativos condicionado a disponer de una sustancial mejora de precisión en el modelo de odometría y en las medidas de posición de los marcadores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La evolución en el uso de los materiales pétreos y sistemas constructivos de fachada ventilada influye y condiciona el concepto del diseño de los cerramientos de fachada de los edificios y del proyecto arquitectónico. El objetivo de esta comunicación es identificar, analizar y valorar de forma sintética los principales condicionantes técnicos que deben considerarse en los aspectos constructivos que influyen en el proyecto de fachadas ventiladas de aplacado pétreo, interpretando sus prestaciones y su comportamiento mecánico. Para garantizar su calidad y durabilidad, se propone la aplicación práctica de métodos de cálculo y control de calidad tanto de los materiales pétreos como del sistema constructivo. La metodología empleada se basa tanto en ensayos en laboratorio de la piedra empleada como ensayos in situ del sistema constructivo ya ejecutado en obra, analizando las características físicas y comportamiento mecánico del aplacado en relación con las acciones a las que se ve sometido en un edificio. Los resultados obtenidos permiten verificar las elevadas tensiones y solicitaciones a las que se ven sometidos los aplacados pétreos trasventilados, y la importancia del adecuado proyecto y ejecución del cerramiento, mediante un correcto dimensionado y control de calidad de la obra. En conclusión, la fachada trasventilada pétrea supone la transformación del tradicional carácter masivo del uso de la piedra natural en arquitectura en una delgada piel expuesta a sus máximas prestaciones dentro de un conjunto de capas especializadas funcionalmente. Por ello, entender mejor y de forma sintética el específico comportamiento mecánico del aplacado pétreo y sus sistemas de anclaje en las fachadas ventiladas, sus principales causas de lesión, las características constructivas más destacables y las metodologías de cálculo y ensayo para garantizar su durabilidad, contribuirá a mejorar la calidad constructiva de las fachadas ventiladas, manteniendo y potenciando el uso de la piedra natural en la arquitectura moderna.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En su búsqueda por lograr un texto meta funcional, el traductor de la ironía necesita de bases teóricas que ayuden a sustentar su toma de decisiones durante el proceso traductor. Por tal razón, en este estudio empírico-descriptivo de corte cualitativo nos planteamos como objetivo la descripción de características de la traducción de la ironía en relación con el incumplimiento de máximas conversacionales griceanas, dada su recurrente mención en la investigación sobre la producción de significado irónico. Con el fin de cumplir nuestro propósito, contamos con conceptos expuestos desde el enfoque funcionalista de Nord (1997), la perspectiva discursiva de Hatim (1997), la noción de ironía de Barbe (1995) y las estrategias off record de Brown y Levinson (1987). Las propuestas de dichos autores se consideraron para el diseño nuestra estrategia metodológica, la cual nos condujo a la recolección e interpretación de datos que sustentaron nuestro análisis textual, desde una perspectiva pragmática. Como resultado encontramos que la traducción de la ironía, identificada en texto base a través de sus participantes, se conservó en el texto meta en aquellos casos en que también se mantuvo el incumplimiento de máximas conversacionales. Se concluye que este incumplimiento es un recurso válido para transmitir la ironía en la traducción de un texto literario.