40 resultados para Benevento-Terremotos-1688


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La construcción de una obra subterránea con las características de un túnel o condución de cualquier tipo afecta las propiedades del medio en el que se realiza, poniendo de manifiesto un problema que sólo en épocas relativamente recientes ha recibido antención: la interacción terreno-estructura. Si en las construcciones exteriores (edificios, presas etc.) la importancia de la interacción sólo existe en los casos de grandes obras, aquí la cuestión se plantea como algo intrínseco a la naturaleza del problema. La inclusión de las características del terreno en el análisis dinámico no es un problema sencillo, debido tanto a las irregularidades geométricas posibles, como a la incertidumbre respecto a las propiedades mecánicas. Por si fuera poco la aleatoriedad de las solicitaciones que estudiamos; terremotos, explosiones etc. exige un tratamiento estadístico de los resultados que se obtengan. Aunque se han realizado intentos analíticos para la resolución del problema, tropiezan siempre con la dificultad de las drásticas simplificaciones que es preciso suponer para hacer tratable el problema; estas simplificaciones pueden falsear los resultados deseados. De hecho, el único medio de introducir las numerosas variantes que aparecen es recurrir a los métodos numéricos de discretización. En este estudio hemos tanteado dos posibilidades. Finalmente, el método de los elementos finitos (F.E.M.)aparece como el más adecuado por su versatilidad y rápidez. El análisis dinámico mediante elementos finitos presenta algunos problemas, relativos fundamentalmente al modelado del medio. En efecto, la discretización introduce problemas al pretender simular la propagacíón de las ondas, y la presencia de contornos a distancia finita hace que se presenten problemas a menos que se dispongan medios como contornos absorbentes o cualquier otro procedimiento que elimine las reflexiones en los bordes. El problema es grave, pues se precisa disponer de un número muy grande de elementos lo que, limitado por la capacidad de la máquina, puede provocar una malla inadecuada para la representación de la estructura, siendo así que esta es nuestra preocupación básica. Por otro lado, si se utiliza la técnica modal, los dos o tres primeros modos del sistema global pueden no dar una representación apropiada del comportamiento de la estructura. El objetivo de este trabajo es la puesta a punto de un método que permita solventar estas dificultades y obtener la respuesta estructural con la precisión que se desee. Dado el carácter aleatorio de la solicitacion se ha dado un paso más y lo que se ha finalizado es con un estudio estadístico de la respuesta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presenta un procedimiento para el estudio de los efectos dinámicos en revestimentos de túneles sometidos a terremotos. La interacción terreno-estructura se plantea en el dominio de la frecuencia mediante el uso de la F.F.T. y la definición de una matriz de rigidez dinámica del terreno. La solicitación es un conjunto de terremotos simulados en ordenador. Se plantea una solución aproximada mediante el uso de los modos de un sistema asociado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The modal analysis of a structural system consists on computing its vibrational modes. The experimental way to estimate these modes requires to excite the system with a measured or known input and then to measure the system output at different points using sensors. Finally, system inputs and outputs are used to compute the modes of vibration. When the system refers to large structures like buildings or bridges, the tests have to be performed in situ, so it is not possible to measure system inputs such as wind, traffic, . . .Even if a known input is applied, the procedure is usually difficult and expensive, and there are still uncontrolled disturbances acting at the time of the test. These facts led to the idea of computing the modes of vibration using only the measured vibrations and regardless of the inputs that originated them, whether they are ambient vibrations (wind, earthquakes, . . . ) or operational loads (traffic, human loading, . . . ). This procedure is usually called Operational Modal Analysis (OMA), and in general consists on to fit a mathematical model to the measured data assuming the unobserved excitations are realizations of a stationary stochastic process (usually white noise processes). Then, the modes of vibration are computed from the estimated model. The first issue investigated in this thesis is the performance of the Expectation- Maximization (EM) algorithm for the maximum likelihood estimation of the state space model in the field of OMA. The algorithm is described in detail and it is analysed how to apply it to vibration data. After that, it is compared to another well known method, the Stochastic Subspace Identification algorithm. The maximum likelihood estimate enjoys some optimal properties from a statistical point of view what makes it very attractive in practice, but the most remarkable property of the EM algorithm is that it can be used to address a wide range of situations in OMA. In this work, three additional state space models are proposed and estimated using the EM algorithm: • The first model is proposed to estimate the modes of vibration when several tests are performed in the same structural system. Instead of analyse record by record and then compute averages, the EM algorithm is extended for the joint estimation of the proposed state space model using all the available data. • The second state space model is used to estimate the modes of vibration when the number of available sensors is lower than the number of points to be tested. In these cases it is usual to perform several tests changing the position of the sensors from one test to the following (multiple setups of sensors). Here, the proposed state space model and the EM algorithm are used to estimate the modal parameters taking into account the data of all setups. • And last, a state space model is proposed to estimate the modes of vibration in the presence of unmeasured inputs that cannot be modelled as white noise processes. In these cases, the frequency components of the inputs cannot be separated from the eigenfrequencies of the system, and spurious modes are obtained in the identification process. The idea is to measure the response of the structure corresponding to different inputs; then, it is assumed that the parameters common to all the data correspond to the structure (modes of vibration), and the parameters found in a specific test correspond to the input in that test. The problem is solved using the proposed state space model and the EM algorithm. Resumen El análisis modal de un sistema estructural consiste en calcular sus modos de vibración. Para estimar estos modos experimentalmente es preciso excitar el sistema con entradas conocidas y registrar las salidas del sistema en diferentes puntos por medio de sensores. Finalmente, los modos de vibración se calculan utilizando las entradas y salidas registradas. Cuando el sistema es una gran estructura como un puente o un edificio, los experimentos tienen que realizarse in situ, por lo que no es posible registrar entradas al sistema tales como viento, tráfico, . . . Incluso si se aplica una entrada conocida, el procedimiento suele ser complicado y caro, y todavía están presentes perturbaciones no controladas que excitan el sistema durante el test. Estos hechos han llevado a la idea de calcular los modos de vibración utilizando sólo las vibraciones registradas en la estructura y sin tener en cuenta las cargas que las originan, ya sean cargas ambientales (viento, terremotos, . . . ) o cargas de explotación (tráfico, cargas humanas, . . . ). Este procedimiento se conoce en la literatura especializada como Análisis Modal Operacional, y en general consiste en ajustar un modelo matemático a los datos registrados adoptando la hipótesis de que las excitaciones no conocidas son realizaciones de un proceso estocástico estacionario (generalmente ruido blanco). Posteriormente, los modos de vibración se calculan a partir del modelo estimado. El primer problema que se ha investigado en esta tesis es la utilización de máxima verosimilitud y el algoritmo EM (Expectation-Maximization) para la estimación del modelo espacio de los estados en el ámbito del Análisis Modal Operacional. El algoritmo se describe en detalle y también se analiza como aplicarlo cuando se dispone de datos de vibraciones de una estructura. A continuación se compara con otro método muy conocido, el método de los Subespacios. Los estimadores máximo verosímiles presentan una serie de propiedades que los hacen óptimos desde un punto de vista estadístico, pero la propiedad más destacable del algoritmo EM es que puede utilizarse para resolver un amplio abanico de situaciones que se presentan en el Análisis Modal Operacional. En este trabajo se proponen y estiman tres modelos en el espacio de los estados: • El primer modelo se utiliza para estimar los modos de vibración cuando se dispone de datos correspondientes a varios experimentos realizados en la misma estructura. En lugar de analizar registro a registro y calcular promedios, se utiliza algoritmo EM para la estimación conjunta del modelo propuesto utilizando todos los datos disponibles. • El segundo modelo en el espacio de los estados propuesto se utiliza para estimar los modos de vibración cuando el número de sensores disponibles es menor que vi Resumen el número de puntos que se quieren analizar en la estructura. En estos casos es usual realizar varios ensayos cambiando la posición de los sensores de un ensayo a otro (múltiples configuraciones de sensores). En este trabajo se utiliza el algoritmo EM para estimar los parámetros modales teniendo en cuenta los datos de todas las configuraciones. • Por último, se propone otro modelo en el espacio de los estados para estimar los modos de vibración en la presencia de entradas al sistema que no pueden modelarse como procesos estocásticos de ruido blanco. En estos casos, las frecuencias de las entradas no se pueden separar de las frecuencias del sistema y se obtienen modos espurios en la fase de identificación. La idea es registrar la respuesta de la estructura correspondiente a diferentes entradas; entonces se adopta la hipótesis de que los parámetros comunes a todos los registros corresponden a la estructura (modos de vibración), y los parámetros encontrados en un registro específico corresponden a la entrada en dicho ensayo. El problema se resuelve utilizando el modelo propuesto y el algoritmo EM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El reacondicionamiento de estructuras surge como reacción a la mejora de conocimientos, tanto en cuanto a la peligrosidad sísmica del emplazamiento, como a la vulnerabilidad de ciertas tipologías o detalles constructivos. En el caso particular de los puentes, la situación es debida a las continuas llamadas de atención que los grandes terremotos recientes están realizando respecto a estructuras tradicionalmente consideradas perfectas. El reacondicionamiento, desde un punto de vista social, es una respuesta activa frente a los daños previsibles, y una forma de minimizarlos con criterios ingenieriles. La actuación se articula alrededor de un Catálogo de estructuras, que se clasifican en forma que permite la toma de decisiones de acuerdo con los fondos disponibles. Tras un primer cribado que separa los puentes que, previsiblemente, no sufrirán problemas, se aplican métodos de cálculo capaces de prever los daños, y estimar las zonas en que aquellos pueden producirse, lo que permite contribuir a la ordenación precitada. Finalmente se establecen métodos que corrijan las deficiencias estructurales y ayuden a mejorar la respuesta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artículo describe un método simplificado para el estudio de la importancia de los modos locales en el establecimiento de las cargas para el dimensionamiento de las pilas de puentes. El cálculo sísmico de puentes es un tema de moda tras los espectaculares fallos acaecidos durante terremotos recientes y la continua construcción de obras de infraestructura en regiones sísmicas. Los problemas dinámicos planteados por los puentes son cualitativamente diferentes de los de edificación, incluso para el caso más sencillo de vibraciones longitudinales en pasos superiores rectos. A pesar de ello, las normas actuales proponen un método simplificado de "fuerzas equivalentes" basado en la aplicación del método de Rayleigh que no es de aplicación inmediata al cálculo de movimientos transversales o verticales, ya que está basado en un sólo modo; además, como se indica mas adelante, la introducción de apoyos elásticos entre tablero y pilas puede inducir modos locales que son de importancia capital para el cálculo de los esfuerzos en los pilares y que el calculista puede olvidar si aplica a ciegas las reglas habituales de truncamiento modal (por ejemplo, el criterio del 90% de la masa movilizada). El objetivo del artículo es desarrollar un modelo de dos grados de libertad con el que se muestre la importancia de la vobración de los pilares siguiendo un desarrollo asintótico propuesto por Kelly (1988) en otro contexto. Es interesante observar que el método propuesto permite una estimación cualitativa de la importancia de los modos cuya contribución a la solicitación de las columnas puede ser definitiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una solución para conseguir minimizar los daños que los terremotos causan en los puentes consiste en el aislamiento sísmico en la base, utilizando apoyos deslizantes entre pilas y tablero que transmitan únicamente las cargas verticales, mientras que los esfuerzos horizontales son transmitidos por unos dispositivos especiales que proporcionan flexibilidad horizontal, fuerzas de reacción y disipación de energía. En este trabajo se desarrolla un método para definir cuales serían las características ideales que deberían tener esos dispositivos de aislamiento para conseguir que las fuerzas horizontales transmitidas a las pilas sean inferiores a su límite elástico, minimizando los desplazamientos permitidos del tablero, y consiguiendo idénticas deformaciones en todos los puntos de la estructura en cada momento. Este método se desarrollará para todo tipo de puentes y se particularizará para tipos propuestos en los estudios realizados en la elaboración del Eurocódigo Sísmico analizándose las variables que intervienen, y las respuestas dinámicas esperadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La República de El Salvador está localizada al norte de Centroamérica, limita al norte con Honduras, al este con Honduras y Nicaragua en el Golfo de Fonseca, al oeste con Guatemala y al sur con el Océano Pacífico. Con una población de casi 6.3 millones de habitantes (2012) y una extensión territorial de algo más de 21.000 km2, es el país más pequeño de toda Centroamérica, con la densidad de población más alta (292 habitantes por km2) y una tasa de pobreza que supera el 34%. Actualmente el 63.2% de la población del país se concentra en las ciudades, y más de la cuarta parte de la población se asienta en el Área Metropolitana de El Salvador (AMSS), lo que supone un área de alrededor del 2.6% del territorio salvadoreño. Según el Banco Mundial, el país tiene un PIB per cápita de 3790 dólares (2012). Asimismo, desde hace ya varios años el elemento clave en la economía salvadoreña ha sido las remesas del exterior, las cuales en el 2006 representaron el 15% del PIB, manteniéndose por varios años consecutivos como la más importante fuente de ingresos externos con que cuenta el país (Comisión Económica para América Latina‐CEPAL, 2007). La inestabilidad económica, la desigual distribución de la riqueza, así como la brecha entre los ámbitos urbano y rural, son las principales causas que limitan las capacidades de desarrollo social del país. El Salvador es uno de los países ecológicamente más devastado de América Latina. Más del 95% de sus bosques tropicales de hojas caducas han sido destruidos y más del 70% de la tierra sufre una severa erosión. Según la FAO el país se encuentra en un franco proceso de desertificación. Como consecuencia de ello, casi todas las especies de animales salvajes se han extinguido o están al borde de la extinción, sin que hasta ahora haya indicios de revertir tal proceso. Por otra parte, en el AMSS el 13% de la población habita sobre terrenos en riesgo por derrumbes o demasiado próximos a fuentes de contaminación (Mansilla, 2009). Por su ubicación geográfica, dinámica natural y territorial, El Salvador ha estado sometido históricamente a diferentes amenazas de origen natural, como terremotos, tormentas tropicales, sequías, actividad volcánica, inundaciones y deslizamientos, los que, sumados a los procesos sociales de transformación (la deforestación, los cambios de uso del suelo y la modificación de los cauces naturales), propician condiciones de riesgo y plantean altas posibilidades de que ocurran desastres. Es evidente que la suma del deterioro económico, social y ambiental, combinado con la multiplicidad de amenazas a las que puede verse sometido el territorio, hacen al país sumamente vulnerable a la ocurrencia de desastres de distintas magnitudes e impactos. En la historia reciente de El Salvador se han producido numerosos eventos de gran magnitud, tales como los terremotos de enero y febrero de 2001. El 13 de enero de 2001 El Salvador sufrió un terremoto de magnitud Mw 7.7 relacionado con la zona de subducción de la placa del Coco bajo la placa Caribe, dejando alrededor de 900 muertos y numerosos daños materiales. A este terremoto le siguió un mes después, el 13 de febrero de 2001, otro de magnitud Mw 6.6 de origen continental que sumó más de 300 víctimas mortales y terminó de derribar gran cantidad de casas ya dañadas por el terremoto anterior. Ambos eventos dispararon enormes deslizamientos de tierra, que fueron los responsables de la mayoría de las muertes. Como se observó durante el terremoto de 2001, este tipo de sismicidad implica un alto riesgo para la sociedad salvadoreña debido a la gran concentración de población en zonas con fuertes pendientes y muy deforestadas susceptibles de sufrir deslizamientos, y debido también a la escasez de planes urbanísticos. La complicada evolución sociopolítica del país durante los últimos 50 años, con una larga guerra civil, ha influido que hayan sido escasas las investigaciones científicas relacionadas con la sismotectónica y el riesgo sísmico asociada a la geología local. La ocurrencia de los terremotos citados disparó un interés a nivel internacional en la adquisición e interpretación de nuevos datos de tectónica activa que con los años han dado lugar a diferentes trabajos. Fue precisamente a partir del interés en estos eventos del 2001 cuando comenzó la colaboración de la Dra. Benito y el Dr. Martínez‐Díaz (directores de esta tesis) en El Salvador (Benito et al. 2004), lo que dio lugar a distintos proyectos de cooperación e investigación que han tenido lugar hasta la actualidad, y que se han centrado en el desarrollo de estudios geológicos, sismológicos para mejorar el cálculo de la amenaza sísmica en El Salvador. Según Martínez‐Díaz et al. (2004) la responsable del terremoto de febrero de 2001 fue la que se denomina como Zona de Falla de El Salvador (ZFES), una zona de falla que atraviesa el país de este a oeste que no había sido descrita con anterioridad. Con el fin de estudiar y caracterizar el comportamiento de este sistema de fallas para su introducción en la evaluación de la amenaza sísmica de la zona se plantean diferentes estudios sismotectónicos y paleosísmicos, y, entre ellos, esta tesis que surge de la necesidad de estudiar el comportamiento cinemático actual de la ZFES, mediante la aplicación de técnicas geodésicas (GNSS) y su integración con datos geológicos y sismológicos. Con el objetivo de reconocer la ZFES y estudiar la viabilidad de la aplicación de estas técnicas en la zona de estudio, realicé mi primer viaje a El Salvador en septiembre de 2006. A raíz de este viaje, en 2007, comienza el proyecto ZFESNet (Staller et al., 2008) estableciendo las primeras estaciones y realizando la primera campaña de observación en la ZFES. Han sido 6 años de mediciones e intenso trabajo de lo que hoy se obtienen los primeros resultados. El interés que despiertan los terremotos y sus efectos, así como la vulnerabilidad que tiene El Salvador a estos eventos, ha sido para la autora un aliciente añadido a su trabajo, animándola a perseverar en el desarrollo de su tesis, a pesar de la multitud de imprevistos y problemas que han surgido durante su transcurso. La aportación de esta tesis al conocimiento actual de la ZFES se espera que sea un germen para futuras investigaciones y en particular para mejorar la evaluación de la amenaza sísmica de la zona. No obstante, se hace hincapié en que tan importante como el conocimiento de las fuentes sísmicas es su uso en la planificación urbanística del terreno y en la elaboración de normas sismoresistentes y su aplicación por parte de los responsables, lo cual ayudaría a paliar los efectos de fenómenos naturales como el terremoto, el cual no podemos evitar. El proyecto ZFESNet ha sido financiado fundamentalmente por tres proyectos de las convocatorias anuales de Ayudas para la realización de actividades con Latinoamérica de la UPM, de los que la autora de esta tesis ha sido la responsable, estos son: “Establecimiento de una Red de Control GPS en la Zona de Falla de El Salvador”, “Determinación de deformaciones y desplazamientos en la Zona de Falla de El Salvador” y “Determinación de deformaciones y desplazamientos en la Zona de Falla de El Salvador II”, y parcialmente por el proyecto de la Agencia Española de Cooperación y Desarrollo (AECID); “Desarrollo de estudios geológicos y sismológicos en El Salvador dirigidos a la mitigación del riesgo sísmico”, y el Proyecto Nacional I+D+i SISMOCAES: “Estudios geológicos y sísmicos en Centroamérica y lecciones hacia la evaluación del riesgo sísmico en el sur de España”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este capítulo se pretende estudiar el efecto combinado de las características elásticas y de inercia del terreno y la estructura sobre él construida. Desde el punto de vista de esta última, los efectos más llamativos son la alteración de los valores de las frecuencias aparentes, debido justamente a la participación del suelo en el fenómeno vibratorio, y del amortiguamiento general pues la radiación de energía y el amortiguamiento propio del suelo tienen unos valores importantes cuando se comparan con los propios de la estructura. Ambos fenómenos tienen lógicamente su reflejo en el valor de las amplitudes del movimiento, que serán distintas de las que se producirían en el caso de base rígida. El fenómeno era conocido desde antiguo por los constructores de cimientos de máquinas y su consideración en otras construcciones se ha producido cuando se ha ido a estructuras singulares como rascacielos, centrales nucleares, etc. En este sentido los primeros resultados llamativos fueron los presentados por AKINO,OTA y YAMAHARA (1969) donde se comunicaban los resultados obtenidos de la instrumentación de pequeños modelos muy rígidos de edificios de contención de reactores. Los registros obtenidos en ensayos forzados con vibradores, así como los resultados de pequeños terremotos reales indicaban diferencias apreciables del movimiento del suelo según la cota de observación, con lo que se planteó el problema de elegir cuál debería escogerse para analizar el modelo matemático de la realidad. Desde entonces han sido numerosísimos los trabajos de investigación del tema; trabajos que, al coincidir con el desarrollo de los nuevos métodos de cálculo, los han usado e impulsado a perfeccionarse. Paradójicamente el resultado final es la existencia de varias escuelas de pensamiento que, impulsadas por razones extracientíficas, han radicalizado sus diferencias. Con ello el establecimiento objetivo de un estado del arte actual es realmente dificil como lo prueba la tendencia fluctuante de la normativa yankee, al respecto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente, diversos terremotos han puesto de manifiesto la importancia de planificar las ciudades y la gran influencia que tiene el comportamiento de los edificios como consecuencia de los resultados de pérdidas humanas y económicas. Ante la imposibilidad de evitar la ocurrencia de terremotos y de predecirlos con un margen pequeño de tiempo para tomar acciones a corto plazo, la reducción de la vulnerabilidad de los elementos expuestos es la medida más eficaz para prevenir los daños y para evitar el desastre. Existen varios estudios anteriores de Norman B. Green (1980), Teresa Guevara López (2009 y 2012) que recogen criterios ya generalizados dentro de la bibliografía sísmica y algunos aspectos procedentes de norma sísmicas precursoras en este campo (por ejemplo, las peruanas) para establecer inicialmente unos principios urbanístico-sísmicos. Además, varios proyectos relacionados con el riesgo sísmico, RisK-Ue (2003), SERAMAR (Lars Abrahamczyk et al., 2013) han desarrollado metodologías que clasifican la vulnerabilidad de los edificios teniendo en cuenta modificadores por comportamientos y configuraciones irregulares sísmicamente. El presente trabajo desarrolla una metodología empírica para identificar y caracterizar los parámetros urbanísticos que determinan una respuesta sísmica irregular de las edificaciones, graduar su relación con el daño tras un terremoto y poder así disminuir la vulnerabilidad sísmica de las ciudades. La metodología desarrollada en esta tesis doctoral se aplica en la ciudad de Lorca, Región de Murcia. Se realiza un trabajo de campo donde se clasifican los edificios según su tipología estructural y sus parámetros urbanísticos. A través de un estudio estadístico se analiza la correlación con el daño de las edificaciones tras el terremoto del 11 de mayo de 2011. Previamente se ha hecho una clasificación de los edificios según la clase de suelo en la que se encuentran según el Eurocódigo8 (Navarro et al, 2012). Por último, se aplica la metodología para obtener una estimación de la habitabilidad de los edificios en Lorca post sismo. Para esta clasificación se ha adoptado el criterio recogido en diversas recomendaciones internacionales, la mayoría de las cuales se basan en la documentación generada por el ATC- Applied Technology Council, distinguiendo entre edificios habitables (no daño-daño no estructural) y edificios no habitables (daño estructural). ABSTRACT Currently, various earthquakes have made clear first, the importance of city planning and secondly, the great influence that has the behaviour of buildings as a consequence of the results of human and economic losses. Faced with the impossibility of avoiding the occurrence of earthquakes and predicting its with a small margin of time to take action in the short term, the reduction of the vulnerability of exposed elements is the most effective measure to prevent damage and to prevent the disaster. There are several previous studies, Norman B. Green (1980), Teresa Guevara López (2009-2012) collecting criteria already widespread within the seismic bibliography and we can find some aspects from standard seismic precursor in this field (for example, the Peruvian) to initially establish urban - seismic principles. In addition, several projects related to seismic risk, RisK-EU (2003), SERAMAR (Lars Abrahamczyk et al., 2013) have developed methodologies that classify the vulnerability of buildings taking into account modifiers for behaviours and irregular configurations in seismical terms. This paper develops an empirical methodology to identify and characterize the irregular urban parameters seismically, graduate its relationship with the building damages after an earthquake and thus reduce the seismic vulnerability of cities. The methodology developed in this thesis applies in the city of Lorca, Region of Murcia. Fieldwork where buildings are classified according to their structural type and its urban performance parameters. Through a statistical study the correlation with damage of buildings is analyzed after the earthquake of May 11, 2011. Previously a classification of the buildings has been made according to the kind of soil according to the Eurocodigo 8 (Navarro et al, 2012). Finally, you get an estimate of the building habitability in Lorca. As a result, this classification adopted the criterion contained in various international recommendations, most of which are based on the documentation published by the ATC - Applied Technology Council, habitable buildings (not damage -damage non-structural) and non habitable buildings (structural damage).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el primer capítulo se analizan las generalidades relativas al sismo. Tras algunas consideraciones sobre los fenómenos que aparecen durante un terremoto se describen algunos ejemplos históricos que han sido determinantes en el desarrollo del conocimiento y, finalmente, se plantean algunos problemas típicos de la ingeniería sísmica. En el siguiente capítulo se resumen algunos conceptos utilizados en la descripción física de la acción. Se trata de una presentación muy somera de temas en continua evolución. Se comienza con unas indicaciones sobre tectónica global que permiten hacerse una idea del origen de los terremotos en un marco general. A continuación se recuerdan algunos conceptos imprescindibles sobre propagación de ondas en medios elásticos, lo que permite comentar la composición de los acelerogramas, la estructura interna de la tierra y la localización de terremotos. Finalmente se incluyen las definiciones fenomenológicas e instrumentales utilizadas para describir el sismo, así como algunas correlaciones habituales entre ellas. En el capítulo posterior se desarrollan los criterios que permiten fijar la importancia de la acción sísmica en un emplazamiento determinado. Aunque aquéllos son semejantes para una cuantificación global y local se va a poner especial énfasis en la explicación de los métodos que han llevado al establecimiento del mapa sísmico español. En general cabe decir que el proyectista necesita evaluar los riesgos de diferentes niveles de daño con objeto de comparar soluciones alternativas. Para ello se precisa ser capaz de cuantificar y localizar la importancia de los sismos, el daño que producen en las estructuras así como cuantificar el coste generalizado (coste inicial+ beneficios+ coste de reparación) de la construcción. Tradicionalmente se ha empleado un enfoque determinista en que la solicitación sísmica se tomaba semejante a la máxima registrada históricamente. Tan solo en épocas recientes se ha impuesto una filosofía probabilista basada fundamentalmente en ideas expuestas por Cornell y Esteva en los años sesenta. En ambos casos se recurre a un estudio detallado de la estructura geotectónica de la región, en especial sus fallas activas, así como a la historia sísmica con localización de epicentros y asignación de intensidades que en nuestro país se puede basar en los catálogos existentes. En el caso determinista se postula que el máximo sismo histórico de cada falla se produce en la zona más próxima al emplazamiento, y utilizando fórmulas de atenuación se obtiene la característica de interés en aquel. En el último capítulo se van a describir métodos que, además de su aplicabilidad a sismos concretos han permitido la identificación de propiedades globales y, por tanto, la definición de la acción en función de un número limitado de parámetros. Aunque en un principio la descripción temporal fue la más usada, se ha observado que el contenido en frecuencias tiene una importancia capital y por ello se presentan sucesivamente ambos enfoques. Se dedica un apartado especial al concepto de espectro de respuesta elástica ya que está en la base de la mayoría de las recomendaciones de la normativa y recoge en forma muy sencilla una impresionante cantidad de información. Finalmente, se realizan breves indicaciones sobre los procedimientos utilizados para generar acelerogramas sintéticos que gocen de algunas de las propiedades globales puestas de manifiesto por las representaciones anteriores. Conviene remarcar que la importancia de los conceptos de densidad espectral o espectro de respuesta, radican no sólo en su capacidad para representar propiedades de un sismo dado sino, a través de su correspondiente normalización y promediación. En el último capítulo se incluyen algunas observaciones de interés sobre las modificaciones que las condiciones locales del suelo introducen en el movimiento sísmico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Bolund experiment has been reproduced in a neutral boundary layer wind tunnel (WT) at scale 1:115 for two Reynolds numbers. All the results have been obtained for an incoming flow from the 270o wind direction (transect B in the Bolund experiment jargon). Vertical scans of the velocity field are obtained using non-time resolved two components particle image velocimetry. Time-resolved velocity time series with a three component hot-wire probe have been also measured for transects at 2 and 5 m height and in the vertical transects at met masts M6, M3 and M8 locations. Special attention has been devoted to the detailed characterization of the inflow in order to reduce uncertainties in future comparisons with other physical and numerical simulations. Emphasis is placed on the analysis of spectral functions of the undisturbed flow and those of the flow above the island. The result?s reproducibility and trustworthiness have been addressed through redundancy measurements using particle image velocimetry, two and three components hot-wire anemometry. The bias in the prediction of the mean speed is similar to the one reported during the Bolund experiment by the physical modellers. However, certain reduction of the bias in the estimation of the turbulent kinetic energy is achieved. TheWT results of spectra and cosprectra have revealed a behaviour similar to the full-scale measurements in some relevant locations, showing that WT modelling can contribute to provide valid information about these important structural loading factors.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto consiste en el estudio y dimensionado inicial del sistema de potencia de un satélite de observación, que sirva de ayuda a otros sistemas de mayor precisión a la hora de detectar posibles terremotos y actividad volcánica mediante el análisis de señales electromagnéticas presentes en la ionosfera. Para ello el satélite incorpora, entre otros elementos sensores eléctricos, un analizador de plasma, y un detector de partículas. Con esta instrumentación se pretenden detectar los cambios que se producen en el campo electromagnético terrestre como consecuencia del movimiento de las placas tectónicas, y descubrir así las posibles anomalías que preceden a un seísmo. Para no sobrepasar el presupuesto con el que se ha ideado el proyecto se utilizarán sistemas que permitan la lectura de datos de la forma más simple, pudiendo ocurrir que los datos recogidos no se transmitan al control de Tierra en tiempo real, impidiendo a los científicos analizar los datos recogidos hasta unos días después, de ahí que este satélite experimental deba emplearse, en principio, como apoyo a programas de detención de terremotos más sofisticados y con mayores medios técnicos. Evidentemente, con este sistema también se podrán recoger datos tras los seísmos y examinarlos posteriormente. La órbita del satélite será una órbita LEO (Low Earth Orbit) de una altitud aproximada de 670 Km, estimándose el tiempo de vida del satélite en 5 años. Intentando emplear la mayor parte de los recursos económicos en el equipamiento científico, la estructura será la más simple posible, esto es, un paralelepípedo de dimensiones compactas con un peso aproximado de 185 kg, contando con paneles solares desplegables y en su interior con baterías que proporcionarán potencia al satélite durante la fase de lanzamiento y en momentos concretos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rotura de las geoestructuras puede ser causada por cambios en las tensiones efectivas debidos bien por cargas externas (terremotos, por ejemplo), bien por variación de las presiones intersticiales (lluvia), o cambios en la geometría (erosión), así como por una disminución de las propiedades resistentes de los materiales (meteorización, ataque químico, etc). El caso particular de los deslizamientos es interesante, existiendo diversas clasificaciones que tienen en cuenta su forma, velocidad de propagación, etc. Dos de estos casos son los deslizamientos propiamente dichos y los flujos. En el primer caso, la deformación se concentra en zonas de pequeño espesor, que se idealiza como una superficie (superficie de rotura). La cinemática de esta rotura se puede considerar como el movimiento relativo de dos masas cuyas deformaciones no son grandes. Este mecanismo está usualmente asociado a materiales sobreconsolidados que presentan reblandecimiento. Los flujos se producen generalmente en materiales de baja densidad y estructura metaestable, con tendencia a compactar, de forma que se generan presiones intersticiales que aumentan el ángulo de rozamiento movilizado, pudiéndose llegar en algunos casos a la licuefacción. Este mecanismo de rotura se conoce como rotura difusa, y no ha sido tan estudiado como el de localización a pesar de se trata frecuentemente de roturas de tipo catastrófico. De hecho, el suelo pasa de un estado sólido a un estado fluidificado, con una gran movilidad. Es importante para el ingeniero predecir tanto el comportamiento de las geoestructuras bajo las cargas de cálculo como las condiciones en las que se producirá la rotura. De esta manera, en algunos casos, se podrán reforzar las zonas más débiles aumentando así su seguridad. En otros casos, no se podrá realizar este refuerzo (grandes deslizamientos como avalanchas, lahares, etc), pero sí se podrán conocer las consecuencias de la rotura: velocidad de propagación, alcance, espesores, etc. La modelización de estos problemas es compleja, ya que aparecen dificultades en los modelos matemáticos, constitutivos o reológicos y numéricos. Dado que en los geomateriales aparece una interacción fuerte entre el esqueleto sólido y los fluidos intersticiales, esto debe ser tenido en cuenta en los modelos matemáticos. En este trabajo se describirán, pues, el desarrollo y aplicación de técnicas avanzadas de modelización; matemática, constitutiva/reológica y numérica. Se dedicará especial atención a los problemas de transición entre suelos y suelos fluidificados, que hoy en día se estudian en una gran mayoría de los casos con modelos diferentes. Así por ejemplo, se emplean modelos constitutivos para el comportamiento previo a la rotura, y reológicos para los materiales fluidificados. En lo que respecta a los modelos matemáticos, existen formulaciones nuevas en velocidades (o desplazamientos), tensiones, y presiones de aire y agua intersticial, de los que se pueden obtener modelos simplificados integrados en profundidad para deslizamientos rápidos. Respecto de los modelos constitutivos, es interesante la teoría de la Plasticidad Generalizada (modelo básico de Pastor-Zienkiewicz y extensiones a suelos no saturados). Se estudiará la extensión de estos modelos elastoplásticos a la viscoplasticidad (Perzyna y consistente), explorando la posibilidad de emplearlos tanto antes como después de la rotura. Finalmente, en lo que a modelos numéricos se refiere, se describirá la implementación de los modelos matemáticos y constitutivos desarrollados en (i) modelos clásicos de elementos finitos, como el GeHoMadrid desarrollado en los grupo investigador M2i al que pertenece el autor de este trabajo, (ii) Métodos de tipo Taylor Galerkin, y (iii) métodos sin malla como el SPH y el Material Point Model. Estos modelos se aplicarán, principalmente a (i) Licuefacción de estructuras cimentadas en el fondo marino (ii) presas de residuos mineros (iii) deslizamientos rápidos de laderas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad existe un gran conocimiento en la caracterización de rellenos hidráulicos, tanto en su caracterización estática, como dinámica. Sin embargo, son escasos en la literatura estudios más generales y globales de estos materiales, muy relacionados con sus usos y principales problemáticas en obras portuarias y mineras. Los procedimientos semi‐empíricos para la evaluación del efecto silo en las celdas de cajones portuarios, así como para el potencial de licuefacción de estos suelos durantes cargas instantáneas y terremotos, se basan en estudios donde la influencia de los parámetros que los rigen no se conocen en gran medida, dando lugar a resultados con considerable dispersión. Este es el caso, por ejemplo, de los daños notificados por el grupo de investigación del Puerto de Barcelona, la rotura de los cajones portuarios en el Puerto de Barcelona en 2007. Por estos motivos y otros, se ha decidido desarrollar un análisis para la evaluación de estos problemas mediante la propuesta de una metodología teórico‐numérica y empírica. El enfoque teórico‐numérico desarrollado en el presente estudio se centra en la determinación del marco teórico y las herramientas numéricas capaces de solventar los retos que presentan estos problemas. La complejidad del problema procede de varios aspectos fundamentales: el comportamiento no lineal de los suelos poco confinados o flojos en procesos de consolidación por preso propio; su alto potencial de licuefacción; la caracterización hidromecánica de los contactos entre estructuras y suelo (camino preferencial para el flujo de agua y consolidación lateral); el punto de partida de los problemas con un estado de tensiones efectivas prácticamente nulo. En cuanto al enfoque experimental, se ha propuesto una metodología de laboratorio muy sencilla para la caracterización hidromecánica del suelo y las interfaces, sin la necesidad de usar complejos aparatos de laboratorio o procedimientos excesivamente complicados. Este trabajo incluye por tanto un breve repaso a los aspectos relacionados con la ejecución de los rellenos hidráulicos, sus usos principales y los fenómenos relacionados, con el fin de establecer un punto de partida para el presente estudio. Este repaso abarca desde la evolución de las ecuaciones de consolidación tradicionales (Terzaghi, 1943), (Gibson, English & Hussey, 1967) y las metodologías de cálculo (Townsend & McVay, 1990) (Fredlund, Donaldson and Gitirana, 2009) hasta las contribuciones en relación al efecto silo (Ranssen, 1985) (Ravenet, 1977) y sobre el fenómeno de la licuefacción (Casagrande, 1936) (Castro, 1969) (Been & Jefferies, 1985) (Pastor & Zienkiewicz, 1986). Con motivo de este estudio se ha desarrollado exclusivamente un código basado en el método de los elementos finitos (MEF) empleando el programa MATLAB. Para ello, se ha esablecido un marco teórico (Biot, 1941) (Zienkiewicz & Shiomi, 1984) (Segura & Caron, 2004) y numérico (Zienkiewicz & Taylor, 1989) (Huerta & Rodríguez, 1992) (Segura & Carol, 2008) para resolver problemas de consolidación multidimensional con condiciones de contorno friccionales, y los correspondientes modelos constitutivos (Pastor & Zienkiewicz, 1986) (Fiu & Liu, 2011). Asimismo, se ha desarrollado una metodología experimental a través de una serie de ensayos de laboratorio para la calibración de los modelos constitutivos y de la caracterización de parámetros índice y de flujo (Castro, 1969) (Bahda 1997) (Been & Jefferies, 2006). Para ello se han empleado arenas de Hostun como material (relleno hidráulico) de referencia. Como principal aportación se incluyen una serie de nuevos ensayos de corte directo para la caracterización hidromecánica de la interfaz suelo – estructura de hormigón, para diferentes tipos de encofrados y rugosidades. Finalmente, se han diseñado una serie de algoritmos específicos para la resolución del set de ecuaciones diferenciales de gobierno que definen este problema. Estos algoritmos son de gran importancia en este problema para tratar el procesamiento transitorio de la consolidación de los rellenos hidráulicos, y de otros efectos relacionados con su implementación en celdas de cajones, como el efecto silo y la licuefacciones autoinducida. Para ello, se ha establecido un modelo 2D axisimétrico, con formulación acoplada u‐p para elementos continuos y elementos interfaz (de espesor cero), que tratan de simular las condiciones de estos rellenos hidráulicos cuando se colocan en las celdas portuarias. Este caso de estudio hace referencia clara a materiales granulares en estado inicial muy suelto y con escasas tensiones efectivas, es decir, con prácticamente todas las sobrepresiones ocasionadas por el proceso de autoconsolidación (por peso propio). Por todo ello se requiere de algoritmos numéricos específicos, así como de modelos constitutivos particulares, para los elementos del continuo y para los elementos interfaz. En el caso de la simulación de diferentes procedimientos de puesta en obra de los rellenos se ha requerido la modificacion de los algoritmos empleados para poder así representar numéricamente la puesta en obra de estos materiales, además de poder realizar una comparativa de los resultados para los distintos procedimientos. La constante actualización de los parámetros del suelo, hace también de este algoritmo una potente herramienta que permite establecer un interesante juego de perfiles de variables, tales como la densidad, el índice de huecos, la fracción de sólidos, el exceso de presiones, y tensiones y deformaciones. En definitiva, el modelo otorga un mejor entendimiento del efecto silo, término comúnmente usado para definir el fenómeno transitorio del gradiente de presiones laterales en las estructuras de contención en forma de silo. Finalmente se incluyen una serie de comparativas entre los resultados del modelo y de diferentes estudios de la literatura técnica, tanto para el fenómeno de las consolidaciones por preso propio (Fredlund, Donaldson & Gitirana, 2009) como para el estudio del efecto silo (Puertos del Estado, 2006, EuroCódigo (2006), Japan Tech, Stands. (2009), etc.). Para concluir, se propone el diseño de un prototipo de columna de decantación con paredes friccionales, como principal propuesta de futura línea de investigación. Wide research is nowadays available on the characterization of hydraulic fills in terms of either static or dynamic behavior. However, reported comprehensive analyses of these soils when meant for port or mining works are scarce. Moreover, the semi‐empirical procedures for assessing the silo effect on cells in floating caissons, and the liquefaction potential of these soils during sudden loads or earthquakes are based on studies where the underlying influence parameters are not well known, yielding results with significant scatter. This is the case, for instance, of hazards reported by the Barcelona Liquefaction working group, with the failure of harbor walls in 2007. By virtue of this, a complex approach has been undertaken to evaluate the problem by a proposal of numerical and laboratory methodology. Within a theoretical and numerical scope, the study is focused on the numerical tools capable to face the different challenges of this problem. The complexity is manifold; the highly non‐linear behavior of consolidating soft soils; their potentially liquefactable nature, the significance of the hydromechanics of the soil‐structure contact, the discontinuities as preferential paths for water flow, setting “negligible” effective stresses as initial conditions. Within an experimental scope, a straightforward laboratory methodology is introduced for the hydromechanical characterization of the soil and the interface without the need of complex laboratory devices or cumbersome procedures. Therefore, this study includes a brief overview of the hydraulic filling execution, main uses (land reclamation, filled cells, tailing dams, etc.) and the underlying phenomena (self‐weight consolidation, silo effect, liquefaction, etc.). It comprises from the evolution of the traditional consolidation equations (Terzaghi, 1943), (Gibson, English, & Hussey, 1967) and solving methodologies (Townsend & McVay, 1990) (Fredlund, Donaldson and Gitirana, 2009) to the contributions in terms of silo effect (Ranssen, 1895) (Ravenet, 1977) and liquefaction phenomena (Casagrande, 1936) (Castro, 1969) (Been & Jefferies, 1985) (Pastor & Zienkiewicz, 1986). The novelty of the study lies on the development of a Finite Element Method (FEM) code, exclusively formulated for this problem. Subsequently, a theoretical (Biot, 1941) (Zienkiewicz and Shiomi, 1984) (Segura and Carol, 2004) and numerical approach (Zienkiewicz and Taylor, 1989) (Huerta, A. & Rodriguez, A., 1992) (Segura, J.M. & Carol, I., 2008) is introduced for multidimensional consolidation problems with frictional contacts and the corresponding constitutive models (Pastor & Zienkiewicz, 1986) (Fu & Liu, 2011). An experimental methodology is presented for the laboratory test and material characterization (Castro 1969) (Bahda 1997) (Been & Jefferies 2006) using Hostun sands as reference hydraulic fill. A series of singular interaction shear tests for the interface calibration is included. Finally, a specific model algorithm for the solution of the set of differential equations governing the problem is presented. The process of consolidation and settlements involves a comprehensive simulation of the transient process of decantation and the build‐up of the silo effect in cells and certain phenomena related to self‐compaction and liquefaction. For this, an implementation of a 2D axi‐syimmetric coupled model with continuum and interface elements, aimed at simulating conditions and self‐weight consolidation of hydraulic fills once placed into floating caisson cells or close to retaining structures. This basically concerns a loose granular soil with a negligible initial effective stress level at the onset of the process. The implementation requires a specific numerical algorithm as well as specific constitutive models for both the continuum and the interface elements. The simulation of implementation procedures for the fills has required the modification of the algorithm so that a numerical representation of these procedures is carried out. A comparison of the results for the different procedures is interesting for the global analysis. Furthermore, the continuous updating of the model provides an insightful logging of variable profiles such as density, void ratio and solid fraction profiles, total and excess pore pressure, stresses and strains. This will lead to a better understanding of complex phenomena such as the transient gradient in lateral pressures due to silo effect in saturated soils. Interesting model and literature comparisons for the self‐weight consolidation (Fredlund, Donaldson, & Gitirana, 2009) and the silo effect results (Puertos del Estado (2006), EuroCode (2006), Japan Tech, Stands. (2009)). This study closes with the design of a decantation column prototype with frictional walls as the main future line of research.