1000 resultados para GENERACIÓN NUMÉRICA DE MALLAS (ANÁLISIS NUMÉRICO)


Relevância:

30.00% 30.00%

Publicador:

Resumo:

En ingeniería los materiales están sujetos a un proceso de degradación desde el mismo momento en el que concluye su proceso de fabricación. Cargas mecánicas, térmicas y agresiones químicas dañan las piezas a lo largo de su vida útil. El daño generado por procesos de fatiga, corrosión y desgaste son unos pocos ejemplos de posible deterioro. Este deterioro de las piezas se combate mediante la prevención en la etapa de diseño, a través de reparaciones periódicas y mediante la sustitución de piezas en servicio. La mayor parte de los tipos de daño que pueden sufrir los materiales durante su vida útil se originan en la superficie. Por esta razón, el objetivo de los tratamientos superficiales es inhibir el daño a través de la mejora de las propiedades superficiales del material, intentando no generar sobrecostes inasumibles en el proceso productivo ni efectos colaterales notablemente perjudiciales. En general, se ha de llegar a una solución óptima entre el coste del tratamiento superficial y el beneficio generado por el aumento de la vida útil del material. En esta tesis se estudian los efectos del tratamiento superficial de aleaciones metálicas mediante ondas de choque generadas por láser. Su denominación internacional más empleada "Láser Shock Processing" hace que se emplee la denominación de procesos de LSP para referirse a los mismos. También se emplea la denominación de "Láser Peening" por semejanza al tratamiento superficial conocido como "Shot Peening", aunque su uso sólo está generalizado en el ámbito industrial. El tratamiento LSP es una alternativa eficaz a los tratamientos tradicionales de mejora de propiedades superficiales, mejorando la resistencia a la fatiga, a la corrosión y al desgaste. El tratamiento LSP se basa en la aplicación de uno o varios pulsos láser de elevada intensidad (superior a 1 GW/cm2) y con duración en el dominio de los nanosegundos sobre la superficie de la pieza metálica a tratar. Esta, bien se recubre con una fina capa de medio confinante (generalmente una fina capa de agua) transparente a la radiación láser, bien se sumerge en el medio confinante (también se usa agua). El pulso láser atraviesa el medio confinante hasta llegar a la superficie de la pieza. Es entonces cuando la superficie inmediatamente se vaporiza y se ioniza, pasando a estado de plasma. Como el plasma generado es confinado por el medio confinante, su expansión se limita y su presión crece. De este modo, el plasma alcanza presiones de varios GPa y crea dos ondas de choque: una de las cuales se dirige hacia el medio confinante y la otra se dirige hacia la pieza. Esta última produce un cráter microscópico por aplastamiento mecánico, generándose deformación plástica y un campo de tensiones residuales de compresión que mejoran las propiedades superficiales del material. La capacidad de los procesos LSP para mejorar las propiedades de materiales metálicos es indiscutible. En la bibliografía está reflejado el trabajo experimental y de simulación que se ha llevado a cabo a lo largo de los años en orden a optimizar el proceso. Sin embargo, hay pocos estudios que hayan tratado exhaustivamente la física del proceso. Esto es debido a la gran complejidad de la fenomenología física involucrada en los procesos LSP, con comportamientos no lineales tanto en la generación y dinámica del plasma como en la propagación de las ondas de choque en el material. Además, el elevado coste de los experimentos y su duración, así como el gran coste computacional que debían asumir los antiguos modelos numéricos, dificultó el proceso de optimización. No obstante, los nuevos sistemas de cálculo son cada vez más rápidos y, además, los programas de análisis de problemas no lineales por elementos finitos son cada vez más sofisticados, por lo que a día de hoy es posible desarrollar un modelo exhaustivo que no solo permita simular el proceso en situaciones simplificadas, sino que pueda ser empleado para optimizar los parámetros del tratamiento en casos reales y sobre áreas extensas. Por esta razón, en esta tesis se desarrolla y se valida un modelo numérico capaz de simular de manera sistemática tratamientos LSP en piezas reales, teniendo en cuenta la física involucrada en los mismos. En este sentido, cabe destacar la problemática del tratamiento LSP en placas delgadas. La capacidad del LSP para inducir tensiones residuales de compresión bajo la superficie de materiales con un espesor relativamente grueso (> 6 mm) con objeto de mejorar la vida en fatiga ha sido ampliamente demostrada. Sin embargo, el tratamiento LSP en especímenes delgados (típicamente < 6 mm, pero también mayores si es muy alta la intensidad del tratamiento) conlleva el efecto adicional del doblado de la pieza tratada, un hecho que puede ser aprovechado para procesos de conformado láser. Este efecto de doblado trae consigo una nueva clase de problemas en lo referente a los perfiles específicos de tensiones residuales en las piezas tratadas, ya que al equilibrarse las tensiones tras la retirada de su sujeción puede afectar considerablemente el perfil de tensiones residuales obtenido, lo que posiblemente puede derivar en la obtención de un perfil de tensiones residuales no deseado y, lo que puede ser aún más crítico, una deformación indeseable de la pieza en cuestión. Haciendo uso del modelo numérico desarrollado en esta Tesis, el análisis del problema del tratamiento LSP para la inducción de campos de tensiones residuales y la consecuente mejora de la vida en fatiga en piezas de pequeño espesor en un modo compatible con una deformación asumible se aborda de forma específica. La tesis está estructurada del siguiente modo: i) El capítulo 1 contiene una introducción al LSP, en la que se definen los procesos de tratamiento de materiales mediante ondas de choque generadas por láser. A continuación se expone una visión panorámica de las aplicaciones industriales de la tecnología LSP y, por último, se realiza una comparativa entre la tecnología LSP y otras tecnologías en competencia en el ámbito industrial: Shot Peening, Low Plasticity Burnishing y Waterjet Peening. ii) El capítulo 2 se divide en dos partes: fundamentos físicos característicos del tratamiento LSP y estado del arte de la modelización de procesos LSP. En cuanto a la primera parte, fundamentos físicos característicos del tratamiento LSP, en primer lugar se describe la física del tratamiento y los principales fenómenos que tienen lugar. A continuación se detalla la física de la interacción confinada en agua y la generación del pulso de presión asociado a la onda de choque. También se describe el proceso de saturación de la presión máxima por ruptura dieléctrica del agua y, por último, se describe la propagación de las ondas de choque y sus efectos en el material. En cuanto a la segunda parte, el estado del arte de la modelización de procesos LSP, recoge el conocimiento preexistente al desarrollo de la propia Tesis en los siguientes campos: modelización de la generación del plasma y su expansión, modelización de la ruptura dieléctrica del medio confinante, modelización del pulso de presión aplicado al material y la respuesta del mismo: inducción de tensiones residuales y deformaciones. iii) El capítulo 3 describe el desarrollo de un modelo propio para la simulación de las tensiones residuales y las deformaciones generadas por procesos LSP. En él se detalla la simulación de la propagación del pulso de presión en el material, los pormenores de su puesta en práctica mediante el método de los elementos finitos, la determinación de parámetros realistas de aplicación y se establece un procedimiento de validación de los resultados. iv) El capítulo 4 contiene los resultados de la aplicación del modelo a distintas configuraciones de interés en tratamientos LSP. En él se recoge un estudio del tratamiento LSP sobre áreas extensas que incluye un análisis de las tensiones residuales inducidas y un análisis sobre la influencia de la secuencia de barrido de los pulsos en las tensiones residuales y en las deformaciones. También se presenta un estudio específico de la problemática del tratamiento LSP en piezas de pequeño espesor y se detallan dos casos prácticos abordados en el CLUPM de gran interés tecnológico en función de las aplicaciones reales en las que se ha venido trabajando en los últimos años. v) En el capítulo 5 se presentan las conclusiones derivadas de los resultados obtenidos en la tesis. Concretamente, se destaca que el modelo desarrollado permite reproducir las condiciones experimentales de los procesos de LSP reales y predecir los efectos mecánicos inducidos por los mismos. Los anexos incluidos como parte accesoria contienen información importante que se ha utilizado en el desarrollo de la Tesis y que se desea incluir para hacer el volumen autoconsistente: i) En el anexo A se presenta una revisión de conceptos básicos sobre el comportamiento de los sólidos sometidos a ondas de choque [Morales04]. ii) El anexo B contiene la resolución analítica de la ecuación de ritmo utilizada en el código DRUPT [Morales04]. iii) El anexo C contiene la descripción de los procedimientos de uso del modelo de simulación desarrollado en la Tesis y el código fuente de la subrutina OVERLAP desarrollada para programar el solapamiento de pulsos en tratamientos LSP sobre áreas extensas. iv) El anexo D contiene un resumen de las principales técnicas para la medición de las tensiones residuales en los materiales [PorrolO] y [Gill2]. v) El anexo E contiene una descripción de las instalaciones experimentales del CLUPM en el que se han desarrollado los procesos LSP utilizados en la validación del modelo desarrollado [PorrolO].

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El modelo energético actual está marcado por el predominio de los combustibles fósiles y el intento de introducir energías renovables para evolucionar hacia un modelo más sostenible. Entre las distintas alternativas, las plantas híbridas solar-fósil parecen una solución interesante ya que combinan las ventajas de las dos fuentes de energía. Hasta el momento, las líneas de investigación y análisis de plantas híbridas se ha centrado en el acoplamiento de tecnología solar a plantas o ciclos de potencia operativos. Este enfoque, tiene sentido en un marco como el actual, donde las plantas híbridas operativas no disponen de sistema de almacenamiento y donde se intenta reducir los costes, acoplando tecnología solar a ciclos de potencia existentes. Sin embargo, resta generalidad al análisis de la hibridación, imponiendo el diseño de la planta. Resulta interesante por tanto, realizar estudios que analicen la hibridación desde un punto de vista más general y que permitan a la propia planta, optimizar su diseño. Este estudio pretende aportar conocimiento en esta línea, analizando distintas posibilidades de diseño de futuras plantas híbridas operando en modo Fuel saving mode (FSM). Para ello, se ha realizado un estudio general y sistemático de distintas topologías de plantas híbridas, las cuales consideran como ciclo de potencia el ciclo Brayton y el ciclo Rankine. Para aportar la máxima generalidad posible, se han considerado un amplio abanico de condiciones operativas en ambos bloques. Como aporte al resto de estudios, éste estudio analiza la hibridación desde el punto de vista del bloque termosolar lo que indirectamente permite analizar el funcionamiento de la planta en modo híbrido. Para ello, se han identificado dos casos de diseño: 1. Caso A: Diseño de planta híbrida a partir de una planta o bloque convencional 2. Caso B: Diseño de planta híbrida a partir de una tecnología solar determinada La distinción entre casos de diseño, permite por un lado, establecer el potencial de la hibridación en las dos situaciones que se pueden plantear en la práctica estableciendo además, una base comparativa de resultados y por otro lado, identificar las condiciones de funcionamiento óptimas en las que diseñar la planta. Como conclusión principal, el estudio realizado demuestra que las condiciones de funcionamiento que optimizan la planta híbrida pueden diferir dependiendo del caso de diseño que se considere, lo que implica que el funcionamiento de la planta no tiene porqué estar optimizado simultáneamente para sus dos modos de funcionamiento (modo fósil y modo híbrido). Por tanto, se considera que el diseño final de la planta híbrida debería estar en función del tiempo en que la planta opera en cada uno de los modos, es decir, del Solar Capacity Factor (SCF). Además, el estudio realizado identifica dos situaciones concretas para las cuales la hibridación estaría desaconsejada desde un punto de vista energético. Aunque los resultados obtenidos son sólo una primera aproximación del diseño final de la planta híbrida, proporcionan unas directrices a partir de la cuales iniciar su desarrollo. Esto es especialmente interesante de cara a políticas estratégicas, donde en función de los objetivos vigentes o que se puedan plantear, se puede modificar el diseño de la planta en su estructura básica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El importante desarrollo tecnológico e industrial surgido especialmente durante la segunda mitad del siglo pasado ha eliminado las históricas limitaciones técnicas en el ámbito de los pro-­? yectos arquitectónicos, desembocando en la situación actual en la que cualquier planteamiento formal puede ser analizado desde un punto de vista estructural, concluyéndose por tanto que ha desaparecido la barrera del análisis en lo que al desarrollo de un proyecto arquitectónico se refiere. En la actualidad, al igual que a finales del siglo XIX, nos encontramos en un periodo de transi-­? ción, y también, como entonces, es la tecnología la que orienta el cambio. No la tecnología de los nuevos materiales (hormigón y acero) como sucedía tras la revolución industrial sino que es la nueva tecnología digital aplicada a los sistemas de diseño, cálculo y fabricación la que están siendo el motor de la actual transformación. Hoy no es tanto el paradigma mecanicista el que prevalece en muchos casos en la concepción de los edificios sino que, nuevos elementos como la tecnología digital integrada está cambiando la forma de diseñar y concebir el entorno cons-­? truido. Ante este contexto cabría plantearse las siguientes cuestiones: ¿Puede el diseño paramétrico y la tecnología CAD-­?CAM-­?CAE en conjunción con los programas actuales de análisis estructural basados en el Método de los Elementos Finitos hacer más sencilla la construcción de estructu-­? ras ligeras y eficientes hoy en día? ¿Puede la tecnología digital ayudar a ampliar el abanico for-­? mal a la hora de diseñar edificios y a la vez permitir el uso de sistemas estructurales racionales que optimicen el consumo de materiales bajo dichas circunstancias?

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los últimos avances tecnológicos y las tendencias arquitectónicas actuales han impulsado notablemente el uso de una gran variedad de productos de vidrio en la construcción que, en función de sus propias características, permiten diseñar y calcular elementos estructurales de este material bajo condiciones de seguridad. Este trabajo presenta la evaluación y el análisis de las propiedades de amortiguamiento de placas rectangulares de vidrio laminado de 1938 mm x 876 mm con distinto espesor, según el número de capas intermedias de PVB dispuestas. Mediante simulación numérica por elementos finitos y su posterior comprobación experimental, utilizando análisis modal, se determinaron las frecuencias naturales y el amortiguamiento de las placas de vidrio, tanto en condiciones de contorno libre, como en condiciones operacionales del equipo de ensayos de impacto utilizado en el programa experimental, siguiendo las especificaciones de la norma europea UNE-EN 12600:2003.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En la actualidad existe un gran conocimiento en la caracterización de rellenos hidráulicos, tanto en su caracterización estática, como dinámica. Sin embargo, son escasos en la literatura estudios más generales y globales de estos materiales, muy relacionados con sus usos y principales problemáticas en obras portuarias y mineras. Los procedimientos semi‐empíricos para la evaluación del efecto silo en las celdas de cajones portuarios, así como para el potencial de licuefacción de estos suelos durantes cargas instantáneas y terremotos, se basan en estudios donde la influencia de los parámetros que los rigen no se conocen en gran medida, dando lugar a resultados con considerable dispersión. Este es el caso, por ejemplo, de los daños notificados por el grupo de investigación del Puerto de Barcelona, la rotura de los cajones portuarios en el Puerto de Barcelona en 2007. Por estos motivos y otros, se ha decidido desarrollar un análisis para la evaluación de estos problemas mediante la propuesta de una metodología teórico‐numérica y empírica. El enfoque teórico‐numérico desarrollado en el presente estudio se centra en la determinación del marco teórico y las herramientas numéricas capaces de solventar los retos que presentan estos problemas. La complejidad del problema procede de varios aspectos fundamentales: el comportamiento no lineal de los suelos poco confinados o flojos en procesos de consolidación por preso propio; su alto potencial de licuefacción; la caracterización hidromecánica de los contactos entre estructuras y suelo (camino preferencial para el flujo de agua y consolidación lateral); el punto de partida de los problemas con un estado de tensiones efectivas prácticamente nulo. En cuanto al enfoque experimental, se ha propuesto una metodología de laboratorio muy sencilla para la caracterización hidromecánica del suelo y las interfaces, sin la necesidad de usar complejos aparatos de laboratorio o procedimientos excesivamente complicados. Este trabajo incluye por tanto un breve repaso a los aspectos relacionados con la ejecución de los rellenos hidráulicos, sus usos principales y los fenómenos relacionados, con el fin de establecer un punto de partida para el presente estudio. Este repaso abarca desde la evolución de las ecuaciones de consolidación tradicionales (Terzaghi, 1943), (Gibson, English & Hussey, 1967) y las metodologías de cálculo (Townsend & McVay, 1990) (Fredlund, Donaldson and Gitirana, 2009) hasta las contribuciones en relación al efecto silo (Ranssen, 1985) (Ravenet, 1977) y sobre el fenómeno de la licuefacción (Casagrande, 1936) (Castro, 1969) (Been & Jefferies, 1985) (Pastor & Zienkiewicz, 1986). Con motivo de este estudio se ha desarrollado exclusivamente un código basado en el método de los elementos finitos (MEF) empleando el programa MATLAB. Para ello, se ha esablecido un marco teórico (Biot, 1941) (Zienkiewicz & Shiomi, 1984) (Segura & Caron, 2004) y numérico (Zienkiewicz & Taylor, 1989) (Huerta & Rodríguez, 1992) (Segura & Carol, 2008) para resolver problemas de consolidación multidimensional con condiciones de contorno friccionales, y los correspondientes modelos constitutivos (Pastor & Zienkiewicz, 1986) (Fiu & Liu, 2011). Asimismo, se ha desarrollado una metodología experimental a través de una serie de ensayos de laboratorio para la calibración de los modelos constitutivos y de la caracterización de parámetros índice y de flujo (Castro, 1969) (Bahda 1997) (Been & Jefferies, 2006). Para ello se han empleado arenas de Hostun como material (relleno hidráulico) de referencia. Como principal aportación se incluyen una serie de nuevos ensayos de corte directo para la caracterización hidromecánica de la interfaz suelo – estructura de hormigón, para diferentes tipos de encofrados y rugosidades. Finalmente, se han diseñado una serie de algoritmos específicos para la resolución del set de ecuaciones diferenciales de gobierno que definen este problema. Estos algoritmos son de gran importancia en este problema para tratar el procesamiento transitorio de la consolidación de los rellenos hidráulicos, y de otros efectos relacionados con su implementación en celdas de cajones, como el efecto silo y la licuefacciones autoinducida. Para ello, se ha establecido un modelo 2D axisimétrico, con formulación acoplada u‐p para elementos continuos y elementos interfaz (de espesor cero), que tratan de simular las condiciones de estos rellenos hidráulicos cuando se colocan en las celdas portuarias. Este caso de estudio hace referencia clara a materiales granulares en estado inicial muy suelto y con escasas tensiones efectivas, es decir, con prácticamente todas las sobrepresiones ocasionadas por el proceso de autoconsolidación (por peso propio). Por todo ello se requiere de algoritmos numéricos específicos, así como de modelos constitutivos particulares, para los elementos del continuo y para los elementos interfaz. En el caso de la simulación de diferentes procedimientos de puesta en obra de los rellenos se ha requerido la modificacion de los algoritmos empleados para poder así representar numéricamente la puesta en obra de estos materiales, además de poder realizar una comparativa de los resultados para los distintos procedimientos. La constante actualización de los parámetros del suelo, hace también de este algoritmo una potente herramienta que permite establecer un interesante juego de perfiles de variables, tales como la densidad, el índice de huecos, la fracción de sólidos, el exceso de presiones, y tensiones y deformaciones. En definitiva, el modelo otorga un mejor entendimiento del efecto silo, término comúnmente usado para definir el fenómeno transitorio del gradiente de presiones laterales en las estructuras de contención en forma de silo. Finalmente se incluyen una serie de comparativas entre los resultados del modelo y de diferentes estudios de la literatura técnica, tanto para el fenómeno de las consolidaciones por preso propio (Fredlund, Donaldson & Gitirana, 2009) como para el estudio del efecto silo (Puertos del Estado, 2006, EuroCódigo (2006), Japan Tech, Stands. (2009), etc.). Para concluir, se propone el diseño de un prototipo de columna de decantación con paredes friccionales, como principal propuesta de futura línea de investigación. Wide research is nowadays available on the characterization of hydraulic fills in terms of either static or dynamic behavior. However, reported comprehensive analyses of these soils when meant for port or mining works are scarce. Moreover, the semi‐empirical procedures for assessing the silo effect on cells in floating caissons, and the liquefaction potential of these soils during sudden loads or earthquakes are based on studies where the underlying influence parameters are not well known, yielding results with significant scatter. This is the case, for instance, of hazards reported by the Barcelona Liquefaction working group, with the failure of harbor walls in 2007. By virtue of this, a complex approach has been undertaken to evaluate the problem by a proposal of numerical and laboratory methodology. Within a theoretical and numerical scope, the study is focused on the numerical tools capable to face the different challenges of this problem. The complexity is manifold; the highly non‐linear behavior of consolidating soft soils; their potentially liquefactable nature, the significance of the hydromechanics of the soil‐structure contact, the discontinuities as preferential paths for water flow, setting “negligible” effective stresses as initial conditions. Within an experimental scope, a straightforward laboratory methodology is introduced for the hydromechanical characterization of the soil and the interface without the need of complex laboratory devices or cumbersome procedures. Therefore, this study includes a brief overview of the hydraulic filling execution, main uses (land reclamation, filled cells, tailing dams, etc.) and the underlying phenomena (self‐weight consolidation, silo effect, liquefaction, etc.). It comprises from the evolution of the traditional consolidation equations (Terzaghi, 1943), (Gibson, English, & Hussey, 1967) and solving methodologies (Townsend & McVay, 1990) (Fredlund, Donaldson and Gitirana, 2009) to the contributions in terms of silo effect (Ranssen, 1895) (Ravenet, 1977) and liquefaction phenomena (Casagrande, 1936) (Castro, 1969) (Been & Jefferies, 1985) (Pastor & Zienkiewicz, 1986). The novelty of the study lies on the development of a Finite Element Method (FEM) code, exclusively formulated for this problem. Subsequently, a theoretical (Biot, 1941) (Zienkiewicz and Shiomi, 1984) (Segura and Carol, 2004) and numerical approach (Zienkiewicz and Taylor, 1989) (Huerta, A. & Rodriguez, A., 1992) (Segura, J.M. & Carol, I., 2008) is introduced for multidimensional consolidation problems with frictional contacts and the corresponding constitutive models (Pastor & Zienkiewicz, 1986) (Fu & Liu, 2011). An experimental methodology is presented for the laboratory test and material characterization (Castro 1969) (Bahda 1997) (Been & Jefferies 2006) using Hostun sands as reference hydraulic fill. A series of singular interaction shear tests for the interface calibration is included. Finally, a specific model algorithm for the solution of the set of differential equations governing the problem is presented. The process of consolidation and settlements involves a comprehensive simulation of the transient process of decantation and the build‐up of the silo effect in cells and certain phenomena related to self‐compaction and liquefaction. For this, an implementation of a 2D axi‐syimmetric coupled model with continuum and interface elements, aimed at simulating conditions and self‐weight consolidation of hydraulic fills once placed into floating caisson cells or close to retaining structures. This basically concerns a loose granular soil with a negligible initial effective stress level at the onset of the process. The implementation requires a specific numerical algorithm as well as specific constitutive models for both the continuum and the interface elements. The simulation of implementation procedures for the fills has required the modification of the algorithm so that a numerical representation of these procedures is carried out. A comparison of the results for the different procedures is interesting for the global analysis. Furthermore, the continuous updating of the model provides an insightful logging of variable profiles such as density, void ratio and solid fraction profiles, total and excess pore pressure, stresses and strains. This will lead to a better understanding of complex phenomena such as the transient gradient in lateral pressures due to silo effect in saturated soils. Interesting model and literature comparisons for the self‐weight consolidation (Fredlund, Donaldson, & Gitirana, 2009) and the silo effect results (Puertos del Estado (2006), EuroCode (2006), Japan Tech, Stands. (2009)). This study closes with the design of a decantation column prototype with frictional walls as the main future line of research.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde el establecimiento de la Agenda digital para Europa, los Estados sujetos a dicha regulación se han visto ante el reto de desarrollar la mejor estrategia para su cumplimiento. Pese a no ser dicha normativa de carácter obligatorio, España ha hecho de ésta, iniciativa clave en su estrategia nacional de banda ancha. El primer paso fue el establecimiento del Servicio Universal (SU) de banda ancha en 2011. Desde entonces, todo el país se encuentra totalmente cubierto. Respecto al objetivo de al menos 50% de hogares conectados a banda ancha de 100 Mbps en 2020, se asume que se alcanzará a través de redes de acceso de nueva generación (NGA) fijas. Sin embargo, existen ciertas dudas acerca del cumplimiento del objetivo de cobertura universal con 30 Mbps, especialmente en las zonas rurales. Debido a la cobertura casi nacional de redes móviles, se cree que LTE podría ser la solución más eficiente en costes para alcanzar dicho objetivo. Esta tesis estudia el coste de provisionar banda ancha de al menos 30 Mbps a los municipios en los cuales se encuentra el tercio final de la población española, los cuales se clasifican en geotipos. Se comparan tecnologías móviles y fijas a fin de determinar la tecnología más eficiente en costes en cada caso. Asimismo, se discute el límite demográfico para las redes fijas (fibra óptica, cable o cobre). De igual manera, se evalúa si es viable para un operador proveer banda ancha móvil de 30 Mbps en la zona rural española, y de no ser posible, si la compartición pasiva de infraestructuras podría brindar la viabilidad requerida para fomentar la inversión. La investigación se realiza a través de un análisis tecno-económico en un escenario competición basada en infraestructuras. Se emplea un método de flujo de caja descontado, para determinar el coste total del despliegue y el mínimo ingreso por usuario (ARPU) requerido para recuperar la inversión en dos enfoques de red: compartición pasiva y sin compartición. Por otra parte, se construyen tres escenarios de demanda, basados en previsiones de banda ancha para el año 2020, a fin de estimar la adopción por red y el ARPU en el área estudiada. Los resultados confirman que LTE es la tecnología más eficiente en costes para el tercio final de la población. No obstante, VDSL capaz de proveer hasta 50 Mbps en viabilidad del 75% al 90% de la población española. Para esta franja de población, debe fomentarse la competición entre las plataformas LTE y VDSL. Respecto a los municipios en los cuales se encuentran del 90% al 98,5% de la población, la plataforma móvil LTE es la más apropiada. Además, ha quedado de manifiesto que no es posible proveer de manera viable 30 Mbps al 1,5% final de la población, debido a la escasa densidad de población y las previsiones de adopción nada optimistas. Los resultados también indican que las características socioeconómicas del área estudiada, la alta sensibilidad de la población al precio y la existencia de otros productos de banda ancha, obligan al operador a reducir sus ingresos. A consecuencia de lo anterior, únicamente niveles muy altos de adopción a la red podrían brindar la viabilidad requerida al despliegue. La investigación muestra que la compartición pasiva de infraestructuras, en sí misma, no constituye una solución; mientras que un despliegue de red único podría resolver el problema de la universalización de la banda ancha de 30 Mbps en las zonas rurales de España.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ocasionalmente en los problemas de ingeniería se requiere conocer la distribución de temperatura dentro de estructuras sólidas, la cual puede obtenerse haciendo un estudio de transferencia de calor por conducción. Aunque existen distintos métodos, actualmente la mayoría de estos estudios se realizan usando el método numérico, debido a su flexibilidad, rapidez y a que la obtención de la solución analítica es demasiado compleja o imposible en algunos casos. En estos estudios es común despreciar la variación de la conductividad térmica con la temperatura. En este artículo se muestra, para un caso particular en dos dimensiones, por un lado, la precisión de los resultados obtenidos usando el método numérico, y por otro lado, que la dependencia de la conductividad térmica con la temperatura puede afectar en forma importante la precisión de los resultados, por lo cual es necesario ser cuidadosos al considerarla constante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uno de los retos a los que se enfrenta la humanidad es la demanda de una sociedad con casi cero residuos: la búsqueda de una economía más eficiente en el uso de los recursos teniendo en cuenta el cambio climático y un abastecimiento sostenible de materias primas que permitan satisfacer las necesidades de una población mundial cada vez mayor, dentro de los límites sostenibles de los recursos naturales del planeta. Abordar este desafío implica la recuperación y reciclaje de materiales para reducir consumos de materias primas y, para ello, debe promoverse la innovación en la prevención y gestión de residuos, como estrategia hacia un desarrollo urbano sostenible. Los envases y embalajes forman parte de la cultura actual, relacionándose con el grado de desarrollo de países y regiones; el sector de la construcción no es ajeno a la problemática y genera un importante volumen de embalajes en las obras que no se gestionan de forma adecuada. El modelo de gestión de Residuos de Construcción Demolición (RCD) actual es poco eficaz, ya que los vertederos siguen recibiendo grandes cantidades de residuos valorizables. La normativa ha conseguido minimizar las prácticas ilegales, pero se comprueba que la gestión actual de los RCD en obra deja en manos de las plantas de tratamiento la misión de separar los residuos según su naturaleza y los datos aportados por las distintas plantas no permiten afirmar el grado de alcance de dicho objetivo, ni el destino de los mismos. Los envases y embalajes son un tipo de residuos que por su naturaleza suponen una fuente de recursos valorizables y por ello están presentes en directivas y leyes, dirigidas fundamentalmente al sector de la alimentación. En el ámbito de la construcción, hasta la fecha, no se habían tratado de forma específica, motivo que justifica este trabajo. Esta Tesis Doctoral tiene como objetivo principal mejorar la gestión de residuos de embalajes procedentes de materiales de construcción. Para ello se estudia un importante conjunto de obras de edificación residencial colectiva de 1173 viviendas, análisis que llevará a conocer los patrones de producción de los Residuos de Envases y Embalajes en Construcción (REEC) e identificar los productos o materiales responsables de su generación. La monitorización realizada, permitirá diseñar estrategias específicas que minimicen la generación de estos residuos y optimicen su valorización. Se ha podido comprobar que el tratamiento particularizado de los REEC puede mejorar los resultados de la gestión del conjunto de RCD, debido a que, al no mezclarse, se elimina un importante agente contaminador de los residuos inertes. Las obras analizadas alcanzan un nivel de segregación in situ muy bajo, y los capítulos de cerramientos e instalaciones suman más del 50% del global de REEC. Particularizando en cada tipo de material, el cartón predomina en los trabajos de electricidad, el plástico en las particiones y la madera en fachadas. Se evalúa la opción del eco-­‐rediseño para uno de los embalajes predominantes, y se identifican estrategias para minimizar su impacto. Se comprueba que el ahorro en la gestión de RCD en caso de impulsar la segregación in situ no es muy significativo en las obras estudiadas, si bien se demuestra que la viabilidad económica es el factor más importante para motivar a las empresas constructoras. Las Administraciones Públicas deberían incentivar la gestión responsable, estableciendo medidas de control en las plantas de tratamiento e implementando en sus obras medidas de gestión de RCD ejemplares para el mercado. Una adecuada planificación de la obra, y formación específica para el personal son medidas que facilitan la segregación in situ y mejoran los resultados. Los promotores, mediante su relación contractual con el resto de agentes, tienen la capacidad de establecer objetivos de reducción, planificación y gestión sostenible de los REEC. Por último, se propone un sistema de gestión de REEC, integrable dentro del Sistema de Gestión de la empresa constructora, que permite evitar que residuos valorizables tales como los envases y embalajes se envíen a vertedero, guiando al sector hacia un futuro más respetuoso, alineado con el desarrollo sostenible. ABSTRACT One of the challenges humanity faces is the demand of an almost zero waste society: the search for a more efficient economy in the use of resources, taking into account climate change and a sustainable supply of raw materials, that meet the needs of an increasing world population within the sustainable limits of the planet's natural resources. Addressing this challenge involves the recovery and recycling of materials to reduce consumption of raw materials, so innovation must therefore be promoted in the prevention and management of waste, as a strategy towards a sustainable urban development. Packaging is part of our current culture and is related to the degree of development of countries and regions; the construction sector is no stranger to this problem and generates a significant amount of packaging waste in the site works, which nowadays is not managed properly. The current Construction Demolition Waste (CDW) management model is ineffective, since landfills continue to receive large amounts of recoverable waste. The legislation has managed to minimize illegal practices, but it has been observed that the current management of CDW in the analysed works leaves the mission of separating waste according to their nature to the plants, and data provided by the latter does not allow for checking the scope of this objective, nor the destiny of the waste. Packaging is a type of waste which, by its nature, represents a source of recoverable resources and is therefore present in directives and laws, focused primarily on the food industry. It has not been specifically treated to date in the construction field, hence the reason that justifies this work. This Thesis aims to improve the management of packaging waste from construction materials. An important set of residential building works with 1173 dwellings is analysed, which leads to knowledge on the production patterns of packaging waste (PW) in the construction industry, and the identification of the products responsible for its generation. The monitorization also allows for the design of specific strategies which minimise the generation of waste and optimize recovery. It has been found that the individualized treatment of PW can improve the results of the management of the whole CDW since, when not mixed, a major pollutant of inert waste is removed. The analysed works reached a very low segregation level and the façades and building services phases account for more than 50% of the overall PW. Focusing on each type of material, cardboard predominates electricity works, plastic on partitions and wood on façades. Eco-­‐redesign is evaluated for one of the predominant packages, and strategies are identified to minimise their impact are . There is evidence that the savings in the CDW management in case of promoting segregation on site are not very significant at the studied works, although economic feasibility is the most important factor to motivate the construction companies. Public Administrations should encourage responsible management, establishing control measures in treatment plants and implementing CDW management exemplary measures on their work sites for the market. A proper planning of the works and specific training for the personnel are measures that facilitate in situ segregation and improve outcomes. The developers, through their contractual relationship with the other agents, have the ability to set reduction targets, planning and sustainable management of PW. Finally, a management system for PW is proposed, integrated within the Management System of the construction company, which aims to avoid that recoverable waste such as packaging is sent to landfill, leading the industry towards a more environmentally friendly future, aligned with sustainable development.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se presenta en este trabajo una investigación sobre el comportamiento de losas de hormigón armado sometidas a explosiones y la simulación numérica de dicho fenómeno mediante el método de los elementos finitos. El trabajo aborda el estudio de la respuesta de dichos elementos estructurales por comparación entre los resultados obtenidos en ensayos reales a escala 1:1 y los cálculos realizados mediante modelos de ordenador. Este procedimiento permite verificar la idoneidad, o no, de estos últimos. Se expone en primer lugar el comportamiento mecánico de los modelos de material que son susceptibles de emplearse en la simulación de estructuras mediante el software empleado en la presente investigación, así como las diferentes formas de aplicar cargas explosivas en estructuras modeladas mediante el método de los Elementos Finitos, razonándose en ambos casos la elección llevada a cabo. Posteriormente, se describen los ensayos experimentales disponibles, que tuvieron lugar en las instalaciones del Laboratorio de Balística de Efectos, perteneciente al Instituto Tecnológico de la Marañosa (ITM), de Madrid, para estudiar el comportamiento de losas de hormigón armado a escala 1:1 sometidas a explosiones reales. Se ha propuesto un método de interpretación del nivel de daño en las losas mediante el martillo de Schmidt, que posteriormente permitirá comparar resultados con los modelos de ordenador realizados. Asimismo, se propone un método analítico para la determinación del tamaño óptimo de la malla en las simulaciones realizadas, basado en la distribución de la energía interna del sistema. Es conocido que el comportamiento de los modelos pueden verse fuertemente influenciados por el mallado empleado. Según el mallado sea “grosero” o “fino” el fallo puede no alcanzarse o hacerlo de forma prematura, o excesiva, respectivamente. Es más, algunos modelos de material contemplan una “regularización” del tamaño de la malla, pero en la presente investigación se evidencia que dicho procedimiento tiene un rango de validez limitado, incluso se determina un entorno óptimo de valores. Finalmente, se han elaborado los modelos numéricos con el software comercial LS-DYNA, contemplando todos los aspectos reseñados en los párrafos anteriores, procediendo a realizar una comparación de los resultados obtenidos en las simulaciones con los procedidos en los ensayos reales a escala 1:1, observando que existe una muy buena correlación entre ambas situaciones que evidencian que el procedimiento propuesto en la investigación es de todo punto adecuado para la simulación de losas de hormigón armado sometidas a explosiones. ABSTRACT This doctoral thesis presents an investigation on the behavior of reinforced concrete slabs subjected to explosions along with the numerical simulation of this phenomenon by the finite elements method. The work involves the study of the response of these structural elements by comparing the results of field tests at full scale and the calculations performed by the computer model. This procedure allows to verify the appropriateness or not of the latter. Firstly, the mechanical behavior of the material models that are likely to be used in the modelling of structures is explained. In addition, different ways of choosing explosive charges when conducting finite element methods are analyzed and discussed. Secondly, several experimental tests, which took place at the Laboratorio de Balística de Efectos at the Instituto Tecnológico de la Marañosa (ITM), in Madrid, are described in order to study the behavior of these reinforced concrete slabs. A method for the description of the slab damage level by the Schmidt hammer is proposed, which will make possible to compare the modelling results extracted from the computation experiments. Furthermore, an analytical method for determining the optimal mesh size to be used in the simulations is proposed. It is well known that the behavior of the models can be strongly influenced by the mesh size used. According to this, when modifiying the meshing density the damaged cannot be reached or do it prematurely, or excessive, respectively. Moreover, some material models include a regularization of the mesh size, but the present investigation evidenced that this procedure has a limited range of validity, even an optimal environment values are determined. The method proposed is based on the distribution of the internal energy of the system. Finally, several expecific numerical models have been performed by using LS-DYNA commercial software, considering all the aspects listed in the preceding paragraphs. Comparisons of the results extracted from the simulations and full scale experiments were carried out, noting that there exists a very good correlation between both of them. This fact demonstrates that the proposed research procedure is highly suitable for the modelling of reinforced concrete slabs subjected to blast loading.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo busca llenar un vacío existente en cuanto a una metodología general en los estudios Arqueoacústicos para la zona Mesoamericana. El resultado mas importante de ésta tesis es la propuesta de un procedimiento y método para los cuales se detalla el conjunto de operaciones utilizadas en las mediciones particulares involucradas, parámetros y análisis relevantes (de los cuales destacan el decaimiento de energía, tiempos de reverberación, intensidades de sonido directo y total, claridad e inteligibilidad), tipos de simulaciones e incertidumbres y actividades técnicas propias de la Ingeniería Acústica que se proponen para la efectiva y útil integración de la dimensión sonora en el quehacer arqueológico. Una importante consideración de la propuesta metodológica aquí presentada, es la consideración, por un lado, de los resultados obtenidos experimentalmente del trabajo in situ en cada uno de los sitios arqueológicos de interés, y por otro los resultados obtenidos de las simulaciones y modelaciones por computadora de los mismos para su comparación y contraste. La propuesta de sistematización está dividida en tres momentos investigativos, como son la coordinación y trabajo logístico en sitios arqueológicos, su reconocimiento y prospección acústica; el trabajo de campo; y el análisis de los resultados obtenidos. Asimismo, dicha propuesta metodológica, se presenta dividida en tres objetos de estudio fundamentales en el quehacer arqueoacústico: los Fenómenos Sonoros encontrados en sitios arqueológicos; los objetos de generación de sonido, tengan éstos aplicaciones musicales o de otra índole; y finalmente los espacios y recintos arquitectónicos, ya sean cerrados o abiertos, y el estudio de su funcionalidad. El acercamiento a la descripción de cada una de dichas ramas, se realiza mediante la presentación de casos de estudio, para los que se contrastan dos áreas culturales representativas e interrelacionadas de Mesoamérica, la zona del Bajío y la zona Maya. Dicho contraste es llevado a cabo mediante el análisis acústico de 4 zonas arqueológicas que son Plazuelas, Peralta y Cañada de la Virgen, pertenecientes a la zona del Bajio, y Chichen Itzá perteneciente a la zona Maya. De particular importancia para el presente trabajo, es la funcionalidad de los espacios estudiados, específicamente de la de los patios hundidos, característicos de la arquitectura del Bajío, y las plazas públicas que constituyen una estructura integral en muchos sitios arqueológicos, centrales para la comprensión de las conexiones entre el fenómeno sonoro y el comportamiento de una cultura en particular. Asimismo, el análisis de los instrumentos de generación sonora ha permitido realizar inferencias sobre papel del sonido en el comportamiento humano de las culturas en cuestión, completando los modelos acústicos y posibilitando el situar las características de las fuentes sonoras en los espacios resonantes. Los resultados particulares de ésta tesis, han permitido establecer las características acústicas de dichos espacios e instrumentos, así como formular y validar las hipótesis sobre su usos y funciones como espacios para eventos públicos y sociales, así como para representaciones culturales multitudinarios. ABSTRACT The present work, aims to fill a void existing in terms of a general methodology in Archaeoacoustic studies for the Mesoamerican region. The most important result of this thesis is the proposal of a procedure and method for archaeoacoustical studies and its relevant analysis and parameters (of which stand out the energy decay, reverberation times, intensities, clarity and intelligibility), simulations and uncertainty considerations for the effective and useful integration of the sound dimension in the archaeological realm. An important methodological consideration in the present work is the comparison and contrast of the results obtained experimentally on site, and the results of simulations and computer modeling. The proposed systematization is divided into three distinct moments: logistics; fieldwork; and result analysis. Likewise, the presented methodological proposal is divided into three fundamental objects of study: Sound phenomena found in archaeological sites; sound generation objects and instruments; and architectural enclosures and the study of their functionality. Presenting case studies is the approach to the description of each of these branches. Two interrelated Mesoamerican cultural areas are considered, the Bajío and the Mayan. Their contrast is carried out by the acoustic analysis of four archaeological sites: Plazuelas, Peralta and Cañada de la Virgen, belonging to the area of the Bajío, and Chichen Itza belonging to the Maya area. Of particular relevance to this paper, is the acoustic functionality of the public spaces present in many archaeological sites, specifically that of the sunken patios, characteristic of the architecture of the Bajío. The analysis of the sound generation instruments has allowed certain inferences about the role of sound in human behavior of the cultures in question, thus completing the acoustic models. It has also enable the contrast of the characteristics of the sound sources and those of the resonant spaces. The results of this thesis have made it possible to develop and validate certain hypotheses about the uses and functions of certain spaces for public and social events as well as for mass cultural representations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente proyecto lleva a cabo un análisis de la viabilidad de la estructura geológica Villameriel, situada en la provincia de Palencia, para el almacenamiento geológico profundo de CO2. Las dos medidas determinadas para su análisis serán la determinación de la cantidad de CO2 que se puede inyectar en la formación y el comportamiento del mismo en su interior durante los próximos 100 años. Para calcular estas medidas utilizamos la simulación numérica, a través de dos programas de SCHLUMBERGER. El primero, PETREL, diseñando un modelo estático que escenifique las propiedades del medio geológico lo más real posible, llamado modelo estático. El segundo, ECLIPSE300, que simula el comportamiento del fluido según entra en la formación y a lo largo de todo el período de estudio. Como conclusión final llevaremos a cabo un estudio económico que analice el potencial que tiene este proyecto para llevarse a cabo en la sociedad en la que nos encontramos ahora mismo ABSTRACT This project analyzes the viability of Villameriel geological structure, which is situated in Palencia, Spain. There will be two measures to probe it. The first will be to calculate how much amount of CO2 can be stored in this structure, and second will be to see how the CO2 behaves inside the first 100 years. In order to obtain the answers from these questions, Schlumberger programs are used specifically PETREL and ECLIPSE300. This programs work with numerical methods and they simulate a static model and a dynamic model. Static model is created in order to build a geological model with the same properties than in the real life. Dynamic model works to obtain the maximum amount of CO2 that it can be introduced inside storage formation and to know how CO2 will move inside the first 100 years. At the end, an economic study will be done with the objective to know if it would cost money, if there would be profits or no.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este proyecto hemos realizado un análisis sobre la sostenibilidad de las tecnologías de generación más representativas desde un punto de vista sostenible. El objetivo de este proyecto es valorar cuantitativamente la sostenibilidad utilizando para ello los tres pilares de la sostenibilidad, para ello nos hemos apoyado en estudios sobre impactos medioambientales, seguridad en el suministro y costes de generación. Todo esto nos ha llevado a la conclusión de que aunque no existe una tecnología que satisfaga todas las necesidades, las nuevas tecnologías de generación, como las renovables, ganan en competitividad si añadimos un punto de vista sostenible. ABSTRACT In this paper, we have done an analysis about the sustainability of the power generation technologies most representative form a sustainable point of view. The objective of this paper is to evaluate quantitatively the sustainability using for this the three pillars of sustainability, for this we have relied on studies about environmental impacts, security supply and generation costs. All this led us to the conclusion that although there is no technology that satisfies all the necessities, the new generation technologies, such as the renewable, gains in competitiveness if we add a sustainable point of view.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo del presente proyecto es conseguir un sistema de abastecimiento energético donde el coste de la energía sea mínimo, contemplando la inclusión de generación mediante energías renovables. El emplazamiento elegido para este estudio es la isla de Brava, situada en el archipiélago de Cabo Verde, África. El estudio se hace mediante un programa informático que permite obtener un sistema económicamente óptimo según unos datos de entrada. Se realizan varios estudios de la isla, empezando por el sistema de abastecimiento actual y terminando por el sistema óptimo que ofrece como solución este proyecto. Además se incluye un análisis de emisiones para poder así comparar el sistema actual con la solución propuesta. Abstract The objective of this project is to be able to have an energetic supply system where energy cost would be as minimum as possible thanks to renewable energy. Brava Island, based in Cabo Verde archipelago (Africa), is the place chosen for that study. The study relies on a commercial software. This program permits to obtain an optimum economical system based on data entries. Several studies of the island have been made. First, a look at the current supply system has been carried out. Then, a focus on the optimum system this project will offer as a solution was performed. Moreover, it includes an emission generation analysis in order to be able to compare the current system toward the solution proposed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el presente Trabajo de Fin de Máster se ha realizado un análisis sobre las técnicas y herramientas de Generación de Lenguaje Natural (GLN), así como las modificaciones a la herramienta Simple NLG para generar expresiones en el idioma Español. Dicha extensión va a permitir ampliar el grupo de personas a las cuales se les transmite la información, ya que alrededor de 540 millones de personas hablan español. Keywords - Generación de Lenguaje Natural, técnicas de GLN, herramientas de GLN, Inteligencia Artificial, análisis, SimpleNLG.---ABSTRACT---In this Master's Thesis has been performed an analysis on techniques and tools for Natural Language Generation (NLG), also the Simple NLG tool has been modified in order to generate expressions in the Spanish language. This modification will allow transmitting the information to more people; around 540 million people speak Spanish. Keywords - Natural Language Generation, NLG tools, NLG techniques, Artificial Intelligence, analysis, SimpleNLG.