52 resultados para Máster en Ciencia de Materiales


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El comportamiento dinámico de los puentes de ferrocarril, tanto convencional como de alta velocidad, constituye uno de los criterios de diseño más relevantes en la actualidad, puesto que bajo situaciones resonantes la amplificación dinámica que se produce puede llegar a ser muy elevada, no resultando válidas las metodologías utilizadas tradicionalmente. De igual forma, la amplificación dinámica suele llevar asociada la aparición de inestabilidades de la vía relacionadas con vibraciones excesivas de la capa de balasto, las cuales comprometen los estados límite de servicio de la estructura y por lo tanto no permiten garantizar el confort de los pasajeros. Para analizar el comportamiento dinámico de estructuras semi-enterradas en líneas de alta velocidad se decide llevar a cabo el presente Trabajo Fin de Máster en colaboración con la Subdirección de Ingeniería e Innovación de Adif. En este contexto, los objetivos principales de esta investigación comprenden la revisión del estado actual de conocimiento relativo a cálculo y evaluación dinámica, el análisis de tipologías de estructuras semi-enterradas de alguna de las líneas de alta velocidad gestionadas por Adif, así como la elaboración de distintos modelos numéricos de Elementos Finitos que permitan contrastar las medidas experimentales obtenidas en la campaña de instrumentación realizada. Por tanto, se realiza un estudio detallado del paso inferior seleccionado como representativo de la LAV Madrid - Barcelona - Frontera Francesa por medio de modelos numéricos en 2 y 3 dimensiones, desarrollados en FEAP v8.1 (2007). Estos modelos son calibrados en base a las aceleraciones máximas registradas en la campaña instrumental, así como al estudio del contenido frecuencial de cada uno de los sensores dispuestos. La resolución de los modelos se lleva a cabo por medio de una descomposición modal. Por último, en lo que se refiere a resultados obtenidos, destacar que los modelos desarrollados tras la calibración reproducen de forma fiel el comportamiento dinámico del paso inferior seleccionado bajo el eje activo de circulación. Así, se puede concluir que este tipo de estructuras semi-enterradas no se ven comprometidas ante la acción dinámica de las composiciones ferroviarias consideradas, tanto para las velocidades actuales de circulación como para previsibles incrementos de estas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta investigación surge a raíz de la experiencia profesional del autor, maestro especialista de Educación Física en el C.E.I.P. “Alhambra” de Madrid, cuando de manera progresiva, aprecia que el tenis de mesa puede ser un deporte muy interesante de desarrollar en las sesiones de Educación Física y de promover dentro de los tiempos de recreo. El autor cree que este deporte desarrolla una serie de objetivos motrices, afectivos, cognitivos y sociales que pueden contribuir a la adquisición de las competencias básicas y al desarrollo integral de los alumnos. Es entonces cuando recibe formación sobre el deporte de tenis de mesa y busca los medios necesarios de financiación para que se dote al centro del material necesario. Así la Junta municipal del distrito de Fuencarral-El Pardo instala en el patio del colegio tres mesas de exterior y, con los recursos del colegio y la ayuda de la Asociación de padres y madres (AMPA), se consiguen cinco mesas de interior plegables y todo el material necesario (redes, raquetas, pelotas, etc.). Tras introducir este deporte desde 3º a 6º de Educación Primaria promueve un campeonato en el colegio cuyo índice de participación ronda el 90% del alumnado, estos resultados crean al autor ciertas incertidumbres que son la motivación y punto de partida para realizar esta investigación que analice si la práctica del tenis de mesa puede resultar idónea en la etapa de Educación Primaria. Introducción La legislación actual en materia de educación, Ley Orgánica 2/2006, de 3 de mayo, de Educación (LOE) modificada por la Ley Orgánica 8/2013, de 9 de diciembre, para la mejora de la calidad educativa. (LOMCE), otorga una gran relevancia al deporte en general. "El deporte es una actividad saludable, divertida y formativa que puede tener profundos beneficios no sólo para su salud y su bienestar sino también para el desarrollo personal integral físico, psicológico y psicosocial del niño, además de sobre su desarrollo deportivo" (Pradas, 2009, p. 151), es pues, un momento idóneo para analizar qué deportes se practican en los colegios o por qué se practican unos más que otros. "El tenis de mesa además de ser un deporte para todos, se presenta como un juego atractivo, en donde su práctica resulta muy divertida a cualquier edad, tanto para niños como para adultos, principalmente porque presenta unas reglas de juego simples, no encerrando peligro alguno para la integridad física de sus practicantes durante su juego" (Pradas, 2009, p. 83). Es un deporte que "está abierto a todos, sin distinción de edad o sexo, tanto como deporte de alto nivel como de práctica familiar o social" (Gatien, 1993, p. 16). No obstante, "son escasas las obras sobre tenis de mesa. Pocos libros, tanto de divulgación como de reflexión sobre el tenis de mesa, adornan los estantes de las librerías y las bibliotecas" (Erb, 1999, p.14) y añade “así pues, el medio escolar padece de falta de obras explicativas y pedagógicas referidas a este tema" (Erb, 1999, p.14 ) En particular, se pretenden conseguir cinco objetivos divididos en tres categorías (el centro, el profesorado y el deporte. • A nivel de Centro: - Conocer el porcentaje de colegios que disponen de espacios y materiales adecuados para la práctica del tenis de mesa, así como identificar, de las distintas Direcciones de Área Territoriales (DAT), cuál tiene los colegios mejor dotados tanto en instalaciones como en materiales para desarrollar programas de promoción del tenis de mesa. - Averiguar las posibles causas por las que el tenis de mesa no se practica tanto como otros deportes, analizando los impedimentos que limitan la implantación del tenis de mesa como un deporte habitual en los centros de Educación Primaria. Analizar la opinión del profesorado en cuanto a los materiales y las instalaciones necesarios para el tenis de mesa. • A nivel de profesorado: - Analizar el nivel de conocimiento que tienen los profesionales que imparten la asignatura de Educación Física sobre el tenis de mesa, así como sus necesidades para incluir unidades didácticas de tenis de mesa en sus programaciones didácticas. - Conocer el perfil de profesor ideal que recomienda la utilización del tenis de mesa y averiguar el interés del profesorado por recibir formación específica del tenis de mesa. • A nivel de deporte: - Analizar la opinión de los profesionales sobre la idoneidad del tenis de mesa en la Educación Primaria atendiendo a los objetivos que persigue, a las competencias que desarrolla, a los contenidos, criterios de evaluación y estándares de aprendizaje que se pueden trabajar y a las lesiones que se producen. Metodología La investigación se caracterizó por utilizar una metodología inductiva, al surgir de la experiencia profesional del autor, también fue transversal al analizar la realidad en un momento concreto y de tipo cuantitativa. La población objeto de estudio fue la totalidad de los colegios públicos de la Comunidad de Madrid, siendo los profesores de Educación Física los encargados de facilitar los datos solicitados. Estos datos se obtuvieron utilizando como instrumento de toma de datos el cuestionario auto administrado con preguntas cerradas de opción múltiple previamente validado por un panel de 5 expertos. Las variables indirectas fueron: el género del profesorado, la edad del profesorado, la experiencia profesional y el tipo de destino. El proceso de la toma de datos supuso un lapso de tiempo de 3 meses, desde mayo de 2015 hasta julio de 2015, en este tiempo hubo dos fases de recogida de datos, una online a través del correo electrónico institucional de los colegios públicos de la Comunidad de Madrid y otra “in situ” con cuestionarios de lápiz y papel. En cuanto a los datos que se obtuvieron, sobre una población de 798 colegios, se consiguió una muestra de 276, esto supuso una tasa de respuesta del 34,59%, asumiendo la situación más desfavorable posible (p=q) y un nivel de confianza del 95%, para el total de los 276 cuestionarios cumplimentados, el error máximo fue del ±4,78%. Resultados En cuanto a los resultados obtenidos, se establecieron de acuerdo a tres dimensiones: A nivel de Centro, a nivel de Profesorado y a nivel del Deporte y pretendieron averiguar si se alcanzaron los cinco objetivos planteados. Tras el análisis de los resultados, se apreció que los colegios públicos de la Comunidad de Madrid disponían de las suficientes instalaciones para el tenis de mesa, en cambio, faltaban materiales específicos y formación por parte del profesorado, así como recursos didácticos y un programa de promoción del tenis de mesa. Se apreció un manifiesto interés por parte del profesorado en recibir formación específica de tenis de mesa pues la mayoría recomendaba la utilización del tenis de mesa dentro de la asignatura de Educación Física en Educación Primaria. Por último, los resultados mostraron la cantidad de objetivos motrices, afectivos, cognitivos y sociales que desarrolla el tenis de mesa así como su contribución a la adquisición de las competencias básicas y al objetivo “k” de la Educación Primaria, que indica “Valorar la higiene y la salud, conocer y respetar el cuerpo humano, y utilizar la Educación Física y el deporte como medios para favorecer el desarrollo personal y social”, además, se mostró el bajo índice de lesiones que provoca. Discusión y conclusiones El tenis de mesa es un deporte idóneo para ser practicado y enseñado en la asignatura de Educación Física en la etapa de Educación Primaria debido a la gran cantidad de contenidos que son susceptibles de ser trabajados a través de este deporte y debido a la gran cantidad de valores, individuales y sociales que se pueden fomentar con la práctica del tenis de mesa. Las causas de que hasta ahora, el tenis de mesa no sea un deporte practicado de forma habitual en los colegios públicos de la Comunidad de Madrid a pesar de trabajar muchos contenidos específicos de la asignatura de Educación Física puede deberse a factores externos al deporte del tenis de mesa y susceptibles de ser solucionados con una adecuada inversión en materiales específicos, formación del profesorado y recursos didácticos. Si se dota a los centros de los materiales y recursos didácticos necesarios y dando formación al profesorado, éste introduciría unidades didácticas de tenis de mesa dentro de sus programaciones anuales. La federación española y madrileña de tenis de mesa, deberían desarrollar un programa de promoción dotando de materiales y recursos a los centros, tal y como lo han hecho otras federaciones como la de voleibol, bádminton o de baloncesto, entre otras. ABSTRACT This research arises from the professional experience of the author, specialized teacher of physical education in the CEIP "Alhambra" in Madrid, where progressively, appreciates that table tennis can be a very interesting sport to develop in physical education sessions and promote within the playtimes. The author believes that this sport develops a range of motor, affective, cognitive and social objectives that can contribute to the acquisition of basic skills and the integral development of students. It is then when receives training on the sport of table tennis and seeks ways of funding in order to outfit the center with necessary equipment. The Municipal District of Fuencarral-El Pardo installed three outdoor tables in the schoolyard and with the resources of the school and the support of the Association of Parents (AMPA), five indoor folding tables are achieved as well as all the necessary material (nets, rackets, balls, etc.). After introduce the sport from 3rd to 6th grade of primary education, promotes a championship in the school where the participation rate is around 90% of students, these results create the uncertainties to the author that are the motivation and starting point for this research to analyze whether the practice of table tennis can be ideal at the stage of primary education. Introduction The current legislation on education, Organic Law 2/2006 of 3 May, on Education (LOE) as amended by Organic Law 8/2013, of December 9, to improve educational quality (LOMCE), attaches great importance to the sport in general, "Sport is a healthy, funny and educational activity that can have great benefits not only for their health and well-being but also for the physical, psychological and psychosocial comprehensive personal child development besides on their sports development "(Pradas, 2009, p. 151), is therefore an ideal moment to analyze which sports are practiced in schools or why are practiced some more than others. "The table tennis as well as being a sport for everyone, is presented as an attractive game, where its practice is funny at any age, both children and adults, mainly because it has simple game rules, not enclosing danger for the physical integrity of its practitioners during their game" (Pradas, 2009, p. 83). It is a sport that is "open to all, regardless of age or sex, as high-level sport, as family or social practice" (Gatien, 1993, p. 16). However, "there are few books on table tennis. Few books, both reflexion or popularization about table tennis, adorn the shelves of bookstores and libraries." (Erb, 1999, p.14) and add "So, the school environment suffers from lack of explanatory and educational work related to this issue." (Erb, 1999, p.14) In particular, it is intended to achieve the following objectives within the Community of Madrid: • To determine the percentage of schools that have spaces and materials suitable for practicing table tennis and identify, from the different Directorates of Land Area (DAT), which has the best equipped schools in both facilities and materials to develop programs to promote table tennis. • Find out the possible causes that explained why table tennis is not practiced as much as other sports, analyzing impediments that limit the implementation of table tennis as a regular sport in primary schools. Analyze the opinion of teachers in terms of materials and facilities needed for table tennis. • Analyze the level of knowledge about table tennis among professionals who teach the subject of Physical Education and their needs to include teaching units about table tennis in their teaching programs. • Knowing the profile of the ideal teacher who recommends the use of table tennis and figure out the interest of teachers to receive specific training of table tennis. • Analyze the professional opinion on the suitability of table tennis in Primary Education taking into account the objectives pursued, to develop the skills, content, evaluation criteria and learning standards that can work and injuries involved. Methodology The investigation was characterized by using an inductive methodology, arising from the professional experience of the author, was also transverse to analyze reality in a particular time and quantitative type. The population under study were all the state schools in Madrid region, being the physical education teachers responsible for providing the requested data. These data were obtained using as data collection instrument a self-administered questionnaire with multiple choice questions, because it facilitates the analysis thereof. In terms of obtained data, on a population of 798 schools, a sample of 276 was achieved, this represented a response rate of 34.59%, assuming the worst case scenario (p = q) and a level 95% confidence for the total of the 276 completed questionnaires, the maximum error was ± 4.78%. Results In terms of the results, they were set according to three dimensions: center level, professorate level and Sport level and trying to find out whether the five objectives were achieved. After analyzing the results, it was found that schools possessed sufficient facilities for table tennis, however, lacked specific materials and training by teachers, as well as teaching resources and a program to promote table tennis. A clear interest was noticed by teachers in order to receive specific training in table tennis since most recommended the use of table tennis in the subject of physical education in primary education. Finally, the results proved the number of motor, affective, cognitive and social objectives developed by table tennis and its contribution to the acquisition of basic skills and the objective "k" of primary education, in addition to the low rate of injury it causes. Discussion and conclusions Table tennis is an ideal sport to be practiced and taught in the subject of Physical Education in Primary Education due to the large amount of content that are likely to be worked through this sport and due to the large number of individual and social values that can foster the practice of table tennis. The causes of that so far, table tennis is not a sport practiced regularly in schools despite working many specific contents of the subject of Physical Education may be due to factors outside the sport of table tennis and subject to solved with adequate investment in specific materials, teacher training and educational resources. By endowing the centers with the necessary teaching materials and resources and providing training to teachers, they would introduce teaching units of table tennis within their annual programs. Madrid and the Spanish Federation of table tennis should develop a promotional program by endowing materials and resources to the centers, as did other federations such as badminton and basketball, among others.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Históricamente la estrategia de localización de la infraestructura religiosa católica en Chile ha estado condicionada por intenciones destinadas a la captación y tutela de feligreses, proceso desarrollado a través de intervenciones que han generado externalidades difíciles de anticipar y posibles de visualizar en un marco temporal mayor. En este contexto la producción e instalación de los templos católicos en distintos lugares de la ciudad condicionaron los territorios y marcaron presencia en su afán por colonizar y mantener el dominio, mecanismo propio de la institución religiosa que se adaptó al medio y a las circunstancias político social para cumplir su misión y mantener el poder. En esta investigación se buscó identificar desde las edificaciones destinadas al culto, la relación escalar entre localización, modo de instalación y morfología que incluye la forma y técnica de construcción, reconociendo la manera cómo modifican los entornos, el efecto que provocan y las expectativas que abren a nuevas intervenciones. El escenario escogido para realizar el estudio correspondió a un período de la historia de la ciudad de Santiago de Chile no documentado en que las circunstancias políticas, económicas, sociales y culturales contribuyeron a que el modo de disposición de las edificaciones de culto condicionaron el desarrollo urbano y orientaron el crecimiento de la ciudad. El período en que se desarrolló el estudio correspondió a la época de mayor riqueza material y cultural de la historia del país y estuvo modelada por las intenciones y planes de desarrollo tendientes a consolidar lo que se ha denominado el modelo Republicano. Escenario en que el espacio público cobró interés y se transformó en el motor de los cambios e indicador de la escala de la ciudad, estableciendo las condiciones para que las distintas corrientes europeas se manifestaran en el hacer arquitectónico cambiando la imagen original de la ciudad colonial. Este proceso que ocurrió sobre la estructura existente, densificó la manzana a través de la subdivisión predial, que complementado con los avances tecnológicos permitieron mayores alturas de edificación, situación que dio origen a nuevas concepciones espaciales, posibles de desarrollar con los recursos materiales, intelectuales y técnicos disponibles. El estudio se centró en la centuria 1850-1950 analizando la forma como la infraestructura religiosa Católica se localizó en el tejido urbano adoptando distintas tipologías edilicias, en una época caracterizada por el eclecticismo arquitectónico. Específicamente se estudiaron las edificaciones que utilizaron reminiscencias góticas, identificando los casos más significativos, estableciendo el contexto en que se originaron e indagando en la significación que tuvieron por la función que cumplieron, considerando emplazamiento y conexión con el entorno construido, conformación, dimensiones, destino y patrocinios. El área de estudio se fundamentó por la concentración de construcciones con la tendencia historicista, producciones que en el corto y mediano plazo orientaron las transformaciones de la ciudad y por la presencia que conservan hasta estos días. Se observó la incidencia de la acción de la Iglesia Católica en las políticas de Estado, orientando las decisiones de planificación y ocupación del territorio, condicionando la localización de los templos a fin de conseguir las mayores coberturas de la población y el mayor rendimiento de las inversiones. En el contexto latinoamericano la construcción de iglesias, templos y catedrales con reminiscencias góticas fue una constante que caracterizó al último cuarto del siglo XIX y las tres primeras décadas del siglo XX. El estudio permitió conocer en términos cuantitativos y cualitativos la producción, destacando la morfología y materialidad caracterizada por la adopción de estrategias contemporáneas estructuralmente exigentes. Se observó la utilización de la arquitectura como un medio de acercamiento a la población, capaz de transformar a los edificios en símbolos barriales, que facilitaron la generación de identidad, al convertirse en los referentes materiales que se destacan, que se recuerdan y que asumen la representatividad de barrios, permaneciendo en el tiempo y convirtiéndose en íconos asociados a la cultura local. En síntesis, la instalación de las infraestructuras religiosas en la ciudad de Santiago fue consecuencia de un modo de producción, que entregó lugares de encuentro y símbolos para la ciudad, a través de la localización de los edificios que buscaron ocupar áreas visibles, relevantes y convocantes, lo que consiguieron mediante la instalación geográfica, central y equidistante de conglomerados residenciales consolidados o en vías de desarrollo, como también a través de edificaciones monumentales y siempre destacadas respecto de su entorno, lo que marcó exclusividad y dominio. La elección de tipos arquitectónicos fue coyuntural a los tiempos e inspirada en intelectuales y profesionales mayoritariamente foráneos que aportaron conocimientos y experiencia para auspiciar edificaciones que fueron reconocidas como señeras y precursoras de la época. La intensidad en el uso de los recursos que demandaron las exigentes estructuras obligó a la iglesia católica a establecer estrategias de financiación destinadas a suplir la falta de recursos provenientes del Estado. Para lo cual convocaron a distintos actores los que participaron desde sus fronteras y en función de sus intereses cubriendo desde el altruismo hasta la rentabilización de su patrimonio. La organización iglesia católica se comporta de la misma manera que cualquier otra organización: busca expandirse, concentrar, controlar y administrar. Busca codificar todo su entorno (Raffestin, 2011), busca trascender y materialmente lo logra desde sus construcciones. ABSTRACT Historically the location strategies of the catholic religious infrastructure in Chile has been conditioned by intentions aimed at attracting and guardianship of parishioners, process developed through interventions that have generated externalities difficult to anticipate and possible to visualize in a in a major temporary frame. In this context, the production and installation of the catholic churches in different places in the city determined the territories and marked presence in their quest to colonize and maintain domain, mechanism of the religious institution that was adapted to the environment and in the political and social circumstances to fulfill its mission and maintain power. This research sought to identify from the buildings intended for worship in a multi-scale relationship between location, the placement mode, morphology and shape and construction technique and the effect caused by them, the way how they alter the environments and the expectations that are open to new interventions. The chosen scenario for the study corresponded to a not documented period in the history of the city of Santiago de Chile in which political, economic, social and cultural circumstances contributed to the form of disposition of the buildings of worship that determined the urban development and guided the growth of the city. The study period was the epoch of largest material and cultural wealth of Chile history and it was modeled by the intentions and development plans tending to consolidate what has been named the Republican ideal. Scenario in which public space gained interest and became the engine of change and indicator of the scale of the city, establishing the conditions for the various European trends manifested themselves in transforming the original image of the colonial city. This process that took place on the existing structure, produced a higher density of the original blocks through the predial compartimentation, which supplemented with technological advances enabled greater building heights, a situation that gave rise to new spatial conceptions, possible of developing with the material resources, intellectuals and technicians available at the moment. The study focused on the century 1850-1950 by analyzing how the Catholic religious infrastructure was located in the urban fabric by adopting different typologies locality, in an epoch characterised by architectural eclecticism. Specifica lly, it is studied the buildings that used gothic reminiscences, identifying the most significant cases, establishing the context in which they originated and inquiring about the significance that they had for the role it played, considering location and connection to the built environment, shaping, dimensions, destination, and sponsorships. The study area was established by the concentration of buildings with this historicist trend, productions that in the short and medium term guided the transformation of the city and the presence that keeps up to these days. It was noted the incidence of the of the Catholic Church actions in guiding State policies, planning decisions and occupation of the territory, as well as conditioning the location of the temples in order to achieve greater coverage of the population and the greatest return on investment. In the context of Latin America the construction of churches, temples and cathedrals with reminiscences gothic was a constant that characterized the last quarter of the nineteenth century and the first three decades of the twentieth century. The study allowed to know in quantitative and qualitative terms the production of the period, highlighting the morphology and materiality characterized by contemporary and structurally challenging strategies. It was noted the use of architecture as a means of approaching to the population, able to transform buildings into neighborhood symbols, which facilitated the production of identity, to become the reference materials that stand out, that will be remembered and that assume the representativeness of neighborhoods, remaining in the time and becoming icons associated with the local culture. In synthesis, the installation of religious infrastructure in the city of Santiago was result of a mode of production, that provided meeting places and symbols for the city, through the location of buildings that sought to occupy visible, relevant and summoning areas, what they obtained by means of the geographical, central and equidistant installation of consolidated residential conglomerates cluster or about to development, as also through always outstanding and monumental buildings with respect to its surroundings, which marked uniqueness and domain. The choice of architectural types was related to the time and inspired by intellectuals and professionals mostly outsiders who contributed with expertise and experience to sponsor buildings were recognized as outstanding and precursor of the time. The intensity of use of the resources that requested the demanding structures forced to the Catholic church to establish funding strategies designed to compensate for the lack of funds from the State. For which convened to different actors who participated from their borders and depending on their interests covering from the altruism up to the rentabilización of its patrimony. The Catholic Church organization behaves the same way as any other organization: seeks to expand, focus, control and manage. Looking for coding the entire environment (Raffestin, 2011), seeks to transcend and succeeds materially from its building.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente proyecto fin de carrera surge y se engloba dentro del marco del Proyecto de Innovación Educativa IE-14-15-05008 y abarca el proceso de diseño, implantación y seguimiento de la nueva asignatura “Ingenia: Proyecto de Máquinas” perteneciente al recién estrenado Máster en Ingeniería Industrial que oferta la Universidad Politécnica de Madrid. Esto debe realizarse dentro del ámbito de organización educativa que constituye el Marco Europeo de Educación Superior y que con el Proceso de Bolonia (1999) propuso un cambio en el modelo educativo, que permitiese entre otras cosas, impulsar cambios en las metodologías docentes. Durante gran parte del siglo XX, la enseñanza de la ingeniería en las universidades ofrecía una exposición efectiva a la práctica. Era enseñada por ingenieros que estaban ejerciendo su profesión y se concentraba en la resolución de problemas tangibles mientras que los estudiantes aprendían a conceptualizar y diseñar productos y sistemas. La rápida expansión del conocimiento científico y técnico que ocurrió a finales de los 90s causó que la enseñanza de la ingeniería se convirtiera en la enseñanza de la “ciencia de la ingeniería”, con una menor concentración práctica. Los líderes de la industria empezaron a hallar que los estudiantes que se graduaban, si bien tenían una sólida capacitación técnica, carecían de muchas de las habilidades requeridas en las situaciones de ingeniería del mundo real. La enseñanza en general y la enseñanza de la Ingeniería en particular necesitan por tanto de una reforma educativa integral. De esta necesidad, surge la iniciativa CDIO (ConcebirDiseñar-Implementar-Operar), un marco educativo innovador dirigido a producir la próxima generación dederes de ingeniería; siendo este el marco al que se abrazan las asignaturas tipo “INGENIA” y con el que se pretenden alcanzar las habilidades tanto técnicas como personales e interpersonales que requiere la nueva generación de ingenieros para ser competitivos en un sector cada vez más amplio y multidisciplinar. Para conseguir el cambio requerido antes citado, se hace necesaria la realización de proyectos de innovación educativa como el presente, que ayuden durante el proceso de transición que está viviendo el modelo educativo. Para lograr estos, el presente proyecto pretende dar respuesta a preguntas como: ¿De dónde venimos y hacia dónde debemos ir?, ¿Por qué es necesario un cambio?, ¿Qué pretendemos alcanzar con este cambio?, ¿Qué resultados esperamos de ello?, ¿Qué cambios se han introducido y cuales hay pendientes por introducir?, ¿Cómo planificar la reestructuración y adaptación de recursos y contenidos docentes para alcanzar los objetivos?, ¿De qué recursos se dispone y cuales hay que incorporar?, ¿Cómo debemos medir, evaluar y difundir los resultados obtenidos?, ¿Qué conclusiones se pueden extraer de los resultados? Para dar respuesta a estas y otras preguntas se abordan los puntos que se exponen a continuación. Los principales apartados del presente proyecto son la INTRODUCCIÓN, PLANIFICACIÓN y RESULTADOS OBTENIDOS. En primer lugar, durante la INTRODUCCIÓN se realiza una descripción del Espacio Europeo de Educación Superior (EEES), resumiendo cuáles son los objetivos estratégicos del mismo, y la conexión existente con la enseñanza de la Ingeniería Mecánica. Posteriormente se aborda un breve estudio de las metodologías docentes tradicionales empleadas en la enseñanza para inmediatamente después introducir las bases del aprendizaje activo. Se analizan las necesidades que han llevado a plantear los cambios en las metodologías docentes. Para esto se analizan varios estudios enfocados a concretar las características que se requieren en los recién egresados de titulaciones técnicas. Como consecuencia de las necesidades descritas surge la iniciativa CDIO, marco a la que se acogen las asignaturas “Ingenia” y que se estudiará en profundidad. Por último y tras introducir el contexto del proyecto, se describen los objetivos del mismo así como la planificación de las actividades. Con el apartado PLANIFICACIÓN se pretende describir las actividades realizadas del proceso de diseño de la asignatura abarcando la programación de actividades, gestión y empleo de recursos, metodologías docentes empleadas, plan de evaluación, entre otras actividades. En el apartado RESULTADOS OBTENIDOS se describen los prototipos fabricados, los resultados de aprendizaje, la valoración de la asignatura y problemas encontrados. Todo ello será de especial interés para extraer lecciones aprendidas y proponer acciones correctoras y/o de mejora.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis doctoral es el fruto de un trabajo de investigación cuyo objetivo principal es definir criterios de diseño de protecciones en forma de repié en presas de materiales sueltos cuyo espaldón de aguas abajo esté formado por escollera. La protección propuesta consiste en un relleno de material granular situado sobre el pie de aguas abajo de la presa y formado a su vez por una escollera con características diferenciadas respecto de la escollera que integra el espaldón de la presa. La función de esta protección es evitar que se produzcan deslizamientos en masa cuando una cantidad de agua anormalmente elevada circula accidentalmente por el espaldón de aguas abajo de la presa por distintos motivos como pueden ser el vertido por coronación de la presa o la pérdida de estanqueidad del elemento impermeable o del cimiento. Según los datos de la International Commission on Large Dams (ICOLD 1995) el 70% de las causas de rotura o avería grave en presas de materiales sueltos en el mundo están dentro de las que se han indicado con anterioridad. Esta circulación accidental de agua a través del espaldón de escollera, típicamente turbulenta, se ha denominado en esta tesis percolación (“through flow”, en inglés) para diferenciarla del término filtración, habitualmente utilizada para el flujo laminar a través de un material fino. El fenómeno físico que origina la rotura de presas de materiales sueltos sometidas a percolación accidental es complejo, entrando en juego diversidad de parámetros, muchas veces no deterministas, y con acoplamiento entre procesos, tanto de filtración como de arrastre y deslizamiento. En esta tesis se han realizado diferentes estudios experimentales y numéricos con objeto de analizar el efecto sobre el nivel de protección frente al deslizamiento en masa que producen los principales parámetros geométricos que definen el repié: la anchura de la berma, el talud exterior y su altura máxima desde la base. También se han realizado estudios sobre factores con gran influencia en el fenómeno de la percolación como son la anisotropía del material y el incremento de los caudales unitarios en el pie de presa debidos a la forma de la cerrada. A partir de los resultados obtenidos en las distintas campañas de modelación física y numérica se han obtenido conclusiones respecto a la efectividad de este tipo de protección para evitar parcial o totalmente los daños provocados por percolación accidental en presas de escollera. El resultado final de la tesis es un procedimiento de diseño para este tipo de protecciones. Con objeto de completar los criterios de dimensionamiento, teniendo en cuenta los mecanismos de rotura por erosión interna y arrastre, se han incluido dentro del procedimiento recomendaciones adicionales basadas en investigaciones existentes en la bibliografía técnica. Finalmente, se han sugerido posibles líneas de investigación futuras para ampliar el conocimiento de fenómenos complejos que influyen en el comportamiento de este tipo de protección como son el efecto de escala, la anisotropía de la escollera, las leyes de resistencia que rigen la filtración turbulenta a través de medios granulares, los efectos de cimentaciones poco competentes o la propia caracterización de las propiedades de la escollera de presas. This thesis is the result of a research project that had the main objective of defining criteria to design rockfill toe protections for dams with a highly‐permeable downstream shoulder. The proposed protection consists of a rockfill toe berm situated downstream from the dam with specific characteristics with respect to the rockfill that integrates the shoulder of the main dam. The function of these protections is to prevent mass slides due to an abnormally high water flow circulation through the dam shoulder. This accidental seepage flow may be caused by such reasons as overtopping or the loss of sealing at the impervious element of the dam or its foundation. According to data from the International Commission on Large Dams (ICOLD 1995), 70% of the causes of failure or serious damage in embankment dams in the world are within that described previously. This accidental seepage of water through the rockfill shoulder, typically turbulent, is usually called through‐flow. The physical phenomenon which causes the breakage of the rockfill shoulder during such through‐flow processes is complex, involving diversity of parameters (often not deterministic) and coupling among processes, not only seepage but also internal erosion, drag or mass slide. In this thesis, numerical and experimental research is conducted in order to analyze the effects of the main parameters that define the toe protection, i.e. the toe crest length, its slope and maximum height. Additional studies on significant factors which influence the seepage, such as the anisotropy of the material and the increase of the unit flows at the dam toe due to the valley shape are also performed. In addition, conclusions regarding the effectiveness of this type of protection are obtained based on the results of physical and numerical models. The main result of the thesis is a design procedure for this type of protection to avoid mass sliding. In order to complete the design criteria, additional recommendations about internal and external erosion based on the state of the art are included. Finally, new lines of research are suggested for the future to expand the level of knowledge of the complex phenomena that influence the behavior of this type of protection, such as the effects of scale, rockfill anisotropy, non‐linear seepage laws in turbulent seepage through granular media, effects of erodible foundations, or new procedures to characterize the properties of dam rockfill as a construction material.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las filtraciones de agua, con la consecuente erosión interna en presas de materiales sueltos, es una de las causas principales de fallos y accidentes. Las consecuencias del fallo de estas estructuras, pueden ser, pérdidas tanto económicas como de vidas humanas. Por lo cual en este proyecto se describe la aplicación de un método de prospección geofísica no invasiva, medidas de potencial espontáneo, para detectar posibles filtraciones de agua en el cuerpo de la presa. El flujo de agua a través de un material poroso y permeable crea un campo de potencial eléctrico de una magnitud de decenas o centenas de milivoltios, el cual puede ser medido y así detectar infiltraciones de agua en presas de materiales sueltos. Se ha aplicado esta técnica en la Presa Santa Marta, y mediante una interpretación cualitativa de los datos medidos, tomados en la cara aguas arriba de la presa (medidas subacuáticas), se logró identificar un flujo de agua vertical y otro subhorizontal, que estaban ingresando en el cuerpo de la presa, los cuales estaban causando erosión interna y la formación de una tubificación. ABSTRACT Water leakages and internal erosion in embankment dams is one of the main causes of failures and accidents. The consequences of the failure of these structures may cause losses both, economical and of human lives. Therefore, this project describes the application of a noninvasive geophysical prospecting method, self potential measurements, to detect water leakages in the body of the dam. Water flow through a porous and pervious medium creates an electric potential field with a magnitude of tens or hundreds of milivolts, which can be measured and thus detect water leakage in embankment dams. This technique has been applied to the Santa Marta dam, and through a qualitative self potential data interpretation, of the measurements obtained in an upstream direction (underwater measurements), a vertical and sub horizontal water flows entering in the body dam were identified, which were causing internal erosion and developing a piping

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este proyecto se ha desarrollado un código de MATLAB para el procesamiento de imágenes tomográficas 3D, de muestras de asfalto de carreteras en Polonia. Estas imágenes en 3D han sido tomadas por un equipo de investigación de la Universidad Tecnológica de Lodz (LUT). El objetivo de este proyecto es crear una herramienta que se pueda utilizar para estudiar las diferentes muestras de asfalto 3D y pueda servir para estudiar las pruebas de estrés que experimentan las muestras en el laboratorio. Con el objetivo final de encontrar soluciones a la degradación sufrida en las carreteras de Polonia, debido a diferentes causas, como son las condiciones meteorológicas. La degradación de las carreteras es un tema que se ha investigado desde hace muchos años, debido a la fuerte degradación causada por diferentes factores como son climáticos, la falta de mantenimiento o el tráfico excesivo en algunos casos. Es en Polonia, donde estos tres factores hacen que la composición de muchas carreteras se degrade rápidamente, sobre todo debido a las condiciones meteorológicas sufridas a lo largo del año, con temperaturas que van desde 30° C en verano a -20° C en invierno. Esto hace que la composición de las carreteras sufra mucho y el asfalto se levante, lo que aumenta los costos de mantenimiento y los accidentes de carretera. Este proyecto parte de la base de investigación que se lleva a cabo en la LUT, tratando de mejorar el análisis de las muestras de asfalto, por lo que se realizarán las pruebas de estrés y encontrar soluciones para mejorar el asfalto en las carreteras polacas. Esto disminuiría notablemente el costo de mantenimiento. A pesar de no entrar en aspectos muy técnicos sobre el asfalto y su composición, se ha necesitado realizar un estudio profundo sobre todas sus características, para crear un código capaz de obtener los mejores resultados. Por estas razones, se ha desarrollado en Matlab, los algoritmos que permiten el estudio de los especímenes 3D de asfalto. Se ha utilizado este software, ya que Matlab es una poderosa herramienta matemática que permite operar con matrices para realización de operaciones rápidamente, permitiendo desarrollar un código específico para el tratamiento y procesamiento de imágenes en 3D. Gracias a esta herramienta, estos algoritmos realizan procesos tales como, la segmentación de la imagen 3D, pre y post procesamiento de la imagen, filtrado o todo tipo de análisis microestructural de las muestras de asfalto que se están estudiando. El código presentado para la segmentación de las muestras de asfalto 3D es menos complejo en su diseño y desarrollo, debido a las herramientas de procesamiento de imágenes que incluye Matlab, que facilitan significativamente la tarea de programación, así como el método de segmentación utilizado. Respecto al código, este ha sido diseñado teniendo en cuenta el objetivo de facilitar el trabajo de análisis y estudio de las imágenes en 3D de las muestras de asfalto. Por lo tanto, el principal objetivo es el de crear una herramienta para el estudio de este código, por ello fue desarrollado para que pueda ser integrado en un entorno visual, de manera que sea más fácil y simple su utilización. Ese es el motivo por el cual todos estos algoritmos y funciones, que ha sido desarrolladas, se integrarán en una herramienta visual que se ha desarrollado con el GUIDE de Matlab. Esta herramienta ha sido creada en colaboración con Jorge Vega, y fue desarrollada en su proyecto final de carrera, cuyo título es: Segmentación microestructural de Imágenes en 3D de la muestra de asfalto utilizando Matlab. En esta herramienta se ha utilizado todo las funciones programadas en este proyecto, y tiene el objetivo de desarrollar una herramienta que permita crear un entorno gráfico intuitivo y de fácil uso para el estudio de las muestras de 3D de asfalto. Este proyecto se ha dividido en 4 capítulos, en un primer lugar estará la introducción, donde se presentarán los aspectos más importante que se va a componer el proyecto. En el segundo capítulo se presentarán todos los datos técnicos que se han tenido que estudiar para desarrollar la herramienta, entre los que cabe los tres temas más importantes que se han estudiado en este proyecto: materiales asfálticos, los principios de la tomografías 3D y el procesamiento de imágenes. Esta será la base para el tercer capítulo, que expondrá la metodología utilizada en la elaboración del código, con la explicación del entorno de trabajo utilizado en Matlab y todas las funciones de procesamiento de imágenes utilizadas. Además, se muestra todo el código desarrollado, así como una descripción teórica de los métodos utilizados para el pre-procesamiento y segmentación de las imagenes en 3D. En el capítulo 4, se mostrarán los resultados obtenidos en el estudio de una de las muestras de asfalto, y, finalmente, el último capítulo se basa en las conclusiones sobre el desarrollo de este proyecto. En este proyecto se ha llevado han realizado todos los puntos que se establecieron como punto de partida en el anteproyecto para crear la herramienta, a pesar de que se ha dejado para futuros proyectos nuevas posibilidades de este codigo, como por ejemplo, la detección automática de las diferentes regiones de una muestra de asfalto debido a su composición. Como se muestra en este proyecto, las técnicas de procesamiento de imágenes se utilizan cada vez más en multitud áreas, como pueden ser industriales o médicas. En consecuencia, este tipo de proyecto tiene multitud de posibilidades, y pudiendo ser la base para muchas nuevas aplicaciones que se puedan desarrollar en un futuro. Por último, se concluye que este proyecto ha contribuido a fortalecer las habilidades de programación, ampliando el conocimiento de Matlab y de la teoría de procesamiento de imágenes. Del mismo modo, este trabajo proporciona una base para el desarrollo de un proyecto más amplio cuyo alcance será una herramienta que puedas ser utilizada por el equipo de investigación de la Universidad Tecnológica de Lodz y en futuros proyectos. ABSTRACT In this project has been developed one code in MATLAB to process X-ray tomographic 3D images of asphalt specimens. These images 3D has been taken by a research team of the Lodz University of Technology (LUT). The aim of this project is to create a tool that can be used to study differents asphalt specimen and can be used to study them after stress tests undergoing the samples. With the final goal to find solutions to the degradation suffered roads in Poland due to differents causes, like weather conditions. The degradation of the roads is an issue that has been investigated many years ago, due to strong degradation suffered caused by various factors such as climate, poor maintenance or excessive traffic in some cases. It is in Poland where these three factors make the composition of many roads degrade rapidly, especially due to the weather conditions suffered along the year, with temperatures ranging from 30 o C in summer to -20 ° C in winter. This causes the roads suffers a lot and asphalt rises shortly after putting, increasing maintenance costs and road accident. This project part of the base that research is taking place at the LUT, in order to better analyze the asphalt specimens, they are tested for stress and find solutions to improve the asphalt on Polish roads. This would decrease remarkable maintenance cost. Although this project will not go into the technical aspect as asphalt and composition, but it has been required a deep study about all of its features, to create a code able to obtain the best results. For these reasons, there have been developed in Matlab, algorithms that allow the study of 3D specimens of asphalt. Matlab is a powerful mathematical tool, which allows arrays operate fastly, allowing to develop specific code for the treatment and processing of 3D images. Thus, these algorithms perform processes such as the multidimensional matrix sgementation, pre and post processing with the same filtering algorithms or microstructural analysis of asphalt specimen which being studied. All these algorithms and function that has been developed to be integrated into a visual tool which it be developed with the GUIDE of Matlab. This tool has been created in the project of Jorge Vega which name is: Microstructural segmentation of 3D images of asphalt specimen using Matlab engine. In this tool it has been used all the functions programmed in this project, and it has the aim to develop an easy and intuitive graphical environment for the study of 3D samples of asphalt. This project has been divided into 4 chapters plus the introduction, the second chapter introduces the state-of-the-art of the three of the most important topics that have been studied in this project: asphalt materials, principle of X-ray tomography and image processing. This will be the base for the third chapter, which will outline the methodology used in developing the code, explaining the working environment of Matlab and all the functions of processing images used. In addition, it will be shown all the developed code created, as well as a theoretical description of the methods used for preprocessing and 3D image segmentation. In Chapter 4 is shown the results obtained from the study of one of the specimens of asphalt, and finally the last chapter draws the conclusions regarding the development of this project.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Entre las aportaciones más significativas que ha hecho la Electrónica Cuántica en los últimos años, dentro del campo de los dispositivos con uso potencial en diferentes terrenos, se encuentra, sin duda, el de la Biestabilidad Optica. Desde su planteamiento teórico por Szóke, en 1969, hasta la primera aparición de un elemento que ofreciese en el laboratorio propiedades experimentales concordantes con dicha teoría, pasaron exactamente seis años. Desde 1969, Szóke no ha vuelto a publicar ningún artículo en este campo, pero los investigadores que desde 1975 comenzaron a trabajar en él, lo han hecho hasta nuestros días con una ley prácticamente exponencial. Si se analizan con un cierto detalle, por otra parte, las tendencias previas de los diferentes grupos puede verse que, la mayor parte de ellos, provienen de ramas de la Electrónica Cuántica dedicados al estudio de fenómenos no-lineales de interacción radiación-materia. Pero hay también un número muy apreciable de otros grupos que habían estado trabajando en problemas de transiciones de fase en sistemas fuera del equilibrio, en física de materiales, tanto semiconductores como no semiconductores en física matemática y recientemente, en comunicaciones ópticas y en tecnología de ordenadores.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las tecnologías de la información y las comunicaciones cubren en nuestros días uno de los espectros más amplios de conocimiento tecnológico existente dentro del extenso campo conocido hoy como de las tecnologías emergentes, nuevas tecnologías o tecnologías punta. Su amplio desarrollo se ha debido, como será detallado más adelante, a su capacidad de servir, por una parte, de soporte básico para el desarrollo de casi todo el resto de las otras tecnologías y, por otra, a su propia capacidad de incidir directamente sobre un amplio segmento socioeconómico con amplias repercusiones, no sólo sobre su propia área de trabajo, sino sobre muchas otras como la Economía, la Calidad de Vida de los ciudadanos e, incluso, sobre el Medio Ambiente. Todo ello ha hecho que, en las últimas décadas, una gran parte del esfuerzo de investigación y desarrollo de los países más avanzados se haya centrado en este segmento tecnológico, sin que los periódicos altibajos a que se ha visto sometido el Sistema Ciencia y Tecnología a lo largo de estos años hayan apenas afectado a su ritmo de crecimiento. Sus repercusiones que serán analizadas brevemente en las próximas páginas, han alcanzado un nivel tal que hoy es imposible hablar de una sociedad desarrollada sin detallar su nivel tecnológico en este área. Por ello resulta imprescindible el realizar un estudio lo más detallado posible de cuál es la situación presente de las tecnologías de la información y las comunicaciones y de cuáles son las tendencias para un próximo futuro, si se pretende hacer un planteamiento realista de la evolución global de la tecnología considerada ésta en un sentido amplio y dependiente, como ya se ha dicho antes, de la evolución de éstas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tras una serie de consideraciones sobre el papel de los paradigmas en Ciencia y Tecnología, se presenta uno de los posibles avances que podrá tener lugar en los próximos años, basado en el estudio de los sistemas biológicos como modelos para la realización de funciones concretas. Según se muestra, este nuevo planteamiento podría desarrollar una forma mucho más efectiva de consecución de objetivos que la actualmente obtenida con sistemas artificiales. Como ejemplo concreto se muestra el caso de la visión en los mamíferos

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Academia de Ingeniería fue fundada como Corporación de Derecho Público por Real Decreto de S. M. Juan Carlos I el 29 de abril de 1994 y recibió el título de «real» el 14 de julio de 2003. Según indican sus estatutos, se trataba de crear una entidad activa y cualificada en la prospección y análisis crítico de la evolución científica y técnica con capacidad de aconsejar tanto a organismos del Estado como a la sociedad en general. La promoción de la calidad y la competencia de la ingeniería es el objetivo permanente de la RAI. Se intenta cumplir con él actuando en varios frentes. En primer lugar reconociendo el mérito: el de las personas mediante su elección como miembros de la Academia, el de las empresas mediante el Premio Academiae Dilecta, y el de los estudiosos mediante el Premio a los Investigadores Jóvenes. Se han creado foros de discusión, siguiendo diferentes formatos, para tratar sobre grandes temas de actualidad, tales como la aventura aeroespacial, la biotecnología, la seguridad frente a incendios en los túneles, la energía, el impacto medioambiental de las obras de ingeniería y el futuro de las grandes infraestructuras. También es una labor de estímulo de la calidad y competencia la edición de las Comunicaciones a la Academia, donde se remarca la importancia de la innovación invitando a equipos jóvenes a que presenten logros de la ingeniería española que hayan dado lugar a algún resultado tangible y no meramente especulativo. Satélites, nanotecnología, bioingeniería, comunicaciones, etc., son algunos de los temas de las comunicaciones publicadas hasta ahora. Otro delos fines de la Academia, según el artículo 3 de sus estatutos fundacionales es "elaborar y mantener actualizado un lexicón en lengua castellana de términos relativos a la ingeniería", y sobre ello trata este capítulo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El geoide, definido como la superficie equipotencial que mejor se ajusta (en el sentido de los mínimos cuadrados) al nivel medio del mar en una determinada época, es la superficie que utilizamos como referencia para determinar las altitudes ortométricas. Si disponemos de una superficie equipotencial de referencia como dátum altimétrico preciso o geoide local, podemos entonces determinar las altitudes ortométricas de forma eficiente a partir de las altitudes elipsoidales proporcionadas por el Sistema Global de Navegación por Satélite (Global Navigation Satellite System, GNSS ). Como es sabido uno de los problemas no resueltos de la geodesia (quizás el más importante de los mismos en la actualidad) es la carencia de un dátum altimétrico global (Sjoberg, 2011) con las precisiones adecuadas. Al no existir un dátum altimétrico global que nos permita obtener los valores absolutos de la ondulación del geoide con la precisión requerida, es necesario emplear modelos geopotenciales como alternativa. Recientemente fue publicado el modelo EGM2008 en el que ha habido una notable mejoría de sus tres fuentes de datos, por lo que este modelo contiene coeficientes adicionales hasta el grado 2190 y orden 2159 y supone una sustancial mejora en la precisión (Pavlis et al., 2008). Cuando en una región determinada se dispone de valores de gravedad y Modelos Digitales del Terreno (MDT) de calidad, es posible obtener modelos de superficies geopotenciales más precisos y de mayor resolución que los modelos globales. Si bien es cierto que el Servicio Nacional Geodésico de los Estados Unidos de América (National Geodetic Survey, NGS) ha estado desarrollando modelos del geoide para la región de los Estados Unidos de América continentales y todos sus territorios desde la década de los noventa, también es cierto que las zonas de Puerto Rico y las Islas Vírgenes Estadounidenses han quedado un poco rezagadas al momento de poder aplicar y obtener resultados de mayor precisión con estos modelos regionales del geoide. En la actualidad, el modelo geopotencial regional vigente para la zona de Puerto Rico y las Islas Vírgenes Estadounidenses es el GEOID12A (Roman y Weston, 2012). Dada la necesidad y ante la incertidumbre de saber cuál sería el comportamiento de un modelo del geoide desarrollado única y exclusivamente con datos de gravedad locales, nos hemos dado a la tarea de desarrollar un modelo de geoide gravimétrico como sistema de referencia para las altitudes ortométricas. Para desarrollar un modelo del geoide gravimétrico en la isla de Puerto Rico, fue necesario implementar una metodología que nos permitiera analizar y validar los datos de gravedad terrestre existentes. Utilizando validación por altimetría con sistemas de información geográfica y validación matemática por colocación con el programa Gravsoft (Tscherning et al., 1994) en su modalidad en Python (Nielsen et al., 2012), fue posible validar 1673 datos de anomalías aire libre de un total de 1894 observaciones obtenidas de la base de datos del Bureau Gravimétrico Internacional (BGI). El aplicar estas metodologías nos permitió obtener una base de datos anomalías de la gravedad fiable la cual puede ser utilizada para una gran cantidad de aplicaciones en ciencia e ingeniería. Ante la poca densidad de datos de gravedad existentes, fue necesario emplear un método alternativo para densificar los valores de anomalías aire libre existentes. Empleando una metodología propuesta por Jekeli et al. (2009b) se procedió a determinar anomalías aire libre a partir de los datos de un MDT. Estas anomalías fueron ajustadas utilizando las anomalías aire libre validadas y tras aplicar un ajuste de mínimos cuadrados por zonas geográficas, fue posible obtener una malla de datos de anomalías aire libre uniforme a partir de un MDT. Tras realizar las correcciones topográficas, determinar el efecto indirecto de la topografía del terreno y la contribución del modelo geopotencial EGM2008, se obtuvo una malla de anomalías residuales. Estas anomalías residuales fueron utilizadas para determinar el geoide gravimétrico utilizando varias técnicas entre las que se encuentran la aproximación plana de la función de Stokes y las modificaciones al núcleo de Stokes, propuestas por Wong y Gore (1969), Vanicek y Kleusberg (1987) y Featherstone et al. (1998). Ya determinados los distintos modelos del geoide gravimétrico, fue necesario validar los mismos y para eso se utilizaron una serie de estaciones permanentes de la red de nivelación del Datum Vertical de Puerto Rico de 2002 (Puerto Rico Vertical Datum 2002, PRVD02 ), las cuales tenían publicados sus valores de altitud elipsoidal y elevación. Ante la ausencia de altitudes ortométricas en las estaciones permanentes de la red de nivelación, se utilizaron las elevaciones obtenidas a partir de nivelación de primer orden para determinar los valores de la ondulación del geoide geométrico (Roman et al., 2013). Tras establecer un total de 990 líneas base, se realizaron dos análisis para determinar la 'precisión' de los modelos del geoide. En el primer análisis, que consistió en analizar las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A) en función de las distancias entre las estaciones de validación, se encontró que el modelo con la modificación del núcleo de Stokes propuesta por Wong y Gore presentó la mejor 'precisión' en un 91,1% de los tramos analizados. En un segundo análisis, en el que se consideraron las 990 líneas base, se determinaron las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A), encontrando que el modelo que presenta la mayor 'precisión' también era el geoide con la modificación del núcleo de Stokes propuesta por Wong y Gore. En este análisis, el modelo del geoide gravimétrico de Wong y Gore presento una 'precisión' de 0,027 metros en comparación con la 'precisión' del modelo EGM2008 que fue de 0,031 metros mientras que la 'precisión' del modelo regional GEOID12A fue de 0,057 metros. Finalmente podemos decir que la metodología aquí presentada es una adecuada ya que fue posible obtener un modelo del geoide gravimétrico que presenta una mayor 'precisión' que los modelos geopotenciales disponibles, incluso superando la precisión del modelo geopotencial global EGM2008. ABSTRACT The geoid, defined as the equipotential surface that best fits (in the least squares sense) to the mean sea level at a particular time, is the surface used as a reference to determine the orthometric heights. If we have an equipotential reference surface or a precise local geoid, we can then determine the orthometric heights efficiently from the ellipsoidal heights, provided by the Global Navigation Satellite System (GNSS). One of the most common and important an unsolved problem in geodesy is the lack of a global altimetric datum (Sjoberg, 2011)) with the appropriate precision. In the absence of one which allows us to obtain the absolute values of the geoid undulation with the required precision, it is necessary to use alternative geopotential models. The EGM2008 was recently published, in which there has been a marked improvement of its three data sources, so this model contains additional coefficients of degree up to 2190 and order 2159, and there is a substantial improvement in accuracy (Pavlis et al., 2008). When a given region has gravity values and high quality digital terrain models (DTM), it is possible to obtain more accurate regional geopotential models, with a higher resolution and precision, than global geopotential models. It is true that the National Geodetic Survey of the United States of America (NGS) has been developing geoid models for the region of the continental United States of America and its territories from the nineties, but which is also true is that areas such as Puerto Rico and the U.S. Virgin Islands have lagged behind when to apply and get more accurate results with these regional geopotential models. Right now, the available geopotential model for Puerto Rico and the U.S. Virgin Islands is the GEOID12A (Roman y Weston, 2012). Given this need and given the uncertainty of knowing the behavior of a regional geoid model developed exclusively with data from local gravity, we have taken on the task of developing a gravimetric geoid model to use as a reference system for orthometric heights. To develop a gravimetric geoid model in the island of Puerto Rico, implementing a methodology that allows us to analyze and validate the existing terrestrial gravity data is a must. Using altimetry validation with GIS and mathematical validation by collocation with the Gravsoft suite programs (Tscherning et al., 1994) in its Python version (Nielsen et al., 2012), it was possible to validate 1673 observations with gravity anomalies values out of a total of 1894 observations obtained from the International Bureau Gravimetric (BGI ) database. Applying these methodologies allowed us to obtain a database of reliable gravity anomalies, which can be used for many applications in science and engineering. Given the low density of existing gravity data, it was necessary to employ an alternative method for densifying the existing gravity anomalies set. Employing the methodology proposed by Jekeli et al. (2009b) we proceeded to determine gravity anomaly data from a DTM. These anomalies were adjusted by using the validated free-air gravity anomalies and, after that, applying the best fit in the least-square sense by geographical area, it was possible to obtain a uniform grid of free-air anomalies obtained from a DTM. After applying the topographic corrections, determining the indirect effect of topography and the contribution of the global geopotential model EGM2008, a grid of residual anomalies was obtained. These residual anomalies were used to determine the gravimetric geoid by using various techniques, among which are the planar approximation of the Stokes function and the modifications of the Stokes kernel, proposed by Wong y Gore (1969), Vanicek y Kleusberg (1987) and Featherstone et al. (1998). After determining the different gravimetric geoid models, it was necessary to validate them by using a series of stations of the Puerto Rico Vertical Datum of 2002 (PRVD02) leveling network. These stations had published its values of ellipsoidal height and elevation, and in the absence of orthometric heights, we use the elevations obtained from first - order leveling to determine the geometric geoid undulation (Roman et al., 2013). After determine a total of 990 baselines, two analyzes were performed to determine the ' accuracy ' of the geoid models. The first analysis was to analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) in function of the distance between the validation stations. Through this analysis, it was determined that the model with the modified Stokes kernel given by Wong and Gore had the best 'accuracy' in 91,1% for the analyzed baselines. In the second analysis, in which we considered the 990 baselines, we analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) finding that the model with the highest 'accuracy' was also the model with modifying Stokes kernel given by Wong and Gore. In this analysis, the Wong and Gore gravimetric geoid model presented an 'accuracy' of 0,027 meters in comparison with the 'accuracy' of global geopotential model EGM2008, which gave us an 'accuracy' of 0,031 meters, while the 'accuracy ' of the GEOID12A regional model was 0,057 meters. Finally we can say that the methodology presented here is adequate as it was possible to obtain a gravimetric geoid model that has a greater 'accuracy' than the geopotential models available, even surpassing the accuracy of global geopotential model EGM2008.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cuando el cineasta y periodista Rem Koolhaas aterriza con 24 años de edad, en 1968, en el terreno de la arquitectura, lo hace con un objetivo todavía pendiente: liberar a la arquitectura de la propia arquitectura. Arropándose con el título del Proyecto de Graduación que Rem Koolhaas entrega en 1972 en la Architectural Association, Exodus or the Voluntary Prisoners of the Architecture (en adelante Exodus), proyecto sobre el que el autor de este trabajo realizó la Tesis fin de Máster, bajo el marco académico del Máster en Proyectos Arquitectónicos Avanzados en la ETSA de Madrid, este trabajo se presenta como una continuación y ampliación del anterior, aunque con objetivos complementarios. Así pues, si antes Atlas de Exodus consistía en el profundo análisis de un proyecto de relevancia capital, que servía para entender las intenciones proyectuales de Rem Koolhaas en su desarrollo profesional posterior en Office for Metropolitan Architecture, ahora ese análisis se extiende retrospectivamente a los años previos a la entrega de este proyecto, centrándose en torno a 1968 y 1972. La hipótesis de este trabajo es que Rem Koolhaas quiere liberar a la arquitectura de la propia arquitectura o, aprovechando el juego de palabras, desea provocar el éxodo de la arquitectura hacia el terreno lo infraordinario.2 Este rastreo, durante el transcurso narrativo de la tesis, abstrae las herramientas de liberación utilizadas para la consecución de este objetivo. Herramientas que se compilan, clasifican y enumeran como conclusiones del Atlas del éxodo de la arquitectura y que dejan la puerta abierta para la continuación de esta empresa en los días actuales. La hipótesis alarga su vigencia hasta el momento presente, ya que en opinión del autor, Rem Koolhaas no ha conseguido lo que se proponía y existen evidencias de que no desiste en su búsqueda. Atlas de Exodus se centra más en lo que el arquitecto no ha conseguido que en lo que sí. ABSTRACT When the filmmaker and journalist Rem Koolhaas lands, with 24 years old, in 1968, in the architecture field, he does it with an ambition that still is pending: liberate architecture from the architecture. Using the title fo the Graduation Project that Rem Koolhaas deliver in 1972, at the Architectural Association, named “Exodus or the Voluntary Prisoners of Architecture”, project on which the author of this dissertation developed his Final Master’s Thesis, under the academic frame of the Máster en Proyectos Arquitectónicos Avanzados in the ETSAM, this work is introduced as a continuation and an extension of the former one, but with complementary goals. So, if before Atlas of Exodus was focused on Rem Koolhaas’ Graduation project on 1972, now it is extended retrospectively to 1968. The hypothesis of the dissertation is that Rem Koolhaas wanted and wants to liberate architecture from architecture, or using the pun, he wants to provoque the exodus of architecture to the terrain of the infra-ordinary.4 During the narrative course of the dissertation it abstracts the Liberation Tools that Rem Koolhaas used in order to achieve this goal. This tools that are compiled, classified and listed as the conclusions of this Atlas. They leave an open door for a practical continuation of this issue in the present days. The hypothesis extends its validity to the present time because, in the opinion of the author, Rem Koolhaas didn´t achieve what he wanted in the beginning of his career as an architect, and there are evidences that he didn´t give up in his goal. Atlas of Exodus is focused more in what the architect didn´t get than in what he really got.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente documento se corresponde con el Trabajo Fin de Máster del Máster en Consultoría en Gestión de Empresas de la Universidad Politécnica de Madrid. A lo largo del mismo se realizará el estudio de una empresa especializada en el diseño, fabricación y montaje industrial. La empresa se creó en el año 2010 y aunque sus resultados hasta la fecha son satisfactorios se estudiarán posibles oportunidades de negocio con las que la empresa podrá mejorar su rendimiento. Se buscarán proyectos de larga duración que permitan obtener unos ingresos constantes en el tiempo para asegurar una cifra de negocio mayor. Se explorarán áreas clave en el mercado europeo, como son el mercado de las energías renovables y el mercado automovilístico, en los que la compañía ha desarrollado trabajos previos, permitiéndoles situarse como una empresa con experiencia en el sector. Se realizará un plan de negocio que permita primero conocer la historia y el estado actual de la compañía y definirá cuales son las líneas de actuación que la compañía debería explorar en el futuro, permitiendo a la misma ampliar por un lado la facturación anual consiguiendo aumentar igualmente los beneficios netos. ---ABSTRACT---This document corresponds to the Final Project for the Master in Business Management and Consultancy of the Universidad Politécnica de Madrid. Throughout the text, the study of a company specialised in industrial design, manufacture and assembly will be carried out. The company was founded in 2010 and, although its results so far have been satisfactory, possible alternatives and business opportunities will be studied in order to enhance profitability even more. One of the main objectives will be to pursue long running projects that will allow to keep the company's revenue constant in order to ensure a higher turnover. Key areas in the European market will be exploited, such as the renewable energies market and the automotive market in which the Company has previously developed works, enabling a position of a Company with experience in the sector. A business plan will be carried out, and it will allow us to get acquainted with the company's history and present status and, it will define the lines of action that the company should explore in the future, allowing it to increase, on the one hand, the annual turnover and at the same time to expand the Company's net benefits.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.