17 resultados para Diseño de máquinas
em Universidad Politécnica de Madrid
Resumo:
En este artículo se presentan los trabajos realizados en el Laboratorio de Diseño Avanzado y Monitorizado de Máquinas (DISAMM), de la Escuela Técnica Superior de Ingeniería y Diseño Industrial (ETSIDI) de la Universidad Politécnica de Madrid (UPM). Este Laboratorio pone a disposición de estudiantes, profesores y ciudadanos de la UPM y de otras universidades nacionales e internacionales herramientas y recursos docentes aplicables al diseño avanzado de máquinas y mecanismos. Estas herramientas docentes están disponibles a través de la web mediante el acceso remoto, aprovechando la potencia de las nuevas tecnologías de la información y comunicación, y alcanza ratios de utilización muy elevados con unos recursos humanos y materiales muy reducidos. Una característica destacable de las actividades de laboratorio es la modularidad, concepto similar al de "plataforma modular", que ya se emplea en la industria. Las prácticas y actividades de laboratorio son modulables y escalables en función de a quienes van destinadas: estudiantes de grado, máster o doctorado. A través de las actividades y recursos docentes puestos en marcha, los estudiantes y usuarios pueden adquirir conocimientos, capacidades, habilidades y competencias específicas de diseño de máquinas eficaz, seguro y eficiente, así como competencias transversales relacionadas con la eficiencia, sostenibilidad y respeto al medio ambiente.
Resumo:
En el Código Técnico de la Edificación se define el riesgo como medida del alcance del peligro que representa un evento no deseado para las personas, expresado en términos de probabilidad vinculada a las consecuencias de un evento, también se expresa como Exigencia Básica de Resistencia y Estabilidad, que estas serán las adecuadas para que no se generen riesgos indebidos manteniendo la resistencia y estabilidad frente a las acciones e influencias previsibles durante la construcción y usos previstos de los edificios, y que además, los posibles eventos extraordinarios que puedan producirse no originen consecuencias desproporcionadas respecto a la causa original. Es ahora donde la gestión de riesgos juega un papel muy importante en la sociedad moderna, siendo esta cada vez más exigente con los resultados y calidad de productos y servicios, además de cumplir también con la responsabilidad jurídica que trae la concepción, diseño y construcción de proyectos de gran envergadura como los son la obra civil y edificación. La obra civil destinada al sector industrial debe ser ejecutada con la mayor precisión posible, pues requiere la instalación de complejos equipos y sistemas productivos que pueden producir esfuerzos dinámicos que muchas veces no se consideran en el diseño de los cimientos que lo soportan, razón por la cual interviene la gestión de riesgos para conocer y reducir los posibles riesgos de fallos que se puedan generar y así intentar aproximarse cada vez más al desarrollo de diseños eficientes y confiables, afianzando la exactitud y minimizando errores en la producción y elaboración de piezas, sistemas y equipos de las distintas áreas productivas de la industria. El presente trabajo de investigación se centra en el estudio de los riesgos técnicos existentes en el diseño y ejecución de cimentaciones para maquinarias, mediante la aplicación de varios métodos de investigación, a fin de intentar cubrir los aspectos más importantes que puedan incurrir en una posible causa de fallo de la estructura, evaluando el acoplamiento entre el sistema máquina-cimiento-suelo. Risk is defined, by the Technical Building Code (Código Técnico de la Edificación, CTE) as a measure of the scope of the hazard of an undesired event for people, expressed in terms of probability related to the consequences of an event, also is expressed as a Basic Requirement Strength and Stability these will be appropriate to not cause undue risk maintaining strength and stability against predictable actions and influences during construction and expected uses of the buildings. Nowadays, Risk Management is an important process in modern society, becoming ever more demanding about the results and quality of products and services, and also complies with the legal responsibility that brings the conception, design and construction of large projects as are civil engineering and construction projects. Civil work as a part of industry must be performed as accurately as possible, requiring the installation of sophisticated equipment and production systems which can produce dynamic forces that often are not considered in the design of the foundations, this is the reason why risk management is involved to understand and reduce the risks of failures that may arise and try to move closer to the development of efficient and reliable designs, strengthening the accuracy and minimizing errors in the production and processing of parts, systems and equipments from different production areas of the industry. This paper is a study of existing technical risks in the design and execution of foundations for machinery, through the application of various research methods, in order to try to cover the most important aspects that may produce the failure of the structure, evaluating the union between the machine-foundation system and soil.
Resumo:
Se pretende hacer una guía sencilla y casi intuitiva para ayudar al agricultor o técnico a tomar la difícil decisión de cual es el tamaño óptimo del parque de maquinaria de una explotación. El agricultor se debe obligar a decidir qué máquinas le resultan más rentables tener en propiedad o en otros regímenes como la propiedad conjunta, el alquiler o la contratación a terceros (maquileros). Se trata del primer paso para optimizar una explotación agrícola y tener opciones de éxito en el difícil mundo de ser agricultor hoy día.
Resumo:
El presente proyecto fin de carrera surge y se engloba dentro del marco del Proyecto de Innovación Educativa IE-14-15-05008 y abarca el proceso de diseño, implantación y seguimiento de la nueva asignatura “Ingenia: Proyecto de Máquinas” perteneciente al recién estrenado Máster en Ingeniería Industrial que oferta la Universidad Politécnica de Madrid. Esto debe realizarse dentro del ámbito de organización educativa que constituye el Marco Europeo de Educación Superior y que con el Proceso de Bolonia (1999) propuso un cambio en el modelo educativo, que permitiese entre otras cosas, impulsar cambios en las metodologías docentes. Durante gran parte del siglo XX, la enseñanza de la ingeniería en las universidades ofrecía una exposición efectiva a la práctica. Era enseñada por ingenieros que estaban ejerciendo su profesión y se concentraba en la resolución de problemas tangibles mientras que los estudiantes aprendían a conceptualizar y diseñar productos y sistemas. La rápida expansión del conocimiento científico y técnico que ocurrió a finales de los 90s causó que la enseñanza de la ingeniería se convirtiera en la enseñanza de la “ciencia de la ingeniería”, con una menor concentración práctica. Los líderes de la industria empezaron a hallar que los estudiantes que se graduaban, si bien tenían una sólida capacitación técnica, carecían de muchas de las habilidades requeridas en las situaciones de ingeniería del mundo real. La enseñanza en general y la enseñanza de la Ingeniería en particular necesitan por tanto de una reforma educativa integral. De esta necesidad, surge la iniciativa CDIO (ConcebirDiseñar-Implementar-Operar), un marco educativo innovador dirigido a producir la próxima generación de líderes de ingeniería; siendo este el marco al que se abrazan las asignaturas tipo “INGENIA” y con el que se pretenden alcanzar las habilidades tanto técnicas como personales e interpersonales que requiere la nueva generación de ingenieros para ser competitivos en un sector cada vez más amplio y multidisciplinar. Para conseguir el cambio requerido antes citado, se hace necesaria la realización de proyectos de innovación educativa como el presente, que ayuden durante el proceso de transición que está viviendo el modelo educativo. Para lograr estos, el presente proyecto pretende dar respuesta a preguntas como: ¿De dónde venimos y hacia dónde debemos ir?, ¿Por qué es necesario un cambio?, ¿Qué pretendemos alcanzar con este cambio?, ¿Qué resultados esperamos de ello?, ¿Qué cambios se han introducido y cuales hay pendientes por introducir?, ¿Cómo planificar la reestructuración y adaptación de recursos y contenidos docentes para alcanzar los objetivos?, ¿De qué recursos se dispone y cuales hay que incorporar?, ¿Cómo debemos medir, evaluar y difundir los resultados obtenidos?, ¿Qué conclusiones se pueden extraer de los resultados? Para dar respuesta a estas y otras preguntas se abordan los puntos que se exponen a continuación. Los principales apartados del presente proyecto son la INTRODUCCIÓN, PLANIFICACIÓN y RESULTADOS OBTENIDOS. En primer lugar, durante la INTRODUCCIÓN se realiza una descripción del Espacio Europeo de Educación Superior (EEES), resumiendo cuáles son los objetivos estratégicos del mismo, y la conexión existente con la enseñanza de la Ingeniería Mecánica. Posteriormente se aborda un breve estudio de las metodologías docentes tradicionales empleadas en la enseñanza para inmediatamente después introducir las bases del aprendizaje activo. Se analizan las necesidades que han llevado a plantear los cambios en las metodologías docentes. Para esto se analizan varios estudios enfocados a concretar las características que se requieren en los recién egresados de titulaciones técnicas. Como consecuencia de las necesidades descritas surge la iniciativa CDIO, marco a la que se acogen las asignaturas “Ingenia” y que se estudiará en profundidad. Por último y tras introducir el contexto del proyecto, se describen los objetivos del mismo así como la planificación de las actividades. Con el apartado PLANIFICACIÓN se pretende describir las actividades realizadas del proceso de diseño de la asignatura abarcando la programación de actividades, gestión y empleo de recursos, metodologías docentes empleadas, plan de evaluación, entre otras actividades. En el apartado RESULTADOS OBTENIDOS se describen los prototipos fabricados, los resultados de aprendizaje, la valoración de la asignatura y problemas encontrados. Todo ello será de especial interés para extraer lecciones aprendidas y proponer acciones correctoras y/o de mejora.
Resumo:
En la situación actual, tanto las posibilidades de contratar como los resultados económicos de un astillero, dependen de su capacidad para construir un buque en el plazo mas corto posible. Dentro de los trabajos de diseño y construcción de de un buque el trabajo de tuberías ha sido el que tradicionalmente ha condicionado los plazos de construcción. En este estudio se considerara que se han tenido en cuenta los criterios necesarios para que las instalaciones del buque funcionen correctamente y se verá como los sistemas de diseño influyen en el coste y plazo del buque y, por tanto, en la productividad del astillero. Se estudian los distintos procesos de diseño, fabricación y montaje de tuberías, la evolución de estos procesos a lo largo del tiempo, los módulos de armamento que se realizan en los astilleros, los modelos de cámara de máquinas, y los sistemas de ayuda al diseño por ordenador. El autor, en su puesto de Jefe de la Oficina Tecnológica de la Factoría de Sevilla de Astilleros Españoles en los últimos 12 años, ha tomado parte activa en esta evolución, formando parte de un equipo que ha situado a este astillero entre los mas avanzarlos de Europa. Todo lo anterior sirve de base para la segunda parte de este estudio, donde se abordan las que, en opinión del autor, son las nuevas tendencias en el diseño de tuberías en la construcción naval. V Integración del CAD/CAM o CIM : CAD = computer aided design o diseño asistido por ordenador, CAM = computer aided manufacturing o fabricación asistida por ordenador, CIM = computer integrated manufacturing o fabricación integrada por ordenador. Se estudia la integración de los procesos de diseño con el resto de los procesos de gestión y de producción de un astillero, proponiéndose un modelo de cómo el autor ve esta integración. Se comenta la actual tendencia a pasar de las automatizaciones duras con maquinas especializadas para cada proceso, a las automatizaciones blandas en las que un robot puede realizar distintos procesos modificando su programación. Se estudian las nuevas posibilidades de la normal i zacio'n, de los planos parametrizados y de la tecnología de grupos aportando algunos ejemplos. Se estudia también como los procesos anteriores conducirán a una optimización del producto en sí, es decir a conseguir mejores buques. En las conclusiones destacamos como el camino que tienen los países desarrollados, como el nuestro, para mantener una industria competitiva de construcción naval va por la mecanización de los procesos constructivos siguiendo las tendencias anteriores y obteniendo buques optimizados. vi SUMMARY Under the present situation the possibilities to contract and the economical results of a Shipyard depend on its capacity to build a ship within the shortest time. i Within the works of design and construction of a ship, piping work has traditionally conditioned the construction time. In this study it shall be considered that the necessary criteria for the ship installations to operate correctly have been taken into account and it shall be noticed how the design systems influence on the cost and time of a ship and therefore on the Shipyard's productivity. Studies are made of different design processes, manufacturing and installation of piping, evolution of these processes along the time, outfitting modules made in the Shipyard, engine room models and computerized design aid systems. The author, in his post of Chief of the Technological Office of Sevilla Shipyard of Astilleros Españoles for the last 12 years, has taken an active part in this evolution, making part of a team which has placed this Shipyard among the most advanced in Europe. All of the above is used for the second part of this study, whereby an approach is made to those who, in the author's opinion, are the new trends in the piping design of shipbuilding. vii Integration of CAD/CAM or CIM: CAD = computer aided design, CAM = computer aided manufacturing, CIM = computer integrated manufacturing. i A study is made of the integration of design processes with the remaining step and production Shipyard processes, proposing a model of how the author views this integration. Comments are made on the present trend to go from hard automations with specialized machines for each process to soft automations, in which a robot can carry out different processes modifying its programmes. Studies are made of: New possibility of standardization, parametrized drawings and group technology, bringing some examples. It is also studied how the above processes shall lead to optimize the product itself, that is, to obtain better ships. In the conclusions we stand out how the way of developed countries (as ours) to maintain a competitive shipbuilding industry is by computerizing constructive processes, following the above trends and obtaining better ships.
Resumo:
La sociedad y el mundo en general, en cuanto a la integración social de todos, han ido evolucionando favorablemente. La accesibilidad hoy en día ya no es un hecho que preocupe a una minoría, sino cada vez son más las personas que se dedican a que este desarrollo vaya por el buen camino. En este trabajo lo que se pretende es recoger las condiciones que deben tenerse en cuenta al proyectar, y sobre todo, las características que debe cumplir el mobiliario que vamos a escoger para nuestro edificio, de forma que facilitemos el uso del mismo a todas las personas, sea cual sea su condición, de una forma lo más autónoma, segura y confortable posible. Se presenta como ejemplo el Edificio Multidepartamental de la Universidad de Alcalá de Henares, situado en Guadalajara, sobre el que estudiaremos, mediante un modelo de fichas técnicas de diagnóstico y control, el mobiliario de las aulas, de la cafetería, los puntos de información, los espacios higiénico-sanitarios, el mobiliario urbano exterior y la señalización y paneles informativos. El mobiliario debe estar situado de forma que no entorpezca la circulación de los usuarios del centro y éste, debe poder ser utilizado por todos ellos, estudiantes con y sin discapacidad, profesores, etc.… Debe existir suficiente espacio alrededor de mesas y sillas para maniobrar y permitir la aproximación frontal de las personas en sillas de ruedas, también se debe evaluar la accesibilidad en aseos y baños, máquinas expendedoras….
Resumo:
El importante avance de los componentes de la maquinaria agrícola que se construyen con materiales ‘plásticos’ permite abrir una serie de cuatro artículos en los que se analizan de manera conceptual lo que pueden ofrecer los plásticos y algunas de las realizaciones sobre las máquinas que se encuentran en el mercado.
Resumo:
Si existe un denominador común en la contemporaneidad este tiene que ver con el cambio y la transitoriedad. Surfeamos en las olas de una sociedad siempre cambiante incierta y cada vez más imprevisible. La postmodernidad ha devenido en un tiempo sin certezas, el habitante de la sociedad de la transitoriedad desconoce la previsión de futuro. Ante la ausencia de certidumbres, los individuos están obligados a concatenar proyectos episódicos a corto plazo. Este modo de vida fragmentada requiere una gran capacidad de adaptación y flexibilidad para poder sobrevivir en condiciones de incertidumbre endémicas. Por esa razón, la construcción de cualquier situación en términos intelectuales y metodológicos a cualquier escala, requiere una nueva visión, no sólo en términos de espacio, sino fundamentalmente, de tiempo. La presente tesis no pretende plantear el problema desde el punto de vista filosófico, aunque inevitablemente tendrá que referirse a pensadores y científicos utilizados desde la arquitectura. En esta línea, se hace necesario preguntarse como el arquitecto puede operar con esta incertidumbre, en otras palabras: ¿Existe un potencial para el arquitecto en la inestabilidad y el cambio constante del contexto urbano, social y económico? ¿Y si es así, cómo se opera con esta incertidumbre? La inestabilidad de todo el contexto social, político, cultural y económico en el que la arquitectura tiene lugar hoy, hace imprescindible analizar las herramientas y protocolos de proyecto. La tesis tratará, como su título indica, sobre algunas de las estrategias que frente a los postulados del Movimiento Moderno, aparecen entre 1961 y 1978, y reformuladas bajo el prisma de la contemporaneidad, pueden constituir herramientas que hoy resulta pertinente analizar, desde un punto de vista crítico pero también pragmático, en el marco de inestabilidad en el que se desarrolla la disciplina arquitectónica, a estas metodologías las denominaremos Estrategias de Incertidumbre. Por definición, la arquitectura ha operado históricamente, entre el presente conocido y el futuro incierto. Y aunque en la segunda mitad del siglo XX, se produce un cambio significativo en la manera de aproximarse a los cambios futuros de programa o de uso, en la vida útil de los edificios, operando con el cambio y la indeterminación como herramientas de proyecto, lo que es probablemente nuevo hoy, es la inestabilidad de todo el contexto social, político, cultural y económico en el que se genera la arquitectura. La presente tesis analiza una serie de estrategias que han incorporado la incertidumbre como ingrediente activo en la elaboración del proyecto arquitectónico, hasta el punto de redefinir completamente la disciplina. La primera hipótesis plantea el diseño de la anticipación como respuesta a la incertidumbre, a través de la introducción de la flexibilidad programática en el proyecto, para generar estructuras capaces de asimilar los futuros cambios. En ese sentido se buscará la indeterminación del proyecto para dejar abierto su uso. A la vez, la introducción activa del factor tiempo transforma el rol del arquitecto, que pasa a ser un gestor interdisciplinar en la generación del proyecto abierto. La segunda hipótesis plantea el papel productivo de la incertidumbre dentro del proceso creativo, buscando deliberadamente la generación de oportunidades dentro del proceso de proyecto, fomentando la observación y descubrimiento frente al diseño y la definición, manejando tiempo, crecimiento y azar como variables proyectuales, entendiendo la obra como proceso de tal manera que lo inesperado pueda aparecer. Para acometer la investigación, en relación al modelo canónico del Movimiento Moderno, se analizan nuevos modelos surgidos en los 60 en distintos contextos, alineados entre otros, con los protocolos de John Cage y sus secuencias randomizadas o la cibernética, fundamentalmente a partir de 1961, año en el que se publican dos textos, Theory and Design in the First Machine Age de Reyner Banham y An approach to Cybernetics de Gordon Pask. El pensamiento sistémico de Gordon Pask – colaborador de Price en el Fun Palace - tendrá gran influencia en la formulación del concepto de Incertidumbre Calculada, enunciado y planteado como estrategia por Cedric Price, que incorpora, a partir de ese momento, protocolos de diseño propios de la cibernética, en proyectos como el Fun Palace y Potteries Thinkbelt a principios de los años 60. En ellos, el arquitecto, desde la toma de conciencia de la caducidad de los paradigmas clásicos heredados de los principales teóricos de la modernidad, entiende que el proyecto de arquitectura debe incorporar cierto grado de indeterminación para dar cabida a las incertidumbres del programa, introducir la obsolescencia programada o verificar el potencial de la incertidumbre en la sociedad postindustrial. Estos planteamientos tienen continuidad en la figura de un joven profesor llegado en 1970 a la Architectural Association de Londres, el arquitecto suizo Bernard Tschumi. Los programas académicos desarrollados por Tschumi en Londres de 1970 a 1975 - en los que combina el activismo político, las acciones urbanas inspiradas en Lefebvre y Debord y las técnicas del performance juegan un rol crucial en la formalización del discurso y la práctica arquitectónica a partir de los años 70 y suponen el paso de un modelo directo, transitivo, a un modelo operativo, donde la conducta y los objetivos no se establecen a priori, sino que se instalan en el interior de los procesos, ampliando un campo disciplinar, que a partir de ese momento se centrará en lo performativo. Tras estos proyectos, analizaremos su llegada a Nueva York en 1978, año en que presenta los Manhattan Transcripts y se publica Delirious New York, obras que sustituirán la cultura del espacio y la forma, por la capacidad de acción del programa a partir de su modificación dimensional y relacional. Este capítulo tendrá su epílogo en el Concurso Internacional de La Villette en 1982, en las propuetas de Tschumi, Koolhaas y Price, donde la indeterminación estará presente mediante la generación de paisajes perceptivos y programáticos cambiantes. Tras los dos capítulos centrales, el capítulo final Estrategias de Incertidumbre, que da título a la Tesis, recapitulará las estrategias analizadas a través de tres proyectos contemporáneos, proyectando otras tantas ventanas para futuras investigaciones.
Resumo:
La mejora de las tecnologías ha tenido un importante impacto en Internet, así como en el número de usuarios. Este crecimiento sigue en aumento y se estima que en 2020 se alcancen 50 billones de dispositivos conectados a Internet, este impulso es en parte gracias a la interconexión de las “máquinas” entre ellas y con Internet, el concepto denominado M2M. Esta conexión entre dispositivos ofrece la posibilidad de mejorar los servicios dados a los usuarios y crear nuevos. Existen importantes alicientes en la evolución de M2M, sobre todo guiada por la gran cantidad de posibilidades ofrecidas y los beneficios que conllevan, sin embargo la falta de estandarización y horizontalidad se presentan como un problema para el crecimiento e implantación de M2M debido a la gran variedad de “maquinas” conectadas. El objetivo de este Proyecto Fin de Carrera es diseñar una plataforma que sea capaz de abarcar las funcionalidades que den soporte a las distintas necesidades de varias aplicaciones M2M, consiguiendo una arquitectura software horizontal que reutilice al máximo las funcionalidades comunes entre las aplicaciones cubiertas. De esta manera se presenta una solución a la falta de horizontalidad en las plataformas M2M. Este Proyecto Fin de Carrera está dividido en varias partes. Se comenzará con una introducción que sitúa en el contexto tecnológico de M2M en forma de estudio de estado del arte, abarcando los principales temas y conceptos relacionados con Machine-to-Machine. Posteriormente se realiza una propuesta de una arquitectura software M2M que permite focalizar los esfuerzos de la misma en un concentrado grupo de sectores y aplicaciones. A continuación se estudian las necesidades de los sectores y aplicaciones seleccionadas y se desarrollan las funcionalidades que incluye la plataforma, de esta manera se alcanza un modelo de arquitectura horizontal que es capaz de cubrir varios sectores. Se estudian los distintos resultados obtenidos en el desarrollo de la plataforma,validando el modelo obtenido con los resultados esperados. Finalmente se enunciarán los próximos pasos a seguir para la implementación de la plataforma. ABSTRACT. The development of technology has had an important impact on Internet, as well as on the number of users. This growth is increasing and it is estimated to reach 50 billion remotely connected devices by 2020, this momentum is partially due to interconnection between "machines" and their connection with internet, this concept is called M2M. The connection between devices gives the possibility to improve the services offered to users and to create new services. There are important incentives in the M2M evolution, mainly driven by the big amount of benefits offered; however the lack of standardization and horizontalization is a problem for the M2M growth and deployment due to the big variety of connected "machines". The aim of this Degree Project is to design a platform that will be capable of including the functionalities that will give support to the different needs of several M2M applications, achieving a horizontal software architecture that reuses the common functionalities between the applications supported. This architecture will be presented as a solution to the lack of horizontalization in M2M. This Degree Project is divided in several parts. It starts with an introduction that will place the reader in state of the art of the M2M technology context, covering the main themes and related concepts. After this introduction, a proposal of a horizontal M2M software architecture will be presented, that will allow to focus the efforts on a group of selected sectors and applications. Then, the needs of sectors and applications will be studied, and the main functionalities will be developed, in this way a model for a horizontal architecture will be reached, that will be able to cover several sectors. The resulting platform will be studied, in order to validate the model obtained with the expected results. Finally, the next steps to implement the platform are described.
Resumo:
En el discurso se reivindica el papel actual de la ingeniería mecánica como impulsora del desarrollo de las máquinas. Comienza con una breve exposición de la evolución de las máquinas a lo largo de la historia y su influencia en el desarrollo económico y social. Igualmente, señala la importancia de otras áreas de la ingeniería en el desarrollo de las máquinas actuales y el carácter multidisciplinar del diseño y desarrollo de las máquinas actuales. Ante la nueva situación, el discurso analiza el papel que desempeña actualmente la ingeniería de máquinas. Asimismo, comprueba que la aportación de otras disciplinas ha llevado a la concepción de máquinas con soluciones, más eficientes y eficaces, que requieren nuevos avances de la ingeniería de máquinas. Finalmente, se muestran diversos ejemplos significativos de los avances requeridos para el diseño de las máquinas actuales, entre los que destacan los relativos al análisis dinámico y a la fatiga. Entre los problemas dinámicos, se analizan los casos del comportamiento de sistemas multicuerpos con holgura o sujetos a impactos, y la detección de grietas en rotores mediante la medida de vibraciones. Del análisis del comportamiento a fatiga, se destaca la importancia de la aplicación conjunta de la mecánica de la fractura y el método de las deformaciones locales, especialmente para el análisis del comportamiento de grietas microestructuralmente pequeñas.
Resumo:
El laboreo de conservación requiere el diseño de herramientas de labranza que cumplan criterios de calidad de la labor, resistencia al desgaste y reducción del consumo energético (debido fundamentalmente a la adherencia suelo/herramienta). La biomimética es la ciencia que refiere al estudio de la estructura y la función de los sistemas biológicos como modelos para el diseño y fabricación de materiales y máquinas, en un proceso de ingeniería inversa en que el ser humano saca provecho de los procesos evolutivos de la naturaleza. En este trabajo de revisión, 1998-2013, se describen las respuestas adaptativas de diversos seres vivos al problema de la adherencia, y se analiza el caso concreto de optimización de una vertedera, un brazo de subsolador y un disco de corte empleando modelos numéricos y criterios biomiméticos. En todos los casos las etapas llevadas a cabo por distintos investigadores son: formulación del modelo de elementos finitos del apero, para posteriormente (en función de las condiciones de contorno) y de propiedades del suelo, obtener los resultados de la simulación. Por último se verifica experimentalmente con datos reales (sólo en dos de los tres ejemplos). Como resultado, comprobamos que en el caso del disco de corte la tensión total que soporta el material se reduce en un 34% con un diseño optimizado, mientras que en el caso del subsolador biomimético la resistencia horizontal y vertical se reducen en un 7% y 24% respectivamente.
Resumo:
Esta tesis contiene una investigación detallada sobre las características y funcionamiento de las máquinas de medición por visión. El objetivo fundamental es modelar su comportamiento y dotarlas de trazabilidad metrológica bajo cualquier condición de medida. Al efecto, se ha realizado un exhaustivo análisis de los elementos que conforman su cadena de medición, a saber: sistema de iluminación, estructura, lentes y objetivos, cámara, software de tratamiento de imágenes y software de cálculo. Se han definido modelos físico-matemáticos, de desarrollo propio, capaces de simular con fiabilidad el comportamiento de los elementos citados, agrupados, a efectos de análisis numérico, en dos subsistemas denominados: de visión y mecánico. Se han implementado procedimientos de calibración genuinos para ambos subsistemas mediante el empleo de patrones ópticos. En todos los casos se ha podido determinar la incertidumbre asociada a los diferentes parámetros involucrados, garantizando la trazabilidad metrológica de los resultados. Los distintos modelos desarrollados han sido implementados en Matlab®. Se ha verificado su validez empleando valores sintéticos obtenidos a partir de simulaciones informáticas y también con imágenes reales capturadas en el laboratorio. El estudio experimental y validación definitiva de los resultados se ha realizado en el Laboratorio de Longitud del Centro Español de Metrología y en el Laboratorio de Metrología Dimensional de la ETS de Ingeniería y Diseño Industrial de la UPM. Los modelos desarrollados se han aplicado a dos máquinas de medición por visión de diferentes características constructivas y metrológicas. Empleando dichas máquinas se han medido distintas piezas, pertenecientes a los ámbitos mecánico y oftalmológico. Los resultados obtenidos han permitido la completa caracterización dimensional de dichas piezas y la determinación del cumplimiento de las especificaciones metrológicas en todos los casos, incluyendo longitudes, formas y ángulos. ABSTRACT This PhD thesis contains a detailed investigation of characteristics and performance of the optical coordinate measurement machines. The main goal is to model their behaviour and provide metrological traceability to them under any measurement conditions. In fact, a thorough analysis of the elements which form the measuring chain, i.e.: lighting system, structure, lenses and objectives, camera, image processing software and coordinate metrology software has conducted. Physical-mathematical models, of self-developed, able to simulate with reliability the behavior of the above elements, grouped, for the purpose of numerical analysis, in two subsystems called: “vision subsystem” and “mechanical subsystem”, have been defined. Genuine calibration procedures for both subsystems have been implemented by use of optical standards. In all cases, it has been possible to determine the uncertainty associated with the different parameters involved, ensuring metrological traceability of results. Different developed models have been implemented in Matlab®. Their validity has been verified using synthetic values obtained from computer simulations and also with real images captured in laboratory. The experimental study and final validation of the results was carried out in the Length Laboratory of “Centro Español de Metrología” and Dimensional Metrology Laboratory of the “Escuela Técnica Superior de Ingeniería y Diseño Industrial” of the UPM. The developed models have been applied to two optical coordinate measurement machines with different construction and metrological characteristics. Using such machines, different parts, belonging to the mechanical and ophthalmologist areas, have been measured. The obtained results allow the full dimensional characterization of such parts and determination of compliance with metrological specifications in all cases, including lengths, shapes and angles.
Resumo:
La computación con membranas surge como una alternativa a la computación tradicional. Dentro de este campo se sitúan los denominados Sistemas P de Transición que se basan en la existencia de regiones que contienen recursos y reglas que hacen evolucionar a dichos recursos para poder llevar a cada una de las regiones a una nueva situación denominada configuración. La sucesión de las diferentes configuraciones conforman la computación. En este campo, el Grupo de Computación Natural de la Universidad Politécnica de Madrid lleva a cabo numerosas investigaciones al amparo de las cuales se han publicado numerosos artículos y realizado varias tesis doctorales. Las principales vías de investigación han sido, hasta el momento, el estudio del modelo teórico sobre el que se definen los Sistemas P, el estudio de los algoritmos que se utilizan para la aplicación de las reglas de evolución en las regiones, el diseño de nuevas arquitecturas que mejoren las comunicaciones entre las diferentes membranas (regiones) que componen el sistema y la implantación de estos sistemas en dispositivos hardware que pudiesen definir futuras máquinas basadas en este modelo. Dentro de este último campo, es decir, dentro del objetivo de construir finalmente máquinas que puedan llevar a cabo la funcionalidad de la computación con Sistemas P, la presente tesis doctoral se centra en el diseño de dos procesadores paralelos que, aplicando variantes de algoritmos existentes, favorezcan el crecimiento en el nivel de intra-paralelismo a la hora de aplicar las reglas. El diseño y creación de ambos procesadores presentan novedosas aportaciones al entorno de investigación de los Sistemas P de Transición en tanto en cuanto se utilizan conceptos que aunque previamente definidos de manera teórica, no habían sido introducidos en el hardware diseñado para estos sistemas. Así, los dos procesadores mantienen las siguientes características: - Presentan un alto rendimiento en la fase de aplicación de reglas, manteniendo por otro lado una flexibilidad y escalabilidad medias que son dependientes de la tecnología final sobre la que se sinteticen dichos procesadores. - Presentan un alto nivel de intra-paralelismo en las regiones al permitir la aplicación simultánea de reglas. - Tienen carácter universal en tanto en cuanto no depende del carácter de las reglas que componen el Sistema P. - Tienen un comportamiento indeterminista que es inherente a la propia naturaleza de estos sistemas. El primero de los circuitos utiliza el conjunto potencia del conjunto de reglas de aplicación así como el concepto de máxima aplicabilidad para favorecer el intra-paralelismo y el segundo incluye, además, el concepto de dominio de aplicabilidad para determinar el conjunto de reglas que son aplicables en cada momento con los recursos existentes. Ambos procesadores se diseñan y se prueban mediante herramientas de diseño electrónico y se preparan para ser sintetizados sobre FPGAs. ABSTRACT Membrane computing appears as an alternative to traditional computing. P Systems are placed inside this field and they are based upon the existence of regions called “membranes” that contain resources and rules that describe how the resources may vary to take each of these regions to a new situation called "configuration". Successive configurations conform computation. Inside this field, the Natural Computing Group of the Universidad Politécnica of Madrid develops a large number of works and researches that provide a lot of papers and some doctoral theses. Main research lines have been, by the moment, the study of the theoretical model over which Transition P Systems are defined, the study of the algorithms that are used for the evolution rules application in the regions, the design of new architectures that may improve communication among the different membranes (regions) that compose the whole system and the implementation of such systems over hardware devices that may define machines based upon this new model. Within this last research field, this is, within the objective of finally building machines that may accomplish the functionality of computation with P Systems, the present thesis is centered on the design of two parallel processors that, applying several variants of some known algorithms, improve the level of the internal parallelism at the evolution rule application phase. Design and creation of both processors present innovations to the field of Transition P Systems research because they use concepts that, even being known before, were never used for circuits that implement the applying phase of evolution rules. So, both processors present the following characteristics: - They present a very high performance during the application rule phase, keeping, on the other hand, a level of flexibility and scalability that, even known it is not very high, it seems to be acceptable. - They present a very high level of internal parallelism inside the regions, allowing several rule to be applied at the same time. - They present a universal character meaning this that they are not dependent upon the active rules that compose the P System. - They have a non-deterministic behavior that is inherent to this systems nature. The first processor uses the concept of "power set of the application rule set" and the concept of "maximal application" number to improve parallelism, and the second one includes, besides the previous ones, the concept of "applicability domain" to determine the set of rules that may be applied in each moment with the existing resources.. Both processors are designed and tested with the design software by Altera Corporation and they are ready to be synthetized over FPGAs.
Resumo:
Una instalación de ordeño está formada por un conjunto de locales y/o zonas agrupados en un edificio específico. Los criterios generales de diseño que deben guiar el Proyecto y construcción de esta instalación deben incluir : las posibilidades de expansión del rebaño y, por tanto, de la instalación de ordeño y la cuidadosa y justificada determinación del nivel de automatización. También se debe tener en cuenta la lotificación del rebaño, el número de animales y de ordeñadores y el tiempo disponible para ordeñar, así como la rutina de ordeño que se pretende seguir. Todo ello condicionará el número de unidades de ordeño que pueden manejarse y, por tanto, la dimensión de la instalación. Siempre se debe tener presente que la elevada inversión debe justificarse con un alto grado de utilización de la instalación. El Centro de Ordeño debe ubicarse de forma que se facilite la ampliación del mismo y el adecuado movimiento de los animales. Constará de diversas dependencias, entre las que siempre son exigibles el patio de espera, la sala de ordeño y la lechería, siendo recomendable, además, contemplar una sala de máquinas , una oficina y aseo -vestuario. Se debe prestar especial atención a otros detalles constructivos , pues no considerarlos puede llevar a que una instalación bien concebida y diseñada tenga, posteriormente, serios problemas de funcionamiento y de mantenimiento. Entre ellos, podemos citar, la profundidad y anchura del foso de ordeño, el fácil acceso a éste, el material con que se revisten paredes , suelos y techo. Tampoco debemos olvidar la importancia del alumbrado y de las condiciones ambientales en un lugar donde los animales y, sobre todo, los operarios, pasan muchas horas a lo largo del año.
Resumo:
En un momento en el que la Nube cobra cada día más fuerza, contribuyendo como pieza fundamental en la aparición de nuevos modelos de negocio, que a su vez originan una amplia oferta de aplicaciones útiles en prácticamente todos los ámbitos; la Unión Europea decidió sumergirse en el proyecto FIWARE, con la idea de alzarse como una nueva alternativa pública de código abierto, en un mercado dominado desde hace años por Google y Amazon. Desde 2011, FIWARE crece gracias al trabajo colaborativo de multitud de empresas e instituciones europeas especializadas en el ámbito de las TIC, con el objetivo de ofrecer un entorno estandarizado y de código abierto, que de soporte en la nube, tanto a las empresas como a las aplicaciones que puedan surgir en el futuro. Entre el amplio conjunto de contribuidores al proyecto, se encuentra la Universidad Politécnica de Madrid. Concretamente, como parte de la Cátedra de Telefónica en la Escuela Superior de Ingenieros de Telecomunicación, nace el Grupo de Internet de Nueva Generación (GING), responsable de importantes aportaciones al proyecto FIWARE. Entre las diferentes actividades a cargo del GING, están el diseño, la implementación y el mantenimiento del Portal Cloud, la interfaz gráfica que proporciona acceso desde la web a los diferentes servicios de la nube de FIWARE, basados la mayoría en los recursos Openstack: proveedor de infraestructura como servicio (IaaS). El objetivo de este trabajo será introducir al lector los principales propósitos por los que nace FIWARE, y presentar una serie de desarrollos realizados bajo la firma del GING, en torno al Portal y su relación con la infraestructura Openstack. A lo largo del documento, se explicarán los diferentes procedimientos vinculados a la implementación de las herramientas web que han contribuido a mejorar la funcionalidad del Portal. Dichos procedimientos, entrañan el estudio y empleo de tres tecnologías fundamentales: desarrollos web de front-end y el empleo de la framework BackboneJS, los recursos Openstack y el entorno de desarrollo Devstack, y el concepto de los widgets aplicado a la monitorización de máquinas virtuales. La lectura de este documento puede resultar de gran utilidad, pues, la implantación de los diferentes casos de uso tratados en este proyecto, permite hacer un repaso de los diferentes niveles de abstracción con los que cuenta una herramienta como el Portal Cloud: partiendo de la implementación de la interfaz de usuario, hasta llegar a la configuración de los recursos que conforman el soporte de la aplicación, pasando por la creación de APIs y librerías que proporcionen acceso a los distintos servicios disponibles. Así, el análisis de la estructura y componentes que dan forma al Portal Cloud de FIWARE, proporcionará una visión global, extrapolable al diseño y funcionamiento de cualquier aplicación o plataforma que emplee como soporte de sus capacidades los servicios ofrecidos por proveedores de Infraestructura como Servicio.