47 resultados para Dinámica-Problemas, ejercicios, etc
em Universidad Politécnica de Madrid
Resumo:
En esta Tesis se plantea una nueva forma de entender la evacuación apoyándonos en tecnologías existentes y accesibles que nos permitirán ver este proceso como un ente dinámico. Se trata de una metodología que implica no solo el uso de herramientas de análisis que permitan la definición de planes de evacuación en tiempo real, sino que también se apunta hacia la creación de una infraestructura física que permita alimentar con información actualizada al sistema de forma que, según la situación y la evolución de la emergencia, sea posible realizar planes alternativos que se adapten a las nuevas circunstancias. En base a esto, el sistema asimilará toda esa información y aportará soluciones que faciliten la toma de decisiones durante toda la evolución del incidente. Las aportaciones originales de esta Tesis son múltiples y muy variadas, pudiéndolas resumir en los siguientes puntos: 1. Estudio completo del estado del arte: a. Detección y análisis de diferentes proyectos a nivel internacional que de forma parcial tratan algunos aspectos desarrollados en la Tesis. b. Completo estudio a nivel mundial del software desarrollado total o parcialmente para la simulación del comportamiento humano y análisis de procesos de evacuación. Se ha generado una base de datos que cataloga de forma exhaustiva estas aplicaciones, permitiendo realizar un completo análisis y posibilitando la evolución futura de los contenidos de la misma. En la tesis se han analizado casi un centenar de desarrollos, pero el objetivo es seguir completando esta base de datos debido a la gran utilidad y a las importantes posibilidades que ofrece. 2. Desarrollo de un importante capítulo que trata sobre la posibilidad de utilizar entornos virtuales como alternativa intermedia al uso de simuladores y simulacros. En esta sección se divide en dos bloques: a. Ensayos en entornos reales y virtuales. b. Ensayos en entornos virtuales (pruebas realizadas con varios entornos virtuales). 3. Desarrollo de e-Flow net design: paquete de herramientas desarrolladas sobre Rhinoceros para el diseño de la red de evacuación basada en los elementos definidos en la tesis: Nodes, paths, Relations y Areas. 4. Desarrollo de e-Flow Simulator: Conjunto de herramientas que transforman Rhinoceros en un simulador 3D de comportamiento humano. Este simulador, de desarrollo propio, incorpora un novedoso algoritmo de comportamiento a nivel de individuo que incluye aspectos que no se han encontrado en otros simuladores. Esta herramienta permite realizar simulaciones programadas de grupos de individuos cuyo comportamiento se basa en el análisis del entorno y en la presencia de referencias dinámicas. Incluye otras importantes novedades como por ejemplo: herramientas para análisis de la señalización, elementos de señalización dinámica, incorporación sencilla de obstáculos, etc. También se ha creado una herramienta que posibilita la implementación del movimiento del propio escenario simulando la oscilación del mismo, con objeto de reflejar la influencia del movimiento del buque en el desplazamiento de los individuos. 5. En una fase avanzada del desarrollo, se incorporó la posibilidad de generar un vídeo de toda la simulación, momento a partir del cual, se han documentado todas las pruebas (y se continúan documentando) en una base de datos que recoge todas las características de las simulaciones, los problemas detectados, etc. Estas pruebas constituyen, en el momento en que se ha cerrado la redacción de la Tesis, un total de 81 GB de datos. Generación y análisis de rutas en base a la red de evacuación creada con e-Flow Net design y las simulaciones realizadas con e-Flow Net simulator. a. Análisis para la optimización de la configuración de la red en base a los nodos por área existentes. b. Definición de procesos previos al cálculo de rutas posibles. c. Cálculo de rutas: i. Análisis de los diferentes algoritmos que existen en la actualidad para la optimización de rutas. ii. Desarrollo de una nueva familia de algoritmos que he denominado “Minimum Decision Algorithm (MDA)”, siendo los algoritmos que componen esta familia: 1. MDA básico. 2. MDA mínimo. 3. MDA de no interferencia espacial. 4. MDA de expansión. 5. MDA de expansión ordenada para un único origen. 6. MDA de expansión ordenada. iii. Todos estos algoritmos se han implementado en la aplicación e-Flow creada en la Tesis para el análisis de rutas y que constituye el núcleo del Sistema de Ayuda al Capitán. d. Determinación de las alternativas para el plan de evacuación. Tras la definición de las rutas posibles, se describen diferentes procesos existentes de análisis por ponderación en base a criterios, para pasar finalmente a definir el método de desarrollo propio propuesto en esta Tesis y cuyo objetivo es responder en base a la población de rutas posibles obtenidas mediante los algoritmos MDA, qué combinación de rutas constituyen el Plan o Planes más adecuados para cada situación. La metodología creada para la selección de combinaciones de rutas que determinan un Plan completo, se basa en cuatro criterios básicos que tras su aplicación ofrecen las mejores alternativas. En esta fase también se incluye un complejo análisis de evolución temporal que incorpora novedosas definiciones y formulaciones. e. Derivado de la definición de la metodología creada en esta Tesis para la realización de los análisis de evolución temporal, se ha podido definir un nuevo teorema matemático que se ha bautizado como “Familia de cuadriláteros de área constante”. 7. Especificación de la infraestructura física del Sistema de Ayuda al Capitán: parte fundamental de sistema es la infraestructura física sobre la que se sustentaría. Esta infraestructura estaría compuesta por sensores, actuadores, aplicaciones para dispositivos móviles, etc. En este capítulo se analizan los diferentes elementos que la constituirían y las tecnologías implicadas. 8. Especificación de la infraestructura de servicios. 9. Creación del Blog Virtual Environments (http://epcinnova-virtualenvironments.blogspot.com.es/) en el que se han publicado todas las pruebas realizadas en el capítulo que analiza los entornos virtuales como alternativa a los simuladores y a los ensayos en laboratorio o los simulacros, incluyendo en muchos casos la posibilidad de que el visitante del blog pueda realizar la simulación en el entorno virtual. Este blog también incluye otras secciones que se han trabajado durante la Tesis: • Recopilación de diferentes entornos virtuales existentes. • Diagrama que recopila información sobre accidentes tanto en el ámbito marítimo como en el terrestre (en desarrollo). • Esquema propuesto para el acopio de información obtenida a partir de un simulacro. 10. Esta Tesis es la base para el proyecto e-Flow (nombre de una de las aplicaciones que desarrolladas en esta obra), un proyecto en el que el autor de esta Tesis ha trabajado como Project Manager. En el proyecto participa un consorcio de empresas y la UPM, y tiene como objetivo trasladar a la realidad gran parte de los planteamientos e ideas presentadas en esta Tesis. Este proyecto incluye el desarrollo de la infraestructura física y de servicios que permitirán, entre otras cosas, implementar en infraestructuras complejas una plataforma que posibilita la evacuación dinámica y un control ubicuo de los sistemas de monitorización y actuación implementados. En estos momentos se está finalizando el proyecto, cuyo objetivo final es la implementación de un piloto en un Hospital. También destacamos los siguientes avances a nivel de difusión científico-tecnológico: • Ponencia en el “52 congreso de la Ingeniería Naval en España” presentando un artículo “e-Flow- Sistema integral inteligente de soporte a la evacuación”. En este artículo se trata tanto el proyecto e-Flow del que soy Project Manager, como esta Tesis Doctoral, al ser temas estrechamente vinculados. En 2014 se publicó en dos números de la Revista Ingeniería Naval el artículo presentado a estas jornadas. • Co-autor en el artículo “E-Flow: A communication system for user notification in dynamic evacuation scenarios” presentado en el 7th International Conference on Ubicuous Computing & Ambient Intelligence (UCAMI) celebrado en Costa Rica. Por último, una de las aportaciones más interesantes, es la definición de un gran número de líneas de investigación futuras en base a todos los avances realizados en esta Tesis. ABSTRACT With this Thesis a new approach for understanding evacuation process is considered, taking advantage of the existing and open technologies that will allow this process to be interpreted as a dynamic entity. The methodology involves not only tools that allows on.-time evacuation plans, but also creates a physical insfrastructure that makes possible to feed the system with information on real time so, considering in each moment the real situation as well as the specific emergency development it will be feasible to generate alternative plans that responds to the current emergency situation. In this respect, the system will store all this information and will feedback with solutions that will help the decision making along the evacuation process. The innovative and singular contributions of this Thesis are numerous and rich, summarised as follows: 1.- Complete state-of-art study: a. Detection and analysis of different projects on an international level that, although partially, deal with some aspects developed in this Thesis. b. Thorough study at a international level of the developed software - total or partially done - for the simulation of the human behaviour and evacuation processes analysis. A database has been generated that classifies in detail these applications allowing to perform a full analysis and leading to future evolution of its contents. Within the Thesis work, almost a hundred of developments have been analysed but the purpose is to keep up updating this database due to the broad applications and possibilities that it involves. 2. Development of an important chapter that studies the possibility of using virtual scenarios as mid-term alternative for the use of simulations. This section is divided in two blocks: a. Trials in virtual and real scenarios b. Trials in virutal scenarios (trials performed with several ones). 3. E-Flow net design development: Set of tools developed under Rhinoceros for the evacuation net design based on the elements defined in the Thesis: Nodes, Paths, Relations, Areas 4. E-Flow simulator development: Set of tools that uses Rhinoceros as a 3D simulator of human behaviour. This simulator, of my own design, includes a new and original algorithm of human behaviour that involves aspects that are not found in other simulators. This tool allows to perform groups programmed simulations which behaviour is based on their enviroment analysis and presence of dynamic references. It includes other important innovations as for example: tools for signals analysis, dynamic signal elements, easy obstacle adding etc... More over, a tool that allows the own scenario movement implementation has been created by simulating the own oscillation movement, with the purpose of playing the vessel movement's influences in the individuals' displacements. 5. In an advanced stage of the development, the possibility of generating a video recording of all the simulation was also integrated, then from that moment all tests have been filed (and keep on doing so) in a database that collects all simulation characteristics, failures detected, etc. These stored tests amounts to a total of 81 GB at the moment of finishing the Thesis work. Generation and analysis of paths regarding the evacuation net created with E-Flow design and the simulations performed with E-Flow net Simulator. a. Analysis for the optimisation of the network configuration based in the existing nodes per area. b. Definition of the processes previous to the calculation of the feasible paths c. Paths calculation: i. Analysis of the different algorithms on existance nowadays for the routes optimisation. ii. Development of a new family of algorithms that I have called “Minimum Decision Algorithm (MDA)”, being composed of: 1. MDA basic 2. MDA minimum 3. MDA of not spacial interference 4. MDA of expansion (es de extenderse) o enlargement ( es de crecimiento) 5. MDA of organised expansion for a single origin (of organised enlargement for a single origin) 6. MDA of organised expansion (of organised enlargement) iii. All these algorithms have been implemented in the E-Flow application created in the Thesis dfor the routes analysis and it is the core of the Captain's support system. d. Determination of the alternatives for the evacuation plan. After defining all possible paths, different processes of analysis existing for weighing-based criteria are described, thus to end defining the own development method proposed in this Thesis and that aims to respond in an agreggation of possible routes basis obtained by means of the MDA algorithms what is the routes' combination more suitable for the Plan or Plans in every situation. The methodology created fot the selection of the combinations of routes that determine a complete Plan is baesd in four basic criteria that after applying, offer the best alternatives. In this stage a complex analysis of the progress along time is also included, that adds original and innovative defintions and formulations. e. Originated from the methodology created in this Thesis for the perfoming of the analysy of the progress along time, a new mathematic theorem has been defined, that has been called as "Family of quadrilateral of constant area". 7. Specification of the physiscal infrastructure of the Captain's help system: essential part is this physical infrastructure that will support it. This system will be made of sensors, actuators, apps for mobile devices etc... Within this chapter the different elements and technologies that make up this infrastructure will be studied. 8. Specification for the services infrastructure. 9. Start up of the Blog. " Virtual Environments (http://epcinnova-virtualenvironments.blogspot.com.es/)" in which all tests performed have been published in terms of analysis of the virtual enviroments as alternative to the simulators as well as to the laboratory experiments or simulations, including in most of the cases the possibility that the visitor can perform the simulation within the virtual enviroment. This blog also includes other sections that have been worked along and within this Thesis: - Collection of different virtual scenarios existent. - Schema that gathers information concerning accidents for maritime and terrestrial areas (under development) - Schema proposed for the collecting of information obtained from a simulation. 10. This Thesis is the basis of the E-Flow project (name of one of the applications developed in this work), a project in which the Thesis' author has worked in as Project Manager. In the project takes part a consortium of firms as well as the UPM and the aim is to bring to real life most part of the approaches and ideas contained in this Thesis. This project includes the development of the physical infrastructure as well as the services that will allow, among others, implement in complex infrastrucutres a platform that will make possible a dynamic evacuation and a continuous control of the monitoring and acting systems implemented. At the moment the project is getting to an end which goal is the implementation of a pilot project in a Hospital. We also would like to highlight the following advances concerning the scientific-technology divulgation: • Talk in the " 52th Congress of the Naval Engineering in Spain" with the article "E-Flow . Intelligent system integrated for supporting evacuation". This paper is about project E-Flow which I am Project Manager of, as well as this Thesis for the Doctorate, being both closely related. Two papers published In 2014 in the Naval Engineering Magazine. • Co-author in the article “E-Flow: A communication system for user notification in dynamic evacuation scenarios” [17] introduced in the 7th International Conference on Ubicuous Computing & Ambient Intelligence (UCAMI) held in Costa Rica. Last, but not least, one of the more interesting contributions is the defintion of several lines of research in the future, based on the advances made in this Thesis.
Resumo:
Esta publicación está destinada a facilitar la labor de los alumnos de la asignatura "Mecánica de los medios continuos" que el Profesor D. Luis Lozano Calvo explica en 4 º curso de la especialidad GEOFISICA, Sección Ciencias Físicas,de la Universidad Complutense. En la especialidad "Geofísica" se destina un cuatrimestre al estudio de los problemas de la mécánica de los sólidos. Tras un primer análisis de la elasticidad tradicional, se pasa revista a los fenómenos en que intervienen las características plásticas y el tiempo. Este libro tiene por finalidad facilitar la labor de los alumnos que deben estudiar estas materias, aliviándoles de la obligada consulta de textos foráneos. El lector experto no encontrará, pues, ninguna aportación original, y sí, en cambio, numerosas omisiones obligadas por el destino de lo escrito y la brevedad del periodo docente. En particular, ha sido especialmente dolorosa la supresión de los estupendos teoremas de Colonetti, de las doctrinas de Volterra, de los fenómenos de envejecimiento, de los problemas dinámicas, etc. etc. Realmente nos limitamos a apuntar los temas y a comunicar con el lenguaje necesario para que el lector pueda continuar en textos mejores el análisis del apasionante campo, aquí apenas desvelado. Respecto a la bibliografía, se ha procurado recoger las pocas publicaciones en castellano que existen, así como las que han servido para redactar los apuntes y aquellas que se estiman imprescindibles para estudios posteriores. Estas últimas han sido señaladas con un asterisco.
Resumo:
En el análisis de estructuras situadas en un emplazamiento de riesgo sísmico, es necesario conocer las característiias de un posible movimiento sísmico actuante, en la cota de cimentación de la estructura. La importancia del papel que juega el suelo circundante a la estructura en la modificación de las características del movimientos sísmico (principalmente en cuanto a amplitudes y contenido frecuencial), es bien conocida, denominándose amplificación sísmica a este fenómeno. En el caso de estructuras importantes, como Centrales Nucleares, presas, etc., o terrenos muy blandos, la presencia de la propia estructura también afecta de forma significativa al movimiento, dando lu gar al fenómeno de la interacción suelo-estructura. En esta comunicación se tratará únicamente del problema de la amplificación de las ondas sísmicas causantes del movimiento del suelo, y del análisis de la respuesta del mismo en ausencia de la estructura. Este movimiento del suelo denominado "movimiento del campo libre"(free field motion) puede, bien ser utilizado directamente en el análisis de la estructura, despreciando los efectos de la interacción, o emplearse como "input" en ciertas técnicas de análisis de interacción suelo-estructura.
Resumo:
El uso de las partículas magnéticas ha venido a más durante los últimos 10 años. Lo anterior ha estado condicionado por factores como la amplia investigación en materiales a nivel atómico, los retos propuestos por las diferentes áreas de investigación donde los niveles nanométricos cobran importancia, la inherente innovación tecnológica que pueden aportar a la industria dichas escalas y finalmente, el impacto socioeconómico que pueden tener estos avances tecnológicos. Sin embargo, la traslación a la industria de los avances tecnológicos se ha visto limitada por la falta de estrategias, ya que el 88% del conocimiento se queda en Universidades y Centros de Investigación y el resto, 12%, pasa a la industria o es obtenido en ella. En este trabajo de investigación se ha tratado de completar el círculo de idea, conceptualización, generación de conocimiento, prototipo, prueba in vitro y prueba in vivo; todo ello para dejar el menor espacio posible entre Investigación e Industria. Se ha fabricado un recinto que permite la observación del comportamiento de las partículas magnéticas cuando están inmersas en un medio con viscosidad controlada y con una fuente magnética estática. De la observación experimental se han encontrado fenómenos magnéticos como la aglomeración y la autoorganización, que han sido aprovechados, no solo para ofrecer una solución alternativa a la corrección del desprendimiento de retina, sino también para promover las mejoras de métodos de separación y/o filtrado celular, ayuda en correcciones ortopédicas o en el diagnóstico y tratamiento de enfermedades degenerativas. Particularizando en la corrección del desprendimiento de retina, se ha desarrollado y patentado un Dispositivo Ocular cuya función es la de tapón del agujero retiniano, ayudando en la cicatrización de la retina. Dicho dispositivo ha sido evaluado en conejos albinos neozelandeses obteniéndose un éxito en la reaplicación de la retina del 80% y resultando su toxicidad en condición difusa tras evaluación anatomopatológica. Así mismo, el ferrofluido diseñado y fabricado se ha localizado en la zona de interacción magnética siempre y su disposición ha sido en el mayor de los casos en forma de placa pero también se han formado anillos; lo anterior no ha afectado en ningún sentido el éxito en la reaplicación de la retina. Por otro lado, no se han encontrado indicios de siderosis en la zona de interacción magnética, sus alrededores o el resto del globo ocular; ni las células han presentado apoptosis inducida por los materiales introducidos en el ojo. Sin embargo, se ha encontrado una fuerte necrosis inducida por la presión ejercida sobre la retina por el dispositivo ocular, evidenciando la necesidad de un mejor control de dicha presión. Tras la caracterización de los copos y la presión que éstos ejercen, se ha podido identificar que el dispositivo ocular se puede sintonizar para inducir una presión entre 0.5 y 2.5 mmHg; por tanto se puede vislumbrar que es posible minimizar la muerte celular causada en las células retinianas. Finalmente, tras la experimentación con conejos se ha observado que el dispositivo ocular resuelve los problemas inducidos por las siliconas o los gases e inclusive aporta ventajas competitivas de alto valor añadido como: no requerir de posiciones incómodas en el post-operatorio, no modifica las propiedades ópticas del ojo ya que no es necesario dejar silicona o gases en el interior del ojo, se pueden sellar múltiples agujeros retinianos, corrección de desprendimiento de retina inferior sin complicaciones asociadas, etc.; en definitiva mejora la calidad de vida domiciliaria del paciente además de solventar los problemas inducidos por las soluciones actuales. The using of magnetic particles has become more important during last 10 years. This event has been conditioned by several factors like a wide researching on materials at atomic level, the challenges proposed by different research areas where nanometric levels became important, the inherent technological innovation to the industry and finally, the socioeconomic impact of these kinds of technologies. However, the nanotechnological advances have not been well addressed to the industry since 88% of the acknowledge keeps on Universities and Research Centers, and the remaining 12% goes through the industry or is obtained in it. In this research work, we have tried to complete the entire process about idea, concept, acknowledge generation, prototyping and in vitro and in vivo testing; all to leave as little space as possible between Research and Industry. We have built an experimental hall which allows us the observation of magnetic particles' behavior when are immersing in a controlled viscous medium and under a static magnetic field. The experimental observation has been useful to identify and use two magnetic phenomena: agglomeration and self-organization; no only for retinal detachment, but also to improve cellular separation and/or filtered methods, orthopedic solutions or the diagnostic and treatment of degenerative diseases. Particularizing on retinal detachment, we have developed and patented an Ocular Device which its function is acting like a tampon of the retinal hole for helping with the scarring retina. The device has been evaluated in animals and the results show that we can achieve a success of 80% before rabbit’s death and non cell apoptosis, only necrosis, over the retina attached by the ocular device after anatomopathological evaluation. Also we have identified a diffuse toxicity after anatomopathological evaluation, so more experimenting must be proposed. Otherwise, the ferrofluid has been localized where the magnetic interaction area is located and its deposition has been in most cases plaque shape like but rings have also been observed; this has not affected in any way the successful reattachment of the retina. On the other hand, we have not found any evidence of siderosis in the magnetic interaction zone, near of or some other place of the ocular globe; and we did not find any apoptosis induced by the materials inserted within the eye. However full necrosis, exactly on the magnetic interaction zone, has been found and induced by the pressure exerted over the retina by the ocular device, evidencing the needing of its better control. After flakes’ characterization and its pressure exerted, we identified that the ocular device can be tuned in order to induce a pressure between 0.5 and 2.5 mmHg; therefore we can perceive that death caused to the retinal cells can be minimized. Finally, the experimentation has shown that the ocular device solves all problems induced by silicone or gases an even contributes with some other competitive advantages of high added value like: no uncomfortable postoperative positions, it does not modify any optical property of the eye because there is no needing of leaving silicone or gases inside the eye, many holes can be sealed, the inferior retinal detachment can be solve without any complications, etc.; definitively the ocular device improves patients’ quality of life.
Resumo:
Esta Tesis Doctoral se encuadra en el ámbito de la medida de emisiones contaminantes y de consumo de combustible en motores de combustión interna alternativos cuando se utilizan como plantas de potencia para propulsión de vehículos ligeros de carretera, y más concretamente en las medidas dinámicas con el vehículo circulando en tráfico real. En este ámbito, el objetivo principal de la Tesis es estudiar los problemas asociados a la medición en tiempo real con equipos embarcados de variables medioambientales, energéticas y de actividad, de vehículos ligeros propulsados por motores térmicos en tráfico real. Y como consecuencia, desarrollar un equipo y una metodología apropiada para este objetivo, con el fin de realizar consiguientemente un estudio sobre los diferentes factores que influyen sobre las emisiones y el consumo de combustible de vehículos turismo en tráfico real. La Tesis se comienza realizando un estudio prospectivo sobre los trabajos de otros autores relativos al desarrollo de equipos portátiles de medida de emisiones (Portable Emission Measurement Systems – PEMS), problemas asociados a la medición dinámica de emisiones y estudios de aplicación en tráfico real utilizando este tipo de equipos. Como resultado de este estudio se plantea la necesidad de disponer de un equipo específicamente diseñado para ser embarcado en un vehículo que sea capaz de medir en tiempo real las concentraciones de emisiones y el caudal de gases de escape, al mismo tiempo que se registran variables del motor, del vehículo y del entorno como son la pendiente y los datos meteorológicos. De esta forma se establecen las especificaciones y condiciones de diseño del equipo PEMS. Aunque al inicio de esta Tesis ya existían en el mercado algunos sistemas portátiles de medida de emisiones (PEMS: Portable Emissions Measurement Systems), en esta Tesis se investiga, diseña y construye un nuevo sistema propio, denominado MIVECO – PEMS. Se exponen, discuten y justifican todas las soluciones técnicas incorporadas en el sistema que incluyen los subsistema de análisis de gases, subsistemas de toma de muestra incluyendo caudalímetro de gases de escape, el subsistema de medida de variables del entorno y actividad del vehículo y el conjunto de sistemas auxiliares. El diseño final responde a las hipótesis y necesidades planteadas y se valida en uso real, en banco de rodillos y en comparación con otro equipos de medida de emisiones estacionarios y portátiles. En esta Tesis se presenta también toda la investigación que ha conducido a establecer la metodología de tratamiento de las señales registradas en tiempo real que incluye la sincronización, cálculos y propagación de errores. La metodología de selección y caracterización de los recorridos y circuitos y de las pautas de conducción, preparación del vehículo y calibración de los equipos forma también parte del legado de esta Tesis. Para demostrar la capacidad de medida del equipo y el tipo de resultados que pueden obtenerse y que son útiles para la comunidad científica, y las autoridades medioambientales en la parte final de esta Tesis se plantean y se presentan los resultados de varios estudios de variables endógenas y exógenas que afectan a las emisiones instantáneas y a los factores de emisión y consumo (g/km) como: el estilo de conducción, la infraestructura vial, el nivel de congestión del tráfico, tráfico urbano o extraurbano, el contenido de biocarburante, tipo de motor (diesel y encendido provocado), etc. Las principales conclusiones de esta Tesis son que es posible medir emisiones másicas y consumo de motores de vehículos en uso real y que los resultados permiten establecer políticas de reducción de impacto medio ambiental y de eficiencia energética, pero, se deben establecer unas metodologías precisas y se debe tener mucho cuidado en todo el proceso de calibración, medida y postratamientos de los datos. Abstract This doctoral thesis is in the field of emissions and fuel consumption measurement of reciprocating internal combustion engines when are used as power-trains for light-duty road vehicles, and especially in the real-time dynamic measurements procedures when the vehicle is being driven in real traffic. In this context, the main objective of this thesis is to study the problems associated with on-board real-time measuring systems of environmental, energy and activity variables of light vehicles powered by internal combustion engines in real traffic, and as a result, to develop an instrument and an appropriate methodology for this purpose, and consequently to make a study of the different factors which influence the emissions and the fuel consumption of passenger cars in real traffic. The thesis begins developing a prospective study on other authors’ works about development of Portable Emission Measurement Systems (PEMS), problems associated with dynamic emission measurements and application studies on actual traffic using PEMS. As a result of this study, it was shown that a measuring system specifically designed for being on-board on a vehicle, which can measure in real time emission concentrations and exhaust flow, and at the same time to record motor vehicle and environment variables as the slope and atmospheric data, is needed; and the specifications and design parameters of the equipment are proposed. Although at the beginning of this research work there were already on the market some PEMS, in this Thesis a new system is researched, designed and built, called MIVECO – PEMS, in order to meet such measurements needs. Following that, there are presented, discussed and justify all technical solutions incorporated in the system, including the gas analysis subsystem, sampling and exhaust gas flowmeter subsystem, the subsystem for measurement of environment variables and of the vehicle activity and the set of auxiliary subsystems. The final design meets the needs and hypotheses proposed, and is validated in real-life use and chassis dynamometer testing and is also compared with other stationary and on-board systems. This thesis also presents all the research that has led to the methodology of processing the set of signals recorded in real time including signal timing, calculations and error propagation. The methodology to select and characterize of the routes and circuits, the driving patterns, and the vehicle preparation and calibration of the instruments and sensors are part of the legacy of this thesis. To demonstrate the measurement capabilities of the system and the type of results that can be obtained and that are useful for the scientific community and the environmental authorities, at the end of this Thesis is presented the results of several studies of endogenous and exogenous variables that affect the instantaneous and averaged emissions and consumption factors (g/km), as: driving style, road infrastructure, the level of traffic congestion, urban and extra-urban traffic, biofuels content, type of engine (diesel or spark ignition) etc. The main conclusions of this thesis are that it is possible to measure mass emissions and consumption of vehicle engines in actual use and that the results allow us to establish policies to reduce environmental impact and improve energy efficiency, but, to establish precise methodologies and to be very careful in the entire process of calibration, measurement and data post-treatment is necessary.
Resumo:
Ejercicios y problemas del Laboratorio de electrónica y componentes en le E.T.S.I. de Telecomunicación de la Universidad Politécnica de Madrid
Resumo:
La preparación de estas notas ha llevado, al más veterano de los autores, a rememorar sus primeros tanteos con los métodos numéricos. Tratando de desarrollar su tesis doctoral sobre efectos dinámicos en puentes de ferrocarril, descubrió, en 1968, en la biblioteca del Laboratorio de Transporte (donde el profesor ]iménez Salas era Director) las Actas de la reunión ASTM en las que Quilan y Sung proponían la asimilación del comportamiento dinámico del semiespacio elástico a un sistema con un grado de libertad. Además de incorporar estos resultados a un modelo de puente para tener en cuenta los fenómenos de interacción dinámica terreno-estructura dicho autor entró en contacto con algunos miembros del equipo de investigación del Prof. ]iménez Salas que, por entonces, estaba explorando la posibilidad de aplicación del ordenador y los métodos numéricos necesarios para tratar los problemas más difíciles de Mecánica de los Medios Continuos. De hecho fue ese grupo quien contribuyó a introducir en España el método de los elementos finitos en la ingeniería civil, pero además, y en relación directa con el título de este artículo fue el propio ]iménez Salas quién inició la línea de trabajo de lo que mas tarde se ha llamado Método Indirecto de Elementos de Contorno que luego fue seguida por otros miembros de su grupo. En aquélla época poco podía sospechar el autor precitado que iba a dedicar una parte sustancial de su vida al desarrollo de ese método numérico en su versión Directa y mucho menos que gran parte de la motivación vendría del problema de interacción dinámica terreno-estructura, una de cuyas primeras soluciones había obtenido en la mencionada visita al Laboratorio de Transporte. En efecto los autores trataban en 1975 de encontrar un procedimiento que les permitiera afrontar el estudio de la interacción en túneles sometidos a carga sísmica y tropezaron, al utilizar el método de elementos finitos, con el problema de las reflexiones de ondas en los contornos artificiales creados al truncar la malla de cálculo. Deseando evitar el uso contornos absorbentes y otros recursos similares se exploró la posibilidad de soluciones fundamentales que incorporasen el comportamiento en el infmito y, fruto de ello, fueron los primeros trabajos que introdujeron el Método Directo de los Elementos de Contorno en España en problemas estáticos. La extensión a teoría del potencial, dinámica en el dominio de la frecuencia, plasticidad, etc tuvo lugar inmediatamente siendo en la mayoría de los casos los problemas típicos de mecánica del suelo los que motivaron y justifican el esfuerzo realizado. Un campo apasionante, el de la poroelasticidad ha dado lugar a nuevas contribuciones y también se han escrito libros de diverso calado que describen las posibilidades del método para dar contestación a preguntas de gran importancia técnica. Los autores quieren poner de manifiesto que la redacción de este trabajo, debe considerarse no solo como la muestra de algunos resultados de aplicación a problemas prácticos, sino también como un homenaje y reconocimiento explícito a la labor precursora del Prof. ]iménez Salas y a su espíritu de permanente curiosidad por el conocimiento científico.
Resumo:
Numerosos problemas en ingeniería se refieren a la respuesta dinámica del terreno frente a solicitaciones permanentes o transitorias. Ejemplos típicos son las sacudidas sísmicas, el paso de cargas móviles, la actuación de máquinas con dispositivos alternativos (compactadores, turboalternadores etc.), etc. El desarrollo de la mecánica de suelo, así como el interés de mejorar el diseño y garantizar la seguridad de las estructuras afectadas han conducido al desarrollo de un cuerpo de doctrina homogéneo y riguroso para el tratamiento de problemas como los citados. Obsérvese que, en general, ni el terreno ni la estructura sobre él construida se pueden estudiar por separado. Hay una verdadera interacción entre ambos y ella es, preciamente, la motivación del problema. Así, en el presente capítulo se analiza el semiespacio elástico con carga dinámica, el caso viscoelástico y el amortiguamiento material. En lo que respecta al semiespacio elástico con carga dinámica, además de un breve desarrollo histórico, se hace referencia a las vibraciones verticales en régimen permanente, las vibraciones horizontales y giratoriaas en régimen permanente, el modelo de Veletsos, las vibraciones de torsión, la carga en faja, los cimientos rectangulares y los cimientos empotrados. Respecto al caso viscoelástico y el amortiguamiento material, se analizan diversos mecanismos de amortiguamiento.
Resumo:
Se trata de ejercicios resueltos sobre DIAGRAMAS DE ESFUERZOS para la asignatura ESTRUCTURAS I, impartida por al autor dentro de la ETS de ARQUITECTURA DE MADRID.
Resumo:
Se trata de ejercicios de aplicación del Método Básico de la Rigidez, orientado fundamentalmente a la asignatura ESTRUCTURAS I de la ETS de Arquitectura de Madrid, UPM.
Resumo:
Se ha desarrollado un equipo de medida de emisiones contaminantes de motores térmicos, embarcable en un vehículo, que mide la concentración, el caudal y todas las condiciones termodinámicas asociadas al flujo de escape en tiempo real. Se discute la metodología empleada en la determinación de las emisiones másicas instantáneas, las totales y los factores de emisión, detallando por un lado la configuración física del caudalímetro, la frecuencia de muestreo, el registro de datos, y los cálculos. Y por otro, las correcciones sobre las concentraciones instantáneas por tipo de medida y dinámica propia de los analizadores es necesario realizar. El trabajo se enfoca principalmente en los aspectos termodinámicos asociados, pero se discutirán los problemas físicos de este tipo de medidas: condensado, arrastre de partículas y oscilaciones del flujo. Con objeto de ilustrar las dificultades encontradas y legitimar las soluciones adoptadas, se presentan y se discuten algunos resultados reales obtenidos en un motor en condiciones normales de funcionamiento, y los resultados de validación en base a medidas en banco de rodillos. Los resultados muestran la importancia del diseño físico del caudalímetro, de la precisión y rapidez de los analizadores y de la adecuada frecuencia de muestreo.
Resumo:
En el ámbito de las estructuras de protección, tales como polvorines o refugios de protección civil, el hormigón armado es el material más empleado, fundamentalmente por su masividad, sus buenas características de absorción de energía y, cuando está adecuadamente reforzado, por su comportamiento dúctil. En ambos tipos de estructuras, la principal amenaza proviene de las explosiones causadas por armas de guerra, en particular, por armas convencionales. Por otro lado, en España viene actuando la organización terrorista ETA desde finales de los años 60, a lo que últimamente hay que añadir el denominado terrorismo internacional. En ambos casos, sus apariciones se manifiestan, generalmente, mediante la detonación de explosivos, aspecto que ha hecho que tanto entidades públicas como privadas hayan estado seriamente interesadas por el comportamiento de las estructuras cerramientos, etc. A título de ejemplo, se puede recordar el atentado perpetrado el día 31 de diciembre de 2008 en la sede de EITB de Bilbao, o el perpetrado el día 9 de febrero de 2009 en la sede de la empresa constructora Ferrovial-Agroman situada en el Campo de las Naciones de Madrid.
Resumo:
La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.
Resumo:
La falta de información es un escenario más que habitual en la utilización de conjuntos de datos. En las aplicaciones del mundo real existen múltiples causas – errores o fallos de los sensores cuando se trabaja con equipos automáticos, desconocimiento o falta de interés por parte de los responsables de introducir la información, negativas por parte de los informantes a responder a preguntas sobre temas comprometidos en encuestas … – que pueden originarlo. Como consecuencia de ello, el procesamiento de los valores ausentes es, en la práctica, uno de los trabajos que más tiempo consumen en los proyectos de minería de datos y aprendizaje automático [109] y se estima que alrededor del 60% de los esfuerzos se destinan al mismo [23]. Aunque la ausencia puede producirse en cualquier tipo de datos, sean éstos numéricos o categóricos, nos vamos a centrar en los últimos a causa de algunas peculiaridades que merece la pena estudiar. Y hablaremos indistintamente de ausencia de información, valores ausentes, falta de respuesta, datos parcialmente observados o falta de datos, pues en cualquiera de estas formas aparece citado el problema. Las técnicas para afrontarlo se vienen desarrollando ya desde hace tiempo [135], [6] y existen numerosas referencias en la literatura, sobre todo acerca de la falta de respuesta 6 en encuestas [32], [79]. Sin embargo, en el ámbito del aprendizaje automático es en los últimos años cuando se ha convertido en un área de investigación dinámica, con frecuentes aportaciones [94]. Los dos puntos de vista, el estadístico y el del aprendizaje automático, consideran el problema en formas bien diferentes y tienen distintos objetivos, lo que origina, a su vez, discrepancias en la clasificación de las técnicas y en los criterios para su evaluación. Por un lado, el enfoque estadístico paramétrico tradicional considera el conjunto de datos como una muestra, resultado de la extracción aleatoria de una población con una distribución probabilística. Bajo este supuesto, el objetivo es obtener algunos de los parámetros que caracterizan esa distribución – la media, la moda, la correlación entre variables, etc. – calculándose los correspondientes estimadores como funciones de los datos de la muestra. La ausencia de datos es, aquí, un problema de estimación que se afronta desde diferentes perspectivas. Por su parte, en el ámbito de los procedimientos de aprendizaje automático existen múltiples técnicas que pueden utilizarse para tratar los datos ausentes mediante su sustitución por valores obtenidos a partir de los datos observados: redes neuronales, árboles de decisión, etc. Cuando los datos que faltan son categóricos, se pueden utilizar técnicas específicas como los procedimientos de clasificación: las categorías a asignar coinciden con los distintos valores posibles del atributo que tiene falta de información. Pueden utilizarse métodos supervisados y no supervisados. En el primer caso, cuando existe más de un atributo con falta de datos, el aprendizaje se realiza sucesiva y separadamente para cada uno, lo que significa que la tarea ha de repetirse tantas veces como atributos con valores ausentes hay en el conjunto de datos [72]. El inicio de los trabajos de esta tesis ha estado principalmente motivado en la necesidad de mejorar los resultados obtenidos al tratar de resolver problemas de falta de 7 información de variables categóricas en sondeos de opinión utilizando los procedimientos que la literatura considera como el estado del arte en ese ámbito. Se ha encontrado, así, que muchos de los métodos que se proponen tienen hipótesis de funcionamiento que están muy lejos de las situaciones reales que se encuentran en la práctica y, además, las soluciones existentes han avanzado frecuentemente en direcciones no adecuadas, sin replantear los fundamentos básicos. Esto ha conducido de una forma natural a probar métodos propios de otro ámbito como es el aprendizaje automático, para lo que ha sido necesario, en ocasiones, proponer modificaciones de algunos procedimientos ya existentes de modo que pudieran aceptar como entradas el tipo de datos que estos sondeos de opinión manejan. Como resultado, y en el caso concreto de un tipo específico de redes neuronales, se ha diseñado una nueva arquitectura y un nuevo algoritmo de funcionamiento que se presentan aquí como aportación más novedosa de este estudio.
Resumo:
En este artículo se han bosquejado los fenómenos más llamativos de la dinámica de suelos, así como algunos métodos experimentales y numéricos utilizados para su comprensión y análisis. Aunque se dispone de una considerable cantidad de conocimientos, estos son todavía, desde un punto de vista puramente científico, dispersos, confusos y contradictorios. Conviene tener en cuenta que la Mecánica de Suelos es una ciencia relativamente joven y que su tratamiento con las herramientas de la Mecánica del Continuo presenta problemas formidables. Seria injusto, sin embargo, no calificar de espectaculares los avances conseguidos en los últimos veinte años, con una afortunada síntesis de investigación teórica, aplicación de los métodos informáticos y mejora de las técnicas de ensayo en laboratorio y en campo. Para el ingeniero práctico la situación es comprometida, pues debe tomar decisiones con un nivel de conocimientos limitado; pero ésa justamente es la motivación que impulsa a los investigadores que dia a día van aclarando un campo apasionante del conocimiento.