42 resultados para Mathematical Techniques--Error Analysis
em Universidad Politécnica de Madrid
Resumo:
During the last few decades, new imaging techniques like X-ray computed tomography have made available rich and detailed information of the spatial arrangement of soil constituents, usually referred to as soil structure. Mathematical morphology provides a plethora of mathematical techniques to analyze and parameterize the geometry of soil structure. They provide a guide to design the process from image analysis to the generation of synthetic models of soil structure in order to investigate key features of flow and transport phenomena in soil. In this work, we explore the ability of morphological functions built over Minkowski functionals with parallel sets of the pore space to characterize and quantify pore space geometry of columns of intact soil. These morphological functions seem to discriminate the effects on soil pore space geometry of contrasting management practices in a Mediterranean vineyard, and they provide the first step toward identifying the statistical significance of the observed differences.
Resumo:
Many computer vision and human-computer interaction applications developed in recent years need evaluating complex and continuous mathematical functions as an essential step toward proper operation. However, rigorous evaluation of this kind of functions often implies a very high computational cost, unacceptable in real-time applications. To alleviate this problem, functions are commonly approximated by simpler piecewise-polynomial representations. Following this idea, we propose a novel, efficient, and practical technique to evaluate complex and continuous functions using a nearly optimal design of two types of piecewise linear approximations in the case of a large budget of evaluation subintervals. To this end, we develop a thorough error analysis that yields asymptotically tight bounds to accurately quantify the approximation performance of both representations. It provides an improvement upon previous error estimates and allows the user to control the trade-off between the approximation error and the number of evaluation subintervals. To guarantee real-time operation, the method is suitable for, but not limited to, an efficient implementation in modern Graphics Processing Units (GPUs), where it outperforms previous alternative approaches by exploiting the fixed-function interpolation routines present in their texture units. The proposed technique is a perfect match for any application requiring the evaluation of continuous functions, we have measured in detail its quality and efficiency on several functions, and, in particular, the Gaussian function because it is extensively used in many areas of computer vision and cybernetics, and it is expensive to evaluate.
Resumo:
AnewRelativisticScreenedHydrogenicModel has been developed to calculate atomic data needed to compute the optical and thermodynamic properties of high energy density plasmas. The model is based on anewset of universal screeningconstants, including nlj-splitting that has been obtained by fitting to a large database of ionization potentials and excitation energies. This database was built with energies compiled from the National Institute of Standards and Technology (NIST) database of experimental atomic energy levels, and energies calculated with the Flexible Atomic Code (FAC). The screeningconstants have been computed up to the 5p3/2 subshell using a Genetic Algorithm technique with an objective function designed to minimize both the relative error and the maximum error. To select the best set of screeningconstants some additional physical criteria has been applied, which are based on the reproduction of the filling order of the shells and on obtaining the best ground state configuration. A statistical error analysis has been performed to test the model, which indicated that approximately 88% of the data lie within a ±10% error interval. We validate the model by comparing the results with ionization energies, transition energies, and wave functions computed using sophisticated self-consistent codes and experimental data.
Resumo:
A set of problems concerning the behaviour of a suddenly disturbed ideal floating zone is considered. Mathematical techniques of asymptotic expansions arc used to solve these problems. It is seen that many already available solutions, most of them concerning liquids enclosed in cavities, will be regarded as starting approximations which are valid except in the proximity of the free surface which laterally bounds the floating zone. In particular, the problem of the linear spin-up of an initially cylindrical floating zone is considered in some detail. The presence of a recircuiating fluid pattern near the free surface is detected. This configuration is attributed to the interplay between Coriolis forces and the azimuthal component of the viscous forces.
Resumo:
- Resumen La hipótesis que anima esta tesis doctoral es que algunas de las características del entorno urbano, en particular las que describen la accesibilidad de su red de espacio público, podrían estar relacionadas con la proporción de viajes a pie o reparto modal, que tiene cada zona o barrio de Madrid. Uno de los puntos de partida de dicha hipótesis que el entorno urbano tiene una mayor influencia sobre los viaje a pie que en sobre otros modos de transporte, por ejemplo que en los viajes de bicicleta o en transporte público; y es que parece razonable suponer que estos últimos van a estar más condicionadas por ejemplo por la disponibilidad de vías ciclistas, en el primer caso, o por la existencia de un servicio fiable y de calidad, en el segundo. Otra de las motivaciones del trabajo es que la investigación en este campo de la accesibilidad del espacio público, en concreto la denominada “Space Syntax”, ha probado en repetidas ocasiones la influencia de la red de espacio público en cómo se distribuye la intensidad del tráfico peatonal por la trama urbana, pero no se han encontrado referencias de la influencia de dicho elemento sobre el reparto modal. De acuerdo con la hipótesis y con otros trabajos anteriores se propone una metodología basada en el análisis empírico y cuantitativo. Su objetivo es comprobar si la red de espacio público, independientemente de otras variables como los usos del suelo, incluso de las variables de ajenas entorno no construido, como las socioeconómicas, está o no relacionada estadísticamente con la proporción de peatones viajes en las zonas urbanas. Las técnicas estadísticas se utilizan para comprobar sistemáticamente la asociación de las variables del entorno urbano, denominadas variables independientes, con el porcentaje de viajes a pie, la variable dependiente. En términos generales, la metodología es similar a la usada en otros trabajos en este campo como los de CERVERÓ y KOCKLEMAN (1997), CERVERÓ y DUNCAN (2003), o para los que se utilizan principalmente en la revisión general de TRB (2005) o, más recientemente, en ZEGRAS (2006) o CHATMAN (2009). Otras opciones metodológicas, como los métodos de preferencias declaradas (ver LOUVIERE, HENSHER y SWAIT, 2000) o el análisis basado en agentes (PENN & TURNER, 2004) fueron descartados, debido a una serie de razones, demasiado extensas para ser descritas aquí. El caso de estudio utilizado es la zona metropolitana de Madrid, abarcándola hasta la M-50, es decir en su mayor parte, con un tamaño aproximado de 31x34 Km y una población de 4.132.820 habitantes (aproximadamente el 80% de la población de la región). Las principales fuentes de datos son la Encuesta Domiciliaria de Movilidad de 2004 (EDM04), del Consorcio Regional de Transportes de Madrid que es la última disponible (muestra: > 35.000 familias,> 95.000 personas), y un modelo espacial del área metropolitana, integrando el modelo para calcular los índices de Space Syntax y un Sistema de Información Geográfica (SIG). La unidad de análisis, en este caso las unidades espaciales, son las zonas de transporte (con una población media de 7.063 personas) y los barrios (con una población media de 26.466 personas). Las variables del entorno urbano son claramente el centro del estudio. Un total de 20 índices (de 21) se seleccionan de entre los más relevantes encontrados en la revisión de la producción científica en este campo siendo que, al mismo tiempo, fueran accesibles. Nueve de ellos se utilizan para describir las características de los usos del suelo, mientras que otros once se usan para describir la red de espacios públicos. Estos últimos incluyen las variables de accesibilidad configuracional, que son, como se desprende de su título, el centro del estudio propuesto. La accesibilidad configuracional es un tipo especial de accesibilidad que se basa en la configuración de la trama urbana, según esta fue definida por HILLIER (1996), el autor de referencia dentro de esta línea de investigación de Space Syntax. Además se incluyen otras variables de la red de espacio público más habituales en los estudios de movilidad, y que aquí se denominan características geométricas de los elementos de la red, tales como su longitud, tipo de intersección, conectividad, etc. Por último se incluye además una variable socioeconómica, es decir ajena al entorno urbano, para evaluar la influencia de los factores externos, pues son varios los que pueden tener un impacto en la decisión de caminar (edad, género, nivel de estudios, ingresos, tasa de motorización, etc.). La asociación entre las variables se han establecido usando análisis de correlación (bivariante) y modelos de análisis multivariante. Las primeras se calculan entre por pares entre cada una de las 21 variables independientes y la dependiente, el porcentaje de viajes a pie. En cuanto a los segundos, se han realizado tres tipos de estudios: modelo multivariante general lineal, modelo multivariante general curvilíneo y análisis discriminante. Todos ellos son capaces de generar modelos de asociación entre diversas variables, pudiéndose de esta manera evaluar con bastante precisión en qué medida cada modelo reproduce el comportamiento de la variable dependiente, y además, el peso o influencia de cada variable en el modelo respecto a las otras. Los resultados fundamentales del estudio se expresan en dos modelos finales alternativos, que demuestran tener una significativa asociación con el porcentaje de viajes a pie (R2 = 0,6789, p <0,0001), al explicar las dos terceras partes de su variabilidad. En ellos, y en general en todo el estudio realizado, se da una influencia constante de tres índices en particular, que quedan como los principales. Dos de ellos, de acuerdo con muchos de los estudios previos, corresponden a la densidad y la mezcla de usos del suelo. Pero lo más novedoso de los resultados obtenidos es que el tercero es una medida de la accesibilidad de la red de espacio público, algo de lo que no había referencias hasta ahora. Pero, ¿cuál es la definición precisa y el peso relativo de cada uno en el modelo, es decir, en la variable independiente? El de mayor peso en la mayor parte de los análisis realizados es el índice de densidad total (n º residentes + n º puestos de trabajo + n º alumnos / Ha). Es decir, una densidad no sólo de población, sino que incluye algunas de las actividades más importantes que pueden darse una zona para generar movilidad a pie. El segundo que mayor peso adquiere, llegando a ser el primero en alguno de los análisis estadísticos efecturados, es el índice de accesibuilidad configuracional denominado integración de radio 5. Se trata de una medida de la accesibilidad de la zona, de su centralidad, a la escala de, más un menor, un distrito o comarca. En cuanto al tercero, obtiene una importancia bastante menor que los anteriores, y es que representa la mezcla de usos. En concreto es una medida del equilibrio entre los comercios especializados de venta al por menor y el número de residentes (n º de tiendas especializadas en alimentación, bebidas y tabaco / n º de habitantes). Por lo tanto, estos resultados confirman buena parte de los de estudios anteriores, especialmente los relativas a los usos del suelo, pero al mismo tiempo, apuntan a que la red de espacio público podría tener una influir mayor de la comprobada hasta ahora en la proporción de peatones sobre el resto de modos de transportes. Las razones de por qué esto puede ser así, se discuten ampliamente en las conclusiones. Finalmente se puede precisar que dicha conclusión principal se refiere a viajes de una sola etapa (no multimodales) que se dan en los barrios y zonas del área metropolitana de Madrid. Por supuesto, esta conclusión tiene en la actualidad, una validez limitada, ya que es el resultado de un solo caso — Abstract The research hypothesis for this Ph.D. Thesis is that some characteristics of the built environment, particularly those describing the accessibility of the public space network, could be associated with the proportion of pedestrians in all trips (modal split), found in the different parts of a city. The underlying idea is that walking trips are more sensitive to built environment than those by other transport modes, such as for example those by bicycle or by public transport, which could be more conditioned by, e.g. infrastructure availability or service frequency and quality. On the other hand, it has to be noted that the previously research on this field, in particular within Space Syntax’s where this study can be referred, have tested similar hypothesis using pedestrian volumes as the dependent variable, but never against modal split. According to such hypothesis, research methodology is based primarily on empirical quantitative analysis, and it is meant to be able to assess whether public space network, no matter other built environment and non-built environment variables, could have a relationship with the proportion of pedestrian trips in urban areas. Statistical techniques are used to check the association of independent variables with the percentage of walking in all trips, the dependent one. Broadly speaking this methodology is similar to that of previous studies in the field such as CERVERO&KOCKLEMAN (1997), CERVERO & DUNCAN (2003), or to those used mainly in the general review of T.R.B. (2005) or, more recently in ZEGRAS (2006) or CHATMAN (2009). Other methodological options such as stated choice methods (see LOUVIERE, HENSHER & SWAIT, 2000) or agent based analysis (PENN & TURNER, 2004), were discarded, due to a number of reasons, too long to be described here. The case study is not the entire Madrid’s metropolitan area, but almost (4.132.820 inhabitants, about 80% of region´s population). Main data sources are the Regional Mobility Home Based Survey 2004 (EDM04), which is the last available (sample: >35.000 families, > 95.000 individuals), and a spatial model of the metropolitan area, developed using Space Syntax and G.I.S. techniques. The analysis unit, in this case spatial units, are both transport zones (mean population = 7.063) and neighborhoods (mean population = 26.466). The variables of the built environment are clearly the core of the study. A total of 20 (out of 21) are selected from among those found in the literature while, at the same time, being accessible. Nine out of them are used to describe land use characteristics while another eleven describe the network of public spaces. Latter ones include configurational accessibility or Space Syntax variables. This is a particular sort of accessibility related with the concept of configuration, by HILLIER (1996), one of the main authors of Space Syntax, But it also include more customary variables used in mobility research to describe the urban design or spatial structure (here public space network), which here are called geometric characteristics of the such as its length, type of intersection, conectivity, density, etc. Finally a single socioeconomic variable was included in order to assess the influence non built environment factors that also may have an impact on walking (age, income, motorization rate, etc.). The association among variables is worked out using bi-variate correlation analysis and multivariate-analysis. Correlations are calculated among the 21 independent variables and the dependent one, the percentage of walking trips. Then, three types of multi-variate studies are run: general linear, curvilinear and discriminant multi-variate analysis. The latter are fully capable of generating complex association models among several variables, assessing quite precisely to what extent each model reproduces the behavior of the dependent variable, and also the weight or influence of each variable in the model. This study’s results show a consistent influence of three particular indexes in the two final alternative models of the multi-variate study (best, R2=0,6789, p<0,0000). Not surprisingly, two of them correspond to density and mix of land uses. But perhaps more interesting is that the third one is a measure of the accessibility of the public space network, a variable less important in the literature up to now. Additional precisions about them and their relative weight could also be of some interest. The density index is not only about population but includes most important activities in an area (nº residents + nº jobs+ nº students/Ha). The configurational index (radius 5 integration) is a measure of the accessibility of the area, i.e. centrality, at the scale of, more a less, a district. Regarding the mix of land uses index, this one is a measure of the balance between retail, in fact local basic retail, and the number of residents (nº of convenience shops / nº of residents). Referring to their weights, configurational index (radius 5 integration) gets the higher standardized coefficient of the final equation. However, in the final equations, there are a higher number of indexes coming from the density or land use mix categories than from public space network enter. Therefore, these findings seem to support part of the field’s knowledge, especially those concerning land uses, but at the same time they seem to bring in the idea that the configuration of the urban grid could have an influence in the proportion of walkers (as a part of total trips on any transport mode) that do single journey trips in the neighborhoods of Madrid, Spain. Of course this conclusion has, at present, a limited validity since it’s the result of a single case. The reasons of why this can be so, are discussed in the last part of the thesis.
Resumo:
Resumen En la última década la tecnología láser se ha convertido en una herramienta imprescindible en la fabricación de dispositivos fotovoltaicos, muy especial¬mente en aquellos basados en tecnología de lámina delgada. Independiente¬mente de crisis coyunturales en el sector, la evolución en los próximos años de estas tecnologías seguirá aprovechándose de la flexibilidad y calidad de proceso de la herramienta láser para la consecución de los dos objetivos básicos que harán de la fotovoltaica una opción energética económicamente viable: la reducción de costes de fabricación y el aumento de eficiencia de los dispositivos. Dentro de las tecnologías fotovoltaicas de lámina delgada, la tecnología de dispositivos basados en silicio amorfo ha tenido un gran desarrollo en sistemas estándar en configuración de superestrato, pero su limitada efi¬ciencia hace que su supervivencia futura pase por el desarrollo de formatos en configuración de substrato sobre materiales flexibles de bajo coste. En esta aproximación, las soluciones industriales basadas en láser actualmente disponibles para la interconexión monolítica de dispositivos no son aplica¬bles, y desde hace años se viene investigando en la búsqueda de soluciones apropiadas para el desarrollo de dichos procesos de interconexión de forma que sean transferibles a la industria. En este contexto, esta Tesis propone una aproximación completamente orig¬inal, demostrando la posibilidad de ejecutar una interconexión completa de estos dispositivos irradiando por el lado de la lámina (es decir de forma com¬patible con la opción de configuración de substrato y, valga la redundancia, con el substrato del dispositivo opaco), y con fuentes láser emitiendo en UV. Este resultado, obtenido por primera vez a nivel internacional con este trabajo, aporta un conocimiento revelador del verdadero potencial de estas fuentes en el desarrollo industrial futuro de estas tecnologías. Si bien muy posiblemente la solución industrial final requiera de una solución mixta con el empleo de fuentes en UV y, posiblemente, en otras longitudes de onda, esta Tesis y su planteamiento novedoso aportan un conocimiento de gran valor a la comunidad internacional por la originalidad del planteamiento seguido, los resultados parciales encontrados en su desarrollo (un número importante de los cuales han aparecido en revistas del JCR que recogen en la actualidad un número muy significativo de citas) y porque saca además a la luz, con las consideraciones físicas pertinentes, las limitaciones intrínsecas que el desarrollo de procesos de ablación directa selectiva con láseres UV en parte de los materiales utilizados presenta en el rango temporal de in¬teracción de ns y ps. En este trabajo se han desarrollado y optimizado los tres pasos estándar de interconexión (los habitualmente denominados Pl, P2 y P3 en la industria fotovoltaica) demostrando las ventajas y limitaciones del uso de fuentes en UV tanto con ancho temporal de ns como de ps. En particular destaca, por el éxito en los resultados obtenidos, el estudio de procesos de ablación selectiva de óxidos conductores transparentes (en este trabajo utilizados tanto como contacto frontal así como posterior en los módulos) que ha generado resultados, de excelente acogida científica a nivel internacional, cuya aplicación trasciende el ámbito de las tecnologías de silicio amorfo en lámina delgada. Además en este trabajo de Tesis, en el desarrollo del objetivo citado, se han puesto a punto técnicas de análisis de los procesos láser, basadas en métodos avanzados de caracterización de materiales (como el uso combi¬nado de la espectroscopia dispersiva de rayos X y la microscopía confocal de barrido) que se presentan como auténticos avances en el desarrollo de técnicas específicas de caracterización para el estudio de los procesos con láser de ablación selectiva de materiales en lámina delgada, procesos que no solo tienen impacto en el ámbito de la fotovoltaica, sino también en la microelectrónica, la biotecnología, la microfabricación, etc. Como resultado adicional, parte de los resultados de este trabajo, han sido aplicados exi¬tosamente por el grupo de investigaci´on en la que la autora desarrolla su labor para conseguir desarrollar procesos de enorme inter´es en otras tec-nolog´ıas fotovoltaicas, como las tecnolog´ıas est´andar de silicio amorfo sobre vidrio en configuraci´on de superestrato o el procesado de capas delgadas en tecnolog´ıas convencionales de silicio cristalino. Por u´ltimo decir que este trabajo ha sido posible por una colaboraci´on muy estrecha entre el Centro L´aser de la UPM, en el que la autora de¬sarrolla su labor, y el Grupo de Silicio Depositado del Centro de Inves¬tigaciones Energ´eticas, Medioambientales y Tecnol´ogicas, CIEMAT, que, junto al Grupo de Energ´ıa Fotovoltaica de la Universidad de Barcelona, han preparado la mayor parte de las muestras utilizadas en este estudio. Dichas colaboraciones se han desarrollado en el marco de varios proyectos de investigaci´on aplicada con subvenci´on pu´blica, tales como el proyecto singular estrat´egico PSE-MICROSIL08 (PSE-120000-2006-6), el proyecto INNDISOL (IPT-420000-2010-6), ambos financiados porel Fondo Europeo de Desarrollo Regional FEDER (UE) ”Una manera de hacer Europa y el MICINN, y los proyectos de Plan Nacional AMIC (ENE2010-21384-C04-´ 02) y CLASICO (ENE2007-6772-C04-04), cuya financiaci´on ha permitido en gran parte llevar a t´ermino este trabajo Abstract In the last decade, the laser technology has turned into an indispensable tool in the production of photovoltaic devices, especially of those based on thin film technology. Regardless the current crisis in the sector, the evolution of these technologies in the upcoming years will keep taking advantage of the flexibility and process quality of the laser tool for the accomplishment of the two basic goals that will convert the photovoltaic energy into economically viable: the manufacture cost reduction and the increase in the efficiency of the devices. Amongst the thin film laser technologies, the technology of devices based on amorphous silicon has had a great development in standard systems of superstrate configuration, but its limited efficiency makes its survival de¬pendant on the development of formats in substrate configuration with low cost flexible materials. In this approach, the laser industrial solutions cur¬rently available for the monolithic interconnection are not applicable, and in the last few years the investigations have been focused on the search of appropriate solutions for the development of such interconnection processes in a way that the same are transferable to the industry. In this context, this Thesis proposes a totally original approach, proving the possibility of executing a full interconnection of these devices by means of irradiation from the film side, i.e., compatible with the substrate con¬figuration, and with UV laser sources. This result, obtained for the first time at international level in this work, provides a revealing knowledge of the true potential of these sources in the future industrial development of these technologies. Even though very probably the final industrial solution will require a combination of the use of UV sources along with other wave¬lengths, this Thesis and its novel approach contribute with a high value to the international community because of the originality of the approach, the partial results found throughout its development (out of which, a large number has appeared in JCR journals that currently accumulate a signifi¬cant number of citations) and brings to light, with the pertinent scientific considerations, the intrinsic limitations that the selective direct ablation processes with UV laser present in the temporal range of interaction of ns and ps for part of the materials used in this study. More particularly, the three standard steps of interconnection (usually de¬nominated P1, P2 and P3 in the photovoltaic industry) have been developed and optimized, showing the advantages as well as the limitations of the use of UV sources in both the ns and ps pulse-width ranges. It is highly remark¬able, because of the success in the obtained results, the study of selective ablation processes in transparent conductive oxide (in this work used as a front and back contact), that has generated results, of excellent interna¬tional scientific reception, whose applications go beyond the scope of thin film photovoltaic technologies based on amorphous silicon. Moreover, in this Thesis, with the development of the mentioned goal, differ¬ent techniques of analysis of laser processes have been fine-tuned, basing the same in advanced methods for material characterization (like the combined use of EDX Analysis and Confocal Laser Scanning Microscopy) that can be presented as true breakthroughs in the development of specific techniques for characterization in the study of laser processes of selective ablation of materials in thin film technologies, processes that not only have impact in the photovoltaic field, but also in those of microelectronics, biotechnology, micro-fabrication, etc. As an additional outcome, part of the results of this work has been suc¬cessfully applied, by the investigation group to which the author belongs, to the development of processes of enormous interest within other photo¬voltaic technologies, such as the standard technologies on amorphous silicon over glass in superstrate configuration or the processing of thin layers in conventional technologies using crystalline silicon. Lastly, it is important to mention that this work has been possible thanks to the close cooperation between the Centro L´aser of the UPM, in which the author develops her work, and the Grupo de Silicio Depositado of Centro de Investigaciones Energ´eticas, Medioambientales y Tecnol´ogicas, CIEMAT, which, along with the Grupo de Energ´ıa Fotovoltaica of Univer¬sidad de Barcelona, has prepared the largest part of the samples utilized in this study. Such collaborations have been carried out in the context of several projects of applied investigation with public funding, like Proyecto Singular Estrat´egico PSE-MICROSIL08 (PSE-120000-2006-6), Proyecto IN-NDISOL (IPT-420000-2010-6), both funded by the European Regional De¬velopment Fund (ERDF), ”Una manera de hacer Europa” and MICINN, and the projects of Plan Nacional AMIC (ENE2010-21384-C04-02) and ´ CLASICO (ENE2007-6772-C04-04), whose funds have enabled the devel-opment of large part of this work.
Resumo:
En el presente trabajo se estudia la producción potencial de biomasa procedente de los cultivos de centeno y triticale en las seis comarcas agrarias de la Comunidad de Madrid (CM) y la posibilidad de su aplicación a la producción de bioelectricidad en cada una de ellas. En primer lugar se realiza un estudio bibliográfico de la situación actual de la bioelectricidad. Uno de los principales datos a tener en cuenta es que en el PER 2011- 2020 se estima que el total de potencia eléctrica instalada a partir de biomasa en España en el año 2020 sea de 1.350 MW, unas dos veces y media la existente a finales de 2010. Además, se comenta el estado de la incentivación del uso de biomasa de cultivos energéticos para producción de electricidad, la cual se regula actualmente según el Real Decreto-ley 9/2013, de 12 de Julio, por el que se adoptaron medidas urgentes para garantizar la estabilidad financiera del sistema eléctrico, y se consideran los criterios de sostenibilidad en el uso de biocombustibles sólidos. Se realiza una caracterización de las seis comarcas agrarias que forman la Comunidad Autónoma de Madrid: Área Metropolitana, Campiña, Guadarrama, Lozoya- Somosierra, Sur-Occidental y Vegas, la cual consta de dos partes: una descripción de la climatología y otra de la distribución de la superficie dedicada a barbecho y cultivos herbáceos. Se hace una recopilación bibliográfica de los modelos de simulación más representativos de crecimiento de los cultivos (CERES y Cereal YES), así como de ensayos realizados con los cultivos de centeno y triticale para la producción de biomasa y de estudios efectuados mediante herramientas GIS y técnicas de análisis multicriterio para la ubicación de centrales de bioelectricidad y el estudio de la logística de la biomasa. Se propone un modelo de simulación de la productividad de biomasa de centeno y de triticale para la CM, que resulta de la combinación de un modelo de producción de grano en base a datos climatológicos y a la relación biomasa/grano media de ambos cultivos obtenida en una experiencia previa. Los modelos obtenidos responden a las siguientes ecuaciones (siendo TN = temperatura media normalizada a 9,9 ºC y PN = precipitación acumulada normalizada a 496,7 mm): - Producción biomasa centeno (t m.s./ha) = 2,785 * [1,078 * ln(TN + 2*PN) + 2,3256] - Producción biomasa triticale (t m.s./ha) = 2,595 * [2,4495 * ln(TN + 2*PN) + 2,6103] Posteriormente, aplicando los modelos desarrollados, se cuantifica el potencial de producción de biomasa de centeno y triticale en las distintas comarcas agrarias de la CM en cada uno de los escenarios establecidos, que se consideran según el uso de la superficie de barbecho de secano disponible (25%, 50%, 75% y 100%). Las producciones potenciales de biomasa, que se podrían alcanzar en la CM utilizando el 100% de la superficie de barbecho de secano, en base a los cultivos de centeno y triticale, se estimaron en 169.710,72 - 149.811,59 - 140.217,54 - 101.583,01 - 26.961,88 y 1.886,40 t anuales para las comarcas de Campiña - Vegas, Sur - Occidental - Área Metropolitana - Lozoya-Somosierra y Guadarrama, respectivamente. Se realiza un análisis multicriterio basado en la programación de compromiso para definir las comarcas agrarias con mejores características para la ubicación de centrales de bioelectricidad en base a los criterios de potencial de biomasa, infraestructura eléctrica, red de carreteras, espacios protegidos y superficie de núcleos urbanos. Al efectuar el análisis multicriterio, se obtiene la siguiente ordenación jerárquica en base a los criterios establecidos: Campiña, Sur Occidental, Vegas, Área Metropolitana, Lozoya-Somosierra y Guadarrama. Mediante la utilización de técnicas GIS se estudia la localización más conveniente de una central de bioelectricidad de 2,2 MW en cada una de las comarcas agrarias y según el uso de la superficie de barbecho de secano disponible (25%, 50%, 75% y 100%), siempre que exista potencial suficiente. Para el caso de la biomasa de centeno y de triticale en base seca se considera un PCI de 3500 kcal/kg, por lo que se necesitarán como mínimo 17.298,28 toneladas para satisfacer las necesidades de cada una de las centrales de 2,2 MW. Se analiza el potencial máximo de bioelectricidad en cada una de las comarcas agrarias en base a los cultivos de centeno y triticale como productores de biomasa. Según se considere el 25% o el 100% del barbecho de secano para producción de biomasa, la potencia máxima de bioelectricidad que se podría instalar en cada una de las comarcas agrarias variaría entre 5,4 y 21,58 MW en la comarca Campiña, entre 4,76 y 19,05 MW en la comarca Vegas, entre 4,46 y 17,83 MW en la comarca Sur Occidental, entre 3,23 y 12,92 MW en la comarca Área Metropolitana, entre 0,86 y 3,43 MW en la comarca Lozoya Somosierra y entre 0,06 y 0,24 MW en la comarca Guadarrama. La potencia total que se podría instalar en la CM a partir de la biomasa de centeno y triticale podría variar entre 18,76 y 75,06 MW según que se utilice el 25% o el 100% de las tierras de barbecho de secano para su cultivo. ABSTRACT In this work is studied the potential biomass production from rye and triticale crops in the six Madrid Community (MC) agricultural regions and the possibility of its application to the bioelectricity production in each of them. First is performed a bibliographical study of the current situation of bioelectricity. One of the main elements to be considered is that in the PER 2011-2020 is estimated that the total installed electric power from biomass in Spain in 2020 was 1.350 MW, about two and a half times as at end 2010. Also is discussed the status of enhancing the use of biomass energy crops for electricity production, which is currently regulated according to the Real Decreto-ley 9/2013, of July 12, by which urgent measures were adopted to ensure financial stability of the electrical system, and there are considered the sustainability criteria in the use of solid biofuels. A characterization of the six Madrid Community agricultural regions is carried out: Area Metropolitana, Campiña, Guadarrama, Lozoya-Somosierra, Sur-Occidental and Vegas, which consists of two parts: a description of the climatology and another about the distribution of the area under fallow and arable crops. It makes a bibliographic compilation of the most representative crop growth simulation models (CERES and Cereal YES), as well as trials carried out with rye and triticale crops for biomass production and studies conducted by GIS tools and techniques multicriteria analysis for the location of bioelectricity centrals and the study of the logistics of biomass. Is proposed a biomass productivity simulation model for rye and triticale for MC that results from the combination of grain production model based on climatological data and the average relative biomass/grain of both crops obtained in a prior experience. The models obtained correspond to the following equations (where TN = normalized average temperature and PN = normalized accumulated precipitation): - Production rye biomass (t d.m./ha) = 2.785 * [1.078 * ln (TN + 2*PN) + 2.3256] - Production triticale biomass (t d.m./ha) = 2,595 * [2.4495 * ln (TN + 2*PN) + 2.6103] Subsequently, applying the developed models, the biomass potential of the MC agricultural regions is quantified in each of the scenarios established, which are considered as the use of dry fallow area available (25%, 50%, 75 % and 100%). The potential biomass production that can be achieved within the MC using 100% of the rainfed fallow area based on rye and triticale crops, were estimated at 169.710,72 - 149.811,59 - 140.217,54 - 101.583,01 - 26.961,88 and 1.886,40 t annual for the regions of Campiña, Vegas, Sur Occidental, Area Metropolitana, Lozoya- Somosierra and Guadarrama, respectively. A multicriteria analysis is performed, based on compromise programming to define the agricultural regions with better features for the location of bioelectricity centrals, on the basis of biomass potential, electrical infrastructure, road network, protected areas and urban area criteria. Upon multicriteria analysis, is obtained the following hierarchical order based on criteria: Campiña, Sur Occidental, Vegas, Area Metropolitana, Lozoya-Somosierra and Guadarrama. Likewise, through the use of GIS techniques, the most suitable location for a 2,2 MW bioelectricity plant is studied in each of the agricultural regions and according to the use of dry fallow area available (25%, 50% , 75% and 100%), if there is sufficient potential. In the case of biomass rye and triticale dry basis is considered a PCI of 3500 kcal/kg, so it will take at least 17,298.28 t to satisfy the needs of each plant. Is analyzed the maximum bioelectricity potential on each of the agricultural regions on the basis of the rye and triticale crops as biomass producers. As deemed 25% or 100% dry fallow for biomass, the maximum bioelectricity potential varies between 5,4 and 21,58 MW in the Campiña region, between 4,76 and 19,05 MW in the Vegas region, between 4,46 and 17,83 MW in the Sur Occidental region, between 3,23 and 12,92 MW in the Area Metropolitana region, between 0,86 and 3,43 MW in the Lozoya-Somosierra region and between 0,06 and 0,24 MW in the Guadarrama region. The total power that could be installed in the CM from rye and triticale biomass could vary between 18.76 and 75.06 MW if is used the 25% or 100% of fallow land for rainfed crop.
Resumo:
The analysis of complex nonlinear systems is often carried out using simpler piecewise linear representations of them. A principled and practical technique is proposed to linearize and evaluate arbitrary continuous nonlinear functions using polygonal (continuous piecewise linear) models under the L1 norm. A thorough error analysis is developed to guide an optimal design of two kinds of polygonal approximations in the asymptotic case of a large budget of evaluation subintervals N. The method allows the user to obtain the level of linearization (N) for a target approximation error and vice versa. It is suitable for, but not limited to, an efficient implementation in modern Graphics Processing Units (GPUs), allowing real-time performance of computationally demanding applications. The quality and efficiency of the technique has been measured in detail on two nonlinear functions that are widely used in many areas of scientific computing and are expensive to evaluate.
Resumo:
We present a quasi-monotone semi-Lagrangian particle level set (QMSL-PLS) method for moving interfaces. The QMSL method is a blend of first order monotone and second order semi-Lagrangian methods. The QMSL-PLS method is easy to implement, efficient, and well adapted for unstructured, either simplicial or hexahedral, meshes. We prove that it is unconditionally stable in the maximum discrete norm, � · �h,∞, and the error analysis shows that when the level set solution u(t) is in the Sobolev space Wr+1,∞(D), r ≥ 0, the convergence in the maximum norm is of the form (KT/Δt)min(1,Δt � v �h,∞ /h)((1 − α)hp + hq), p = min(2, r + 1), and q = min(3, r + 1),where v is a velocity. This means that at high CFL numbers, that is, when Δt > h, the error is O( (1−α)hp+hq) Δt ), whereas at CFL numbers less than 1, the error is O((1 − α)hp−1 + hq−1)). We have tested our method with satisfactory results in benchmark problems such as the Zalesak’s slotted disk, the single vortex flow, and the rising bubble.
Resumo:
El presente Trabajo Fin de Grado (TFG) surge de la necesidad de disponer de tecnologías que faciliten el Procesamiento de Lenguaje Natural (NLP) en español dentro del sector de la medicina. Centrado concretamente en la extracción de conocimiento de las historias clínicas electrónicas (HCE), que recogen toda la información relacionada con la salud del paciente y en particular, de los documentos recogidos en dichas historias, pretende la obtención de todos los términos relacionados con la medicina. El Procesamiento de Lenguaje Natural permite la obtención de datos estructurados a partir de información no estructurada. Estas técnicas permiten un análisis de texto que genera etiquetas aportando significado semántico a las palabras para la manipulación de información. A partir de la investigación realizada del estado del arte en NLP y de las tecnologías existentes para otras lenguas, se propone como solución un módulo de anotación de términos médicos extraídos de documentos clínicos. Como términos médicos se han considerado síntomas, enfermedades, partes del cuerpo o tratamientos obtenidos de UMLS, una ontología categorizada que agrega distintas fuentes de datos médicos. Se ha realizado el diseño y la implementación del módulo así como el análisis de los resultados obtenidos realizando una evaluación con treinta y dos documentos que contenían 1372 menciones de terminología médica y que han dado un resultado medio de Precisión: 70,4%, Recall: 36,2%, Accuracy: 31,4% y F-Measure: 47,2%.---ABSTRACT---This Final Thesis arises from the need for technologies that facilitate the Natural Language Processing (NLP) in Spanish in the medical sector. Specifically it is focused on extracting knowledge from Electronic Health Records (EHR), which contain all the information related to the patient's health and, in particular, it expects to obtain all the terms related to medicine from the documents contained in these records. Natural Language Processing allows us to obtain structured information from unstructured data. These techniques enable analysis of text generating labels providing semantic meaning to words for handling information. From the investigation of the state of the art in NLP and existing technologies in other languages, an annotation module of medical terms extracted from clinical documents is proposed as a solution. Symptoms, diseases, body parts or treatments are considered part of the medical terms contained in UMLS ontology which is categorized joining different sources of medical data. This project has completed the design and implementation of a module and the analysis of the results have been obtained. Thirty two documents which contain 1372 mentions of medical terminology have been evaluated and the average results obtained are: Precision: 70.4% Recall: 36.2% Accuracy: 31.4% and F-Measure: 47.2%.
Resumo:
La valoración de inmuebles urbanos y más cuando se afronta desde un punto de vista masivo, no es una actividad sencilla. Tanto la legislación vigente en España como los estándares de valoración internacionales establecen que los valores deben de estar referenciados al valor de mercado, pero el mercado inmobiliario se caracteriza por su limitada transparencia y porque el producto es relativamente ilíquido. En este contexto, parece necesario acometer el estudio de nuevas herramientas que faciliten el establecer con mayor seguridad el valor de los inmuebles. El análisis de los factores que determinan el precio de los inmuebles permite identificar aquellas características que más inciden en el mismo, como son su tamaño, uso, tipología, calidad, antigüedad y localización. A partir de ellas y a través del estudio de la estructura urbana, localizando las zonas homogéneas y analizando las variables de su producto inmobiliario, se ha desarrollado una nueva metodología basada en el tipo edificatorio como estrategia para la valoración territorial. A lo largo de este trabajo, cuyo ámbito de análisis se ha centrado en los municipios de la Comunidad de Madrid, mediante el análisis comparado de sus características, se va a exponer cómo el tipo de estructura urbana influye significativamente en la calidad de los resultados que se obtienen. También se va a incidir en la sensibilidad de los mismos a los diferentes métodos de tratamiento de datos y de análisis matemático y estadístico. Con todo, se puede afirmar que la utilización de la metodología que se propone facilita, mejora y apoya la valoración de inmuebles, siendo posible su aplicación directa tanto para la valoración masiva de inmuebles como en la individualizada. ABSTRACT The valuation of urban property and more so when one is confronted with it from a massive point of view, is not an easy task. Taking into consideration Spain‟s current regulations as well as the international valuation standards, they establish that the values must be referred to the market value, but the real-estate market is characterised by its limited transparency and because the product is relatively illiquid. Under these circumstances, it seems necessary to undertake the study of new tools that facilitate the obtention of more accurate and secure valuation of real estate assets. The analysis of the factors that determine the price of property allow us to identify those characteristics that influence it most, such as size, use, typology, quality, age and location. Taking these points into consideration and through the study of urban structure, localising the homogeneous areas and analysing the variables of its real-estate product, a new methodology has been developed based on the type of building as well as on the local valuation strategy. Throughout this work, whose scope of analysis has been focussed on the municipalities of the Autonomous Region of Madrid through a comparative analysis of its characteristics, it will be shown how the type of urban structure can significantly influence the quality of the results that are obtained. It will also affect their sensitivity to the different methods of data processing, and of mathematical and statistical analysis. In all, one can confirm that using the methodology that is being proposed facilitates, improves and supports the valuation of properties, enabling its direct application for the mass valuation of property as well as for the individual one.
Resumo:
Comunicación Oral sobre los resultados obtenidos en el estudio de las propiedades del lycopeno presente en el tomate como compuesto bioactivo. Se realizó la identificación y cuantificación por diferentes metodologías experimentales. Se muestran los resultados analíticos comapartivamente con distintas técnicas.
Resumo:
Purpose: In this work, we present the analysis, design and optimization of one experimental device recently developed in the UK, called the 'GP' Thrombus Aspiration Device (GPTAD). This device has been designed to remove blood clots without the need to make contact with the clot itself thereby potentially reducing the risk of problems such as downstream embolisation. Method: To obtain the minimum pressure necessary to extract the clot and to optimize the device, we have simulated the performance of the GPTAD analysing the resistances, compliances and inertances effects. We model a range of diameters for the GPTAD considering different forces of adhesion of the blood clot to the artery wall, and different lengths of blood clot. In each case we determine the optimum pressure required to extract the blood clot from the artery using the GPTAD, which is attached at its proximal end to a suction pump. Result: We then compare the results of our mathematical modelling to measurements made in laboratory using plastic tube models of arteries of comparable diameter. We use abattoir porcine blood clots that are extracted using the GPTAD. The suction pressures required for such clot extraction in the plastic tube models compare favourably with those predicted by the mathematical modelling. Discussion & Conclusion: We conclude therefore that the mathematical modelling is a useful technique in predicting the performance of the GPTAD and may potentially be used in optimising the design of the device.
Resumo:
Nowadays, Computational Fluid Dynamics (CFD) solvers are widely used within the industry to model fluid flow phenomenons. Several fluid flow model equations have been employed in the last decades to simulate and predict forces acting, for example, on different aircraft configurations. Computational time and accuracy are strongly dependent on the fluid flow model equation and the spatial dimension of the problem considered. While simple models based on perfect flows, like panel methods or potential flow models can be very fast to solve, they usually suffer from a poor accuracy in order to simulate real flows (transonic, viscous). On the other hand, more complex models such as the full Navier- Stokes equations provide high fidelity predictions but at a much higher computational cost. Thus, a good compromise between accuracy and computational time has to be fixed for engineering applications. A discretisation technique widely used within the industry is the so-called Finite Volume approach on unstructured meshes. This technique spatially discretises the flow motion equations onto a set of elements which form a mesh, a discrete representation of the continuous domain. Using this approach, for a given flow model equation, the accuracy and computational time mainly depend on the distribution of nodes forming the mesh. Therefore, a good compromise between accuracy and computational time might be obtained by carefully defining the mesh. However, defining an optimal mesh for complex flows and geometries requires a very high level expertize in fluid mechanics and numerical analysis, and in most cases a simple guess of regions of the computational domain which might affect the most the accuracy is impossible. Thus, it is desirable to have an automatized remeshing tool, which is more flexible with unstructured meshes than its structured counterpart. However, adaptive methods currently in use still have an opened question: how to efficiently drive the adaptation ? Pioneering sensors based on flow features generally suffer from a lack of reliability, so in the last decade more effort has been made in developing numerical error-based sensors, like for instance the adjoint-based adaptation sensors. While very efficient at adapting meshes for a given functional output, the latter method is very expensive as it requires to solve a dual set of equations and computes the sensor on an embedded mesh. Therefore, it would be desirable to develop a more affordable numerical error estimation method. The current work aims at estimating the truncation error, which arises when discretising a partial differential equation. These are the higher order terms neglected in the construction of the numerical scheme. The truncation error provides very useful information as it is strongly related to the flow model equation and its discretisation. On one hand, it is a very reliable measure of the quality of the mesh, therefore very useful in order to drive a mesh adaptation procedure. On the other hand, it is strongly linked to the flow model equation, so that a careful estimation actually gives information on how well a given equation is solved, which may be useful in the context of _ -extrapolation or zonal modelling. The following work is organized as follows: Chap. 1 contains a short review of mesh adaptation techniques as well as numerical error prediction. In the first section, Sec. 1.1, the basic refinement strategies are reviewed and the main contribution to structured and unstructured mesh adaptation are presented. Sec. 1.2 introduces the definitions of errors encountered when solving Computational Fluid Dynamics problems and reviews the most common approaches to predict them. Chap. 2 is devoted to the mathematical formulation of truncation error estimation in the context of finite volume methodology, as well as a complete verification procedure. Several features are studied, such as the influence of grid non-uniformities, non-linearity, boundary conditions and non-converged numerical solutions. This verification part has been submitted and accepted for publication in the Journal of Computational Physics. Chap. 3 presents a mesh adaptation algorithm based on truncation error estimates and compares the results to a feature-based and an adjoint-based sensor (in collaboration with Jorge Ponsín, INTA). Two- and three-dimensional cases relevant for validation in the aeronautical industry are considered. This part has been submitted and accepted in the AIAA Journal. An extension to Reynolds Averaged Navier- Stokes equations is also included, where _ -estimation-based mesh adaptation and _ -extrapolation are applied to viscous wing profiles. The latter has been submitted in the Proceedings of the Institution of Mechanical Engineers, Part G: Journal of Aerospace Engineering. Keywords: mesh adaptation, numerical error prediction, finite volume Hoy en día, la Dinámica de Fluidos Computacional (CFD) es ampliamente utilizada dentro de la industria para obtener información sobre fenómenos fluidos. La Dinámica de Fluidos Computacional considera distintas modelizaciones de las ecuaciones fluidas (Potencial, Euler, Navier-Stokes, etc) para simular y predecir las fuerzas que actúan, por ejemplo, sobre una configuración de aeronave. El tiempo de cálculo y la precisión en la solución depende en gran medida de los modelos utilizados, así como de la dimensión espacial del problema considerado. Mientras que modelos simples basados en flujos perfectos, como modelos de flujos potenciales, se pueden resolver rápidamente, por lo general aducen de una baja precisión a la hora de simular flujos reales (viscosos, transónicos, etc). Por otro lado, modelos más complejos tales como el conjunto de ecuaciones de Navier-Stokes proporcionan predicciones de alta fidelidad, a expensas de un coste computacional mucho más elevado. Por lo tanto, en términos de aplicaciones de ingeniería se debe fijar un buen compromiso entre precisión y tiempo de cálculo. Una técnica de discretización ampliamente utilizada en la industria es el método de los Volúmenes Finitos en mallas no estructuradas. Esta técnica discretiza espacialmente las ecuaciones del movimiento del flujo sobre un conjunto de elementos que forman una malla, una representación discreta del dominio continuo. Utilizando este enfoque, para una ecuación de flujo dado, la precisión y el tiempo computacional dependen principalmente de la distribución de los nodos que forman la malla. Por consiguiente, un buen compromiso entre precisión y tiempo de cálculo se podría obtener definiendo cuidadosamente la malla, concentrando sus elementos en aquellas zonas donde sea estrictamente necesario. Sin embargo, la definición de una malla óptima para corrientes y geometrías complejas requiere un nivel muy alto de experiencia en la mecánica de fluidos y el análisis numérico, así como un conocimiento previo de la solución. Aspecto que en la mayoría de los casos no está disponible. Por tanto, es deseable tener una herramienta que permita adaptar los elementos de malla de forma automática, acorde a la solución fluida (remallado). Esta herramienta es generalmente más flexible en mallas no estructuradas que con su homóloga estructurada. No obstante, los métodos de adaptación actualmente en uso todavía dejan una pregunta abierta: cómo conducir de manera eficiente la adaptación. Sensores pioneros basados en las características del flujo en general, adolecen de una falta de fiabilidad, por lo que en la última década se han realizado grandes esfuerzos en el desarrollo numérico de sensores basados en el error, como por ejemplo los sensores basados en el adjunto. A pesar de ser muy eficientes en la adaptación de mallas para un determinado funcional, este último método resulta muy costoso, pues requiere resolver un doble conjunto de ecuaciones: la solución y su adjunta. Por tanto, es deseable desarrollar un método numérico de estimación de error más asequible. El presente trabajo tiene como objetivo estimar el error local de truncación, que aparece cuando se discretiza una ecuación en derivadas parciales. Estos son los términos de orden superior olvidados en la construcción del esquema numérico. El error de truncación proporciona una información muy útil sobre la solución: es una medida muy fiable de la calidad de la malla, obteniendo información que permite llevar a cabo un procedimiento de adaptación de malla. Está fuertemente relacionado al modelo matemático fluido, de modo que una estimación precisa garantiza la idoneidad de dicho modelo en un campo fluido, lo que puede ser útil en el contexto de modelado zonal. Por último, permite mejorar la precisión de la solución resolviendo un nuevo sistema donde el error local actúa como término fuente (_ -extrapolación). El presenta trabajo se organiza de la siguiente manera: Cap. 1 contiene una breve reseña de las técnicas de adaptación de malla, así como de los métodos de predicción de los errores numéricos. En la primera sección, Sec. 1.1, se examinan las estrategias básicas de refinamiento y se presenta la principal contribución a la adaptación de malla estructurada y no estructurada. Sec 1.2 introduce las definiciones de los errores encontrados en la resolución de problemas de Dinámica Computacional de Fluidos y se examinan los enfoques más comunes para predecirlos. Cap. 2 está dedicado a la formulación matemática de la estimación del error de truncación en el contexto de la metodología de Volúmenes Finitos, así como a un procedimiento de verificación completo. Se estudian varias características que influyen en su estimación: la influencia de la falta de uniformidad de la malla, el efecto de las no linealidades del modelo matemático, diferentes condiciones de contorno y soluciones numéricas no convergidas. Esta parte de verificación ha sido presentada y aceptada para su publicación en el Journal of Computational Physics. Cap. 3 presenta un algoritmo de adaptación de malla basado en la estimación del error de truncación y compara los resultados con sensores de featured-based y adjointbased (en colaboración con Jorge Ponsín del INTA). Se consideran casos en dos y tres dimensiones, relevantes para la validación en la industria aeronáutica. Este trabajo ha sido presentado y aceptado en el AIAA Journal. También se incluye una extensión de estos métodos a las ecuaciones RANS (Reynolds Average Navier- Stokes), en donde adaptación de malla basada en _ y _ -extrapolación son aplicados a perfiles con viscosidad de alas. Este último trabajo se ha presentado en los Actas de la Institución de Ingenieros Mecánicos, Parte G: Journal of Aerospace Engineering. Palabras clave: adaptación de malla, predicción del error numérico, volúmenes finitos
Resumo:
El diseño y desarrollo de sistemas de suspensión para vehículos se basa cada día más en el diseño por ordenador y en herramientas de análisis por ordenador, las cuales permiten anticipar problemas y resolverlos por adelantado. El comportamiento y las características dinámicas se calculan con precisión, bajo coste, y recursos y tiempos de cálculo reducidos. Sin embargo, existe una componente iterativa en el proceso, que requiere la definición manual de diseños a través de técnicas “prueba y error”. Esta Tesis da un paso hacia el desarrollo de un entorno de simulación eficiente capaz de simular, analizar y evaluar diseños de suspensiones vehiculares, y de mejorarlos hacia la solución optima mediante la modificación de los parámetros de diseño. La modelización mediante sistemas multicuerpo se utiliza aquí para desarrollar un modelo de autocar con 18 grados de libertad, de manera detallada y eficiente. La geometría y demás características de la suspensión se ajustan a las del vehículo real, así como los demás parámetros del modelo. Para simular la dinámica vehicular, se utiliza una formulación multicuerpo moderna y eficiente basada en las ecuaciones de Maggi, a la que se ha incorporado un visor 3D. Así, se consigue simular maniobras vehiculares en tiempos inferiores al tiempo real. Una vez que la dinámica está disponible, los análisis de sensibilidad son cruciales para una optimización robusta y eficiente. Para ello, se presenta una técnica matemática que permite derivar las variables dinámicas dentro de la formulación, de forma algorítmica, general, con la precisión de la maquina, y razonablemente eficiente: la diferenciación automática. Este método propaga las derivadas con respecto a las variables de diseño a través del código informático y con poca intervención del usuario. En contraste con otros enfoques en la bibliografía, generalmente particulares y limitados, se realiza una comparación de librerías, se desarrolla una formulación híbrida directa-automática para el cálculo de sensibilidades, y se presentan varios ejemplos reales. Finalmente, se lleva a cabo la optimización de la respuesta dinámica del vehículo citado. Se analizan cuatro tipos distintos de optimización: identificación de parámetros, optimización de la maniobrabilidad, optimización del confort y optimización multi-objetivo, todos ellos aplicados al diseño del autocar. Además de resultados analíticos y gráficos, se incluyen algunas consideraciones acerca de la eficiencia. En resumen, se mejora el comportamiento dinámico de vehículos por medio de modelos multicuerpo y de técnicas de diferenciación automática y optimización avanzadas, posibilitando un ajuste automático, preciso y eficiente de los parámetros de diseño. ABSTRACT Each day, the design and development of vehicle suspension systems relies more on computer-aided design and computer-aided engineering tools, which allow anticipating the problems and solving them ahead of time. Dynamic behavior and characteristics are thus simulated accurately and inexpensively with moderate computational times and resources. There is, however, an iterative component in the process, which involves the manual definition of designs in a trialand-error manner. This Thesis takes a step towards the development of an efficient simulation framework capable of simulating, analyzing and evaluating vehicle suspension designs, and automatically improving them by varying the design parameters towards the optimal solution. The multibody systems approach is hereby used to model a three-dimensional 18-degrees-of-freedom coach in a comprehensive yet efficient way. The suspension geometry and characteristics resemble the ones from the real vehicle, as do the rest of vehicle parameters. In order to simulate vehicle dynamics, an efficient, state-of-the-art multibody formulation based on Maggi’s equations is employed, and a three-dimensional graphics viewer is developed. As a result, vehicle maneuvers can be simulated faster than real-time. Once the dynamics are ready, a sensitivity analysis is crucial for a robust optimization. To that end, a mathematical technique is introduced, which allows differentiating the dynamic variables within the multibody formulation in a general, algorithmic, accurate to machine precision, and reasonably efficient way: automatic differentiation. This method propagates the derivatives with respect to the design parameters throughout the computer code, with little user interaction. In contrast with other attempts in the literature, mostly not generalpurpose, a benchmarking of libraries is carried out, a hybrid direct-automatic differentiation approach for the computation of sensitivities is developed, and several real-life examples are analyzed. Finally, a design optimization process of the aforementioned vehicle is carried out. Four different types of dynamic response optimization are presented: parameter identification, handling optimization, ride comfort optimization and multi-objective optimization; all of which are applied to the design of the coach example. Together with analytical and visual proof of the results, efficiency considerations are made. In summary, the dynamic behavior of vehicles is improved by using the multibody systems approach, along with advanced differentiation and optimization techniques, enabling an automatic, accurate and efficient tuning of design parameters.