917 resultados para 120220 Ecuaciones diferenciales en derivadas parciales
Resumo:
Los dominios finos, es decir, dominios sustancialmente más pequeños en alguna o varias de sus direcciones que en el resto, aparecen en muchos campos de la ciencia. Por ejemplo, dinámica de fluídos (lubricación, conducción de fluídos en tubos delgados, dinámica de oceanos...), mecánica de sólidos (barras delgadas, placas o cáscaras) o incluso en fisiología (circulación de la sangre). Así, el amplio número de posibles aplicaciones a situaciones reales ha hecho que la investigación de modelos de ecuaciones en derivadas parciales en dominios finos se convierta en un tema muy estudiado en los últimos años. Desde un punto de vista matemático, el estudio de las soluciones de una EDP en un dominio fino es un caso particular de la cuestión general relativa a cómo la variación de los dominios afecta al comportamiento de las soluciones de la EDP. En este marco, obtener la ecuación límite del modelo considerado, comparar la solución de la ecuación límite y las soluciones del problema en el dominio fino, analizar los coeficientes de la ecuación límite y comprender cómo la geometría del dominio afecta a la ecuación límite son algunos de los objetivos que deberían ser alcanzados. De hecho, es importante señalar que este tipo de cuestiones no sólo proporcionan importantes resultados teóricos sino que son muy relevantes desde el punto de vista de las aplicaciones. Por ejemplo, ser capaz de reducir el problema original a un problema mucho más sencillo, problema límite, que refleje las principales características del problema de partida puede ser muy útil para ingenieros y físicos...
Resumo:
Expresar la solución de una ecuación diferencial como una serie funcional es la base sobre la que se construyen la mayor parte de los métodos numéricos de resolución de ecuaciones diferenciales. En este primer capítulo se muestran dos de las aproximaciones más comunes y utilizadas: serie de potencias (Taylor) y trigonométricas. Entre estas últimas cabe destacar la serie de Fourier como la más conocida, pero existen otras muchas, en particular nos centraremos en la expansión de una función utilizando polinomios de Chebyshev
Resumo:
En este proyecto se trata la simulación numérica de un fenómeno dinámico, basado en el comportamiento de una onda transmitida a lo largo de una cuerda elástica de un instrumento musical, cuyos extremos se encuentran anclados. El fenómeno físico, se desarrolla utilizando una ecuación en derivadas parciales hiperbólicas con variables espacial y temporal, acompañada por unas condiciones de contorno tipo Dirichlet en los extremos y por más condiciones iniciales que dan comienzo al proceso. Posteriormente se han generado algoritmos para el método numérico empleado (Diferencias finitas centrales y progresivas) y la programación del problema aproximado con su consistencia, estabilidad y convergencia, obteniéndose unos resultados acordes con la solución analítica del problema matemático. La programación y salida de resultados se ha realizado con Visual Studio 8.0. y la programación de objetos con Visual Basic .Net In this project the topic is the numerical simulation of a dynamic phenomenon, based on the behavior of a transmitted wave along an elastic string of a musical instrument, whose ends are anchored. The physical phenomenon is developed using a hyperbolic partial differential equation with spatial and temporal variables, accompanied by a Dirichlet boundary conditions at the ends and more initial conditions that start the process. Subsequently generated algorithms for the numerical method used (central and forward finite differences) and the programming of the approximate problem with consistency, stability and convergence, yielding results in line with the analytical solution of the mathematical problem. Programming and output results has been made with Visual Studio 8.0. and object programming with Visual Basic. Net
Resumo:
Los indígenas como sujeto jurídico para el reconocimiento de derechos étnicos han sido definidos desde el paradigma del multiculturalismo liberal, basado en características esencialistas de la identidad, como el vínculo con el territorio ancestral rural, el uso de la lengua nativa, y la organización colectiva y comunitaria. Sin embargo, el conflicto armado colombiano ha generado el desplazamiento forzado de gran parte de esta población i1, en su mayoría hacia áreas urbanas y metropolitanas, donde son inaplicables las características que eran tenidas en cuenta para el reconocimiento y la garantía de sus derechos. La ausencia de un sujeto jurídico étnico que responda a las condiciones de un indígena desterritorializado víctima de desplazamiento forzado a causa del conflicto armado que solicita atención individual, se convierte en un obstáculo para la garantía de sus derechos étnicos en la implementación de la política pública de atención, asistencia y reparación a víctimas del conflicto armado, porque las medidas afirmativas y el enfoque diferencial étnico, obligación del ejecutivo, queda a la discrecionalidad de las decisiones administrativas, poniendo en riesgo la garantía del derecho a la identidad cultural y, por lo tanto, a la diversidad étnica y cultural de la nación.
Resumo:
El estudio de las redes complejas atrae cada vez más el interés de muchos investigadores por muchas razones obvias. Muchos sistemas tanto reales como tecnológicos pueden representarse como redes complejas, es decir, un conjunto de entidades en interacción de acuerdo a propiedades topológicas no triviales. La interacción entre los elementos de la red puede describir comportamientos globales tales como el tráfico en Internet, el servicio de suministro de electricidad o la evolución de los mercados. Una de las propiedades topológicas de los grafos que caracterizan estos sistemas complejos es la estructura de comunidad. La detección de comunidades tiene como objetivo la identificación de los módulos o grupos con alguna o varias propiedades en común basándose únicamente en la información codificada en la topología del grafo. La detección de comunidades es importante no sólo para caracterizar el grafo, sino que además ofrece información sobre la formación de la red así como sobre su funcionalidad. El estudio de las leyes subyacentes que gobiernan la dinámica y evolución de los sistemas complejos y la caracterización de sus grafos revela que las redes a gran escala, generalmente, se caracterizan por topologías complejas y estructuras heterogéneas. La estructura de conectividad de estas redes se manifiesta por la presencia de comunidades (clusters o grupos), es decir, conjuntos de nodos que comparten propiedades comunes o juegan roles similares en la red. Las comunidades pueden representar relaciones de amistad en las redes sociales, páginas web con una temática similar, o rutas bioquímicas en las redes metabólicas. Formalmente, una red es un grafo compuesto por un gran número de nodos altamente interconectados donde una comunidad se resalta por la presencia de un gran número de aristas conectando nodos dentro de grupos individuales, pero con baja concentración de aristas entre estos grupos. El mejor modo para establecer la estructura de comunidad de una red compleja es un problema todavía sin resolver. Durante los últimos años, se han propuesto muchos algoritmos que persiguen extraer la partición óptima de una red en comunidades. El clustering espectral, los algoritmos de particionamiento de grafos, los métodos basados en la modularidad o los algoritmos basados en la sincronización son sólo algunos de estos algoritmos de extracción de comunidades. Los algoritmos dinámicos basados en la sincronización han sido estudiados por varios autores, y han demostrado que la monitorización del proceso dinámico de la sincronización permite revelar las diferentes escalas topologicas presentes en una red compleja. Muchos de estos algoritmos se basan en el modelo Kuramoto o en algunas de sus variantes como el modelo de opinión, donde cada oscilador aislado es modelado en un espacio unidimensional. El objetivo principal del presente proyecto es la implementación de un algoritmo de detección de comunidades basado en la sincronización de osciladores acoplados. Cada oscilador ha sido modelado mediante el sistema dinámico de Rossler, un sistema de ecuaciones diferenciales definido en un espacio tridimensional.
Resumo:
196 p.
Resumo:
El objetivo ha sido elaborar material didáctico propio en un mismo entorno informático para asignaturas impartidas en escuelas de ingenierías por profesores de un gran número de áreas de conocimiento. Se ha desarrollado una guía de acceso rápido a Mathematica 3.0 y numerosos ejercicios prácticos en dicho entorno informático para las asignaturas: cálculo, álgebra lineal, estadística, ecuaciones diferenciales ordinarias, mecanismos, mecánica de robots, vibraciones mecánicas, circuitos eléctricos, componentes electrónicos y teoría de la señal. El material elaborado se fundamenta en el trazado práctico e individual del alumno, complementado adecuadamente mediante la acción tutorial. El trabajo realizado ha sido expuesto en el 28th Engineering Education Symposium celebrado en Estambul (Turquía) del 20 al 24 de septiembre de 1999 mediante cuatro comunicaciones.
Resumo:
Discutir las ventajas y dificultades de los instrumentos y medios didácticos que se utilizan en la Enseñanza de la Física. Estudiar el papel que el ordenador juega en la Enseñanza de la Física. Elaborar un conjunto de programas para el aprendizaje de algunos temas de Física. Didáctica de la Física. El trabajo está dividido en dos partes. En la primera se realiza una discusión sobre el uso del ordenador en la Enseñanza de la Física, basado en un análisis de las publicaciones y en una experiencia personal, utilizando como base programas elaborados por el autor. En la segunda parte se presentan un conjunto de ejercicios de ordenador, en los que se combina la resolución de problemas, el aprendizaje de los métodos numéricos básicos y el manejo de un lenguaje de programación -su parte algebraica-. Programas de ordenador para resolver: variables y sistemas de unidades. Raíces de una ecuación. Derivada numérica de una función. Integración numérica. Resolución numérica de ecuaciones diferenciales y, método de Montecarlo. Conjunto de protocolos de diversas prácticas. Observación en el aula del uso de los programas por parte de los alumnos. La aplicación del ordenador posibilita: extender contenidos, comprendiendo conceptos complejos a nivel intuitivo, estudiar modelos y simular experiencias de laboratorio. El ordenador posibilita una enseñanza más individualizada y adaptada a cada alumno. El papel de los ejercicios de ordenador es combinar en un mismo formato la resolución de problemas, el aprendizaje de los métodos numéricos básicos y la programación. Con los programas se crean un conjunto rico de experiencias, de modo que los estudiantes adquieren una intuición de los distintos fenómenos físicos programados en el ordenador. La estructuración de los programas permite decidir al profesor, en cada momento, en función de la orientación de los estudios y del nivel de conocimiento de sus alumnos. Debido a que la Física está basada en conocimientos abstractos, el ordenador puede representar una etapa intermediaria que pone en contacto la teoría con la realidad. El ordenador jugará un papel importante. Como consecuencia, el profesor se verá relegado a las tareas más repetitivas, pudiendo dedicar más tiempo a la atención individual del alumno, convirtiéndose el alumno, en el sujeto de su propio progreso educativo. Para ello es necesario reestructurar los cursos, lo cual nos llevará a una concepción distinta de la educación. O sea a un cambio del centro de referencia del profesor hacia el alumno.
Resumo:
Encontrar las relaciones consistentes entre variables aptitudinales o psicológicas y criterios de rendimiento académico, con la intención de pronosticar éstos, teniendo en cuenta las citadas variables. No representativa compuesta de 140 alumnos pertenecientes a la Escuela de Ingenieros de Caminos, Facultad de Ciencias Químicas y Facultad de Ciencias Físicas de la Universidad Complutense de Madrid. Para comprobar si ciertas variables individuales tienen incidencia en el rendimiento académico, se escogieron las siguientes variables independientes: de tipo aptitudinal, razonamiento abstracto, verbal, numérico. Las variables dependientes fueron las notas de los alumnos (rendimiento académico). Test de Raven : potencial de aprendizaje, test BLS, test de desarrrollo de superficies. De nueva creación: test de conceptualización (CONC), test de aptitud lógica (LOG), test de nivel operativo matemático, test perceptivo espacial, pruebas verbales (test PV5, PV4 y test de ordenación de frases). Medias, desviación típica y coeficientes de variación de los resultados de pruebas aptitudinales, así como de las notas de asignaturas. Análisis factorial de las variables aptitudinales y criterios notas : matriz de correlación, factorial no rotada, matriz factorial rotada. Correlación canónica para estudiar la relación más apropiada entre grupos de variables. Estadística de Bartlett para comprobar la significación de las correlaciones canónicas. Por falta de significación en las correlaciones canónicas de las pruebas pasadas a los alumnos de Caminos y Químicas, tan solo se afirma que en los alumnos de Física, el grupo de asignaturas, Electricidad, Topografía y Ecuaciones Diferenciales se pueden predecir sus notas a partir de las pruebas de razonamiento abstracto y nivel operativo matemático. Las aptitudes tienen mayor incidencia sobre el rendimiento académico que los rasgos de la personalidad. Para mayor y mejor acercamiento a las metas propuestas en la presente investigación sería necesario trabajar con mayor profundidad y extensión así como la utilización de una muestra mayor.
Resumo:
Programa de doctorado: Cibernética y Telecomunicaciones.
Resumo:
Las empresas explotadoras de yacimientos de petróleo y geotérmicos diseñan y construyen sus instalaciones optimizándolas según dos características especialmente representativas: su temperatura y su presión. Por ello, tener información precisa sobre ambos aspectos lo antes posible puede permitir ahorros importantes en las inversiones en infraestructuras y también acortar los plazos de comienzo de explotación; ambos, aspectos esenciales en la rentabilidad del yacimiento. La temperatura estática de una formación es la temperatura existente antes del inicio de las tareas de perforación del yacimiento. Las operaciones de perforación tienen como objetivo perforar, evaluar y terminar un pozo para que produzca de una forma rentable. Durante estas tareas se perturba térmicamente la formación debido a la duración de la perforación, la circulación de fluidos de refrigeración, la diferencia de temperaturas entre la formación y el fluido que perfora, el radio, la difusividad térmica de las formaciones y la tecnología de perforación [7]. La principal herramienta para determinar la temperatura estática de formación son las medidas de temperaturas en los pozos. Estas medidas de temperatura se realizan una vez cesados los trabajos de perforación y circulación de fluidos. El conjunto de medidas de temperatura obtenidas es una serie de valores ascendentes, pero no llega a alcanzar el valor de la temperatura estática de la formación. Para estimar esta temperatura se plantean las ecuaciones diferenciales que describen los fenómenos de transmisión de calor en el yacimiento [14]. Estos métodos se emplean tanto en yacimientos geotérmicos como en yacimientos de petróleo indistintamente [16]. Cada uno de ellos modela el problema de transmisión de calor asociado de una forma distinta, con hipótesis simplificadoras distintas. Se ha comprobado que la aplicación de los distintos métodos a un yacimiento en concreto presenta discrepancias en cuanto a los resultados obtenidos [2,16]. En muchos de los yacimientos no se dispone de información sobre los datos necesarios para aplicar el método de estimación. Esto obliga a adoptar una serie de hipótesis que comprometen la precisión final del método utilizado. Además, puede ocurrir que el método elegido no sea el que mejor reproduce el comportamiento del yacimiento. En el presente trabajo se han analizado los distintos métodos de cálculo. De la gran variedad de métodos existentes [9] se han seleccionado los cuatro más representativos [2,7]: Horner (HM), flujo radial y esférico (SRM), de las dos medidas (TLM) y de fuente de calor cilíndrica (CSM). Estos métodos se han aplicado a una serie de yacimientos de los cuales se conoce la temperatura estática de la formación. De cada yacimiento se disponía de datos tanto de medidas como de las propiedades termo-físicas. Estos datos, en ocasiones, eran insuficientes para la aplicación de todos los métodos, lo cual obligo a adoptar hipótesis sobre los mismos. Esto ha permitido evaluar la precisión de cada método en cada caso. A partir de los resultados obtenidos se han formulado una colección de criterios que permiten seleccionar qué método se adapta mejor para el caso de un yacimiento concreto, de tal manera que el resultado final sea lo más preciso posible. Estos criterios se han fijado en función de las propiedades termo-físicas del yacimiento, que determinan el tipo de yacimiento, y del grado de conocimiento que se dispone del yacimiento objeto de estudio.
Resumo:
Con el método de elementos finitos se ha desarrollado un procedimiento para el tratamiento de ecuaciones diferenciales y su resolución numérica. En este capítulo se va a realizar la aplicación a problemas de potencial regidos por la ecuación de Laplace. Se trata de una situación relativamente sencilla pero que permite comentar la mayoría de las características del método de elementos finitos en desplazamientos y sirve como introducción a situaciones más complicadas. Además, esta ecuación rige problemas de interés como la filtración, la torsión de cilindros, la distribución de termperaturas en régimen estacionario, etc. En lo que sigue la exposición se limita a problemas planos. Tras un primer ejemplo representativo del tema se realiza la formulación débil del problema de potencial. Acto seguido se introduce el concepto de discretización con toda su parafernalia de elementos, nudos, variables nodales, funciones de interpolación etc. El capítulo finaliza con la mención de algunos temas más especializados que el lector estudioso deberá proseguir en otro tipo de textos.
Resumo:
El objetivo de esta Tesis ha sido la consecución de simulaciones en tiempo real de vehículos industriales modelizados como sistemas multicuerpo complejos formados por sólidos rígidos. Para el desarrollo de un programa de simulación deben considerarse cuatro aspectos fundamentales: la modelización del sistema multicuerpo (tipos de coordenadas, pares ideales o impuestos mediante fuerzas), la formulación a utilizar para plantear las ecuaciones diferenciales del movimiento (coordenadas dependientes o independientes, métodos globales o topológicos, forma de imponer las ecuaciones de restricción), el método de integración numérica para resolver estas ecuaciones en el tiempo (integradores explícitos o implícitos) y finalmente los detalles de la implementación realizada (lenguaje de programación, librerías matemáticas, técnicas de paralelización). Estas cuatro etapas están interrelacionadas entre sí y todas han formado parte de este trabajo. Desde la generación de modelos de una furgoneta y de camión con semirremolque, el uso de tres formulaciones dinámicas diferentes, la integración de las ecuaciones diferenciales del movimiento mediante métodos explícitos e implícitos, hasta el uso de funciones BLAS, de técnicas de matrices sparse y la introducción de paralelización para utilizar los distintos núcleos del procesador. El trabajo presentado en esta Tesis ha sido organizado en 8 capítulos, dedicándose el primero de ellos a la Introducción. En el Capítulo 2 se presentan dos formulaciones semirrecursivas diferentes, de las cuales la primera está basada en una doble transformación de velocidades, obteniéndose las ecuaciones diferenciales del movimiento en función de las aceleraciones relativas independientes. La integración numérica de estas ecuaciones se ha realizado con el método de Runge-Kutta explícito de cuarto orden. La segunda formulación está basada en coordenadas relativas dependientes, imponiendo las restricciones por medio de penalizadores en posición y corrigiendo las velocidades y aceleraciones mediante métodos de proyección. En este segundo caso la integración de las ecuaciones del movimiento se ha llevado a cabo mediante el integrador implícito HHT (Hilber, Hughes and Taylor), perteneciente a la familia de integradores estructurales de Newmark. En el Capítulo 3 se introduce la tercera formulación utilizada en esta Tesis. En este caso las uniones entre los sólidos del sistema se ha realizado mediante uniones flexibles, lo que obliga a imponer los pares por medio de fuerzas. Este tipo de uniones impide trabajar con coordenadas relativas, por lo que la posición del sistema y el planteamiento de las ecuaciones del movimiento se ha realizado utilizando coordenadas Cartesianas y parámetros de Euler. En esta formulación global se introducen las restricciones mediante fuerzas (con un planteamiento similar al de los penalizadores) y la estabilización del proceso de integración numérica se realiza también mediante proyecciones de velocidades y aceleraciones. En el Capítulo 4 se presenta una revisión de las principales herramientas y estrategias utilizadas para aumentar la eficiencia de las implementaciones de los distintos algoritmos. En primer lugar se incluye una serie de consideraciones básicas para aumentar la eficiencia numérica de las implementaciones. A continuación se mencionan las principales características de los analizadores de códigos utilizados y también las librerías matemáticas utilizadas para resolver los problemas de álgebra lineal tanto con matrices densas como sparse. Por último se desarrolla con un cierto detalle el tema de la paralelización en los actuales procesadores de varios núcleos, describiendo para ello el patrón empleado y las características más importantes de las dos herramientas propuestas, OpenMP y las TBB de Intel. Hay que señalar que las características de los sistemas multicuerpo problemas de pequeño tamaño, frecuente uso de la recursividad, y repetición intensiva en el tiempo de los cálculos con fuerte dependencia de los resultados anteriores dificultan extraordinariamente el uso de técnicas de paralelización frente a otras áreas de la mecánica computacional, tales como por ejemplo el cálculo por elementos finitos. Basándose en los conceptos mencionados en el Capítulo 4, el Capítulo 5 está dividido en tres secciones, una para cada formulación propuesta en esta Tesis. En cada una de estas secciones se describen los detalles de cómo se han realizado las distintas implementaciones propuestas para cada algoritmo y qué herramientas se han utilizado para ello. En la primera sección se muestra el uso de librerías numéricas para matrices densas y sparse en la formulación topológica semirrecursiva basada en la doble transformación de velocidades. En la segunda se describe la utilización de paralelización mediante OpenMP y TBB en la formulación semirrecursiva con penalizadores y proyecciones. Por último, se describe el uso de técnicas de matrices sparse y paralelización en la formulación global con uniones flexibles y parámetros de Euler. El Capítulo 6 describe los resultados alcanzados mediante las formulaciones e implementaciones descritas previamente. Este capítulo comienza con una descripción de la modelización y topología de los dos vehículos estudiados. El primer modelo es un vehículo de dos ejes del tipo chasis-cabina o furgoneta, perteneciente a la gama de vehículos de carga medianos. El segundo es un vehículo de cinco ejes que responde al modelo de un camión o cabina con semirremolque, perteneciente a la categoría de vehículos industriales pesados. En este capítulo además se realiza un estudio comparativo entre las simulaciones de estos vehículos con cada una de las formulaciones utilizadas y se presentan de modo cuantitativo los efectos de las mejoras alcanzadas con las distintas estrategias propuestas en esta Tesis. Con objeto de extraer conclusiones más fácilmente y para evaluar de un modo más objetivo las mejoras introducidas en la Tesis, todos los resultados de este capítulo se han obtenido con el mismo computador, que era el top de la gama Intel Xeon en 2007, pero que hoy día está ya algo obsoleto. Por último los Capítulos 7 y 8 están dedicados a las conclusiones finales y las futuras líneas de investigación que pueden derivar del trabajo realizado en esta Tesis. Los objetivos de realizar simulaciones en tiempo real de vehículos industriales de gran complejidad han sido alcanzados con varias de las formulaciones e implementaciones desarrolladas. ABSTRACT The objective of this Dissertation has been the achievement of real time simulations of industrial vehicles modeled as complex multibody systems made up by rigid bodies. For the development of a simulation program, four main aspects must be considered: the modeling of the multibody system (types of coordinates, ideal joints or imposed by means of forces), the formulation to be used to set the differential equations of motion (dependent or independent coordinates, global or topological methods, ways to impose constraints equations), the method of numerical integration to solve these equations in time (explicit or implicit integrators) and the details of the implementation carried out (programming language, mathematical libraries, parallelization techniques). These four stages are interrelated and all of them are part of this work. They involve the generation of models for a van and a semitrailer truck, the use of three different dynamic formulations, the integration of differential equations of motion through explicit and implicit methods, the use of BLAS functions and sparse matrix techniques, and the introduction of parallelization to use the different processor cores. The work presented in this Dissertation has been structured in eight chapters, the first of them being the Introduction. In Chapter 2, two different semi-recursive formulations are shown, of which the first one is based on a double velocity transformation, thus getting the differential equations of motion as a function of the independent relative accelerations. The numerical integration of these equations has been made with the Runge-Kutta explicit method of fourth order. The second formulation is based on dependent relative coordinates, imposing the constraints by means of position penalty coefficients and correcting the velocities and accelerations by projection methods. In this second case, the integration of the motion equations has been carried out by means of the HHT implicit integrator (Hilber, Hughes and Taylor), which belongs to the Newmark structural integrators family. In Chapter 3, the third formulation used in this Dissertation is presented. In this case, the joints between the bodies of the system have been considered as flexible joints, with forces used to impose the joint conditions. This kind of union hinders to work with relative coordinates, so the position of the system bodies and the setting of the equations of motion have been carried out using Cartesian coordinates and Euler parameters. In this global formulation, constraints are introduced through forces (with a similar approach to the penalty coefficients) are presented. The stabilization of the numerical integration is carried out also by velocity and accelerations projections. In Chapter 4, a revision of the main computer tools and strategies used to increase the efficiency of the implementations of the algorithms is presented. First of all, some basic considerations to increase the numerical efficiency of the implementations are included. Then the main characteristics of the code’ analyzers used and also the mathematical libraries used to solve linear algebra problems (both with dense and sparse matrices) are mentioned. Finally, the topic of parallelization in current multicore processors is developed thoroughly. For that, the pattern used and the most important characteristics of the tools proposed, OpenMP and Intel TBB, are described. It needs to be highlighted that the characteristics of multibody systems small size problems, frequent recursion use and intensive repetition along the time of the calculation with high dependencies of the previous results complicate extraordinarily the use of parallelization techniques against other computational mechanics areas, as the finite elements computation. Based on the concepts mentioned in Chapter 4, Chapter 5 is divided into three sections, one for each formulation proposed in this Dissertation. In each one of these sections, the details of how these different proposed implementations have been made for each algorithm and which tools have been used are described. In the first section, it is shown the use of numerical libraries for dense and sparse matrices in the semirecursive topological formulation based in the double velocity transformation. In the second one, the use of parallelization by means OpenMP and TBB is depicted in the semi-recursive formulation with penalization and projections. Lastly, the use of sparse matrices and parallelization techniques is described in the global formulation with flexible joints and Euler parameters. Chapter 6 depicts the achieved results through the formulations and implementations previously described. This chapter starts with a description of the modeling and topology of the two vehicles studied. The first model is a two-axle chassis-cabin or van like vehicle, which belongs to the range of medium charge vehicles. The second one is a five-axle vehicle belonging to the truck or cabin semi-trailer model, belonging to the heavy industrial vehicles category. In this chapter, a comparative study is done between the simulations of these vehicles with each one of the formulations used and the improvements achieved are presented in a quantitative way with the different strategies proposed in this Dissertation. With the aim of deducing the conclusions more easily and to evaluate in a more objective way the improvements introduced in the Dissertation, all the results of this chapter have been obtained with the same computer, which was the top one among the Intel Xeon range in 2007, but which is rather obsolete today. Finally, Chapters 7 and 8 are dedicated to the final conclusions and the future research projects that can be derived from the work presented in this Dissertation. The objectives of doing real time simulations in high complex industrial vehicles have been achieved with the formulations and implementations developed.
Resumo:
Esta tesis considera dos tipos de aplicaciones del diseño óptico: óptica formadora de imagen por un lado, y óptica anidólica (nonimaging) o no formadora de imagen, por otro. Las ópticas formadoras de imagen tienen como objetivo la obtención de imágenes de puntos del objeto en el plano de la imagen. Por su parte, la óptica anidólica, surgida del desarrollo de aplicaciones de concentración e iluminación, se centra en la transferencia de energía en forma de luz de forma eficiente. En general, son preferibles los diseños ópticos que den como resultado sistemas compactos, para ambos tipos de ópticas (formadora de imagen y anidólica). En el caso de los sistemas anidólicos, una óptica compacta permite tener costes de producción reducidos. Hay dos razones: (1) una óptica compacta presenta volúmenes reducidos, lo que significa que se necesita menos material para la producción en masa; (2) una óptica compacta es pequeña y ligera, lo que ahorra costes en el transporte. Para los sistemas ópticos de formación de imagen, además de las ventajas anteriores, una óptica compacta aumenta la portabilidad de los dispositivos, que es una gran ventaja en tecnologías de visualización portátiles, tales como cascos de realidad virtual (HMD del inglés Head Mounted Display). Esta tesis se centra por tanto en nuevos enfoques de diseño de sistemas ópticos compactos para aplicaciones tanto de formación de imagen, como anidólicas. Los colimadores son uno de los diseños clásicos dentro la óptica anidólica, y se pueden utilizar en aplicaciones fotovoltaicas y de iluminación. Hay varios enfoques a la hora de diseñar estos colimadores. Los diseños convencionales tienen una relación de aspecto mayor que 0.5. Con el fin de reducir la altura del colimador manteniendo el área de iluminación, esta tesis presenta un diseño de un colimador multicanal. En óptica formadora de imagen, las superficies asféricas y las superficies sin simetría de revolución (o freeform) son de gran utilidad de cara al control de las aberraciones de la imagen y para reducir el número y tamaño de los elementos ópticos. Debido al rápido desarrollo de sistemas de computación digital, los trazados de rayos se pueden realizar de forma rápida y sencilla para evaluar el rendimiento del sistema óptico analizado. Esto ha llevado a los diseños ópticos modernos a ser generados mediante el uso de diferentes técnicas de optimización multi-paramétricas. Estas técnicas requieren un buen diseño inicial como punto de partida para el diseño final, que será obtenido tras un proceso de optimización. Este proceso precisa un método de diseño directo para superficies asféricas y freeform que den como resultado un diseño cercano al óptimo. Un método de diseño basado en ecuaciones diferenciales se presenta en esta tesis para obtener un diseño óptico formado por una superficie freeform y dos superficies asféricas. Esta tesis consta de cinco capítulos. En Capítulo 1, se presentan los conceptos básicos de la óptica formadora de imagen y de la óptica anidólica, y se introducen las técnicas clásicas del diseño de las mismas. El Capítulo 2 describe el diseño de un colimador ultra-compacto. La relación de aspecto ultra-baja de este colimador se logra mediante el uso de una estructura multicanal. Se presentará su procedimiento de diseño, así como un prototipo fabricado y la caracterización del mismo. El Capítulo 3 describe los conceptos principales de la optimización de los sistemas ópticos: función de mérito y método de mínimos cuadrados amortiguados. La importancia de un buen punto de partida se demuestra mediante la presentación de un mismo ejemplo visto a través de diferentes enfoques de diseño. El método de las ecuaciones diferenciales se presenta como una herramienta ideal para obtener un buen punto de partida para la solución final. Además, diferentes técnicas de interpolación y representación de superficies asféricas y freeform se presentan para el procedimiento de optimización. El Capítulo 4 describe la aplicación del método de las ecuaciones diferenciales para un diseño de un sistema óptico de una sola superficie freeform. Algunos conceptos básicos de geometría diferencial son presentados para una mejor comprensión de la derivación de las ecuaciones diferenciales parciales. También se presenta un procedimiento de solución numérica. La condición inicial está elegida como un grado de libertad adicional para controlar la superficie donde se forma la imagen. Basado en este enfoque, un diseño anastigmático se puede obtener fácilmente y se utiliza como punto de partida para un ejemplo de diseño de un HMD con una única superficie reflectante. Después de la optimización, dicho diseño muestra mejor rendimiento. El Capítulo 5 describe el método de las ecuaciones diferenciales ampliado para diseños de dos superficies asféricas. Para diseños ópticos de una superficie, ni la superficie de imagen ni la correspondencia entre puntos del objeto y la imagen pueden ser prescritas. Con esta superficie adicional, la superficie de la imagen se puede prescribir. Esto conduce a un conjunto de tres ecuaciones diferenciales ordinarias implícitas. La solución numérica se puede obtener a través de cualquier software de cálculo numérico. Dicho procedimiento también se explica en este capítulo. Este método de diseño da como resultado una lente anastigmática, que se comparará con una lente aplanática. El diseño anastigmático converge mucho más rápido en la optimización y la solución final muestra un mejor rendimiento. ABSTRACT We will consider optical design from two points of view: imaging optics and nonimaging optics. Imaging optics focuses on the imaging of the points of the object. Nonimaging optics arose from the development of concentrators and illuminators, focuses on the transfer of light energy, and has wide applications in illumination and concentration photovoltaics. In general, compact optical systems are necessary for both imaging and nonimaging designs. For nonimaging optical systems, compact optics use to be important for reducing cost. The reasons are twofold: (1) compact optics is small in volume, which means less material is needed for mass-production; (2) compact optics is small in size and light in weight, which saves cost in transportation. For imaging optical systems, in addition to the above advantages, compact optics increases portability of devices as well, which contributes a lot to wearable display technologies such as Head Mounted Displays (HMD). This thesis presents novel design approaches of compact optical systems for both imaging and nonimaging applications. Collimator is a typical application of nonimaging optics in illumination, and can be used in concentration photovoltaics as well due to the reciprocity of light. There are several approaches for collimator designs. In general, all of these approaches have an aperture diameter to collimator height not greater than 2. In order to reduce the height of the collimator while maintaining the illumination area, a multichannel design is presented in this thesis. In imaging optics, aspheric and freeform surfaces are useful in controlling image aberrations and reducing the number and size of optical elements. Due to the rapid development of digital computing systems, ray tracing can be easily performed to evaluate the performance of optical system. This has led to the modern optical designs created by using different multi-parametric optimization techniques. These techniques require a good initial design to be a starting point so that the final design after optimization procedure can reach the optimum solution. This requires a direct design method for aspheric and freeform surface close to the optimum. A differential equation based design method is presented in this thesis to obtain single freeform and double aspheric surfaces. The thesis comprises of five chapters. In Chapter 1, basic concepts of imaging and nonimaging optics are presented and typical design techniques are introduced. Readers can obtain an understanding for the following chapters. Chapter 2 describes the design of ultra-compact collimator. The ultra-low aspect ratio of this collimator is achieved by using a multichannel structure. Its design procedure is presented together with a prototype and its evaluation. The ultra-compactness of the device has been approved. Chapter 3 describes the main concepts of optimizing optical systems: merit function and Damped Least-Squares method. The importance of a good starting point is demonstrated by presenting an example through different design approaches. The differential equation method is introduced as an ideal tool to obtain a good starting point for the final solution. Additionally, different interpolation and representation techniques for aspheric and freeform surface are presented for optimization procedure. Chapter 4 describes the application of differential equation method in the design of single freeform surface optical system. Basic concepts of differential geometry are presented for understanding the derivation of partial differential equations. A numerical solution procedure is also presented. The initial condition is chosen as an additional freedom to control the image surface. Based on this approach, anastigmatic designs can be readily obtained and is used as starting point for a single reflective surface HMD design example. After optimization, the evaluation shows better MTF. Chapter 5 describes the differential equation method extended to double aspheric surface designs. For single optical surface designs, neither image surface nor the mapping from object to image can be prescribed. With one more surface added, the image surface can be prescribed. This leads to a set of three implicit ordinary differential equations. Numerical solution can be obtained by MATLAB and its procedure is also explained. An anastigmatic lens is derived from this design method and compared with an aplanatic lens. The anastigmatic design converges much faster in optimization and the final solution shows better performance.
Resumo:
La red docente durante el curso 2006/07 ha realizado un estudio en cuanto a materiales y metodologías docentes en las asignaturas de primer curso de Ingeniería Técnica de Telecomunicación, especialidad en Sonido e Imagen. Esta titulación es impartida en la Escuela Politécnica Superior de la Universidad de Alicante. Dicho estudio está encaminado a suplir las necesidades que marca el nuevo Marco Europeo de Aprendizaje. Se ha definido una ficha de la asignatura (cuyos contenidos y estructura se detallan) que permita al alumnado una visión directa y lo más concisa posible de las actividades que se desarrollarán en cada asignatura a lo largo de su periodo lectivo. El conjunto de estas fichas conformará la denominada Agenda del Estudiante, que fomentará la organización personal de cada alumno. La puesta en común de las experiencias y conocimientos de los diversos miembros de la red debe redundar en una mayor eficacia de la docencia. En este trabajo se incluyen las experiencias de las siete asignaturas implicadas en el proceso.