853 resultados para simulación computacional
Resumo:
Tesis (Maestro en Ciencias de la Ingeniería Eléctrica con Especialidad en Control) UANL, 1998.
Resumo:
Máster Universitario en Sistemas Inteligentes y Aplicaciones Numéricas en Ingeniería (SIANI)
Resumo:
En este proyecto se trata la simulación numérica de un fenómeno dinámico, basado en el comportamiento de una onda transmitida a lo largo de una cuerda elástica de un instrumento musical, cuyos extremos se encuentran anclados. El fenómeno físico, se desarrolla utilizando una ecuación en derivadas parciales hiperbólicas con variables espacial y temporal, acompañada por unas condiciones de contorno tipo Dirichlet en los extremos y por más condiciones iniciales que dan comienzo al proceso. Posteriormente se han generado algoritmos para el método numérico empleado (Diferencias finitas centrales y progresivas) y la programación del problema aproximado con su consistencia, estabilidad y convergencia, obteniéndose unos resultados acordes con la solución analítica del problema matemático. La programación y salida de resultados se ha realizado con Visual Studio 8.0. y la programación de objetos con Visual Basic .Net In this project the topic is the numerical simulation of a dynamic phenomenon, based on the behavior of a transmitted wave along an elastic string of a musical instrument, whose ends are anchored. The physical phenomenon is developed using a hyperbolic partial differential equation with spatial and temporal variables, accompanied by a Dirichlet boundary conditions at the ends and more initial conditions that start the process. Subsequently generated algorithms for the numerical method used (central and forward finite differences) and the programming of the approximate problem with consistency, stability and convergence, yielding results in line with the analytical solution of the mathematical problem. Programming and output results has been made with Visual Studio 8.0. and object programming with Visual Basic. Net
Resumo:
Esta Tesis Doctoral presenta un metamodelo para la estimaci�n del fen�meno de interacci�n el�stica en las uniones atornilladas de torres de aerogenerador, cuya principal particularidad geom�trica es la existencia de un hueco entre bridas. El metamodelo permite conocer la p�rdida de carga que cada tornillo de la uni�n experimenta durante la secuencia de atornillado a consecuencia de la interacci�n el�stica ocurrida. El metamodelo consta de cuatro par�metros (resortes lineales) que simulan la respuesta de la uni�n durante la secuencia, y cuyos valores se obtienen a partir de dos an�lisis est�tico-lineales. Se ha creado un algoritmo que, a trav�s del metamodelo, permite llevar a cabo la simulaci�n de secuencias de atornillado; dicho proceso consiste en reproducir una determinada secuencia de atornillado a partir de las cargas introducidas en los tornillos, de forma que, a trav�s de la estimaci�n de las interacciones el�sticas ocurridas durante la secuencia, proporciona como resultado las cargas finales en los tornillos. Tambi�n se ha desarrollado una metodolog�a que, mediante su correspondiente algoritmo, permite optimizar secuencias de atornillado. El proceso de optimizaci�n consiste en calcular las cargas a aplicar a los tornillos a lo largo de una determinada secuencia a fin de obtener en ellos una determinada distribuci�n final de cargas, que generalmente se desea uniforme y se denomina precarga. Combinando los procesos de simulaci�n y optimizaci�n, el metamodelo permite definir la secuencia �ptima para una determinada uni�n. Los resultados obtenidos han sido validados mediante modelos param�tricos de elementos finitos. Por �ltimo, debe remarcarse que, adem�s de proporcionar buenos resultados, tanto el proceso de simulaci�n como el de optimizaci�n se llevan a cabo con un coste computacional muy bajo gracias a la simplicidad del metamodelo.
Resumo:
La creación del Laboratorio de Modelamiento y Simulación (LMyS) se lleva a cabo con el objeto de adelantar investigación original y apoyar los proyectos en desarrollo dentro de la Facultad de Administración, mediante el modelamiento desde las ciencias de la complejidad y la matemática no clásica. Este desarrollo obedece a la necesidad de dar respuestas a la realidad cambiante y dinámica en la que los modelos tradicionales no han dado una respuesta satisfactoria o suficiente. Gracias al LMyS se materializan los avances y desarrollos de los grupos de investigación de la Facultad a través del modelamiento y simulación con lógicas no-clásicas (modal, difusa, paraconsistente y lógica cuántica, entre otras), que permitan posteriormente producir a nivel computacional implementaciones de estos modelos. De este modo, mediante las contribuciones del LMyS se busca que, por un lado, exista innovación en el conocimiento con el rigor apropiado y a niveles mundiales en el estudio de los sistemas dinámicos modelados a partir de las organizaciones, y, por otro, se erija como una herramienta para el sector empresarial y productivo en los procesos de toma de decisión. Al mismo tiempo que adelanta investigaciones que conducen a, y se condensan en, registros y patentes, el LMyS quiere contribuir al apoyo a la investigación en la disciplina de la administración. Así, el LMyS hace parte del gran proyecto de la Facultad de Administración de la Universidad del Rosario que le permitirá abordar problemáticas actuales y futuras, en torno a la dinámica económica y social, pero con enfoques igualmente políticos, financieros y otros en el marco de un mundo caracterizado por una enorme complejidad (creciente). El desarrollo de la investigación de la Facultad de Administración tiene como una gran influencia las ciencias de la complejidad, tratando de entregar a la comunidad empresarial herramientas, modelos o perspectivas diferentes que le permitan enfrentar la incertidumbre y disminuir los niveles de riesgo.
Resumo:
Se propone integrar los esfuerzos provenientes de las ciencias sociales para el desarrollo de las herramientas de gestión a través de las ciencias computacionales. Se busca desarrollar propuestas metodológicas que permitan el mejoramiento de un modelo computacional que haga posible el simular el desempeño de una marca dada, asociada a una empresa, frente a sus consumidores. Se procura que con esta monografía se establezcan formas que permitan una óptima recolección de información, insumo clave dentro de un modelo de simulación de inteligencia artificial que se aplicará al comportamiento de grupos poblacionales buscando comprender la respuestas que presentan los sujetos frente a la marca organizacional a partir del principio percepción-razonamiento-acción.
Resumo:
El texto está dividido en tres partes. En la primera, se explica en términos generales cómo funcionan los MBAs y las redes neuronales artificiales, sobre las que se construye el modelo en el que se basa esta investigación. En la segunda parte, se presentan los fundamentos teóricos del modelo de Acerbi y Parisi, su arquitectura y se verifican las conclusiones mediante la replicación del modelo. Por último, se explican los fundamentos teóricos de la transmisión por sanción y la manera en que esta forma de transmisión cultural puede ser implementada modificando el modelo computacional inicial, para luego analizar los resultados de su implementación en el modelo y su simulación.
Resumo:
Se trata esencialmente de resolver dos problemas básicos:Por una parte contar con apoyos fundamentales para el análisis teórico y empírico de los modelos dinámicos, con aplicaciones al caso español; y, en segundo término, disponer de una herramienta computacional para hacer frente a una de las áreas peor estudiadas del análisis económico. Se generan y resuelven cuatro modelos para revisar y evaluar computacionalmente cuatro áreas que combinan la ausencia y/o presencia de sector público, junto con las alternativas de trabajo divisible y nodivisible. Los programas informáticos permiten resolver y simular los modelos del ciclo comentados, y presentan para cada caso una vertiente específica escrita en Matemática y otra genérica escrita en lenguaje Gauss común para todos los modelos. Este programa proporciona una primera descripción estadística de los resultados, que resulta útil para determinar a grandes rasgos el ajuste de la simulación de los datos reales. Rodado el programa se pueden hacer aparecer en pantalla las series de desviaciones de las macrovariables fundamentales: el PIB, los consumos privado y público, el empleo, la acumulación de capital, etc. El objetivo esencial de esta estructura de apoyo a la práctica docente se satisface con gran facilidad de manejo. Por otra parte, estimula el manejo y la introducción de datos relativos a la estructura de la economía, la incorporación, el análisis deratios productivos y de mercado, la familiarización con coeficientes de correlación de los shocks tecnológicos, y la calibración del conjunto de elementos incorporados, como propuestas de comportamiento económico a corroborar. Es un programa nuevo, completo y asequible para mejorar la docencia en el área..
Resumo:
En esta investigación, se procede a la realización de una formalización computacional de los procesos de codificación gramatical.. En el desarrollo de la misma, se integran conocimientos procedentes de la psicología y de la inteligencia artificial. El sistema GEDEON es un generador automático de oraciones individuales en castellano, para un dominio conceptual restringido.. Este sistema constituye la propuesta de modelo teórico y programa de simulación de la codificación gramatical de este trabajo..
Resumo:
Incluye Bibliografía
Resumo:
Los métodos gráficos son populares para chequear modelos, un gráfico cuantil- cuantil (qq-plot) permite observar cuan cerca está la distribución de un conjunto de datos a alguna distribución ideal o comparar la distribución de dos conjuntos de datos. La forma del gráfico debería ser idealmente una línea recta específica. Si interesa comparar con la distribución Gaussiana se llama gráfico de probabilidad Normal. El objetivo del presente trabajo es testear normalidad de una muestra en especial para el caso de tamaños muestrales pequeños para los cuales el comportamiento de estos gráficos suele ser errático y conducir a falsas interpretaciones, mostraremos además que no suele ser así con tamaños muestrales más grandes. Proponemos, también establecer una banda de probabilidad o banda envolvente basada en un método empírico, específicamente mediante el método de Monte Carlo, dicha banda nos establecerá un marco de referencia probabilístico para evitar falsas interpretaciones. Se presenta un código computacional, de fácil implementación, empleado por los alumnos para la aplicación de esta metodología de análisis de normalidad, el cual es utilizado para la enseñanza de la temática en cuestión
Resumo:
Los métodos gráficos son populares para chequear modelos, un gráfico cuantil- cuantil (qq-plot) permite observar cuan cerca está la distribución de un conjunto de datos a alguna distribución ideal o comparar la distribución de dos conjuntos de datos. La forma del gráfico debería ser idealmente una línea recta específica. Si interesa comparar con la distribución Gaussiana se llama gráfico de probabilidad Normal. El objetivo del presente trabajo es testear normalidad de una muestra en especial para el caso de tamaños muestrales pequeños para los cuales el comportamiento de estos gráficos suele ser errático y conducir a falsas interpretaciones, mostraremos además que no suele ser así con tamaños muestrales más grandes. Proponemos, también establecer una banda de probabilidad o banda envolvente basada en un método empírico, específicamente mediante el método de Monte Carlo, dicha banda nos establecerá un marco de referencia probabilístico para evitar falsas interpretaciones. Se presenta un código computacional, de fácil implementación, empleado por los alumnos para la aplicación de esta metodología de análisis de normalidad, el cual es utilizado para la enseñanza de la temática en cuestión
Resumo:
Los métodos gráficos son populares para chequear modelos, un gráfico cuantil- cuantil (qq-plot) permite observar cuan cerca está la distribución de un conjunto de datos a alguna distribución ideal o comparar la distribución de dos conjuntos de datos. La forma del gráfico debería ser idealmente una línea recta específica. Si interesa comparar con la distribución Gaussiana se llama gráfico de probabilidad Normal. El objetivo del presente trabajo es testear normalidad de una muestra en especial para el caso de tamaños muestrales pequeños para los cuales el comportamiento de estos gráficos suele ser errático y conducir a falsas interpretaciones, mostraremos además que no suele ser así con tamaños muestrales más grandes. Proponemos, también establecer una banda de probabilidad o banda envolvente basada en un método empírico, específicamente mediante el método de Monte Carlo, dicha banda nos establecerá un marco de referencia probabilístico para evitar falsas interpretaciones. Se presenta un código computacional, de fácil implementación, empleado por los alumnos para la aplicación de esta metodología de análisis de normalidad, el cual es utilizado para la enseñanza de la temática en cuestión
Resumo:
Es importante disponer de una herramienta con la cual diseñar dispositivos de uso industrial y comercial que trabajen con metales líquidos (fuentes de neutrones de alta intensidad, núcleos de sistemas de transmutación nuclear, reactores de fisión de nueva generación, instalaciones de irradiación de materiales o reactores de fusión nuclear). Los códigos CFD (Computational Fluid Dynamics) son una de esas herramientas, y la manera de llevar a cabo su validación es la simulación de experimentos existentes. La turbulencia y la presencia de dos o más fases, son los dos principales problemas a los que tiene que hacer frente un código CFD. La mayoría de los modelos de turbulencia presentes en los códigos CFD se basan en considerar la proporcionalidad directa entre el transporte de cantidad de movimiento turbulento y el transporte turbulento de calor. Precisamente, el coeficiente de difusión del calor turbulento, se asume que sea proporcional a la viscosidad turbulenta a través de una constante empírica, llamada número de Prandtl turbulento. El valor de este número, en los códigos comerciales está entre 0,9 y 0,85 dependiendo del modelo de turbulencia, lo cual significa que en los códigos se asume que el transporte turbulento tanto de cantidad de movimiento como de calor, son prácticamente equivalentes. Esta asunción no es cierta en los flujos de metales líquidos, donde se demuestra que la transmisión de calor por turbulencia es pequeña frente a la transmisión de calor molecular. La solución pasa por aumentar el número de Prandtl turbulento, o abandonar la analogía de Reynolds, en el tratamiento de la turbulencia. Por otro lado, en los metales líquidos la capa límite térmica es más ancha que la de velocidad, y las funciones de pared incluidas en los códigos no satisfacen adecuadamente los flujos turbulentos de los fluidos con bajo número de Prantdl (los metales líquidos). Sí serían adecuados, si el mallado es tal, que la celda más cercana a la pared, está dentro de la subcapa laminar, en la cual la propiedad dominante es la conductividad molecular. En la simulación de flujo multifase los códigos se encuentran con una serie de dificultades, que en el caso de que las densidades de los fluidos que intervienen sean muy diferentes entre sí (como ocurre con los metales líquidos y los gases), serán aún mayores. La modelización de la interfase gas metal líquido, así como el encontrar una correlación válida para los coeficientes de resistencia y sustentación para el movimiento de las burbujas en el seno del metal líquido, son dos de los principales retos en la simulación de este tipo de flujos. Las dificultades no se limitan sólo a la simulación mediante CFD, las medidas experimentales de velocidad de las burbujas y del metal líquido también son complicadas. Hay parámetros que no se pueden definir bien: la trayectoria y la forma de las burbujas entre ellos. En el campo de aplicación industrial de los metales líquidos, los altos valores de los coeficientes de expansión volumétrica y de conductividad térmica hacen que estos fluidos sean muy atractivos en la refrigeración por convección libre en dispositivos de alta densidad de potencia. Tomando como base uno de los diseños de ADS (Accelerator Driven System), y teniendo en cuenta la dificultad que conlleva el uso de múltiples modelos físicos, los cálculos realizados muestran cómo, en caso de fallo eléctrico, la operación de la instalación puede continuar de forma segura. Para la validación de los códigos CFD en su uso como herramienta de diseño, uno de los fenómenos donde cuantitativamente más dificultades encuentran los códigos es en los que aparecen en la modelización de las superficies libres. Un buen ajuste de los modelos multifase y de turbulencia es imprescindible en este tipo de simulaciones. Efectivamente, en la instalación de irradiación de materiales IFMIF, la formación de ondas en la superficie libre del flujo de Litio, es un fenómeno que hay que tratar de evitar, y además se requiere predecir las temperaturas, para ver si hay peligro de ebullición del metal líquido. La simulación llevada a cabo se enfoca al análisis termohidráulico. Variando la velocidad de inyección de Litio desde 10 hasta 20 m/s, se comprueba que las temperaturas máximas quedan alejadas del punto de ebullición del Litio, debido al aumento de presión producido por la fuerza centrífuga. Una de las cuestiones más críticas que se presentan en las fuentes de neutrones sería la refrigeración de la ventana metálica sobre la que incide el haz de protones. La simulación de experimentos como MEGAPIE y TS-1, permite la “visualización” de recirculación en el flujo, de los puntos de estancamiento, de los puntos calientes, etc, y da una fotografía de las zonas críticas del diseño.
Resumo:
Revisión de algunas aplicaciones de mecánica computacional de fluidos en la simulación del flujo sanguíneo.