990 resultados para Simulación modular
Resumo:
Background: Statistical analysis of DNA microarray data provides a valuable diagnostic tool for the investigation of genetic components of diseases. To take advantage of the multitude of available data sets and analysis methods, it is desirable to combine both different algorithms and data from different studies. Applying ensemble learning, consensus clustering and cross-study normalization methods for this purpose in an almost fully automated process and linking different analysis modules together under a single interface would simplify many microarray analysis tasks. Results: We present ArrayMining.net, a web-application for microarray analysis that provides easy access to a wide choice of feature selection, clustering, prediction, gene set analysis and cross-study normalization methods. In contrast to other microarray-related web-tools, multiple algorithms and data sets for an analysis task can be combined using ensemble feature selection, ensemble prediction, consensus clustering and cross-platform data integration. By interlinking different analysis tools in a modular fashion, new exploratory routes become available, e.g. ensemble sample classification using features obtained from a gene set analysis and data from multiple studies. The analysis is further simplified by automatic parameter selection mechanisms and linkage to web tools and databases for functional annotation and literature mining. Conclusion: ArrayMining.net is a free web-application for microarray analysis combining a broad choice of algorithms based on ensemble and consensus methods, using automatic parameter selection and integration with annotation databases.
Resumo:
El presente trabajo consiste en elaborar un sistema que permita simular epidemias en un entorno a través de agentes que representan a los habitantes del entorno simulado. El trabajo consta de cuatro partes: una aplicación web realizada en JSF, una aplicación de escritorio realizado en Java, un sistema multiagente, que se encarga de realizar la simulación, realizado en Java junto al framework JADE y un servidor web que contiene la aplicación web y el sistema multiagente. La simulación, el entorno y la enfermedad pueden ser configuradas, por parte del usuario, con distintos parámetros necesarios para la realización de la simulación. Una vez realizada la simulación, ésta puede ser visualizada a través de una animación y/o a través de un gráfico que representa la evolución de la simulación. Con el fin de que el sistema tuviera un funcionamiento óptimo, se han desarrollado pruebas de estrés aumentando el número de días y de personas para poder comprobar la solidez del sistema y así realizar mejoras si es necesario. Todo esto conforma un sistema cuya finalidad es obtener unos datos a partir de los cuales se pueden realizar distintos estudios y sacar conclusiones a partir de ellos, ayudando a investigar cómo se comporta una epidemia en unas determinadas condiciones y también distintas formas de poder combatirlas
Resumo:
Este trabajo de fin de grado tiene como objetivo realizar un sistema multiagente para simular el desarrollo de las enfermedades epidemiológicas en un entorno concreto. Para ello se plantea hacer un servidor que haga una simulación, especificándole diversos parámetros del entorno, de la enfermedad y otros propios de la simulación. Estos parámetros se pueden especificar desde una aplicación web y desde una aplicación de escritorio. También se podrá visualizar esta simulación desde las dos aplicaciones, una vez que la simulación haya finalizado. Se decide estructurar el sistema de esta forma para dejar la mayor parte del cómputo en manos del servidor. El software se desarrolla íntegramente en Java, haciendo así que sea multiplataforma. Para el desarrollo de este proyecto se ha investigado sobre la programación orientada a agentes y sobre los distintos modelos de epidemias existentes. Este es un proyecto grupal, formado por dos compañeros y yo. Ha sido un arduo trabajo de análisis, diseño, implementación y prueba del software por parte de todos. Para facilitar todo este proceso, la sincronización y el reparto de tareas se sigue una metodología de desarrollo ágil.
Resumo:
Todo proceso real en un sistema energético es irreversible y destruye una cantidad de exergía, consumiendo un recurso natural y creando un coste. El análisis exergético proporciona una base objetiva para la localización de las ineficiencias y asignación de costes económicos a los productos. La mayor parte de la energía requerida en el sector de la edificación es utilizada para mantener la temperatura de la zona térmica alrededor de los 20ºC. Los niveles de temperatura necesarios para calefacción de espacios son bajos y la calidad de la energía demandada es pequeña. En el presente trabajo se estudia el comportamiento energético de un edificio del sector terciario respecto a la calefacción. Se realiza una simulación dinámica de la demanda de calefacción del edificio. Se analiza el funcionamiento de su instalación a lo largo de un año. La aplicación de la Termoeconomía permite el cálculo de la evolución del coste de la energía a lo largo de los procesos termodinámicos de la instalación, localizando aquellos más irreversibles y su influencia en el coste.
Resumo:
A partir de la hipótesis de que una relación simbiótica entre las nociones de predicción y de simulación sea el eje del cálculo integral escolar, reportamos, aquí, algunos resultados de nuestro trabajo con estudiantes universitarios con los que hemos explorado aspecto de la simulación en las ecuaciones diferenciales lineales de primer orden. Favoreciendo la idea de simulación, se trabajó con la ecuación diferencial, dónde se variaron uno a uno los parámetros a, b y c. Encontramos un argumento gráfico que atiende las tendencias de las gráficas, ya sea en una suma de funciones, en la variación de los parámetros o en la forma de la gráfica de la solución de las ecuaciones diferenciales, favorecidos por los dispositivos tecnológicos permiten concebir a una función globalmente.
Resumo:
Actualmente las experiencias de modelación y el uso de tecnologías digitales en las aulas de clase son temas de gran interés para los profesores, formadores e investigadores en Educación Matemática. Por un lado, la modelación matemática favorece el uso de la Matemática como un instrumento para el abordaje de situaciones y fenómenos del mundo. Por otro lado, integrar las tecnologías digitales (como simuladores, videojuegos, entre otros)en la enseñanza de las Matemáticas y las Ciencias, en particular de la Física, permite vincular los hechos e ideas asociadas a un fenómeno físico, entre sí y con marcos teóricos que los sustentan. Al fusionar la modelación y las tecnologías digitales a través de la simulación se obtienen entornos de aprendizaje que promueven el desarrollo de conocimiento y habilidades de pensamiento científico en los estudiantes. Sin embargo, la mayoría de las investigaciones en esta área están orientadas hacia una mayor comprensión de las formas de usar eficientemente estos simuladores en las clases de ciencias, dejando de lado al proceso de su elaboración como una verdadera oportunidad para aprender Matemática y otros saberes asociados. En este sentido, el presente trabajo describe la secuencia de pasos de construcción creada para elaborar un simulador del movimiento en caída libre con GeoGebra. Esto con el doble propósito de (i) develar la Matemática implícita en los procesos de construcción de simuladores con GeoGebra y (ii) motivar la creación de otros simuladores con un propósito similar al mencionado en este trabajo.
Resumo:
Hoy en día, las herramientas de simulación son un componente fundamental para el diseño, la implementación y el monitoreo de redes de comunicación, porque permiten predecir el comportamiento de diferentes eventos que pueden afectar el desempeño de la red y degradar la calidad de las aplicaciones y los servicios. Como presenta Cuéllar (2011) las herramientas de simulación juegan un papel importante para evaluar el comportamiento de parámetros como el retardo y el jitter en una red, porque permiten la recreación de escenarios reales con el fin de analizar su desempeño, sin tener que implementar infraestructura física. Además, las simulaciones permiten tener en cuenta numerosas variables y son un método eficaz para la enseñanza y la investigación. La simulación no es un concepto nuevo; siempre se ha buscado la manera de evaluar sistemas complejos y tal como define Phillips (2007), la simulación es la ejecución de un modelo representado por un programa de computadora que permite recrear entornos de red, ahorrando tiempo y dinero. Comercialmente existen simuladores de tiempo continuo y tiempo discreto; la simulación en tiempo discreto modela sistemas que cambian en el tiempo de acuerdo con los diferentes estados que una variable puede tener, algo muy útil para sistemas de comunicación. Los simuladores de tiempo continuo, por su parte, avanzan en el tiempo y constantemente revisan si ha ocurrido algún evento, con el fin de actualizar las variables correspondientes, para, solo en ese caso, realizar la modificación de valores.
Resumo:
En este capítulo se presenta el proceso realizado para simular diferentes esquemas de encolamiento (FIFO, PQ y LLQ) de manera básica con el fin de ofrecer QoS en una red. También se presentan gráficas que permiten realizar el análisis posterior de los datos obtenidos en la simulación.
Resumo:
Las microondas han sido utilizadas para calentar, además de alimentos, a cerámicos y polímeros una aproximación que sigue comúnmente para describir el calentamiento de esos materiales es suponer que la contibución resistiva es nula, y que la única aportación de energía es dieléctrica
Resumo:
La corrección de una falla por distorsión puede ser compleja ya que involucra efectos microestructurales y esfuerzos residuales que son la causa principal del fenómeno de distorsión. Las fallas por distorsión son serias debido a que pueden conducir a que el producto final no cumpla con los requerimientos dimensionales y no sea aceptado para desarrollar su función. Hoy en día, la problemática es la distorsión que sufren los componentes cuando se les somete a un tratamiento térmico temple, debido a las transformaciones de fase y esfuerzos residuales que se generan por el enfriamiento rápido, así como del tratamiento térmico de revenido donde el exceso de carbono es liberado de la estructura cristalina de la martensita y/o bainita y genera la deformación en la estructura cristalina, con esta problemática es posible hacer uso del modelo de Tratamiento Térmico que contiene el paquete comercial computacional FORGE HPC 2011®, para tratar de reproducir estos fenómenos que se llevan a cabo durante los tratamientos térmicos mencionados, y posteriormente generar información relacionada al tratamiento térmico de revenido, para desarrollar un modelo matemático que sea capaz de predecir las propiedades mecánicas finales. Este trabajo consistió en 3 etapas, la primer etapa se basó en estudiar detalladamente el grado de acero 42CrMo4 al aplicarle un tratamiento térmico de temple, bajo condiciones industriales con la finalidad de generar mayor conocimiento de los fenómenos de distorsión del acero antes mencionado, los cuales muchos autores atribuyen que este fenómeno se presenta con mayor frecuencia durante el temple, debido a la transformación de fase martensita, fase metaestable más dura en los aceros que tienen la capacidad de generar esta estructura cristalina, el experimento se desarrolló tratando térmicamente 16 anillos con las siguientes dimensiones; diámetro exterior = 2631 mm, pared = 164 mm y altura de 188 mm, instrumentados cada componente con 20 termopares tipo “k” de γ mm de diámetro, orientados cada 90°, esta metodología se desarrolló con la finalidad de obtener el máximo dato posible durante temple para posteriormente asociarlo con los coeficientes de transferencia de calor h, y así modelar la distorsión en las piezas utilizando un paquete comercial computacional, así como las condiciones de enfriamiento de la primer prueba experimental, encontrando errores máximos de 10 % comparando los resultados experimentales con los resultados obtenidos de la simulación. La segunda parte del proyecto consistió en una matriz de experimentos de tratamientos térmicos de temple y revenido, donde las variables principales fueron la temperatura y el tiempo, aplicadas en 13 probetas con las siguientes dimensiones; 100 mm X 100 mm X 200 mm, para generar conocimiento de la evolución de la dureza así como las propiedades mecánicas del mismo grado de acero, esta parte del experimento tuvo como finalidad el desarrollo y evaluación de un modelo matemático implementado en computadora que gobierne dicho comportamiento, encontrando errores en el rango de 1 hasta 40 %, comparando los resultados experimentales vs los resultados simulados. La tercera etapa del proyecto consistió en evaluar el grado de acero AISI 8630 y AISI 4340 utilizando el modelo de tratamiento térmico de revenido y datos experimentales de tres tiempos y tres temperaturas para cada uno de los aceros ya mencionados, encontrando que el modelo de tratamiento térmico de revenido no es capaz de reproducir perfiles de dureza en aceros de madia y alta aleación como están clasificados los aceros mencionados, ya que los resultados entre la parte experimental y la simulada no coincide con una línea recta para el acero AISI 8630, se encontró un coeficiente de correlación de 0.87 y errores entre 22 y 44 %, y para el acero AISI 4340, se encontró un coeficiente de correlación de 0.53 y errores entre 17 y 33 %
Resumo:
En este trabajo se desarrolla una estrategia de inversión para acciones del índice bursátil Dow Jones, que permite obtener una rentabilidad superior a la del índice en un período de tiempo de cinco años -- Se comienza analizando cada compañía de manera individual, mediante una valoración por flujos de caja libre descontados -- Luego se analizan sus indicadores financieros trimestrales y se calculan diversas valoraciones para cada compañía utilizando múltiplos financieros y bursátiles -- Finalmente, se establece una estrategia con 11 factores que pueden ser combinados entre sí, luego de una ponderación individual, con la idea de obtener rentabilidades superiores a la del índice -- Se simula la estrategia desde el año 2007 hasta la fecha, para un período de tiempo de nueve años, y se obtienen rentabilidades superiores al 10% EA, en contraste con la rentabilidad entregada por el índice del 3,15% EA -- La relación beneficio/riesgo del portafolio es igualmente superior cuando se evidencia que su coeficiente de Sharpe, de 0,65, es superior al del índice, de 0,18, lo que contradice la hipótesis de los mercados eficientes -- La estrategia está diseñada de manera modular, lo que permite la futura inclusión de otras compañías, con la idea de aumentar su robustez
Resumo:
En este trabajo se realizan simulaciones de excavaciones profundas en suelos de origen aluvial en la ciudad de Sabaneta, mediante el empleo de modelos en elementos finitos integrados por el software PLAXIS® -- Los desplazamientos horizontales son comparados con mediciones de inclinómetros instalados en el trasdós del muro diafragma anclado del proyecto Centro Comercial Mayorca Fase III, localizado en el municipio de Sabaneta, Antioquia -- Finalmente, se concluye acerca de la sensibilidad de los parámetros más relevantes según el modelo constitutivo empleado y la viabilidad en su aplicación para la solución del problema evaluado
Resumo:
En este reporte de investigación se presentan los avances de un proyecto acerca de las formas de construcción de conocimiento matemático que proporcionan experiencias de aprendizaje basadas en actividades de simulación y modelación en el estudio de situaciones de la variación y de la acumulación de cantidades que varían continuamente. En la investigación se toma como referencia la aproximación socioepistemológica. Bajo ese paradigma se concibe el cálculo como el cuerpo de conocimientos que permite el estudio de los fenómenos de variación y la modelación se concibe como una forma de construir conocimiento matemático que pertenece a las prácticas sociales. Se presentan aquí las primeras exploraciones en un contexto del estudio del movimiento. La forma de trabajar las representaciones asociadas al movimiento es con el uso de sensores y de transductores que transforman la información en conjuntos de datos que diversos programas manipulan mostrando representaciones gráficas en calculadoras.