230 resultados para Escalador de colinas estocástico


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La partición hardware/software es una etapa clave dentro del proceso de co-diseño de los sistemas embebidos. En esta etapa se decide qué componentes serán implementados como co-procesadores de hardware y qué componentes serán implementados en un procesador de propósito general. La decisión es tomada a partir de la exploración del espacio de diseño, evaluando un conjunto de posibles soluciones para establecer cuál de estas es la que mejor balance logra entre todas las métricas de diseño. Para explorar el espacio de soluciones, la mayoría de las propuestas, utilizan algoritmos metaheurísticos; destacándose los Algoritmos Genéticos, Recocido Simulado. Esta decisión, en muchos casos, no es tomada a partir de análisis comparativos que involucren a varios algoritmos sobre un mismo problema. En este trabajo se presenta la aplicación de los algoritmos: Escalador de Colinas Estocástico y Escalador de Colinas Estocástico con Reinicio, para resolver el problema de la partición hardware/software. Para validar el empleo de estos algoritmos se presenta la aplicación de este algoritmo sobre un caso de estudio, en particular la partición hardware/software de un codificador JPEG. En todos los experimentos es posible apreciar que ambos algoritmos alcanzan soluciones comparables con las obtenidas por los algoritmos utilizados con más frecuencia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El particionado hardware/software es una tarea fundamental en el co-diseño de sistemas embebidos. En ella se decide, teniendo en cuenta las métricas de diseño, qué componentes se ejecutarán en un procesador de propósito general (software) y cuáles en un hardware específico. En los últimos años se han propuesto diversas soluciones al problema del particionado dirigidas por algoritmos metaheurísticos. Sin embargo, debido a la diversidad de modelos y métricas utilizadas, la elección del algoritmo más apropiado sigue siendo un problema abierto. En este trabajo se presenta una comparación de seis algoritmos metaheurísticos: Búsqueda aleatoria (Random search), Búsqueda tabú (Tabu search), Recocido simulado (Simulated annealing), Escalador de colinas estocástico (Stochastic hill climbing), Algoritmo genético (Genetic algorithm) y Estrategia evolutiva (Evolution strategy). El modelo utilizado en la comparación está dirigido a minimizar el área ocupada y el tiempo de ejecución, las restricciones del modelo son consideradas como penalizaciones para incluir en el espacio de búsqueda otras soluciones. Los resultados muestran que los algoritmos Escalador de colinas estocástico y Estrategia evolutiva son los que mejores resultados obtienen en general, seguidos por el Algoritmo genético.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Hardware/Software partitioning (HSP) is a key task for embedded system co-design. The main goal of this task is to decide which components of an application are to be executed in a general purpose processor (software) and which ones, on a specific hardware, taking into account a set of restrictions expressed by metrics. In last years, several approaches have been proposed for solving the HSP problem, directed by metaheuristic algorithms. However, due to diversity of models and metrics used, the choice of the best suited algorithm is an open problem yet. This article presents the results of applying a fuzzy approach to the HSP problem. This approach is more flexible than many others due to the fact that it is possible to accept quite good solutions or to reject other ones which do not seem good. In this work we compare six metaheuristic algorithms: Random Search, Tabu Search, Simulated Annealing, Hill Climbing, Genetic Algorithm and Evolutionary Strategy. The presented model is aimed to simultaneously minimize the hardware area and the execution time. The obtained results show that Restart Hill Climbing is the best performing algorithm in most cases.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tesis (Maestría en Ciencias en Ingeniería de Sistemas) UANL, 2011.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tesis (Maestría en Ciencias en Ingeniería de Sistemas) UANL, 2012.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tesis (Doctorado en Ciencias Agrícolas con Especialidad en Agua-Suelo) UANL

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tesis (Doctor en Ingeniería Física Industrial) UANL, 2012.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Reflexi??n sobre el centro educativo y su fundador A. S. Nelly quien, seg??n el autor parte de un optimismo antropol??gico porque considera a las personas buenas por naturaleza y sit??a la libertad como uno de los pilares b??sicos de su pedagog??a.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este artículo se utiliza un modelo de equilibrio general dinámico estocástico (DSGE) paraevaluar el impacto de choques de oferta (productividad) y demanda (comercio externo) sobre eldesempeño económico. En particular, este trabajo analiza el impacto de las políticas fiscales, específicamente el efecto del gasto público en determinados entornos económicos, como el colombiano.Los ejercicios realizados muestran que en un modelo de economía abierta, una políticaexpansiva de gasto público incrementa en el corto plazo el empleo y el producto, pero se incurre en un costo futuro, que parece sugerir un impacto superior al beneficio alcanzado en el corto plazo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este documento analiza el comportamiento de la tasa de cambio del peso colombiano contra el dólar americano durante el periodo en el cual se mantuvo una banda monetaria (enero 1994-septiembre 1999). Se ofrece un análisis descriptivo del cual combina la implementación de la política monetaria, una descripción de la estructura de mercado y sus participantes, y finalmente la evolución del comportamiento de la tasa de cambio. Dado el hecho de que una relación lineal no es suficiente para explicar la evolución de la tasa de cambio nominal en términos de la oferta y demanda del sector real y las posiciones de cambio del sistema financiero, se utilizan técnicas de redes neurales con el fin de obtener algún poder explicativo sobre la no linealidad de las series de tiempo. Consecuentemente se ejecutan test estadísticos, entre ellos test de no linealidad, con el fin de analizar más a profundidad las propiedades de la información de las serie de rendimientos y se expande un análisis previo de un modelo estocástico con tres regímenes de volatilidad y reversión a la media.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

NIPO: 210-97-059-2

Relevância:

20.00% 20.00%

Publicador:

Resumo:

XII Jornadas de Investigación en el Aula de Matemáticas : estadística y azar, celebradas en Granada, noviembre y diciembre de 2006. Resumen tomado de la publicación

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Se persigue crear leyes matemáticas que describan la evolución de la variable: número de alumnos que acuden a la universidad. Conocer de qué manera se puede controlar la cantidad de sujetos que se situan dentro del Sistema Educativo universitario y, una vez encontradas estas leyes, comprobar empíricamente su validez. Alumnos matriculados desde 1966-67 al 1974-75 y abandono desde 1969-70 al 1974-75 de las Facultades de Ciencias, Filosofía y Letras y Medicina de la Universidad de Granada; Facultades de Filosofía y Letras, Medicina, Derecho y Ciencias de la Universidad de Sevilla y Derecho, Filosofía y Letras y Ciencias de la Universidad de Murcia. El trabajo consta de dos partes, en la primera se trata de buscar funciones matemáticas que describan la evolución del alumnado basándose en los factores entrada en el sistema, estancia en él y abandono. Para estudiar el mecanismo de entrada se conocen el número de alumnos que se incorporan en la universidad en cada tiempo 't' y la distribución de dichas llegadas en los diferentes niveles, para cada 't'. El mecanismo de estancia queda determinado por el conocimiento de los cambios que se producen a lo largo del tiempo. El individuo tendrá 3 alternativas: permanecer en el mismo nivel, pasar al superior o abandonar. La distribución de las entradas se considerará como un proceso que puede ser estacionario y la variable aleatoria que cuantifique este proceso será un vector aleatorio con tantos componentes como niveles constituyen el sistema. El posterior análisis empírico que se realiza en la segunda parte recoge y utiliza las fórmulas halladas. La teoría desarrollada nos permite crear un control de entrada de sujetos en diversos niveles; de estancia en esos niveles y el estudio del abandono total del sistema. En el estudio empírico se ha aplicado la teoría desarrollada a las diversas facultades, objeto de análisis, planteando el sistema de ecuaciones en las incógnitas, número de transiciones entre cursos en los distintos años y que se deduce de que un individuo sólo tiene las tres alternativas apuntadas: entrada, estancia y abandono. En todo el análisis se han tenido en cuenta a la hora de estimar las matrices de transición su estacionamiento, siguiendo los trabajos de Bartlett, Hoel y Anderson y Godman. Es un modelo estocástico basado en estudios hechos por diversos autores y referidos a los más diversos temas, como movilidad laboral (Silcock), duración de una huelga (Lancaster). Los autores hacen mención de la importancia que hay que dar al hecho de que se esté trabajando con sujetos humanos a la hora de establecer un control de entradas en la universidad y que, por ejemplo, una política de promoción fijada de antemano puede dar lugar a consecuencias poco deseables para la estructura de la organización educativa. Los controles que apuntan como deseables, serían el control de pérdidas del sistema, control de promociones y control de entradas, en dos vertientes, tamaño y magnitud de las entradas y otro, localización de dichas entradas. No obstante hay que decir que estas variables están ligadas entre sí y cualquier cambio en una afectará a las demás.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los métodos utilizados para analizar opciones de inversión generalmente involucran consideraciones de flujo de caja tales como calcular la tasa de retorno o el valor actual neto. El Análisis de Decisiones añade una nueva dimensión al considerar cuantitativamente el riesgo e incertidumbre y como estos factores pueden ser utilizados para formular estrategias de inversión. La pieza fundamental del Análisis de Decisiones es el concepto de Valor Esperado, que es un método para combinar los estimados de rentabilidad con los estimados cuantitativos de riesgo a fin de obtener un criterio de decisión ajustado por riesgo. El Valor Esperado se obtiene ponderando los posibles resultados con la probabilidad de ocurrencia de cada uno de ellos. Para el caso en el cual los resultados son expresados como el VAN de los flujos de caja respectivos, el resultado es usualmente llamado Valor Actual Esperado (VAE) Para la evaluación de los proyectos se utilizan árboles de decisión o técnicas de simulación, donde éstas últimas se emplean cuando existen grandes incertidumbres y se desean obtener contornos de probabilidad del VAN. El criterio de aceptación establece que un proyecto puede llevarse a cabo si su VAE es positivo. Si se selecciona la alternativa que tiene el mayor VAE entre un conjunto de alternativas mutuamente excluyentes, el valor monetario esperado de todo el portafolio de decisiones será mayor que aquel que se obtendría seleccionando una estrategia alternativa