9 resultados para Algoritmos de decisión

em Universidad de Alicante


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Comunicación presentada en EPUM 2004, XVI Encuentro de Profesores Universitarios de Marketing, Alicante, 22-24 septiembre 2004.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este artículo se investigan técnicas automáticas para encontrar un modelo óptimo de características en el caso de un analizador de dependencias basado en transiciones. Mostramos un estudio comparativo entre algoritmos de búsqueda, sistemas de validación y reglas de decisión demostrando al mismo tiempo que usando nuestros métodos es posible conseguir modelos complejos que proporcionan mejores resultados que los modelos que siguen configuraciones por defecto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El particionado hardware/software es una tarea fundamental en el co-diseño de sistemas embebidos. En ella se decide, teniendo en cuenta las métricas de diseño, qué componentes se ejecutarán en un procesador de propósito general (software) y cuáles en un hardware específico. En los últimos años se han propuesto diversas soluciones al problema del particionado dirigidas por algoritmos metaheurísticos. Sin embargo, debido a la diversidad de modelos y métricas utilizadas, la elección del algoritmo más apropiado sigue siendo un problema abierto. En este trabajo se presenta una comparación de seis algoritmos metaheurísticos: Búsqueda aleatoria (Random search), Búsqueda tabú (Tabu search), Recocido simulado (Simulated annealing), Escalador de colinas estocástico (Stochastic hill climbing), Algoritmo genético (Genetic algorithm) y Estrategia evolutiva (Evolution strategy). El modelo utilizado en la comparación está dirigido a minimizar el área ocupada y el tiempo de ejecución, las restricciones del modelo son consideradas como penalizaciones para incluir en el espacio de búsqueda otras soluciones. Los resultados muestran que los algoritmos Escalador de colinas estocástico y Estrategia evolutiva son los que mejores resultados obtienen en general, seguidos por el Algoritmo genético.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El documento de esta tesis por compendio de publicaciones se divide en dos partes: la síntesis donde se resume la fundamentación, resultados y conclusiones de esta tesis, y las propias publicaciones en su formato original, que se incluyen como apéndices. Dado que existen acuerdo de confidencialidad (véase "Derechos" más adelante) que impiden su publicación en formato electrónico de forma pública y abierta (como es el repositorio de la UA), y acorde con lo que se dictamina en el punto 6 del artículo 14 del RD 99/2011, de 28 de enero, no se incluyen estos apéndices en el documento electrónico que se presenta en cedé, pero se incluyen las referencias completas y sí se incluyen integramente en el ejemplar encuadernado. Si el CEDIP y el RUA así lo decidiesen más adelante, podría modificarse este documento electrónico para incluir los enlaces a los artículos originales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Justificación: La inmigración en España es un fenómeno de gran importancia que repercute en el área de la salud. Objetivo: Investigar la relación entre la elección de la anestesia epidural y la nacionalidad de la mujer, y a su vez, observar si influyen además otros factores en esta decisión. Diseño y Metodología: Estudio cuantitativo, transversal y descriptivo con una muestra de 634 mujeres que han dado a luz en el Hospital del Noroeste de la Región de Murcia. Las variables seleccionadas fueron: antecedentes obstétricos, edad, tipo de anestesia, nacionalidad de la mujer y motivo por el rechazo de la anestesia epidural. Resultados: El 8,51% de las mujeres que dieron a luz en el hospital del Noroeste de la Región de Murcia durante el año 2010 fueron inmigrantes. En cuanto a la nacionalidad, el 20,37% de las mujeres inmigrantes no han utilizado ningún tipo de anestesia. Se ha encontrado una significante diferencia con las mujeres no inmigrantes españolas en las que sólo el 4,31% la rechazó (P<0,001). En relación a los abortos, las mujeres que no prefieren ningún tipo de anestesia son aquellas que sí han tenido abortos (P<0.05). Las edades más jóvenes de las mujeres, de 16 a 25 años, se relaciona con el no uso de la anestesia epidural (P<0,05). Conclusión: Las mujeres inmigrantes hacen menos uso de la anestesia epidural. Es un reto para la enfermera aprender las diferentes culturas ya que realiza su trabajo en una sociedad cada vez más multicultural.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los grupos de la sociedad civil han acogido una reciente victoria ante la Corte Suprema de Kenia como un recordatorio del importante papel que el litigio estratégico puede desempeñar en la aplicación y promoción de los derechos de los refugiados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La partición hardware/software es una etapa clave dentro del proceso de co-diseño de los sistemas embebidos. En esta etapa se decide qué componentes serán implementados como co-procesadores de hardware y qué componentes serán implementados en un procesador de propósito general. La decisión es tomada a partir de la exploración del espacio de diseño, evaluando un conjunto de posibles soluciones para establecer cuál de estas es la que mejor balance logra entre todas las métricas de diseño. Para explorar el espacio de soluciones, la mayoría de las propuestas, utilizan algoritmos metaheurísticos; destacándose los Algoritmos Genéticos, Recocido Simulado. Esta decisión, en muchos casos, no es tomada a partir de análisis comparativos que involucren a varios algoritmos sobre un mismo problema. En este trabajo se presenta la aplicación de los algoritmos: Escalador de Colinas Estocástico y Escalador de Colinas Estocástico con Reinicio, para resolver el problema de la partición hardware/software. Para validar el empleo de estos algoritmos se presenta la aplicación de este algoritmo sobre un caso de estudio, en particular la partición hardware/software de un codificador JPEG. En todos los experimentos es posible apreciar que ambos algoritmos alcanzan soluciones comparables con las obtenidas por los algoritmos utilizados con más frecuencia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El único ejemplo claro de Modernidad en la ciudad de Albacete (y así lo registra el Docomomo Ibérico) es el Edificio Legorburo en la calle Mayor, 43 esquina a Marqués de Molíns, un proyecto de comercio y viviendas de 1935 de los arquitectos José Luis García Pellicer y Baldomero Pérez Villena. Paradigma del más depurado racionalismo, rotundo, pero discreto, representa en Albacete, en el cruce de la calle Ancha, nuevo eje burgués, con una calle histórica y mirando hacia el Parque, lo que el Edificio Capitol en la Gran Vía madrileña. Pero, además de su posición y composición, encierra toda una serie de lecciones que nos proponemos desentrañar. Una de ellas es que el proyecto es resultado de un concurso convocado por la propiedad, en 1935, a través del Colegio de Arquitectos de Valencia, lo cual llama poderosamente la atención sobre el procedimiento del encargo y sobre el proceder de los promotores. Otra es la auténtica aventura que su construcción supone, arrancando a finales de 1935, quedando paralizada por la guerra y sobreviviendo a continuación a base de reinventarse hasta 1946 en que se concluye. Los cambios entre proyecto y obra evidencian ese ejercicio, apasionante y dramático, de ir repensando el proyecto una y otra vez para poderlo construir con los materiales y recursos disponibles en cada momento. El Edificio Legorburo es un magnífico exponente de la idea corbuseriana de la arquitectura como juego sabio y soberbio de los volúmenes bajo la luz pues es la plasticidad de sus cuerpos, muy matizados, la que le confiere su fuerza y elegancia casi mendelsohnianas. Estos cuerpos, acusados por sus respectivos planos, son tres: el principal y de mayor vuelo de los pisos, que resuelve la esquina en curva así como las transiciones con ésta y con las medianeras; el del bajo que, ajustándose a la alineación oficial, emerge sobre el principal en la esquina, como un faro que iluminara la ciudad con su linterna; y el de transición entre ambos, de vuelo intermedio, en el entresuelo y sobreático, flancos de la torre y medianeras. Este juego de volúmenes acusa un sinfín de matices resueltos con gran clase, como la transformación del mirador de la esquina en balcón, donde asienta la torre y se derrama luego a los costados, o el descenso hasta el bajo de la torre. El tratamiento de superficies insiste en este concepto escultural: las estrías verticales que simulan un orden gigante de pilastras, las franjas horizontales que delinean y subrayan las curvas, los antepechos de los huecos con cuadrados almohadillados... Todo está exquisitamente cuidado, trabajado y pensado. Las plantas, modélicas, albergan dos viviendas por piso con sus zonas de día recayentes a fachada y sus servicios a medianeras, en cuyo centro se aloja una majestuosa escalera elíptica y un patio que absorbe las irregularidades del trazado. Todas estas razones (funcional, impecablemente resuelta; técnica, ingeniosamente conseguida; formal, espectacularmente consumada y el entendimiento del lugar), tienen especial validez en el contexto actual puesto que son auténticas y genuinas lecciones de arquitectura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.