1000 resultados para Algoritmos de búsqueda


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El documento de esta tesis por compendio de publicaciones se divide en dos partes: la síntesis donde se resume la fundamentación, resultados y conclusiones de esta tesis, y las propias publicaciones en su formato original, que se incluyen como apéndices. Dado que existen acuerdo de confidencialidad (véase "Derechos" más adelante) que impiden su publicación en formato electrónico de forma pública y abierta (como es el repositorio de la UA), y acorde con lo que se dictamina en el punto 6 del artículo 14 del RD 99/2011, de 28 de enero, no se incluyen estos apéndices en el documento electrónico que se presenta en cedé, pero se incluyen las referencias completas y sí se incluyen integramente en el ejemplar encuadernado. Si el CEDIP y el RUA así lo decidiesen más adelante, podría modificarse este documento electrónico para incluir los enlaces a los artículos originales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La actual crisis económica ha tenido impacto en prácticamente todos los sectores socioeconómicos, entre los que se incluye la educación como uno de los grandes perjudicados. En este momento de incertidumbre sobre la viabilidad de la educación tradicional y la supuesta burbuja en la enseñanza (agravada por las tasas de paro juvenil), surgen los MOOC como respuesta a la necesidad de acercamiento entre la formación y la sociedad del conocimiento. Pero que los cursos masivos y abiertos marquen el futuro de la educación dependerá en gran medida de su viabilidad económica. Aunque aun no se haya encontrado un modelo de negocio definitivo, las plataformas de MOOC experimentan con diferentes alternativas que, unidas a la escalabilidad de los proyectos, es previsible que generen grandes resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A finales del siglo xviii el cirujano inglés Edward Jenner (1749-1823) propuso la inoculación de la viruela de las vacas (cowpox) como método para prevenir la viruela humana (smallpox). La publicación de sus observaciones constituye la primera inoculación de un virus atenuado y el inicio de la vacunología como disciplina científica. La rápida difusión que obtuvo este hallazgo llevó aparejado un interés de los vacunadores por localizar vacas afectadas por el cowpox con el fin de mantener activa la vacunación de forma autóctona. Se hicieron también ensayos buscando la reproducción del virus en otras especies animales. Ninguna de estas iniciativas obtuvo el éxito esperado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El tema Las bases de datos documentales (BDd) y el Proceso de Búsqueda forma parte del programa de la asignatura 'Documentación e Información Científica en Salud' del Máster Universitario en Investigación en Ciencias de la Enfermería que se imparte en la Facultad de Ciencias de la Salud (Universidad de Alicante).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Aunque la gente es consciente de los riesgos que conlleva cruzar el mar, no hay nada que pueda prepararles realmente para la experiencia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Para los refugiados iraquíes en Jordania la decisión de partir hacia Europa se ve muy influida por su experiencia mientras esperan en esta región.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La conformación de una economía regional diversificada en Mendoza encuentra antecedentes en las primeras décadas del siglo XX. En efecto, los sectores dirigentes, empresarios y técnicos buscaron alternativas con vistas a matizar los efectos de crisis cíclicas que afectaban a la vitivinicultura. De modo que este período tiene un marcado carácter transicional, en el que se verifica una complejización del panorama agroproductivo como resultado de la conjunción de diversos factores que son detectados y analizados en este trabajo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La conformación de una economía regional diversificada en Mendoza encuentra antecedentes en las primeras décadas del siglo XX. En efecto, los sectores dirigentes, empresarios y técnicos buscaron alternativas con vistas a matizar los efectos de crisis cíclicas que afectaban a la vitivinicultura. De modo que este período tiene un marcado carácter transicional, en el que se verifica una complejización del panorama agroproductivo como resultado de la conjunción de diversos factores que son detectados y analizados en este trabajo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La búsqueda de información y sus problemas colaterales inciden en el desarrollo de la actividad de los investigadores. Nos proponemos analizar esta temática a través del estudio de las pautas de comportamiento de investigadores de la Facultad de Humanidades y Ciencias de la Educación de la Universidad de La Plata, para identificar conductas informativas y al mismo tiempo detectar obstáculos que impiden el aprovechamiento óptimo de la Biblioteca Central y las Bibliotecas Departamentales de la Institución. Los resultados obtenidos servirán de base para definir indicadores de calidad aplicables a la mejora continua de los servicios de biblioteca. Como resultado del análisis de metodologías aplicadas en estudios de usuarios se determinó combinar las perspectivas cuantitativa y cualitativa en este trabajo en curso

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Técnicas de otimização conhecidas como as metaheurísticas tem conseguido resolversatisfatoriamente problemas conhecidos, mas desenvolvimento das metaheurísticas écaracterizado por escolha de parâmetros para sua execução, na qual a opção apropriadadestes parâmetros (valores). Onde o ajuste de parâmetro é essencial testa-se os parâmetrosaté que resultados viáveis sejam obtidos, normalmente feita pelo desenvolvedor que estaimplementando a metaheuristica. A qualidade dos resultados de uma instância1 de testenão será transferida para outras instâncias a serem testadas e seu feedback pode requererum processo lento de “tentativa e erro” onde o algoritmo têm que ser ajustado para umaaplicação especifica. Diante deste contexto das metaheurísticas surgiu a Busca Reativaque defende a integração entre o aprendizado de máquina dentro de buscas heurísticaspara solucionar problemas de otimização complexos. A partir da integração que a BuscaReativa propõe entre o aprendizado de máquina e as metaheurísticas, surgiu a ideia dese colocar a Aprendizagem por Reforço mais especificamente o algoritmo Q-learning deforma reativa, para selecionar qual busca local é a mais indicada em determinado instanteda busca, para suceder uma outra busca local que não pode mais melhorar a soluçãocorrente na metaheurística VNS. Assim, neste trabalho propomos uma implementação reativa,utilizando aprendizado por reforço para o auto-tuning do algoritmo implementado,aplicado ao problema do caixeiro viajante simétrico e ao problema escalonamento sondaspara manutenção de poços.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This work presents a new model for the Heterogeneous p-median Problem (HPM), proposed to recover the hidden category structures present in the data provided by a sorting task procedure, a popular approach to understand heterogeneous individual’s perception of products and brands. This new model is named as the Penalty-free Heterogeneous p-median Problem (PFHPM), a single-objective version of the original problem, the HPM. The main parameter in the HPM is also eliminated, the penalty factor. It is responsible for the weighting of the objective function terms. The adjusting of this parameter controls the way that the model recovers the hidden category structures present in data, and depends on a broad knowledge of the problem. Additionally, two complementary formulations for the PFHPM are shown, both mixed integer linear programming problems. From these additional formulations lower-bounds were obtained for the PFHPM. These values were used to validate a specialized Variable Neighborhood Search (VNS) algorithm, proposed to solve the PFHPM. This algorithm provided good quality solutions for the PFHPM, solving artificial generated instances from a Monte Carlo Simulation and real data instances, even with limited computational resources. Statistical analyses presented in this work suggest that the new algorithm and model, the PFHPM, can recover more accurately the original category structures related to heterogeneous individual’s perceptions than the original model and algorithm, the HPM. Finally, an illustrative application of the PFHPM is presented, as well as some insights about some new possibilities for it, extending the new model to fuzzy environments