63 resultados para Simulated annealing acoplado. Metaheurística. Eficiência paralela. Escalabilidade paralela

em Consorci de Serveis Universitaris de Catalunya (CSUC), Spain


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Globalization involves several facility location problems that need to be handled at large scale. Location Allocation (LA) is a combinatorial problem in which the distance among points in the data space matter. Precisely, taking advantage of the distance property of the domain we exploit the capability of clustering techniques to partition the data space in order to convert an initial large LA problem into several simpler LA problems. Particularly, our motivation problem involves a huge geographical area that can be partitioned under overall conditions. We present different types of clustering techniques and then we perform a cluster analysis over our dataset in order to partition it. After that, we solve the LA problem applying simulated annealing algorithm to the clustered and non-clustered data in order to work out how profitable is the clustering and which of the presented methods is the most suitable

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this article, the fusion of a stochastic metaheuristic as Simulated Annealing (SA) with classical criteria for convergence of Blind Separation of Sources (BSS), is shown. Although the topic of BSS, by means of various techniques, including ICA, PCA, and neural networks, has been amply discussed in the literature, to date the possibility of using simulated annealing algorithms has not been seriously explored. From experimental results, this paper demonstrates the possible benefits offered by SA in combination with high order statistical and mutual information criteria for BSS, such as robustness against local minima and a high degree of flexibility in the energy function.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The paper documents MINTOOLKIT for GNU Octave. MINTOOLKIT provides functions for minimization and numeric differentiation. The main algorithms are BFGS, LBFGS, and simulated annealing. Examples are given.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The system described herein represents the first example of a recommender system in digital ecosystems where agents negotiate services on behalf of small companies. The small companies compete not only with price or quality, but with a wider service-by-service composition by subcontracting with other companies. The final result of these offerings depends on negotiations at the scale of millions of small companies. This scale requires new platforms for supporting digital business ecosystems, as well as related services like open-id, trust management, monitors and recommenders. This is done in the Open Negotiation Environment (ONE), which is an open-source platform that allows agents, on behalf of small companies, to negotiate and use the ecosystem services, and enables the development of new agent technologies. The methods and tools of cyber engineering are necessary to build up Open Negotiation Environments that are stable, a basic condition for predictable business and reliable business environments. Aiming to build stable digital business ecosystems by means of improved collective intelligence, we introduce a model of negotiation style dynamics from the point of view of computational ecology. This model inspires an ecosystem monitor as well as a novel negotiation style recommender. The ecosystem monitor provides hints to the negotiation style recommender to achieve greater stability of an open negotiation environment in a digital business ecosystem. The greater stability provides the small companies with higher predictability, and therefore better business results. The negotiation style recommender is implemented with a simulated annealing algorithm at a constant temperature, and its impact is shown by applying it to a real case of an open negotiation environment populated by Italian companies

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Immobile location-allocation (LA) problems is a type of LA problem that consists in determining the service each facility should offer in order to optimize some criterion (like the global demand), given the positions of the facilities and the customers. Due to the complexity of the problem, i.e. it is a combinatorial problem (where is the number of possible services and the number of facilities) with a non-convex search space with several sub-optimums, traditional methods cannot be applied directly to optimize this problem. Thus we proposed the use of clustering analysis to convert the initial problem into several smaller sub-problems. By this way, we presented and analyzed the suitability of some clustering methods to partition the commented LA problem. Then we explored the use of some metaheuristic techniques such as genetic algorithms, simulated annealing or cuckoo search in order to solve the sub-problems after the clustering analysis

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper we study the reconstruction of a network topology from the values of its betweenness centrality, a measure of the influence of each of its nodes in the dissemination of information over the network. We consider a simple metaheuristic, simulated annealing, as the combinatorial optimization method to generate the network from the values of the betweenness centrality. We compare the performance of this technique when reconstructing different categories of networks –random, regular, small-world, scale-free and clustered–. We show that the method allows an exact reconstruction of small networks and leads to good topological approximations in the case of networks with larger orders. The method can be used to generate a quasi-optimal topology fora communication network from a list with the values of the maximum allowable traffic for each node.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The adequate selection of indicator groups of biodiversity is an important aspect of the systematic conservation planning. However, these assessments differ in the spatial scale, in the methods used and in the groups considered to accomplish this task, which generally produces contradictory results. The quantification of the spatial congruence between species richness and complementarity among different taxonomic groups is a fundamental step to identify potential indicator groups. Using a constructive approach, the main purposes of this study were to evaluate the performance and efficiency of eight potential indicator groups representing amphibian diversity in the Brazilian Atlantic Forest. Data on the geographic range of amphibian species that occur in the Brazilian Atlantic Forest was overlapped to the full geographic extent of the biome, which was divided into a regular equal-area grid. Optimization routines based on the concept of complementarily were applied to verify the performance of each indicator group selected in relation to the representativeness of the amphibians in the Brazilian Atlantic Forest as a whole, which were solved by the algorithm"simulated annealing", through the use of the software MARXAN. Some indicator groups were substantially more effective than others in regards to the representation of the taxonomic groups assessed, which was confirmed by the high significance of data (F = 312.76; p < 0.01). Leiuperidae was considered as the best indicator group among the families analyzed, as it showed a good performance, representing 71% of amphibian species in the Brazilian Atlantic Forest (i.e. 290 species), which may be associated with the diffuse geographic distribution of its species. This study promotes understanding of how the diversity standards of amphibians can be informative for systematic conservation planning on a regional scale.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Las aplicaciones de alineamiento múltiple de secuencias son prototipos de aplicaciones que requieren elevada potencia de cómputo y memoria. Se destacan por la relevancia científica que tienen los resultados que brindan a investigaciones científicas en el campo de la biomedicina, genética y farmacología. Las aplicaciones de alineamiento múltiple tienen la limitante de que no son capaces de procesar miles de secuencias, por lo que se hace necesario crear un modelo para resolver la problemática. Analizando el volumen de datos que se manipulan en el área de las ciencias biológica y la complejidad de los algoritmos de alineamiento de secuencias, la única vía de solución del problema es a través de la utilización de entornos de cómputo paralelos y la computación de altas prestaciones. La investigación realizada por nosotros tiene como objetivo la creación de un modelo paralelo que le permita a los algoritmos de alineamiento múltiple aumentar el número de secuencias a procesar, tratando de mantener la calidad en los resultados para garantizar la precisión científica. El modelo que proponemos emplea como base la clusterización de las secuencias de entrada utilizando criterios biológicos que permiten mantener la calidad de los resultados. Además, el modelo se enfoca en la disminución del tiempo de cómputo y consumo de memoria. Para presentar y validar el modelo utilizamos T-Coffee, como plataforma de desarrollo e investigación. El modelo propuesto pudiera ser aplicado a cualquier otro algoritmo de alineamiento múltiple de secuencias.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La E/S Paralela es un área de investigación que tiene una creciente importancia en el cómputo de Altas Prestaciones. Si bien durante años ha sido el cuello de botella de los computadores paralelos en la actualidad, debido al gran aumento del poder de cómputo, el problema de la E/S se ha incrementado y la comunidad del Cómputo de Altas Prestaciones considera que se debe trabajar en mejorar el sistema de E/S de los computadores paralelos, para lograr cubrir las exigencias de las aplicaciones científicas que usan HPC. La Configuración de la Entrada/Salida (E/S) Paralela tiene una gran influencia en las prestaciones y disponibilidad, por ello es importante “Analizar configuraciones de E/S paralela para identificar los factores claves que influyen en las prestaciones y disponibilidad de la E/S de Aplicaciones Científicas que se ejecutan en un clúster”. Para realizar el análisis de las configuraciones de E/S se propone una metodología que permite identificar los factores de E/S y evaluar su influencia para diferentes configuraciones de E/S formada por tres fases: Caracterización, Configuración y Evaluación. La metodología permite analizar el computador paralelo a nivel de Aplicación Científica, librerías de E/S y de arquitectura de E/S, pero desde el punto de vista de la E/S. Los experimentos realizados para diferentes configuraciones de E/S y los resultados obtenidos indican la complejidad del análisis de los factores de E/S y los diferentes grados de influencia en las prestaciones del sistema de E/S. Finalmente se explican los trabajos futuros, el diseño de un modelo que de soporte al proceso de Configuración del sistema de E/S paralela para aplicaciones científicas. Por otro lado, para identificar y evaluar los factores de E/S asociados con la disponibilidad a nivel de datos, se pretende utilizar la Arquitectura Tolerante a Fallos RADIC.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Cada película de Rivette alberga otra, una vida paralela que emana de sus fisuras dondehabitan fantasmas y revenants, cuya fenomenología se establecerá desde allí a partir de lo imaginario

Relevância:

40.00% 40.00%

Publicador:

Resumo:

En aquest projecte final de carrera es decriurà el procés realitzat per tal d'aconseguir que l'aplicació reacTICision aprofiti les capacitats de la computació paral·lela en GPU mitjançant la tecnologia CUDA de NVIDIA. Amb aquest objectiu es realitzarà un estudi de la tecnologia CUDA i el funcionament de reacTIVision així com un anàlisi dels resultats obtinguts

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La autora propone un análisis de los mecanismos identitarios de afiliación y diferenciación utilizados entre los asistentes y asistidos sociales del mundo de la inmigración en la Cataluña de los últimos treinta años y que ha configurado lo que viene a denominar la "sociedad paralela". Con este objeto hará referencia a la génesis histórica del fenómeno y a una serie de variables de tipo económico, cultural y politico subyacentes que constituyen los motores reales de su evolución. Igualmente, considera necesario examinar como se efectúa la producción social del extranjero, asi como su categorización en este mismo escenario, revisando, a su vez, la pertinencia teórica de algunos conceptos aplicados en el marco de los diferentes modelos de integración de los inmigrantes interiores y exteriores. En el proceso de jerarquización simbólica y política inherente a toda dinámica de las representaciones de identidad y alteridad, se construyen las bases sociales del dominio que la sociedad de "acogida" ejerce sobre los grupos foráneos, interiorizando éstos el discurso dominante orientado a confundir diversidad cultural con diferencia esencial y legitimadora de las desigualdades de que son víctima. La conciencia alienada del "Nosotros" en relación a los "otros", que se traduce en determinadas atribuciones sociales de los grupos, se desarrolla en el cuadro de unas fronteras simbólicas cuyos limites solo se moverán en función de los intereses objetivos que la mayoria nacional autóctona tenga de aumentar o disminuir la distancia social respecto a las minorías inmigradas. Por Último, profundizando en la naturaleza de los intercambios entre ambos grupos (distinguiendo la especificidad de los inmigrantes extracomunitarios en el contexto señalado) para extraer las oportunas conclusiones, hace un breve repaso de lo que ha significado el proyecto politico y la identidad cultural del nacionalisrno catalán desde su aparición hasta nuestros dias.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La gestión de recursos en los procesadores multi-core ha ganado importancia con la evolución de las aplicaciones y arquitecturas. Pero esta gestión es muy compleja. Por ejemplo, una misma aplicación paralela ejecutada múltiples veces con los mismos datos de entrada, en un único nodo multi-core, puede tener tiempos de ejecución muy variables. Hay múltiples factores hardware y software que afectan al rendimiento. La forma en que los recursos hardware (cómputo y memoria) se asignan a los procesos o threads, posiblemente de varias aplicaciones que compiten entre sí, es fundamental para determinar este rendimiento. La diferencia entre hacer la asignación de recursos sin conocer la verdadera necesidad de la aplicación, frente a asignación con una meta específica es cada vez mayor. La mejor manera de realizar esta asignación és automáticamente, con una mínima intervención del programador. Es importante destacar, que la forma en que la aplicación se ejecuta en una arquitectura no necesariamente es la más adecuada, y esta situación puede mejorarse a través de la gestión adecuada de los recursos disponibles. Una apropiada gestión de recursos puede ofrecer ventajas tanto al desarrollador de las aplicaciones, como al entorno informático donde ésta se ejecuta, permitiendo un mayor número de aplicaciones en ejecución con la misma cantidad de recursos. Así mismo, esta gestión de recursos no requeriría introducir cambios a la aplicación, o a su estrategia operativa. A fin de proponer políticas para la gestión de los recursos, se analizó el comportamiento de aplicaciones intensivas de cómputo e intensivas de memoria. Este análisis se llevó a cabo a través del estudio de los parámetros de ubicación entre los cores, la necesidad de usar la memoria compartida, el tamaño de la carga de entrada, la distribución de los datos dentro del procesador y la granularidad de trabajo. Nuestro objetivo es identificar cómo estos parámetros influyen en la eficiencia de la ejecución, identificar cuellos de botella y proponer posibles mejoras. Otra propuesta es adaptar las estrategias ya utilizadas por el Scheduler con el fin de obtener mejores resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Los consorcios han sido una de las novedades más influyentes en la realidad bibliotecaria mundial de los últimos cinco años. Su expansión territorial y en actividades los ha convertido en un fenómeno que ha cambiado profundamente las formas tradicionales de definir los servicios bibliotecarios. El examen atento de las actividades que ha desarrollado el Consorcio de Bibliotecas Universitarias de Cataluña (CBUC) en el ámbito de las bibliotecas digitales es una muestra de las posibilidades de cooperación existentes en estos inicios del Siglo XXI. El CBUC inició sus actividades de contratación de contenidos digitales en el 1998. Los productos y servicios licenciados se agruparon bajo el nombre de Biblioteca Digital de Catalunya (BDC). La BDC contiene actualmente unas 6.800 revistas-e, 58 BBDD y 4.100 libros-e. De forma bastante paralela en el tiempo nacieron un servidor de sumarios electrónicos de revistas y un servidor de tesis doctorales a texto completo. La evolución de las necesidades de las bibliotecas ha comportado que hoy en el CBUC se tenga la visión de la BDC como un servicio formado de dos grandes partes: a) los productos exteriores sujetos a contratación y accesibles remotamente a través de servicios comerciales, y, b) servidores de aquellos objetos digitales generados en el ámbito del CBUC y que solo pueden ser puestos en la red por nosotros mismos. Para gestionar esta segunda parte de la BDC debemos constituir almacenes o repositorios digitales. Entre las diferentes posibilidades, el CBUC ha optado por crear repositorios institucionales colectivos de diferente tipo según los materiales que contienen. Hasta el momento se han creado tres repositorios: uno para tesis, uno para revistas y uno para literatura gris de investigación. Está previsto crear un cuarto repositorio para imágenes. La ponencia finaliza con los aprendizajes del CBUC en materia de repositorios. El principal es que la mayor dificultad para crearlos no son los elementos tecnológicos sino establecer mecanismos de relación con el profesorado y la universidad para que los diferentes documentos creados de forma electrónica pasen a formar parte de los repositorios institucionales correspondientes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Given a model that can be simulated, conditional moments at a trial parameter value can be calculated with high accuracy by applying kernel smoothing methods to a long simulation. With such conditional moments in hand, standard method of moments techniques can be used to estimate the parameter. Since conditional moments are calculated using kernel smoothing rather than simple averaging, it is not necessary that the model be simulable subject to the conditioning information that is used to define the moment conditions. For this reason, the proposed estimator is applicable to general dynamic latent variable models. Monte Carlo results show that the estimator performs well in comparison to other estimators that have been proposed for estimation of general DLV models.