546 resultados para Pernil -- Indústria i comerç -- Instal·lacions
Resumo:
High Performance Computing is a rapidly evolving area of computer science which attends to solve complicated computational problems with the combination of computational nodes connected through high speed networks. This work concentrates on the networks problems that appear in such networks and specially focuses on the Deadlock problem that can decrease the efficiency of the communication or even destroy the balance and paralyze the network. Goal of this work is the Deadlock avoidance with the use of virtual channels, in the switches of the network where the problem appears. The deadlock avoidance assures that will not be loss of data inside network, having as result the increased latency of the served packets, due to the extra calculation that the switches have to make to apply the policy.
Resumo:
Este trabajo analiza el rendimiento de cuatro nodos de cómputo multiprocesador de memoria compartida para resolver el problema N-body. Se paraleliza el algoritmo serie, y se codifica usando el lenguaje C extendido con OpenMP. El resultado son dos variantes que obedecen a dos criterios de optimización diferentes: minimizar los requisitos de memoria y minimizar el volumen de cómputo. Posteriormente, se realiza un proceso de análisis de las prestaciones del programa sobre los nodos de cómputo. Se modela el rendimiento de las variantes secuenciales y paralelas de la aplicación, y de los nodos de cómputo; se instrumentan y ejecutan los programas para obtener resultados en forma de varias métricas; finalmente se muestran e interpretan los resultados, proporcionando claves que explican ineficiencias y cuellos de botella en el rendimiento y posibles líneas de mejora. La experiencia de este estudio concreto ha permitido esbozar una incipiente metodología de análisis de rendimiento, identificación de problemas y sintonización de algoritmos a nodos de cómputo multiprocesador de memoria compartida.
Resumo:
Performance analysis is the task of monitor the behavior of a program execution. The main goal is to find out the possible adjustments that might be done in order improve the performance. To be able to get that improvement it is necessary to find the different causes of overhead. Nowadays we are already in the multicore era, but there is a gap between the level of development of the two main divisions of multicore technology (hardware and software). When we talk about multicore we are also speaking of shared memory systems, on this master thesis we talk about the issues involved on the performance analysis and tuning of applications running specifically in a shared Memory system. We move one step ahead to take the performance analysis to another level by analyzing the applications structure and patterns. We also present some tools specifically addressed to the performance analysis of OpenMP multithread application. At the end we present the results of some experiments performed with a set of OpenMP scientific application.
Resumo:
Las aplicaciones de alineamiento múltiple de secuencias son prototipos de aplicaciones que requieren elevada potencia de cómputo y memoria. Se destacan por la relevancia científica que tienen los resultados que brindan a investigaciones científicas en el campo de la biomedicina, genética y farmacología. Las aplicaciones de alineamiento múltiple tienen la limitante de que no son capaces de procesar miles de secuencias, por lo que se hace necesario crear un modelo para resolver la problemática. Analizando el volumen de datos que se manipulan en el área de las ciencias biológica y la complejidad de los algoritmos de alineamiento de secuencias, la única vía de solución del problema es a través de la utilización de entornos de cómputo paralelos y la computación de altas prestaciones. La investigación realizada por nosotros tiene como objetivo la creación de un modelo paralelo que le permita a los algoritmos de alineamiento múltiple aumentar el número de secuencias a procesar, tratando de mantener la calidad en los resultados para garantizar la precisión científica. El modelo que proponemos emplea como base la clusterización de las secuencias de entrada utilizando criterios biológicos que permiten mantener la calidad de los resultados. Además, el modelo se enfoca en la disminución del tiempo de cómputo y consumo de memoria. Para presentar y validar el modelo utilizamos T-Coffee, como plataforma de desarrollo e investigación. El modelo propuesto pudiera ser aplicado a cualquier otro algoritmo de alineamiento múltiple de secuencias.
Resumo:
Gaps es un generador de aplicaciones sintéticas de estructura compuesta Master/Worker de pipelines. Para crear una aplicación sintética, el investigador utilizará Gaspar, que recibe un fichero de texto con los parámetros de la aplicación a generar: cantidad de workers, etapas, tamaño de mensaje a enviar, etc., y genera un fichero con las propiedades de cada etapa. A partir de estos datos, Gaps, que esta hecho en C con MPI, genera y ejecuta la aplicación paralela. Estas aplicaciones se utilizan para comprobar en un entorno real los estudios analíticos que constituyen el modelo de rendimiento y sintonización dinámica.
Resumo:
En termes de temps d'execució i ús de dades, les aplicacions paral·leles/distribuïdes poden tenir execucions variables, fins i tot quan s'empra el mateix conjunt de dades d'entrada. Existeixen certs aspectes de rendiment relacionats amb l'entorn que poden afectar dinàmicament el comportament de l'aplicació, tals com: la capacitat de la memòria, latència de la xarxa, el nombre de nodes, l'heterogeneïtat dels nodes, entre d'altres. És important considerar que l'aplicació pot executar-se en diferents configuracions de maquinari i el desenvolupador d'aplicacions no port garantir que els ajustaments de rendiment per a un sistema en particular continuïn essent vàlids per a d'altres configuracions. L'anàlisi dinàmica de les aplicacions ha demostrat ser el millor enfocament per a l'anàlisi del rendiment per dues raons principals. En primer lloc, ofereix una solució molt còmoda des del punt de vista dels desenvolupadors mentre que aquests dissenyen i evaluen les seves aplicacions paral·leles. En segon lloc, perquè s'adapta millor a l'aplicació durant l'execució. Aquest enfocament no requereix la intervenció de desenvolupadors o fins i tot l'accés al codi font de l'aplicació. S'analitza l'aplicació en temps real d'execució i es considra i analitza la recerca dels possibles colls d'ampolla i optimitzacions. Per a optimitzar l'execució de l'aplicació bioinformàtica mpiBLAST, vam analitzar el seu comportament per a identificar els paràmetres que intervenen en el rendiment d'ella, com ara: l'ús de la memòria, l'ús de la xarxa, patrons d'E/S, el sistema de fitxers emprat, l'arquitectura del processador, la grandària de la base de dades biològica, la grandària de la seqüència de consulta, la distribució de les seqüències dintre d'elles, el nombre de fragments de la base de dades i/o la granularitat dels treballs assignats a cada procés. El nostre objectiu és determinar quins d'aquests paràmetres tenen major impacte en el rendiment de les aplicacions i com ajustar-los dinàmicament per a millorar el rendiment de l'aplicació. Analitzant el rendiment de l'aplicació mpiBLAST hem trobat un conjunt de dades que identifiquen cert nivell de serial·lització dintre l'execució. Reconeixent l'impacte de la caracterització de les seqüències dintre de les diferents bases de dades i una relació entre la capacitat dels workers i la granularitat de la càrrega de treball actual, aquestes podrien ser sintonitzades dinàmicament. Altres millores també inclouen optimitzacions relacionades amb el sistema de fitxers paral·lel i la possibilitat d'execució en múltiples multinucli. La grandària de gra de treball està influenciat per factors com el tipus de base de dades, la grandària de la base de dades, i la relació entre grandària de la càrrega de treball i la capacitat dels treballadors.
Resumo:
En el presente estudio se analizan los sistemas de gestión de RSU de Alemania, Noruega y California, considerados best-practices, desde la perspectiva de la creación de las políticas que los han hecho posibles. De este análisis se destacan como elementos importantes el liderazgo institucional, los acuerdos con la industria y el debate social. Posteriormente se analiza el caso de España y de Cataluña, comparándolo con los casos destacados y los elementos seleccionados. En este análisis se sigue la evolución de su legislación, planes y programas y se consideran los elementos que definen el panorama actual. Finalmente, siguiendo las recomendaciones de diversos autores y la voluntad del actual programa catalán, se plantea un sistema participativo para la elaboración de estas políticas.
Resumo:
Nonlinear Noisy Leaky Integrate and Fire (NNLIF) models for neurons networks can be written as Fokker-Planck-Kolmogorov equations on the probability density of neurons, the main parameters in the model being the connectivity of the network and the noise. We analyse several aspects of the NNLIF model: the number of steady states, a priori estimates, blow-up issues and convergence toward equilibrium in the linear case. In particular, for excitatory networks, blow-up always occurs for initial data concentrated close to the firing potential. These results show how critical is the balance between noise and excitatory/inhibitory interactions to the connectivity parameter.
Resumo:
Introduït en el sistema de governança per la recent reforma del marc regulador de les telecomunicacions, el BEREC es presenta com un organisme supranacional de caràcter consultiu al qual se li atorga una missió i un paper fonamental en l'aplicació coherent de les normes en el mercat únic de les telecomunicacions. L'èxit d'aquesta missió dependrà tant de les eines amb les que compta, com dels mecanismes previstos de coordinació i la seva capacitat de relació amb la resta d'actors, les autoritats nacionals de regulació i la Comissió Europea principalment
Resumo:
Memoria del proyecto de creación de un sitio web corporativo en el marco de la asignatura Administración web y comercio electrónico en entornos de software libre, del Máster de Software Libre de la Universitat Oberta de Catalunya, y que tiene como fin consolidar las competencias adquiridas a lo largo del mismo.
Resumo:
Aquest projecte desenvolupa el càlcul de les instal·lacions d’un club esportiu.Un dels objectiu es poder comprovar el correcte dimensionament de les instal·lacionsactuals, degut a que les instal·lacions han sofert múltiples modificacions respecte alque es va preveure originalment. També s’ aprofita per realitzar uns plànols actualitzat de les instal·lacions
Resumo:
El projecte es va fer al KHLim a Diepenbeek. Es tractava de dissenyar un nou dispositiu de localització d'avaries del relè del motor, per tal de de substituir el que ja hi havia, per raons de seguretat
Resumo:
El DGQA per a Equipaments Culturals és un distintiu per a la certificació ambiental de biblioteques i museus. L’objectiu del projecte és avaluar el distintiu mitjançant una aplicació pilot en 26 biblioteques de la província de Barcelona, i proposar millores tant per al distintiu com per a les biblioteques. També es pretén fer recerca sobre l’ecoetiquetatge de serveis, ja que és un àmbit poc desenvolupat, i sobre el sistema d’estudi, les biblioteques. Una anàlisi de les ecoetiquetes a nivell mundial, considerant 4 macroregions, ha permès caracteritzar les ecoetiquetes i determinar la situació actual dels serveis en l’ecoetiquetatge. Hi han variacions en el nombre de categories entre ecoetiquetes, i el percentatge de categories de serveis és, en general, reduït (8% de mitjana). Els subsectors serveis dominants són els d’Hosteleria, serveis de neteja i comerç. No hi ha cap experiència de certificació ambiental de serveis culturals, per tant, l’ecoetiquetatge de serveis culturals és un àmbit nou. El sistema d’estudi són 26 biblioteques de la província de Barcelona. L’aplicació del distintiu a aquestes s’ha dut a terme realitzant treball de camp a cadascuna per tal de determinar el seu estat ambiental. Posteriorment, s’han analitzat les dades per establir el grau de compliment de cadascuna. La majoria de les biblioteques (85%) compleixen més de la meitat dels criteris bàsics, i un 60% superen la puntuació mínima de compliment dels criteris opcionals. Els resultats obtinguts han permès avaluar la viabilitat de la implantació del distintiu, a través de l’anàlisi de cadascun dels seus criteris. Per tal de millorar les possibilitats d’èxit en la implantació del distintiu, s’han aportat un seguit de propostes a nivell individual i col·lectiu. S’ha realitzat una fitxa per a cadascuna de les 26 biblioteques, per tal d’orientar els gestors de les biblioteques en l’adopció de mesures per a l’acompliment dels criteris. També s’han inclòs propostes a l’avaluació dels criteris, dirigides als gestors del distintiu.
Resumo:
Esta investigación aporta una visión panorámica del escenario competitivo de la industria de los PCs en los mercados del continente americano con mayor volumen de ventas. En él se describen los cambios producidos por el proceso de migración hacia la portabilidad que caracterizó el período 2005 - 2007. A partir de la estimación de un modelo de elección discreta Logit con coeficientes aleatorios, se recuperan los costes marginales a nivel de producto. A su vez, se desarrolla un análisis regional del ejercicio de poder de mercado por grupos de marcas basado en el Índice de Lerner, que revela que los cambios observados fueron gobernados principalmente por variaciones en la elasticidad-precio de la demanda. En particular, la incorporación de consumidores con una mayor elasticidad en el fragmento de portátiles en Latinoamérica podría explicar bajos niveles de poder de mercado (márgenes) en un contexto de precios a la baja y aumento de la demanda. Palabras clave: productos diferenciados, demanda, oligopolio, poder de mercado, Índice de Lerner, Logit con coeficientes aleatorios, PC. JEL: D12, F23, L13, L63.
Estimación del impacto sobre precios de la fusión Acer- Gateway y de su anuncio en América del Norte
Resumo:
Esta investigación representa una contribución a la literatura sobre el análisis retrospectivo de las fusiones. Su principal objetivo es la evaluación del impacto de la fusión entre Acer y Gateway, concretada a mediados de octubre de 2007 y que permitió a estas dos firmas convertirse en el tercer proveedor mundial de ordenadores personales. En particular, se examinan los efectos que durante el período previo e inmediatamente posterior a la fusión se produjeron sobre los precios de los productos. Para ello, se aplica el método de diferencias-endiferencias, utilizando como grupo de control el conjunto de mercados americanos con mayor volumen de ventas en los previamente las empresas fusionadas no competían. Los resultados obtenidos apuntan a la existencia de un comportamiento anticompetitivo que se habría manifestado en Norteamérica antes de que la fusión se completara. Palabras clave: fusión, ordenadores personales, canibalización, diferencias-endiferencias, análisis retrospectivo. JEL: L13, L41, L42, L81.