1000 resultados para Comerç-València (Regne)
Resumo:
JPEG2000 és un estàndard de compressió d’imatges que utilitza la transformada wavelet i, posteriorment, una quantificació uniforme dels coeficients amb dead-zone. Els coeficients wavelet presenten certes dependències tant estadístiques com visuals. Les dependències estadístiques es tenen en compte a l'esquema JPEG2000, no obstant, no passa el mateix amb les dependències visuals. En aquest treball, es pretén trobar una representació més adaptada al sistema visual que la que proporciona JPEG2000 directament. Per trobar-la utilitzarem la normalització divisiva dels coeficients, tècnica que ja ha demostrat resultats tant en decorrelació estadística de coeficients com perceptiva. Idealment, el que es voldria fer és reconvertir els coeficients a un espai de valors en els quals un valor més elevat dels coeficients impliqui un valor més elevat d'aportació visual, i utilitzar aquest espai de valors per a codificar. A la pràctica, però, volem que el nostre sistema de codificació estigui integrat a un estàndard. És per això que utilitzarem JPEG2000, estàndard de la ITU que permet una elecció de les distorsions en la codificació, i utilitzarem la distorsió en el domini de coeficients normalitzats com a mesura de distorsió per a escollir quines dades s'envien abans.
Resumo:
Can international trade act as the sole engine of growth for an economy? If yes, what are the mechanisms through which trade operates in transmitting permanent growth? This paper answers these questions with two simple two-country models, in which only one country enjoys sustained growth in autarky. The models differ in the assumptions on technical change, which is either labour- or capital-augmenting. In both cases, the stagnant economy imports growth by trading. In the first model, growth is transmitted because of permanent increases in the trade volume. In the alternative framework, the stagnant economy imports sustained growth because its terms of trade permanently improve.
Resumo:
Based on third order linear sequences, an improvement version of the Diffie-Hellman distribution key scheme and the ElGamal public key cryptosystem scheme are proposed, together with an implementation and computational cost. The security relies on the difficulty of factoring an RSA integer and on the difficulty of computing the discrete logarithm.
Resumo:
Aquest treball de recerca del doctorand Bartomeu Martínez Oliver titulat Art i Església a la Mallorca del segle XVI a través de les visites pastorals del bisbe Joan Vic i Manrique (1573-1604) és innovador pel tema, però també per l’enfocament metodològic, ja que obre noves vies per conèixer millor l’art eclesiàstic, en el seu cas de Mallorca al tombant del segle XVII, mitjançant l’anàlisi rigorós de les visites pastorals del bisbe Joan Vic i Manrique conservades a l’arxiu diocesà de Mallorca. Bartomeu Martínez Oliver centra l’interés en la personalitat d’un prelat extraordinari que governà la diòcesi de mallorquina durant més de trenta anys. A més de l’enèrgica aplicació dels principis reformadors del Concili de Trento (1545-1563), aquest bisbe valencià (que gaudia d’una conspícua cultura, no debades era nét de Jeroni Vich i Vallterra, ambaixador de Ferran el Catòlic a Roma i important col•leccionista de pintura renaixentista) va ser l’introductor de noves devocions a l’illa, per exemple la Immaculada Concepció, i va afavorir els intercanvis artístics entre Mallorca i València. Finalment, dins la novetat del tema a Mallorca, cal dir que la investigació de Bartomeu Martínez connecta amb les investigacions sobre el pontificat immediatament anterior del bisbe Diego de Arnedo (1562-1572) i també, amb els treballs que s’han fet en altres diòcesis de l’Estat espanyol, i específicament a Catalunya. En aquest sentit, aquell treball de recerca ampliarà el coneixement real de l’aplicació conciliar que ha suscitat molts de tòpics dins la historiografia
Resumo:
A les Valls d’Àneu la producció ramadera de boví ecològic és molt important, ja que, actualment, el 22% de les explotacions són ecològiques i es preveu que aquest percentatge augmenti fins al 50% en els propers dos anys. Malgrat això, la motivació principal per a convertir les explotacions convencionals en ecològiques és el factor econòmic, no la consciència ambiental. En l’anàlisi del cicle productiu carni del boví ecològic procedent de les Valls d’Àneu s’ha observat que no hi ha diferències substancials entre la producció ecològica i la convencional. Tot i així, el producte carni de boví ecològic no té gran sortida al mercat, ja que aquest és incipient i, a més, el preu del producte ecològic és molt més elevat que el del convencional. Un aspecte crític de la producció ramadera ecològica és que la seva normativa no considera els impactes ambientals que genera, com són els derivats del transport, la generació de residus d’envasos, etc. En aquest estudi es presenta una aproximació quantitativa dels impactes generats en el cicle productiu carni de boví ecològic de les Valls d’Àneu.
Resumo:
Estudiant el sistema de certificacions, concretament el PEFC (Programme for the Endorsement of Forest Certification) i el FSC (Forest Stewardship Council), s’ha analitzat la forest CUP 141 (catalogada d'utilitat pública) Sarredo-Manyero per a identificar-ne les mancances documentals en el Projecte d’Ordenació del PNAP (Parc Natural de l’Alt Pirineu). Dels resultats se’n desprèn un major grau de sostenibilitat del sistema FSC enfront del PEFC, fet que ha estat decisiu en l’elecció del primer com a certificació a estudiar al parc. Per altra banda, s’han constatat les discrepàncies existents quant a política forestal entre propietaris de les forests i l’administració del parc. Aquest fet té una incidència negativa si es vol revitalitzar el sector de la fusta a la zona. Finalment, i un cop avaluada la documentació de la CUP 141 amb els estàndards del sistema FSC, s’ha detectat que caldria completar aproximadament el 40% de la documentació necessària per a obtenir la certificació. Per tant, s’ha dissenyat un Protocol que serveixi de guia per a un nou Projecte d’Ordenació i que permeti obtenir la certificació de les forests del parc.
Resumo:
Amb l'evolució de la tecnologia les capacitats de còmput es van incrementant i problemes irresolubles del passat deixen de ser-ho amb els recursos actuals. La majoria d'aplicacions que s'enfronten a aquests problemes són complexes, ja que per aconseguir taxes elevades de rendiment es fa necessari utilitzar el major nombre de recursos possibles, i això les dota d'una arquitectura inherentment distribuïda. Seguint la tendència de la comunitat investigadora, en aquest treball de recerca es proposa una arquitectura per a entorns grids basada en la virtualització de recursos que possibilita la gestió eficient d'aquests recursos. L'experimentació duta a terme ha permès comprovar la viabilitat d'aquesta arquitectura i la millora en la gestió que la utilització de màquines virtuals proporciona.
Resumo:
As computer chips implementation technologies evolve to obtain more performance, those computer chips are using smaller components, with bigger density of transistors and working with lower power voltages. All these factors turn the computer chips less robust and increase the probability of a transient fault. Transient faults may occur once and never more happen the same way in a computer system lifetime. There are distinct consequences when a transient fault occurs: the operating system might abort the execution if the change produced by the fault is detected by bad behavior of the application, but the biggest risk is that the fault produces an undetected data corruption that modifies the application final result without warnings (for example a bit flip in some crucial data). With the objective of researching transient faults in computer system’s processor registers and memory we have developed an extension of HP’s and AMD joint full system simulation environment, named COTSon. This extension allows the injection of faults that change a single bit in processor registers and memory of the simulated computer. The developed fault injection system makes it possible to: evaluate the effects of single bit flip transient faults in an application, analyze an application robustness against single bit flip transient faults and validate fault detection mechanism and strategies.
Resumo:
High Performance Computing is a rapidly evolving area of computer science which attends to solve complicated computational problems with the combination of computational nodes connected through high speed networks. This work concentrates on the networks problems that appear in such networks and specially focuses on the Deadlock problem that can decrease the efficiency of the communication or even destroy the balance and paralyze the network. Goal of this work is the Deadlock avoidance with the use of virtual channels, in the switches of the network where the problem appears. The deadlock avoidance assures that will not be loss of data inside network, having as result the increased latency of the served packets, due to the extra calculation that the switches have to make to apply the policy.
Resumo:
Este trabajo analiza el rendimiento de cuatro nodos de cómputo multiprocesador de memoria compartida para resolver el problema N-body. Se paraleliza el algoritmo serie, y se codifica usando el lenguaje C extendido con OpenMP. El resultado son dos variantes que obedecen a dos criterios de optimización diferentes: minimizar los requisitos de memoria y minimizar el volumen de cómputo. Posteriormente, se realiza un proceso de análisis de las prestaciones del programa sobre los nodos de cómputo. Se modela el rendimiento de las variantes secuenciales y paralelas de la aplicación, y de los nodos de cómputo; se instrumentan y ejecutan los programas para obtener resultados en forma de varias métricas; finalmente se muestran e interpretan los resultados, proporcionando claves que explican ineficiencias y cuellos de botella en el rendimiento y posibles líneas de mejora. La experiencia de este estudio concreto ha permitido esbozar una incipiente metodología de análisis de rendimiento, identificación de problemas y sintonización de algoritmos a nodos de cómputo multiprocesador de memoria compartida.
Resumo:
Performance analysis is the task of monitor the behavior of a program execution. The main goal is to find out the possible adjustments that might be done in order improve the performance. To be able to get that improvement it is necessary to find the different causes of overhead. Nowadays we are already in the multicore era, but there is a gap between the level of development of the two main divisions of multicore technology (hardware and software). When we talk about multicore we are also speaking of shared memory systems, on this master thesis we talk about the issues involved on the performance analysis and tuning of applications running specifically in a shared Memory system. We move one step ahead to take the performance analysis to another level by analyzing the applications structure and patterns. We also present some tools specifically addressed to the performance analysis of OpenMP multithread application. At the end we present the results of some experiments performed with a set of OpenMP scientific application.
Resumo:
Las aplicaciones de alineamiento múltiple de secuencias son prototipos de aplicaciones que requieren elevada potencia de cómputo y memoria. Se destacan por la relevancia científica que tienen los resultados que brindan a investigaciones científicas en el campo de la biomedicina, genética y farmacología. Las aplicaciones de alineamiento múltiple tienen la limitante de que no son capaces de procesar miles de secuencias, por lo que se hace necesario crear un modelo para resolver la problemática. Analizando el volumen de datos que se manipulan en el área de las ciencias biológica y la complejidad de los algoritmos de alineamiento de secuencias, la única vía de solución del problema es a través de la utilización de entornos de cómputo paralelos y la computación de altas prestaciones. La investigación realizada por nosotros tiene como objetivo la creación de un modelo paralelo que le permita a los algoritmos de alineamiento múltiple aumentar el número de secuencias a procesar, tratando de mantener la calidad en los resultados para garantizar la precisión científica. El modelo que proponemos emplea como base la clusterización de las secuencias de entrada utilizando criterios biológicos que permiten mantener la calidad de los resultados. Además, el modelo se enfoca en la disminución del tiempo de cómputo y consumo de memoria. Para presentar y validar el modelo utilizamos T-Coffee, como plataforma de desarrollo e investigación. El modelo propuesto pudiera ser aplicado a cualquier otro algoritmo de alineamiento múltiple de secuencias.
Resumo:
Gaps es un generador de aplicaciones sintéticas de estructura compuesta Master/Worker de pipelines. Para crear una aplicación sintética, el investigador utilizará Gaspar, que recibe un fichero de texto con los parámetros de la aplicación a generar: cantidad de workers, etapas, tamaño de mensaje a enviar, etc., y genera un fichero con las propiedades de cada etapa. A partir de estos datos, Gaps, que esta hecho en C con MPI, genera y ejecuta la aplicación paralela. Estas aplicaciones se utilizan para comprobar en un entorno real los estudios analíticos que constituyen el modelo de rendimiento y sintonización dinámica.
Resumo:
En termes de temps d'execució i ús de dades, les aplicacions paral·leles/distribuïdes poden tenir execucions variables, fins i tot quan s'empra el mateix conjunt de dades d'entrada. Existeixen certs aspectes de rendiment relacionats amb l'entorn que poden afectar dinàmicament el comportament de l'aplicació, tals com: la capacitat de la memòria, latència de la xarxa, el nombre de nodes, l'heterogeneïtat dels nodes, entre d'altres. És important considerar que l'aplicació pot executar-se en diferents configuracions de maquinari i el desenvolupador d'aplicacions no port garantir que els ajustaments de rendiment per a un sistema en particular continuïn essent vàlids per a d'altres configuracions. L'anàlisi dinàmica de les aplicacions ha demostrat ser el millor enfocament per a l'anàlisi del rendiment per dues raons principals. En primer lloc, ofereix una solució molt còmoda des del punt de vista dels desenvolupadors mentre que aquests dissenyen i evaluen les seves aplicacions paral·leles. En segon lloc, perquè s'adapta millor a l'aplicació durant l'execució. Aquest enfocament no requereix la intervenció de desenvolupadors o fins i tot l'accés al codi font de l'aplicació. S'analitza l'aplicació en temps real d'execució i es considra i analitza la recerca dels possibles colls d'ampolla i optimitzacions. Per a optimitzar l'execució de l'aplicació bioinformàtica mpiBLAST, vam analitzar el seu comportament per a identificar els paràmetres que intervenen en el rendiment d'ella, com ara: l'ús de la memòria, l'ús de la xarxa, patrons d'E/S, el sistema de fitxers emprat, l'arquitectura del processador, la grandària de la base de dades biològica, la grandària de la seqüència de consulta, la distribució de les seqüències dintre d'elles, el nombre de fragments de la base de dades i/o la granularitat dels treballs assignats a cada procés. El nostre objectiu és determinar quins d'aquests paràmetres tenen major impacte en el rendiment de les aplicacions i com ajustar-los dinàmicament per a millorar el rendiment de l'aplicació. Analitzant el rendiment de l'aplicació mpiBLAST hem trobat un conjunt de dades que identifiquen cert nivell de serial·lització dintre l'execució. Reconeixent l'impacte de la caracterització de les seqüències dintre de les diferents bases de dades i una relació entre la capacitat dels workers i la granularitat de la càrrega de treball actual, aquestes podrien ser sintonitzades dinàmicament. Altres millores també inclouen optimitzacions relacionades amb el sistema de fitxers paral·lel i la possibilitat d'execució en múltiples multinucli. La grandària de gra de treball està influenciat per factors com el tipus de base de dades, la grandària de la base de dades, i la relació entre grandària de la càrrega de treball i la capacitat dels treballadors.
Resumo:
This article proposes a framework for the analysis of attitudes to foreign trade policies that challenges the traditional skill-endowment approach. The traditional approach assumes informed individuals who calculate the costs and benefits of alternative policies. We propose that individuals lack information and that their positions rest on economic vulnerability, as mediated through risk-aversion. We also stress the role of environmental signals and political endorsements in guiding individuals' views on trade policy. We test this alternative approach with a Spanish survey conducted in May 2009 and the ISSP survey conducted in 2003 in a large number of less developed and more developed countries. The Spanish data show that the population is largely uninformed and that their ideas about the consequences of free trade policy do not explain attitudes among different socio-demographic groups. Meanwhile, the ISSP data contradict important aspects of the traditional approach and are consistent with the alternative approach.