1000 resultados para Mètodes de simulació
Resumo:
A graphical processing unit (GPU) is a hardware device normally used to manipulate computer memory for the display of images. GPU computing is the practice of using a GPU device for scientific or general purpose computations that are not necessarily related to the display of images. Many problems in econometrics have a structure that allows for successful use of GPU computing. We explore two examples. The first is simple: repeated evaluation of a likelihood function at different parameter values. The second is a more complicated estimator that involves simulation and nonparametric fitting. We find speedups from 1.5 up to 55.4 times, compared to computations done on a single CPU core. These speedups can be obtained with very little expense, energy consumption, and time dedicated to system maintenance, compared to equivalent performance solutions using CPUs. Code for the examples is provided.
Resumo:
Our essay aims at studying suitable statistical methods for the clustering ofcompositional data in situations where observations are constituted by trajectories ofcompositional data, that is, by sequences of composition measurements along a domain.Observed trajectories are known as “functional data” and several methods have beenproposed for their analysis.In particular, methods for clustering functional data, known as Functional ClusterAnalysis (FCA), have been applied by practitioners and scientists in many fields. To ourknowledge, FCA techniques have not been extended to cope with the problem ofclustering compositional data trajectories. In order to extend FCA techniques to theanalysis of compositional data, FCA clustering techniques have to be adapted by using asuitable compositional algebra.The present work centres on the following question: given a sample of compositionaldata trajectories, how can we formulate a segmentation procedure giving homogeneousclasses? To address this problem we follow the steps described below.First of all we adapt the well-known spline smoothing techniques in order to cope withthe smoothing of compositional data trajectories. In fact, an observed curve can bethought of as the sum of a smooth part plus some noise due to measurement errors.Spline smoothing techniques are used to isolate the smooth part of the trajectory:clustering algorithms are then applied to these smooth curves.The second step consists in building suitable metrics for measuring the dissimilaritybetween trajectories: we propose a metric that accounts for difference in both shape andlevel, and a metric accounting for differences in shape only.A simulation study is performed in order to evaluate the proposed methodologies, usingboth hierarchical and partitional clustering algorithm. The quality of the obtained resultsis assessed by means of several indices
Resumo:
Aquest paper es divideix en 3 parts fonamentals, la primera relata el que pretén mostrar aquest estudi, que és aplicar els sistemes actuals de reconeixement facial en una base de dades d'obres d'art. Explica quins mètodes s'utilitzaran i perquè es interessant realitzar aquest estudi. La segona passa a mostrar el detall de les dades obtingudes en l'experiment, amb imatges i gràfics que facilitaran la comprensió. I en l'última part tenim la discussió dels resultats obtinguts en l'anàlisi i les seves posteriors conclusions.
Resumo:
Aquest projecte conté l'estudi de la comunicació entre quatre Centres de Processament de Dades (CPD) per via WAN. L'estudi consisteix en simular aquestes comunicacions en un entorn de proves físic i també en entorn de proves virtual on s'han extret resultats dels protocols de seguretat, d'enrutament, a més dels temps de resposta i limitacions dels equips físics i virtuals.
Resumo:
Globalization involves several facility location problems that need to be handled at large scale. Location Allocation (LA) is a combinatorial problem in which the distance among points in the data space matter. Precisely, taking advantage of the distance property of the domain we exploit the capability of clustering techniques to partition the data space in order to convert an initial large LA problem into several simpler LA problems. Particularly, our motivation problem involves a huge geographical area that can be partitioned under overall conditions. We present different types of clustering techniques and then we perform a cluster analysis over our dataset in order to partition it. After that, we solve the LA problem applying simulated annealing algorithm to the clustered and non-clustered data in order to work out how profitable is the clustering and which of the presented methods is the most suitable
Resumo:
L’inventari forestal és una eina molt important per obtenir la informació necessària, sobre una massa arbrada, respecte a la seva situació actual i la seva possible evolució en el temps, a fi i efecte de poder prendre les decisions necessàries sobre la seva planificació i gestió. Amb aquest treball s’ha volgut avaluar la possible millora que es pot obtenir aplicant les noves tecnologies en la realització dels inventaris forestals, com la tecnologia LiDAR (Light Detection and Ranging). El mètode tradicional de realitzar un inventari forestal, consisteix en anar a camp i prendre dades d’unes mostres representatives, de les variables dasomètriques que caracteritzen una massa forestal. La tecnologia LiDAR és un sistema de teledetecció que calcula distàncies a partir de, la mesura del temps entre l’emissió d’un làser polsat i el seu retorn desprès de la seva reflexió en tocar terra. El resultat és un núvol de punts a diferents alçades, amb el qual s’aconsegueix un Model Digital del Terreny (MDT) i un Model Digital de Superfície (MDS). De la resta d’aquests dos models s’obté una imatge de l’estructura vertical de la vegetació, a partir de la qual es poden deduir dades bàsiques del bosc amb mesures per tot el territori. L’àrea d’estudi on es va dur a terme el present treball, és una finca del terme municipal de Benifallet, al Baix Ebre, província de Tarragona. L’estudi ha consistit en la comparació dels dos mètodes, tradicional i LiDAR, a l’hora d’obtenir les variables de densitat, alçada i fracció de cabuda coberta (FCC). El mètode tradicional consisteix en mesurar les variables en 24 parcel•les representatives i posteriorment, en extrapolar-les als estrats, que són les unitats en que es divideix la part de la finca on es realitza l’inventari. En el mètode utilitzant la tecnologia LiDAR, s’utilitzen dos tipus de resolucions (8 píxels i 24 píxels) a l’hora de treballar amb les dades
Resumo:
L'objecte del projecte consisteix en investigar les capacitats del programari dedinàmica de fluids computacional FLUENT per simular processos transitoris de combustióquan es cremen sòlids. Com el programari FLUENT no incorpora cap mòdul de combustióde sòlids prims, s'hauran de realitzar les funcions d'usuari adients per tal d'incorporar lesequacions i les condicions de contorns que són rellevants en aquests tipus de problemes. Elmodel resultant es validarà amb dades experimentals per a la combustió de fulls decel•lulosa en flames bidimensionals. També es durà a terme una anàlisi de sensibilitat de lasolució variant els paràmetres del model. En funció dels resultats de la validació es durà aterme una extensió del model per a situacions tridimensionals
Resumo:
El present treball pretén modelitzar i simular el motor d’inducció trifàsic en règim transitori amb PSIM 6.0 Demo(la versió del programa que s’utilitza actualment a l’Escola Politècnica Superior de la UdG), però també s’estudia el model en règim permanent, per tal de comparar a nivell teòric els resultats dels dos règims. Primer cal entendre i implementar el model del motor d’inducció, i així obtenir l'esquema equivalent en règim transitori, per després poder-lo simular. Abans de dur a terme la simulació, cal obtenir els paràmetres del circuit equivalent del motor real per introduir-los al programa informàtic, amb la finalitat de tenir precisió en les respostes. Aquests valors s’obtindran mitjançant assajos necessaris al laboratori. Posteriorment, es fan simulacions i pràctiques reals amb el motor treballen en diferents condicions per veure el seu comportament, i així poder comparar els resultats de la simulació amb els valors reals. També s’implementa un estudi de la influencia dels paràmetres interns en el funcionament del motor. Així es podrà visualitzar i comparar les respostes de diferents variables en cadascunes de les simulacions que es duguin a terme. Finalment, seria interessant la introducció de la màquina d’inducció trifàsica actuant com a generador en la simulació.Aquest és un estudi en el qual se simula la màquina d'inducció trifàsic en règim transitori i en règim permanent mitjançant l'ús del PSIM, que és el programa informàtic de simulació
Resumo:
En aquesta recerca es presenta una biblioteca de programari lliure basada en l'heurística constructiva de Clarke & Wright combinada amb simulació Monte Carlo que permet, de manera simple, generar solucions al problema d'adreçament de vehicles. Aquesta metodologia construeix solucions competents en poc temps i sense necessitat d'ajustar o configurar paràmetres previs. La biblioteca pot integrar-se fàcilment en projectes que resolguin variants del VRP amb canvis mínims sobre el codi. Aquest es troba ben documentat i accessible de manera lliure a través de la xarxa. Els resultats computacionals indiquen que es resolen instàncies VRP en temps i costos significativament inferiors a altres propostes de la mateixa família.
Resumo:
Implantar i configurar un gestor de continguts GPL per tal d'ajudar a la docència virtual d'assignatures de física. D'altra banda, crear diferents aplicacions utilitzant el llenguatge Java3D per tal de fer simulacions de processos físics, els quals es podran integrar a la pàgina web creada amb el gestor de continguts per a què els alumnes de física puguin fer-ne ús.
Resumo:
En els últims anys la criptografia basada en el problema del logaritme discret ha despertat un gran interes. Un dels grups que s'utilitza per plantejar aquest problema és el conjunt de divisors de la varietat jacobiana d'una corba de gènere 2, i, l'operació bàsica és el producte escalar de divisions. En aquest treball estudiem mètodes per calcular aquest producte de forma eficient emprant tècniques de harving de divisors. Comparem també aquest mètode amb el de doblat de divisors, mostrant una comparativa entre ells.
Resumo:
Estudi de diferents mètodes de comunicació amb SAP i detall de la implementació.
Resumo:
La meva incorporació al grup de recerca del Prof. McCammon (University of California San Diego) en qualitat d’investigador post doctoral amb una beca Beatriu de Pinós, va tenir lloc el passat 1 de desembre de 2010; on vaig dur a terme les meves tasques de recerca fins al darrer 1 d’abril de 2012. El Prof. McCammon és un referent mundial en l’aplicació de simulacions de dinàmica molecular (MD) en sistemes biològics d’interès humà. La contribució més important del Prof. McCammon en la simulació de sistemes biològics és el desenvolupament del mètode de dinàmiques moleculars accelerades (AMD). Les simulacions MD convencionals, les quals estan limitades a l’escala de temps del nanosegon (~10-9s), no son adients per l’estudi de sistemes biològics rellevants a escales de temps mes llargues (μs, ms...). AMD permet explorar fenòmens moleculars poc freqüents però que son clau per l’enteniment de molts sistemes biològics; fenòmens que no podrien ser observats d’un altre manera. Durant la meva estada a la “University of California San Diego”, vaig treballar en diferent aplicacions de les simulacions AMD, incloent fotoquímica i disseny de fàrmacs per ordinador. Concretament, primer vaig desenvolupar amb èxit una combinació dels mètodes AMD i simulacions Car-Parrinello per millorar l’exploració de camins de desactivació (interseccions còniques) en reaccions químiques fotoactivades. En segon lloc, vaig aplicar tècniques estadístiques (Replica Exchange) amb AMD en la descripció d’interaccions proteïna-lligand. Finalment, vaig dur a terme un estudi de disseny de fàrmacs per ordinador en la proteïna-G Rho (involucrada en el desenvolupament de càncer humà) combinant anàlisis estructurals i simulacions AMD. Els projectes en els quals he participat han estat publicats (o estan encara en procés de revisió) en diferents revistes científiques, i han estat presentats en diferents congressos internacionals. La memòria inclosa a continuació conté més detalls de cada projecte esmentat.
Resumo:
Un dels reptes tecnològics més importants del segle XXI és el desenvolupament i organització de materials funcionals a escala nanomètrica ja que permet modificar-ne les propietats fonamentals i generar-ne de noves. En el cas dels òxids complexos aquesta tecnologia ha generat grans perspectives en diferents àrees d’estudi perquè presenten propietats molt interessants com la magnetoresistència colossal, superconductivitat o multiferroicitat. En particular, en l’òxid complex superconductor YBa2Cu3O7 (YBCO) s’ha demostrat que la formació de capes superconductores sobre plantilles nanoestructurades o bé la formació de nanocompostos en una matriu superconductora permet millorar de manera espectacular les seves propietats (corrent crític). Aquests resultats introduiran canvis paradigmàtics en la tecnologia de l’energia elèctrica (cables, motors, generadors) i en totes aquelles aplicacions que requereixin camps magnètics intensos. Ara bé, cal aconseguir-ho mitjançant tècniques de baix cost i que permetin un fàcil escalat. Durant els 4 mesos que s’ha disfrutat de l’ajut BP s’han preparat amb èxit noves capes primes superconductores nanoestructurades mitjançant la introducció d’una fase secundària nanomètrica complexa, Ba2YTaO6 (BYTO), dins la matriu d’YBCO pel mètode de baix cost de deposició de solucions químiques. Aquesta nova composició ha donat lloc a un augment significatiu de les propietats superconductores comparat amb la fase tradicional d’YBCO i per tant tenen gran potencial per fabricar futures cintes superconductores.
Resumo:
Las nuevas generaciones de estudiantes se caracterizan en que han crecido inmersas en la tecnología digital, hecho que ha cambiado sus costumbres y preferencias en la forma de estudiar. Así que es necesario ingeniar nuevas técnicas de aprendizaje y buscar un complemento al poco atractivo y desmotivador material físico tradicional. Una de las alternativas que se plantean es utilizar juegos educativos como herramienta de aprendizaje, aportándonos innovación, motivación y un aprendizaje activo que no nos aportan técnicas más tradicionales.Esta metodología basada en el uso de juegos educativos puede afectar positivamente en un campo de educación perjudicado como es el área de las ingenierías del área de Tecnologías de la Información y la Comunicación (TIC), donde cada vez son más los jóvenes que deciden no estudiar carreras técnicas. Ante esta situación, aplicar juegos educativos puede ser una buena solución. Este proyecto consistirá en diseñar e implementar un juego educativo enfocado a aprender sobre algunos conceptos que se tratan en los grados de ingeniería informática, telemática y sistemas audiovisuales de la Universidad Pompeu Fabra (UPF). En concreto, el juego que se ha diseñado e implementado se caracteriza por seguir un modelo conceptual que define qué elementos han de contener un tipo concreto de juegos basados en puzles. Además, aprovechando las ventajas que aportan los estándares educativos, utilizaremos la especificación de IMS Learning Design, como parte de la implementación del juego. Por otro lado, nuestro juego será diseñado para dispositivos móviles y, por consiguiente, consistirá en un juego pervasivo en el que los estudiantes se tendrán que mover por el edificio Tànger de la UPF para poder resolver los diferentes problemas planteados. Finalmente, el juego será evaluado con diferentes estudiantes y serán analizados sus resultados para extraer las conclusiones oportunas.