222 resultados para Algorismes computacionals
Resumo:
Elmercat de jocs i de pel•lícules d'entreteniment demana constantment entornsmés realistes i efectes que sorprenguin a l'espectador.Els gràfics 3D interactius (per exemple, dels jocs) han vist una evoluciósorprenent en les dues últimes dècades. Hem passat de representacions moltesquemàtiques i simplificades dels entorns, a una qualitat visual que aviatserà indistingible de la realitat. El projecte tracta de desenvolupar un motor 3D des de zero. Es podria haver utilitzatun motor 3D ja disponible com a base, com per exemple el popular Unity,però s’ha decidit crear-lo ja que això dóna l’ oportunitat de conèixer com funcionen els motoscomercials i provar noves idees. En resum, és un treball difícil, però moltenriquidor, la qual cosa comporta una gran motivacio.S’han utilitzat noves tecnologies. No només s’ha volgut desenvoluparun motor 3D des de zero, si no que s’han volgut provar noves llibreries gràfiques i nous formats de dades 3d. El mercat té força oferta de les duess, per la qualcosa s’ha aprofitat l’ oportunitat per aprendre duess tecnologies noves.El procés de desenvolupar un projecte utilitzant tecnologies desconegudes permetrà aprendre els seus punts forts i febles, podent fer-neuna anàlisi crítica, que d'altra manera no es tindria.Finalment, s’ha implementat i comparat quatre algorismes de shading.La selecció dels quatre algorismes ha estat en base a les diferentsnecessitats que intenten cobrir. El primer, el Forward Shading, és l'algorismeclàssic, utilitzat des de fa dècades, però que teòricament escala malament respecte a la quantitat de llums. El segon, el Deferred Shading, teòricament,escala molt bé amb moltes llums, però té un cost base elevat, i un consum altde memòria. El tercer, el Deferred Lighting, és una variació de l'anterior queintenta reduir el cost base i l'úss de memòria. L'últim, el Inferred Lighting,intenta explotar la baixa freqüència de la il•luminació dels entorns 3D, persuportar una gran quantitat de llums amb un molt bon rendiment.Un cop implementats aquests quatre algorismes, s’han pogut compararrespecte el seu ús de la GPU, i el seu comportament en diferents tipusd'escenes, per tal de tenir una visió global de quin algorisme és adequat encada situació
Resumo:
Resumen de la revista en catalán. Este artículo forma parte del monográfico 'Construir coneixements matemàtics'
Resumo:
Monográfico con el título: 'Enterrem els algoritmes aritmètics!. Resumen basado en el de la publicación'
Resumo:
Monográfico con el título: 'Enterrem els algoritmes aritmètics!'. Resumen basado en el de la publicación
Resumo:
Resumen basado en el de la publicación
Resumo:
Resumen basado en el de la publicaci??n
Resumo:
La present Tesi Doctoral, titulada desenvolupament computacional de la semblança molecular quàntica, tracta, fonamentalment, els aspectes de càlcul de mesures de semblança basades en la comparació de funcions de densitat electrònica.El primer capítol, Semblança quàntica, és introductori. S'hi descriuen les funcions de densitat de probabilitat electrònica i llur significança en el marc de la mecànica quàntica. Se n'expliciten els aspectes essencials i les condicions matemàtiques a satisfer, cara a una millor comprensió dels models de densitat electrònica que es proposen. Hom presenta les densitats electròniques, mencionant els teoremes de Hohenberg i Kohn i esquematitzant la teoria de Bader, com magnituds fonamentals en la descripció de les molècules i en la comprensió de llurs propietats.En el capítol Models de densitats electròniques moleculars es presenten procediments computacionals originals per l'ajust de funcions densitat a models expandits en termes de gaussianes 1s centrades en els nuclis. Les restriccions físico-matemàtiques associades a les distribucions de probabilitat s'introdueixen de manera rigorosa, en el procediment anomenat Atomic Shell Approximation (ASA). Aquest procediment, implementat en el programa ASAC, parteix d'un espai funcional quasi complert, d'on se seleccionen variacionalment les funcions o capes de l'expansió, d'acord als requisits de no negativitat. La qualitat d'aquestes densitats i de les mesures de semblança derivades es verifica abastament. Aquest model ASA s'estén a representacions dinàmiques, físicament més acurades, en quant que afectades per les vibracions nuclears, cara a una exploració de l'efecte de l'esmorteïment dels pics nuclears en les mesures de semblança molecular. La comparació de les densitats dinàmiques respecte les estàtiques evidencia un reordenament en les densitats dinàmiques, d'acord al que constituiria una manifestació del Principi quàntic de Le Chatelier. El procediment ASA, explícitament consistent amb les condicions de N-representabilitat, s'aplica també a la determinació directe de densitats electròniques hidrogenoides, en un context de teoria del funcional de la densitat.El capítol Maximització global de la funció de semblança presenta algorismes originals per la determinació de la màxima sobreposició de les densitats electròniques moleculars. Les mesures de semblança molecular quàntica s'identifiquen amb el màxim solapament, de manera es mesuri la distància entre les molècules, independentment dels sistemes de referència on es defineixen les densitats electròniques. Partint de la solució global en el límit de densitats infinitament compactades en els nuclis, es proposen tres nivells de aproximació per l'exploració sistemàtica, no estocàstica, de la funció de semblança, possibilitant la identificació eficient del màxim global, així com també dels diferents màxims locals. Es proposa també una parametrització original de les integrals de recobriment a través d'ajustos a funcions lorentzianes, en quant que tècnica d'acceleració computacional. En la pràctica de les relacions estructura-activitat, aquests avenços possibiliten la implementació eficient de mesures de semblança quantitatives, i, paral·lelament, proporcionen una metodologia totalment automàtica d'alineació molecular. El capítol Semblances d'àtoms en molècules descriu un algorisme de comparació dels àtoms de Bader, o regions tridimensionals delimitades per superfícies de flux zero de la funció de densitat electrònica. El caràcter quantitatiu d'aquestes semblances possibilita la mesura rigorosa de la noció química de transferibilitat d'àtoms i grups funcionals. Les superfícies de flux zero i els algorismes d'integració usats han estat publicats recentment i constitueixen l'aproximació més acurada pel càlcul de les propietats atòmiques. Finalment, en el capítol Semblances en estructures cristal·lines hom proposa una definició original de semblança, específica per la comparació dels conceptes de suavitat o softness en la distribució de fonons associats a l'estructura cristal·lina. Aquests conceptes apareixen en estudis de superconductivitat a causa de la influència de les interaccions electró-fonó en les temperatures de transició a l'estat superconductor. En aplicar-se aquesta metodologia a l'anàlisi de sals de BEDT-TTF, s'evidencien correlacions estructurals entre sals superconductores i no superconductores, en consonància amb les hipòtesis apuntades a la literatura sobre la rellevància de determinades interaccions.Conclouen aquesta tesi un apèndix que conté el programa ASAC, implementació de l'algorisme ASA, i un capítol final amb referències bibliogràfiques.
Resumo:
Aquesta presentació resumeix les tècniques computacionals existents que aborden l'estudi dels fenòmens naturals i prososa una aproximació basada en funcions.
Resumo:
The parameterized expectations algorithm (PEA) involves a long simulation and a nonlinear least squares (NLS) fit, both embedded in a loop. Both steps are natural candidates for parallelization. This note shows that parallelization can lead to important speedups for the PEA. I provide example code for a simple model that can serve as a template for parallelization of more interesting models, as well as a download link for an image of a bootable CD that allows creation of a cluster and execution of the example code in minutes, with no need to install any software.
Resumo:
In this paper we explore the effect of bounded rationality on the convergence of individual behavior toward equilibrium. In the context of a Cournot game with a unique and symmetric Nash equilibrium, firms are modeled as adaptive economic agents through a genetic algorithm. Computational experiments show that (1) there is remarkable heterogeneity across identical but boundedly rational agents; (2) such individual heterogeneity is not simply a consequence of the random elements contained in the genetic algorithm; (3) the more rational agents are in terms of memory abilities and pre-play evaluation of strategies, the less heterogeneous they are in their actions. At the limit case of full rationality, the outcome converges to the standard result of uniform individual behavior.
Resumo:
We study the assignment of indivisible objects with quotas (houses, jobs, or offices) to a set of agents (students, job applicants, or professors). Each agent receives at most one object and monetary compensations are not possible. We characterize efficient priority rules by efficiency, strategy-proofness, and renegotiation-proofness. Such a rule respects an acyclical priority structure and the allocations can be determined using the deferred acceptance algorithm.
Resumo:
It is common to find in experimental data persistent oscillations in the aggregate outcomes and high levels of heterogeneity in individual behavior. Furthermore, it is not unusual to find significant deviations from aggregate Nash equilibrium predictions. In this paper, we employ an evolutionary model with boundedly rational agents to explain these findings. We use data from common property resource experiments (Casari and Plott, 2003). Instead of positing individual-specific utility functions, we model decision makers as selfish and identical. Agent interaction is simulated using an individual learning genetic algorithm, where agents have constraints in their working memory, a limited ability to maximize, and experiment with new strategies. We show that the model replicates most of the patterns that can be found in common property resource experiments.
Resumo:
Estudi elaborat a partir d’una estada a l'Imperial College of London, Gran Bretanya, entre setembre i desembre 2006. Disposar d'una geometria bona i ben definida és essencial per a poder resoldre eficientment molts dels models computacionals i poder obtenir uns resultats comparables a la realitat del problema. La reconstrucció d'imatges mèdiques permet transformar les imatges obtingudes amb tècniques de captació a geometries en formats de dades numèriques . En aquest text s'explica de forma qualitativa les diverses etapes que formen el procés de reconstrucció d'imatges mèdiques fins a finalment obtenir una malla triangular per a poder‐la processar en els algoritmes de càlcul. Aquest procés s'inicia a l'escàner MRI de The Royal Brompton Hospital de Londres del que s'obtenen imatges per a després poder‐les processar amb les eines CONGEN10 i SURFGEN per a un entorn MATLAB. Aquestes eines les han desenvolupat investigadors del Bioflow group del departament d'enginyeria aeronàutica del Imperial College of London i en l'ultim apartat del text es comenta un exemple d'una artèria que entra com a imatge mèdica i surt com a malla triangular processable amb qualsevol programari o algoritme que treballi amb malles.
Resumo:
Es proposa mètodes per a millorar la qualitat de predicció d'Incendis forestals per mitjà de combinació d'estratègies basades en guia de dades. Els simuladors de foc són implementacions de models físics i matemàtics que són abstraccions de la realitat i per a funcionar necessiten paràmetres difícils de mesurar i/o amb un comportament dinàmic en el temps. Utilitzant Còmput d'Altes Prestacions apliquem algorismes evolutius reduint l'espai de cerca dels valors que posteriorment s'integren en un conjunt de possibilitats. Els resultats presenten adaptació al canvi de condicions de l'incendi que serveix de base per a generar una aplicación de temps real.