810 resultados para Mètodes de simulació
Resumo:
Este proyecto estudia la tecnología Radio Cognitiva. El concepto clave de esta tecnología es que permite a usuarios sin licencia compartir el espectro radioeléctrico de forma oportunista con los usuarios con licencia. Para empezar, se analizarán las características principales, su funcionamiento y como coexisten con los usuarios principales. Más adelante, se explicaran los métodos que se usan para la gestión del espectro radioeléctrico y las actividades de estandarización para la implementación de las redes de radio cognitiva. Por último, se analizara la posibilidad de la implementación de esta tecnología en España, analizando las ventajas e inconvenientes de inicializar un mercado secundario del espectro radioeléctrico.
Resumo:
The computational approach to the Hirshfeld [Theor. Chim. Acta 44, 129 (1977)] atom in a molecule is critically investigated, and several difficulties are highlighted. It is shown that these difficulties are mitigated by an alternative, iterative version, of the Hirshfeld partitioning procedure. The iterative scheme ensures that the Hirshfeld definition represents a mathematically proper information entropy, allows the Hirshfeld approach to be used for charged molecules, eliminates arbitrariness in the choice of the promolecule, and increases the magnitudes of the charges. The resulting "Hirshfeld-I charges" correlate well with electrostatic potential derived atomic charges
A variational approach for calculating Franck-Condon factors including mode-mode anharmonic coupling
Resumo:
We have implemented our new procedure for computing Franck-Condon factors utilizing vibrational configuration interaction based on a vibrational self-consistent field reference. Both Duschinsky rotations and anharmonic three-mode coupling are taken into account. Simulations of the first ionization band of Cl O2 and C4 H4 O (furan) using up to quadruple excitations in treating anharmonicity are reported and analyzed. A developer version of the MIDASCPP code was employed to obtain the required anharmonic vibrational integrals and transition frequencies
Resumo:
Our new simple method for calculating accurate Franck-Condon factors including nondiagonal (i.e., mode-mode) anharmonic coupling is used to simulate the C2H4+X2B 3u←C2H4X̃1 Ag band in the photoelectron spectrum. An improved vibrational basis set truncation algorithm, which permits very efficient computations, is employed. Because the torsional mode is highly anharmonic it is separated from the other modes and treated exactly. All other modes are treated through the second-order perturbation theory. The perturbation-theory corrections are significant and lead to a good agreement with experiment, although the separability assumption for torsion causes the C2 D4 results to be not as good as those for C2 H4. A variational formulation to overcome this circumstance, and deal with large anharmonicities in general, is suggested
Resumo:
Bimodal dispersal probability distributions with characteristic distances differing by several orders of magnitude have been derived and favorably compared to observations by Nathan [Nature (London) 418, 409 (2002)]. For such bimodal kernels, we show that two-dimensional molecular dynamics computer simulations are unable to yield accurate front speeds. Analytically, the usual continuous-space random walks (CSRWs) are applied to two dimensions. We also introduce discrete-space random walks and use them to check the CSRW results (because of the inefficiency of the numerical simulations). The physical results reported are shown to predict front speeds high enough to possibly explain Reid's paradox of rapid tree migration. We also show that, for a time-ordered evolution equation, fronts are always slower in two dimensions than in one dimension and that this difference is important both for unimodal and for bimodal kernels
Resumo:
Report for the scientific sojourn carried out at the l’ Institute for Computational Molecular Science of the Temple University, United States, from 2010 to 2012. Two-component systems (TCS) are used by pathogenic bacteria to sense the environment within a host and activate mechanisms related to virulence and antimicrobial resistance. A prototypical example is the PhoQ/PhoP system, which is the major regulator of virulence in Salmonella. Hence, PhoQ is an attractive target for the design of new antibiotics against foodborne diseases. Inhibition of the PhoQ-mediated bacterial virulence does not result in growth inhibition, presenting less selective pressure for the generation of antibiotic resistance. Moreover, PhoQ is a histidine kinase (HK) and it is absent in animals. Nevertheless, the design of satisfactory HK inhibitors has been proven to be a challenge. To compete with the intracellular ATP concentrations, the affinity of a HK inhibidor must be in the micromolar-nanomolar range, whereas the current lead compounds have at best millimolar affinities. Moreover, the drug selectivity depends on the conformation of a highly variable loop, referred to as the “ATP-lid, which is difficult to study by X-Ray crystallography due to its flexibility. I have investigated the binding of different HK inhibitors to PhoQ. In particular, all-atom molecular dynamics simulations have been combined with enhanced sampling techniques in order to provide structural and dynamic information of the conformation of the ATP-lid. Transient interactions between these drugs and the ATP-lid have been identified and the free energy of the different binding modes has been estimated. The results obtained pinpoint the importance of protein flexibility in the HK-inhibitor binding, and constitute a first step in developing more potent and selective drugs. The computational resources of the hosting institution as well as the experience of the members of the group in drug binding and free energy methods have been crucial to carry out this work.
Resumo:
El present projecte s'ha dut a terme a l'American Museum of Natural History (AMNH, New York) entre el 31 de Desembre de 2010 i el 30 de Desembre de 2012. L'objectiu del projecte era elucidar la història evolutiva de la mà humana: traçar els canvis evolutius en la seva forma i proporcions que van propiciar la seva estructura moderna que permet als humans manipular amb precisió. El treball realitzat ha inclòs recol•lecció de dades i anàlisis, redacció de resultats i formació en mètodes analítics específics. Durant aquest temps, l'autor a completat la seva de base de dades existent en mesures lineals de la mà a hominoides. També s'han agafat dades del peu; d'aquesta forma ara mateix es compta amb una base de dades amb més de 500 individus, amb més de 200 mesures per cada un. També s'han agafat dades en tres imensions utilitzant un làser escàner. S'han après tècniques de morfometria geomètrica 3D directament dels pioners al camp a l'AMNH. Com a resultat d'aquesta feina s'han produït 10 resums (publicats a congressos internacionals) i 9 manuscrits (molts d'ells ja publicats a revistes internacionals) amb resultats de gran rellevància: La mà humana posseeix unes proporcions relativament primitives, que són més similars a les proporciones que tenien els hominoides fòssils del Miocè que no pas a la dels grans antropomorfs actuals. Els darrers tenen unes mans allargades amb un polzes molt curts que reflexen l'ús de la mà com a eina de suspensió sota les branques. En canvi, els hominoides del Miocè tenien unes mans relativament curtes amb un polze llarg que feien servir per estabilitzar el seu pes quan caminaven per sobre de les branques. Una vegada els primers homínids van aparèixer al final del Miocè (fa uns 6 Ma) i van començar a fer servir el bipedisme com a mitjà més comú de locomoció, les seves mans van ser "alliberades" de les seves funcions locomotores. La selecció natural—ara només treballant en la manipulació—va convertir les proporcions ja existents de la mà d'aquests primats en l'òrgan manipulatori que representa la mà humana avui dia.
Resumo:
Estudi realitzat a partir d’una estada al Laboratoire de Recherche en Sciences Végétales - Université Toulouse III, entre 2010 i 2012. Durant l’estada s’han pogut complir els principals objectius del projecte de recerca sobre la regulació de la formació de les parets secundàries en un arbre d’importància econòmica, l’eucaliptus. S’ha caracteritzat dos factors de transcripció, EgMYB1 i 2, comparant el seu patró d’expressió espaciotemporal a nivell cel•lular i estudiant l’efecte fenotípic de la pèrdua de funció d’aquests gens. A més, s’ha construït una llibreria de xilema d’eucaliptus adaptada a la tècnica dels dos híbrids i s’ha descobert alguns del partners proteics d’EgMYB1 i 2, els quals estic actualment validant per mètodes alternatius. Augmentant els objectius inicials de la sol•licitud, he aprofitat la recent publicació del genoma de l’Eucalyptus grandis per identificar i caracteritzar el patró d’expressió de vàries famílies gèniques.
Resumo:
L'objectiu que es persegueix en aquest treball és el d'aprofundir en el món de les tecnologies emprades en la compressió d'imatges. S'introdueixen els conceptes més elementals per així donar un repàs als diferents mètodes tecnològics que s'utilitzen per a la compressió, mirant en detall un dels estàndards més utilitzats en l'actualitat, el JPEG.
Resumo:
La integració dels materials biocompatibles en la nanotecnologia ha permès aquesta àrea tenir aplicacions en els camps de la biologia i la medicina, un fet que ha donat lloc a l'aparició de la nanobiotecnologia. La gran majoria d'aquestes aplicacions es basen en un aspecte fonamental: la interacció que es dóna entre els constituents biològics (normalment proteïnes) i els materials biocompatibles. Els nanotubs de carboni presenten una citotoxicitat inherent, mentre que els de nitrur de bor (BNNTs), isòsters amb els de carboni, són inherentment no-citotòxics i mostren una afinitat natural per les proteïnes. En aquesta memòria es presenten els resultats obtinguts de la interacció de BNNTs amb constituents bàsics biomoleculars (molècules que representen grups funcionals i aminoàcids) en absència de solvent mitjançant tècniques de modelatge i càlculs químic-quàntics amb tractament periòdic realitzats amb el codi CRYSTAL09. En primer lloc, s'ha trobat que els mètodes DFT basats en el GGA donen valors de band gap excessivament baixos (2.7 - 4.6 eV) comparat amb el valor experimental (5.5 eV), mentre que el funcional híbrid B3LYP dóna bons valors de band gap, el més acurat essent un BNNT amb índex (9,0), (5.4 eV). S'ha determinat que la interacció de BNNTs amb molècules pot venir guiat per: i) interaccions datives amb el B; ii) enllaç d'H amb el N; iii) interaccions pi-stacking. Les dues primeres forces d'interacció es veuen afavorides en BNNTs de radi petit, els quals interaccionen molt favorablement amb molècules polars, mentre que les terceres es veuen afavorides en BNNTs de radi gran, els quals interaccionen molt favorablement amb sistemes aromàtics o que continguin dobles enllaços. S'ha estudiat la interacció de BNNTs(6,0) amb molècules que contenen grups funcionals presents en residus aminoàcids i s'ha establert una escala d'afinitats relativa, la qual indica que tenen la major interacció aquelles molècules que estableixen interaccions datives B(nanotub)-N(molècula), seguit d’aquelles molècules que poden establir interaccions de tipus pi-stacking, i acabant amb aquelles molècules que estableixen interaccions datives B(nanotub)-O(molècula). Per últim s'ha estudiat la interacció de BNNTs amb diferents aminoàcids (glicina, lisina, àcid glutàmic i fenilalanina) i s'ha establert una escala d'afinitats relativa, la qual està d'acord amb les tendències observades per les molècules que contenen grups funcionals de residus aminoàcids.
Resumo:
En este proyecto de final de carrera se realiza la gestión del tráfico de AGV y la simulación de su comportamiento al circular por una planta de estudio. Con la simulación se puede ver como varía el comportamiento de la planta al modificar el número de AGV y la velocidad a la que circulan. La planta objeto de estudio es un laboratorio de análisis clínico en el que se ha sustituido el sistema de transporte interno basado en cintas por uno con AGV, con lo que se ha podido comprobar que dicha sustitución es factible.
Resumo:
Earth System Models (ESM) have been successfuly developed over past few years, and are currently beeing used for simulating present day-climate, seasonal to interanual predictions of climate change. The supercomputer performance plays an important role in climate modeling since one of the challenging issues for climate modellers is to efficiently and accurately couple earth System components on present day computers architectures. At the Barcelona Supercomputing Center (BSC), we work with the EC- Earth System Model. The EC- Earth is an ESM, which currently consists of an atmosphere (IFS) and an ocean (NEMO) model that communicate with each other through the OASIS coupler. Additional modules (e.g. for chemistry and vegetation ) are under development. The EC-Earth ESM has been ported successfully over diferent high performance computin platforms (e.g, IBM P6 AIX, CRAY XT-5, Intelbased Linux Clusters, SGI Altix) at diferent sites in Europ (e.g., KNMI, ICHEC, ECMWF). The objective of the first phase of the project was to identify and document the issues related with the portability and performance of EC-Earth on the MareNostrum supercomputer, a System based on IBM PowerPC 970MP processors and run under a Linux Suse Distribution. EC-Earth was successfully ported to MareNostrum, and a compilation incompatibilty was solved by a two step compilation approach using XLF version 10.1 and 12.1 compilers. In addition, the EC-Earth performance was analyzed with respect to escalability and trace analysis with the Paravear software. This analysis showed that EC-Earth with a larger number of IFS CPUs (<128) is not feasible at the moment since some issues exists with the IFS-NEMO balance and MPI Communications.
Resumo:
Descriptors based on Molecular Interaction Fields (MIF) are highly suitable for drug discovery, but their size (thousands of variables) often limits their application in practice. Here we describe a simple and fast computational method that extracts from a MIF a handful of highly informative points (hot spots) which summarize the most relevant information. The method was specifically developed for drug discovery, is fast, and does not require human supervision, being suitable for its application on very large series of compounds. The quality of the results has been tested by running the method on the ligand structure of a large number of ligand-receptor complexes and then comparing the position of the selected hot spots with actual atoms of the receptor. As an additional test, the hot spots obtained with the novel method were used to obtain GRIND-like molecular descriptors which were compared with the original GRIND. In both cases the results show that the novel method is highly suitable for describing ligand-receptor interactions and compares favorably with other state-of-the-art methods.
Resumo:
The information provided by the alignment-independent GRid Independent Descriptors (GRIND) can be condensed by the application of principal component analysis, obtaining a small number of principal properties (GRIND-PP), which is more suitable for describing molecular similarity. The objective of the present study is to optimize diverse parameters involved in the obtention of the GRIND-PP and validate their suitability for applications, requiring a biologically relevant description of the molecular similarity. With this aim, GRIND-PP computed with a collection of diverse settings were used to carry out ligand-based virtual screening (LBVS) on standard conditions. The quality of the results obtained was remarkable and comparable with other LBVS methods, and their detailed statistical analysis allowed to identify the method settings more determinant for the quality of the results and their optimum. Remarkably, some of these optimum settings differ significantly from those used in previously published applications, revealing their unexplored potential. Their applicability in large compound database was also explored by comparing the equivalence of the results obtained using either computed or projected principal properties. In general, the results of the study confirm the suitability of the GRIND-PP for practical applications and provide useful hints about how they should be computed for obtaining optimum results.
Resumo:
The vast majority of the biology of a newly sequenced genome is inferred from the set of encoded proteins. Predicting this set is therefore invariably the first step after the completion of the genome DNA sequence. Here we review the main computational pipelines used to generate the human reference protein-coding gene sets.