596 resultados para Galerkin, Mètodes de
Resumo:
Aquest treball analitza la connexió entre Gustav RADBRUCH i Robert ALEXY des de la perspectiva de la doctrina del dret injust del primer d’aquets autors, exposada sintèticament en el que s’ha anomenat “fórmula de RADBRUCH”. Nogensmenys, els dos autors pertanyen a corrents iusfilosofiques certament diferenciables. Per això, aquet treball pretén trobar en el significat profund de la fórmula un canvi cognitiu respecte de lo jurídic que permeti vehicular la relació entre els dos autors. Serveix de suport tant la teoria filosòfica en la que fonamenti el sistema de cadascú dels autors, com les circumstàncies sociopolítiques en las que es ofereix cadascú dels sistemes.
Resumo:
L’objectiu d’aquest projecte és dissenyar un banc que mesuri ventiladors centrífugs d’alta pressió i que a l’hora pugui analitzar ventiladors helicoïdals de petits cabals. D’aquesta manera es modernitzarien els mètodes de mesura que hi ha actualment, i a més es podrien fer mesures amb més regularitat dels ventiladors industrials que fabrica Casals. El banc d’assaig serveix per determinar les prestacions del ventilador, ha de mesurar el cabal, la pressió estàtica, la pressió dinàmica i el consum del ventilador. El projecte inclou el disseny del banc, els plànols, la corresponent documentació, i un manual d’ús i manteniment. El disseny del software està delegat a una empresa externa, i el disseny de quadre elèctric està delegat al departament electrònic de l’empresa
Resumo:
Este proyecto estudia la tecnología Radio Cognitiva. El concepto clave de esta tecnología es que permite a usuarios sin licencia compartir el espectro radioeléctrico de forma oportunista con los usuarios con licencia. Para empezar, se analizarán las características principales, su funcionamiento y como coexisten con los usuarios principales. Más adelante, se explicaran los métodos que se usan para la gestión del espectro radioeléctrico y las actividades de estandarización para la implementación de las redes de radio cognitiva. Por último, se analizara la posibilidad de la implementación de esta tecnología en España, analizando las ventajas e inconvenientes de inicializar un mercado secundario del espectro radioeléctrico.
Resumo:
The computational approach to the Hirshfeld [Theor. Chim. Acta 44, 129 (1977)] atom in a molecule is critically investigated, and several difficulties are highlighted. It is shown that these difficulties are mitigated by an alternative, iterative version, of the Hirshfeld partitioning procedure. The iterative scheme ensures that the Hirshfeld definition represents a mathematically proper information entropy, allows the Hirshfeld approach to be used for charged molecules, eliminates arbitrariness in the choice of the promolecule, and increases the magnitudes of the charges. The resulting "Hirshfeld-I charges" correlate well with electrostatic potential derived atomic charges
Resumo:
La meva incorporació al grup de recerca del Prof. McCammon (University of California San Diego) en qualitat d’investigador post doctoral amb una beca Beatriu de Pinós, va tenir lloc el passat 1 de desembre de 2010; on vaig dur a terme les meves tasques de recerca fins al darrer 1 d’abril de 2012. El Prof. McCammon és un referent mundial en l’aplicació de simulacions de dinàmica molecular (MD) en sistemes biològics d’interès humà. La contribució més important del Prof. McCammon en la simulació de sistemes biològics és el desenvolupament del mètode de dinàmiques moleculars accelerades (AMD). Les simulacions MD convencionals, les quals estan limitades a l’escala de temps del nanosegon (~10-9s), no son adients per l’estudi de sistemes biològics rellevants a escales de temps mes llargues (μs, ms...). AMD permet explorar fenòmens moleculars poc freqüents però que son clau per l’enteniment de molts sistemes biològics; fenòmens que no podrien ser observats d’un altre manera. Durant la meva estada a la “University of California San Diego”, vaig treballar en diferent aplicacions de les simulacions AMD, incloent fotoquímica i disseny de fàrmacs per ordinador. Concretament, primer vaig desenvolupar amb èxit una combinació dels mètodes AMD i simulacions Car-Parrinello per millorar l’exploració de camins de desactivació (interseccions còniques) en reaccions químiques fotoactivades. En segon lloc, vaig aplicar tècniques estadístiques (Replica Exchange) amb AMD en la descripció d’interaccions proteïna-lligand. Finalment, vaig dur a terme un estudi de disseny de fàrmacs per ordinador en la proteïna-G Rho (involucrada en el desenvolupament de càncer humà) combinant anàlisis estructurals i simulacions AMD. Els projectes en els quals he participat han estat publicats (o estan encara en procés de revisió) en diferents revistes científiques, i han estat presentats en diferents congressos internacionals. La memòria inclosa a continuació conté més detalls de cada projecte esmentat.
Resumo:
Report for the scientific sojourn carried out at the l’ Institute for Computational Molecular Science of the Temple University, United States, from 2010 to 2012. Two-component systems (TCS) are used by pathogenic bacteria to sense the environment within a host and activate mechanisms related to virulence and antimicrobial resistance. A prototypical example is the PhoQ/PhoP system, which is the major regulator of virulence in Salmonella. Hence, PhoQ is an attractive target for the design of new antibiotics against foodborne diseases. Inhibition of the PhoQ-mediated bacterial virulence does not result in growth inhibition, presenting less selective pressure for the generation of antibiotic resistance. Moreover, PhoQ is a histidine kinase (HK) and it is absent in animals. Nevertheless, the design of satisfactory HK inhibitors has been proven to be a challenge. To compete with the intracellular ATP concentrations, the affinity of a HK inhibidor must be in the micromolar-nanomolar range, whereas the current lead compounds have at best millimolar affinities. Moreover, the drug selectivity depends on the conformation of a highly variable loop, referred to as the “ATP-lid, which is difficult to study by X-Ray crystallography due to its flexibility. I have investigated the binding of different HK inhibitors to PhoQ. In particular, all-atom molecular dynamics simulations have been combined with enhanced sampling techniques in order to provide structural and dynamic information of the conformation of the ATP-lid. Transient interactions between these drugs and the ATP-lid have been identified and the free energy of the different binding modes has been estimated. The results obtained pinpoint the importance of protein flexibility in the HK-inhibitor binding, and constitute a first step in developing more potent and selective drugs. The computational resources of the hosting institution as well as the experience of the members of the group in drug binding and free energy methods have been crucial to carry out this work.
Resumo:
El present projecte s'ha dut a terme a l'American Museum of Natural History (AMNH, New York) entre el 31 de Desembre de 2010 i el 30 de Desembre de 2012. L'objectiu del projecte era elucidar la història evolutiva de la mà humana: traçar els canvis evolutius en la seva forma i proporcions que van propiciar la seva estructura moderna que permet als humans manipular amb precisió. El treball realitzat ha inclòs recol•lecció de dades i anàlisis, redacció de resultats i formació en mètodes analítics específics. Durant aquest temps, l'autor a completat la seva de base de dades existent en mesures lineals de la mà a hominoides. També s'han agafat dades del peu; d'aquesta forma ara mateix es compta amb una base de dades amb més de 500 individus, amb més de 200 mesures per cada un. També s'han agafat dades en tres imensions utilitzant un làser escàner. S'han après tècniques de morfometria geomètrica 3D directament dels pioners al camp a l'AMNH. Com a resultat d'aquesta feina s'han produït 10 resums (publicats a congressos internacionals) i 9 manuscrits (molts d'ells ja publicats a revistes internacionals) amb resultats de gran rellevància: La mà humana posseeix unes proporcions relativament primitives, que són més similars a les proporciones que tenien els hominoides fòssils del Miocè que no pas a la dels grans antropomorfs actuals. Els darrers tenen unes mans allargades amb un polzes molt curts que reflexen l'ús de la mà com a eina de suspensió sota les branques. En canvi, els hominoides del Miocè tenien unes mans relativament curtes amb un polze llarg que feien servir per estabilitzar el seu pes quan caminaven per sobre de les branques. Una vegada els primers homínids van aparèixer al final del Miocè (fa uns 6 Ma) i van començar a fer servir el bipedisme com a mitjà més comú de locomoció, les seves mans van ser "alliberades" de les seves funcions locomotores. La selecció natural—ara només treballant en la manipulació—va convertir les proporcions ja existents de la mà d'aquests primats en l'òrgan manipulatori que representa la mà humana avui dia.
Resumo:
Estudi realitzat a partir d’una estada al Laboratoire de Recherche en Sciences Végétales - Université Toulouse III, entre 2010 i 2012. Durant l’estada s’han pogut complir els principals objectius del projecte de recerca sobre la regulació de la formació de les parets secundàries en un arbre d’importància econòmica, l’eucaliptus. S’ha caracteritzat dos factors de transcripció, EgMYB1 i 2, comparant el seu patró d’expressió espaciotemporal a nivell cel•lular i estudiant l’efecte fenotípic de la pèrdua de funció d’aquests gens. A més, s’ha construït una llibreria de xilema d’eucaliptus adaptada a la tècnica dels dos híbrids i s’ha descobert alguns del partners proteics d’EgMYB1 i 2, els quals estic actualment validant per mètodes alternatius. Augmentant els objectius inicials de la sol•licitud, he aprofitat la recent publicació del genoma de l’Eucalyptus grandis per identificar i caracteritzar el patró d’expressió de vàries famílies gèniques.
Resumo:
L'objectiu que es persegueix en aquest treball és el d'aprofundir en el món de les tecnologies emprades en la compressió d'imatges. S'introdueixen els conceptes més elementals per així donar un repàs als diferents mètodes tecnològics que s'utilitzen per a la compressió, mirant en detall un dels estàndards més utilitzats en l'actualitat, el JPEG.
Resumo:
La integració dels materials biocompatibles en la nanotecnologia ha permès aquesta àrea tenir aplicacions en els camps de la biologia i la medicina, un fet que ha donat lloc a l'aparició de la nanobiotecnologia. La gran majoria d'aquestes aplicacions es basen en un aspecte fonamental: la interacció que es dóna entre els constituents biològics (normalment proteïnes) i els materials biocompatibles. Els nanotubs de carboni presenten una citotoxicitat inherent, mentre que els de nitrur de bor (BNNTs), isòsters amb els de carboni, són inherentment no-citotòxics i mostren una afinitat natural per les proteïnes. En aquesta memòria es presenten els resultats obtinguts de la interacció de BNNTs amb constituents bàsics biomoleculars (molècules que representen grups funcionals i aminoàcids) en absència de solvent mitjançant tècniques de modelatge i càlculs químic-quàntics amb tractament periòdic realitzats amb el codi CRYSTAL09. En primer lloc, s'ha trobat que els mètodes DFT basats en el GGA donen valors de band gap excessivament baixos (2.7 - 4.6 eV) comparat amb el valor experimental (5.5 eV), mentre que el funcional híbrid B3LYP dóna bons valors de band gap, el més acurat essent un BNNT amb índex (9,0), (5.4 eV). S'ha determinat que la interacció de BNNTs amb molècules pot venir guiat per: i) interaccions datives amb el B; ii) enllaç d'H amb el N; iii) interaccions pi-stacking. Les dues primeres forces d'interacció es veuen afavorides en BNNTs de radi petit, els quals interaccionen molt favorablement amb molècules polars, mentre que les terceres es veuen afavorides en BNNTs de radi gran, els quals interaccionen molt favorablement amb sistemes aromàtics o que continguin dobles enllaços. S'ha estudiat la interacció de BNNTs(6,0) amb molècules que contenen grups funcionals presents en residus aminoàcids i s'ha establert una escala d'afinitats relativa, la qual indica que tenen la major interacció aquelles molècules que estableixen interaccions datives B(nanotub)-N(molècula), seguit d’aquelles molècules que poden establir interaccions de tipus pi-stacking, i acabant amb aquelles molècules que estableixen interaccions datives B(nanotub)-O(molècula). Per últim s'ha estudiat la interacció de BNNTs amb diferents aminoàcids (glicina, lisina, àcid glutàmic i fenilalanina) i s'ha establert una escala d'afinitats relativa, la qual està d'acord amb les tendències observades per les molècules que contenen grups funcionals de residus aminoàcids.
Resumo:
The vast majority of the biology of a newly sequenced genome is inferred from the set of encoded proteins. Predicting this set is therefore invariably the first step after the completion of the genome DNA sequence. Here we review the main computational pipelines used to generate the human reference protein-coding gene sets.
Resumo:
The recent availability of the chicken genome sequence poses the question of whether there are human protein-coding genes conserved in chicken that are currently not included in the human gene catalog. Here, we show, using comparative gene finding followed by experimental verification of exon pairs by RT–PCR, that the addition to the multi-exonic subset of this catalog could be as little as 0.2%, suggesting that we may be closing in on the human gene set. Our protocol, however, has two shortcomings: (i) the bioinformatic screening of the predicted genes, applied to filter out false positives, cannot handle intronless genes; and (ii) the experimental verification could fail to identify expression at a specific developmental time. This highlights the importance of developing methods that could provide a reliable estimate of the number of these two types of genes.
Resumo:
Background: Despite the continuous production of genome sequence for a number of organisms,reliable, comprehensive, and cost effective gene prediction remains problematic. This is particularlytrue for genomes for which there is not a large collection of known gene sequences, such as therecently published chicken genome. We used the chicken sequence to test comparative andhomology-based gene-finding methods followed by experimental validation as an effective genomeannotation method.Results: We performed experimental evaluation by RT-PCR of three different computational genefinders, Ensembl, SGP2 and TWINSCAN, applied to the chicken genome. A Venn diagram wascomputed and each component of it was evaluated. The results showed that de novo comparativemethods can identify up to about 700 chicken genes with no previous evidence of expression, andcan correctly extend about 40% of homology-based predictions at the 5' end.Conclusions: De novo comparative gene prediction followed by experimental verification iseffective at enhancing the annotation of the newly sequenced genomes provided by standardhomology-based methods.
Resumo:
We address the problem of comparing and characterizing the promoter regions of genes with similar expression patterns. This remains a challenging problem in sequence analysis, because often the promoter regions of co-expressed genes do not show discernible sequence conservation. In our approach, thus, we have not directly compared the nucleotide sequence of promoters. Instead, we have obtained predictions of transcription factor binding sites, annotated the predicted sites with the labels of the corresponding binding factors, and aligned the resulting sequences of labels—to which we refer here as transcription factor maps (TF-maps). To obtain the global pairwise alignment of two TF-maps, we have adapted an algorithm initially developed to align restriction enzyme maps. We have optimized the parameters of the algorithm in a small, but well-curated, collection of human–mouse orthologous gene pairs. Results in this dataset, as well as in an independent much larger dataset from the CISRED database, indicate that TF-map alignments are able to uncover conserved regulatory elements, which cannot be detected by the typical sequence alignments.
Resumo:
Aquest working paper és un estudi preliminar que té com a objectiu analitzar acústicament diverses variables fonètiques amb la finalitat forense d'identificació de parlants: les freqüències dels dos primers formants de la vocal [ə] quan s'utilitza com a falca, la duració dels segments [m] tenint en compte el context sil·làbic i, finalment, l'estudi dels pics de freqüències en les fricatives estridents sordes -[s]- utilitzant l'anàlisi LPC. Els resultats revelen diferències estadísticament significatives entre els parlants.