964 resultados para Computational modelling by homology
Resumo:
Miralls deformables més i més grans, amb cada cop més actuadors estan sent utilitzats actualment en aplicacions d'òptica adaptativa. El control dels miralls amb centenars d'actuadors és un tema de gran interès, ja que les tècniques de control clàssiques basades en la seudoinversa de la matriu de control del sistema es tornen massa lentes quan es tracta de matrius de dimensions tan grans. En aquesta tesi doctoral es proposa un mètode per l'acceleració i la paral.lelitzacó dels algoritmes de control d'aquests miralls, a través de l'aplicació d'una tècnica de control basada en la reducció a zero del components més petits de la matriu de control (sparsification), seguida de l'optimització de l'ordenació dels accionadors de comandament atenent d'acord a la forma de la matriu, i finalment de la seva posterior divisió en petits blocs tridiagonals. Aquests blocs són molt més petits i més fàcils de fer servir en els càlculs, el que permet velocitats de càlcul molt superiors per l'eliminació dels components nuls en la matriu de control. A més, aquest enfocament permet la paral.lelització del càlcul, donant una com0onent de velocitat addicional al sistema. Fins i tot sense paral. lelització, s'ha obtingut un augment de gairebé un 40% de la velocitat de convergència dels miralls amb només 37 actuadors, mitjançant la tècnica proposada. Per validar això, s'ha implementat un muntatge experimental nou complet , que inclou un modulador de fase programable per a la generació de turbulència mitjançant pantalles de fase, i s'ha desenvolupat un model complert del bucle de control per investigar el rendiment de l'algorisme proposat. Els resultats, tant en la simulació com experimentalment, mostren l'equivalència total en els valors de desviació després de la compensació dels diferents tipus d'aberracions per als diferents algoritmes utilitzats, encara que el mètode proposat aquí permet una càrrega computacional molt menor. El procediment s'espera que sigui molt exitós quan s'aplica a miralls molt grans.
Resumo:
Our work is concerned with user modelling in open environments. Our proposal then is the line of contributions to the advances on user modelling in open environments thanks so the Agent Technology, in what has been called Smart User Model. Our research contains a holistic study of User Modelling in several research areas related to users. We have developed a conceptualization of User Modelling by means of examples from a broad range of research areas with the aim of improving our understanding of user modelling and its role in the next generation of open and distributed service environments. This report is organized as follow: In chapter 1 we introduce our motivation and objectives. Then in chapters 2, 3, 4 and 5 we provide the state-of-the-art on user modelling. In chapter 2, we give the main definitions of elements described in the report. In chapter 3, we present an historical perspective on user models. In chapter 4 we provide a review of user models from the perspective of different research areas, with special emphasis on the give-and-take relationship between Agent Technology and user modelling. In chapter 5, we describe the main challenges that, from our point of view, need to be tackled by researchers wanting to contribute to advances in user modelling. From the study of the state-of-the-art follows an exploratory work in chapter 6. We define a SUM and a methodology to deal with it. We also present some cases study in order to illustrate the methodology. Finally, we present the thesis proposal to continue the work, together with its corresponding work scheduling and temporalisation
Resumo:
Bioactive small molecules, such as drugs or metabolites, bind to proteins or other macro-molecular targets to modulate their activity, which in turn results in the observed phenotypic effects. For this reason, mapping the targets of bioactive small molecules is a key step toward unraveling the molecular mechanisms underlying their bioactivity and predicting potential side effects or cross-reactivity. Recently, large datasets of protein-small molecule interactions have become available, providing a unique source of information for the development of knowledge-based approaches to computationally identify new targets for uncharacterized molecules or secondary targets for known molecules. Here, we introduce SwissTargetPrediction, a web server to accurately predict the targets of bioactive molecules based on a combination of 2D and 3D similarity measures with known ligands. Predictions can be carried out in five different organisms, and mapping predictions by homology within and between different species is enabled for close paralogs and orthologs. SwissTargetPrediction is accessible free of charge and without login requirement at http://www.swisstargetprediction.ch.
Resumo:
High-molecular-weight (HMW) penicillin-binding proteins (PBPs) are divided into class A and class B PBPs, which are bifunctional transpeptidases/transglycosylases and monofunctional transpeptidases, respectively. We determined the sequences for the HMW PBP genes of Streptococcus gordonii, a gingivo-dental commensal related to Streptococcus pneumoniae. Five HMW PBPs were identified, including three class A (PBPs 1A, 1B, and 2A) and two class B (PBPs 2B and 2X) PBPs, by homology with those of S. pneumoniae and by radiolabeling with [3H]penicillin. Single and double deletions of each of them were achieved by allelic replacement. All could be deleted, except for PBP 2X, which was essential. Morphological alterations occurred after deletion of PBP 1A (lozenge shape), PBP 2A (separation defect and chaining), and PBP 2B (aberrant septation and premature lysis) but not PBP 1B. The muropeptide cross-link patterns remained similar in all strains, indicating that cross-linkage for one missing PBP could be replaced by others. However, PBP 1A mutants presented shorter glycan chains (by 30%) and a relative decrease (25%) in one monomer stem peptide. Growth rate and viability under aeration, hyperosmolarity, and penicillin exposure were affected primarily in PBP 2B-deleted mutants. In contrast, chain-forming PBP 2A-deleted mutants withstood better aeration, probably because they formed clusters that impaired oxygen diffusion. Double deletion could be generated with any PBP combination and resulted in more-altered mutants. Thus, single deletion of four of the five HMW genes had a detectable effect on the bacterial morphology and/or physiology, and only PBP 1B seemed redundant a priori.
Resumo:
Abstract: The ß-oxidation is the universal pathway that allows living organisms to degrade fatty acids. leading to lipid homeostasis and carbon and energy recovery from the fatty acid molecules. This pathway is centred on four core enzymatic activities sufficient to degrade saturated fatty acids. Additional auxiliary enzymes of the ß-oxidation are necessary for the complete degradation of a larger array of molecules encompassing the unsaturated fatty acids. The main pathways of the ßoxidation of fatty acids have been investigated extensively and auxiliary enzymes are well-known in mammals and yeast. The comparison of the established ß-oxidation systems suggests that the activities that are required to proceed to the full degradation of unsaturated fatty acids are present regardless of the organism and rely on common active site templates. The precise identity of the plant enzymes was unknown. By homology searches in the genome of Arabidopsis thaliana, I identified genes. encoding for proteins that could be orthologous to the yeast or animal auxiliary enzymes Δ 3, Δ 2-enoyl-CoA isomerase, Δ 3,5, Δ 2,4 -dienoyl-CoA isomerase, and type 2 enoyl-CoA hydratase. I established that these genes are expressed in Arabidopsis and that their expression can be correlated to the expression of core ß-oxidation genes. Through the observation of chimeric fluorescent protein fusions, I demonstrated that the identified proteins are localized in the peroxisóme, the only organelle where the ß-oxidation occurs in plants. Enzymatic assays were performed with the partially purified enzymes to demonstrate that the identified enzymes can catalyze the same in vitro reactions as their non-plant orthologs. The activities in vivo of the plant enzymes were demonstrated by heterologous complementation of the corresponding yeast Saccharomyces cerevisiae mutants. The complementation was visualized using the artificial polyhydroxyalkanoate (PHA) production in yeast peroxisomes. The recombinant strains, expressing a Pseudomonas aeruginosa PHA synthase modified for a peroxisomal localization, produce this polymer that serves as a trap for the 3-hydroxyacyl-CoA intermediaries of the ßoxidation and that reflects qualitatively and quantitatively the array of molecules that are processed through the ß-oxidation. This complementation demonstrated the implication of the plant Δ 3, Δ 2-enoyl-CoA isomerases and Δ3,5, Δ2,4-dienoyl-CoA isomerase in the degradation of odd chain position unsaturated fatty acids. The presence of a monofunctional type 2 enoyl-CoA hydratase is a novel in eukaryotes. Downregulation of the corresponding gene expression in an Arabidopsis line, modified to produce PHA in the peroxisome, demonstrated thàt this enzyme participates in vivo to the conversion of the intermediate 3R-hydroxyacyl-CoA, generated by the metabolism of fatty acids with a cis (Z)-unsaturated bond on an even-numbered carbon, to the 2Eenoyl-CoA for further degradation through the core ß-oxidation cycle. Résumé: La ß-oxydation est une voie universelle de dégradation des acides gras qui permet aux organismes vivants d'assurer une homéostasie lipidique et de récupérer l'énergie et le carbone contenus dans les acides gras. Le coeur de cette voie est composé de quatre réactions enzymatiques suffisantes à la dégradation des acides gras saturés. La présence des enzymes auxiliaires de la ß-oxydation est nécessaire à la dégradation d'une gamme plus étendue de molécules comprenant les acides gras insaturés. Les voies principales de la ß-oxydation des acides gras ont été étudiées en détail et les enzymes auxiliaires sont déterminées chez les mammifères et la levure. La comparaison entre les systèmes de ß-oxydation connus suggère que les activités requises pour la dégradation complète des acides gras insaturés reposent sur la présence de site actifs similaires. L'identité précise des enzymes auxiliaires chez les plantes était inconnue. En cherchant par homologie dans le génome de la plante modèle Arabidopsis thaliana, j'ai identifié des gènes codant pour des protéines pouvant être orthologues aux enzymes auxiliaires Δ3 Δ2-enoyl-CoA isomérase, Δ 3,5 Δ 2,4-dienoyl-CoA isomérase et enoyl-CoA hydratase de type 2 d'origine fongique ou mammalienne. J'ai établi la corrélation de l'expression de ces gènes dans Arabidopsis avec celle de gènes des enzymes du coeur de la ß-oxydation. En observant des chimères de fusion avec des protéines fluorescentes, j'ai démontré que les protéines identifiées sont localisées dans le péroxysomes, le seul organelle où la ß-oxydation se déroule chez les plantes. Des essais enzymatiques ont été conduits avec ces enzymes partiellement purifiées pour démontrer que les enzymes identifiées sont capables de catalyser in vitro les mêmes réactions que leurs orthologues non végétaux. Les activités des enzymes végétales in vivo ont été .démontrées par complémentation hétérologue des mutants de délétion correspondants de levure Saccharomyces cerevisiae. La visualisation de la complémentation est rendue possible par la synthèse de polyhydroxyalcanoate (PHA) dans les péroxysomes de levure. Les souches recombinantes expriment la PHA synthase de Pseudomonas aeruginosa modifiée pour être localisée dans le péroxysome produisent ce polymère qui sert de piège pour les 3-hydroxyacylCoAs intermédiaires de la ß-oxydation et qui reflète qualitativement et quantitativement la gamme de molécules qui subit la ß-oxydation. Cette complémentation a permis de démontrer que les Δ3, Δ2-enoyl-CoA isomérases, et la Δ3.5, Δ2,4-dienoyl-CoA isomérase végétales sont impliquées dans la dégradation des acides gras insaturés en position impaire. L'enoyl-CoA hydratase de type 2 monofonctionelle est une enzyme nouvelle chez les eucaryotes. La sous-expression du gène correspondant dans une lignée d'Arabidopsis modifiée pour produite du PHA dans le péroxysome a permis de démontrer que cette enzyme participe in vivo à la dégradation des acides gras ayant une double liaison en conformation cis (Z) en position paire.
Resumo:
Combinatorial optimization involves finding an optimal solution in a finite set of options; many everyday life problems are of this kind. However, the number of options grows exponentially with the size of the problem, such that an exhaustive search for the best solution is practically infeasible beyond a certain problem size. When efficient algorithms are not available, a practical approach to obtain an approximate solution to the problem at hand, is to start with an educated guess and gradually refine it until we have a good-enough solution. Roughly speaking, this is how local search heuristics work. These stochastic algorithms navigate the problem search space by iteratively turning the current solution into new candidate solutions, guiding the search towards better solutions. The search performance, therefore, depends on structural aspects of the search space, which in turn depend on the move operator being used to modify solutions. A common way to characterize the search space of a problem is through the study of its fitness landscape, a mathematical object comprising the space of all possible solutions, their value with respect to the optimization objective, and a relationship of neighborhood defined by the move operator. The landscape metaphor is used to explain the search dynamics as a sort of potential function. The concept is indeed similar to that of potential energy surfaces in physical chemistry. Borrowing ideas from that field, we propose to extend to combinatorial landscapes the notion of the inherent network formed by energy minima in energy landscapes. In our case, energy minima are the local optima of the combinatorial problem, and we explore several definitions for the network edges. At first, we perform an exhaustive sampling of local optima basins of attraction, and define weighted transitions between basins by accounting for all the possible ways of crossing the basins frontier via one random move. Then, we reduce the computational burden by only counting the chances of escaping a given basin via random kick moves that start at the local optimum. Finally, we approximate network edges from the search trajectory of simple search heuristics, mining the frequency and inter-arrival time with which the heuristic visits local optima. Through these methodologies, we build a weighted directed graph that provides a synthetic view of the whole landscape, and that we can characterize using the tools of complex networks science. We argue that the network characterization can advance our understanding of the structural and dynamical properties of hard combinatorial landscapes. We apply our approach to prototypical problems such as the Quadratic Assignment Problem, the NK model of rugged landscapes, and the Permutation Flow-shop Scheduling Problem. We show that some network metrics can differentiate problem classes, correlate with problem non-linearity, and predict problem hardness as measured from the performances of trajectory-based local search heuristics.
Resumo:
Differentes études ont montré que la sensibilité au Ca2+ du canal KCa3.1, un canal potassique indépendant du voltage, était conférée par la protéine calmoduline (CaM) liée de façon constitutive au canal. Cette liaison impliquerait la région C-lobe de la CaM et un domaine de $\ikca$ directement relié au segment transmembranaire S6 du canal. La CaM pourrait égalment se lier au canal de façon Ca2+ dépendante via une interaction entre un domaine de KCa3.1 du C-terminal (CaMBD2) et la région N-lobe de la CaM. Une étude fut entreprise afin de déterminer la nature des résidus responsables de la liaison entre le domaine CaMBD2 de KCa3.1 et la région N-lobe de la CaM et leur rôle dans le processus d'ouverture du canal par le Ca2+. Une structure 3D du complexe KCa3.1/CaM a d'abord été générée par modélisation par homologie avec le logiciel MODELLER en utilisant comme référence la structure cristalline du complexe SK2.2/CaM (PDB: 1G4Y). Le modèle ainsi obtenu de KCa3.1 plus CaM prévoit que le segment L361-S372 dans KCa3.1 devrait être responsable de la liaison dépendante du Ca2+ du canal avec la région N-lobe de la CaM via les résidus L361 et Q364 de KCa3.1 et E45, E47 et D50 de la CaM. Pour tester ce modèle, les résidus dans le segment L361-S372 ont été mutés en Cys et l'action du MTSET+ (chargé positivement) et MTSACE (neutre) a été mesurée sur l'activité du canal. Des enregistrements en patch clamp en configuration ``inside-out`` ont montré que la liaison du réactif chargé MTSET+ au le mutant Q364C entraîne une forte augmentation du courant, un effet non observé avec le MTSACE. De plus les mutations E45A et E47A dans la CaM, ont empêché l'augmentation du courant initié par MTSET+ sur le mutant Q364C. Une analyse en canal unitaire a confirmé que la liaison MTSET+ à Q364C cause une augmentation de la probabilité d'ouverture de KCa3.1 par une déstabilisation de l'état fermé du canal. Nous concluons que nos résultats sont compatibles avec la formation de liaisons ioniques entre les complexes chargés positivement Cys-MTSET+ à la position 364 de KCa3.1 et les résidus chargés négativement E45 et E47 dans la CaM. Ces données confirment qu'une stabilisation électrostatique des interactions CaM/KCa3.1 peut conduire à une augmentation de la probabilité d'ouverture du canal en conditions de concentrations saturantes de Ca2+.
Resumo:
Le Problème de Tournées de Véhicules (PTV) est une clé importante pour gérér efficacement des systèmes logistiques, ce qui peut entraîner une amélioration du niveau de satisfaction de la clientèle. Ceci est fait en servant plus de clients dans un temps plus court. En terme général, il implique la planification des tournées d'une flotte de véhicules de capacité donnée basée à un ou plusieurs dépôts. Le but est de livrer ou collecter une certain quantité de marchandises à un ensemble des clients géographiquement dispersés, tout en respectant les contraintes de capacité des véhicules. Le PTV, comme classe de problèmes d'optimisation discrète et de grande complexité, a été étudié par de nombreux au cours des dernières décennies. Étant donné son importance pratique, des chercheurs dans les domaines de l'informatique, de la recherche opérationnelle et du génie industrielle ont mis au point des algorithmes très efficaces, de nature exacte ou heuristique, pour faire face aux différents types du PTV. Toutefois, les approches proposées pour le PTV ont souvent été accusées d'être trop concentrées sur des versions simplistes des problèmes de tournées de véhicules rencontrés dans des applications réelles. Par conséquent, les chercheurs sont récemment tournés vers des variantes du PTV qui auparavant étaient considérées trop difficiles à résoudre. Ces variantes incluent les attributs et les contraintes complexes observés dans les cas réels et fournissent des solutions qui sont exécutables dans la pratique. Ces extensions du PTV s'appellent Problème de Tournées de Véhicules Multi-Attributs (PTVMA). Le but principal de cette thèse est d'étudier les différents aspects pratiques de trois types de problèmes de tournées de véhicules multi-attributs qui seront modélisés dans celle-ci. En plus, puisque pour le PTV, comme pour la plupart des problèmes NP-complets, il est difficile de résoudre des instances de grande taille de façon optimale et dans un temps d'exécution raisonnable, nous nous tournons vers des méthodes approcheés à base d’heuristiques.
Resumo:
L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.
Resumo:
Suite à un stage avec la compagnie Hatch, nous possédons des jeux de données composés de séries chronologiques de vitesses de vent mesurées à divers sites dans le monde, sur plusieurs années. Les ingénieurs éoliens de la compagnie Hatch utilisent ces jeux de données conjointement aux banques de données d’Environnement Canada pour évaluer le potentiel éolien afin de savoir s’il vaut la peine d’installer des éoliennes à ces endroits. Depuis quelques années, des compagnies offrent des simulations méso-échelle de vitesses de vent, basées sur divers indices environnementaux de l’endroit à évaluer. Les ingénieurs éoliens veulent savoir s’il vaut la peine de payer pour ces données simulées, donc si celles-ci peuvent être utiles lors de l’estimation de la production d’énergie éolienne et si elles pourraient être utilisées lors de la prévision de la vitesse du vent long terme. De plus, comme l’on possède des données mesurées de vitesses de vent, l’on en profitera pour tester à partir de diverses méthodes statistiques différentes étapes de l’estimation de la production d’énergie. L’on verra les méthodes d’extrapolation de la vitesse du vent à la hauteur d’une turbine éolienne et l’on évaluera ces méthodes à l’aide de l’erreur quadratique moyenne. Aussi, on étudiera la modélisation de la vitesse du vent par la distributionWeibull et la variation de la distribution de la vitesse dans le temps. Finalement, l’on verra à partir de la validation croisée et du bootstrap si l’utilisation de données méso-échelle est préférable à celle de données des stations de référence, en plus de tester un modèle où les deux types de données sont utilisées pour prédire la vitesse du vent. Nous testerons la méthodologie globale présentement utilisée par les ingénieurs éoliens pour l’estimation de la production d’énergie d’un point de vue statistique, puis tenterons de proposer des changements à cette méthodologie, qui pourraient améliorer l’estimation de la production d’énergie annuelle.
Resumo:
En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.
Resumo:
We propose a novel, simple, efficient and distribution-free re-sampling technique for developing prediction intervals for returns and volatilities following ARCH/GARCH models. In particular, our key idea is to employ a Box–Jenkins linear representation of an ARCH/GARCH equation and then to adapt a sieve bootstrap procedure to the nonlinear GARCH framework. Our simulation studies indicate that the new re-sampling method provides sharp and well calibrated prediction intervals for both returns and volatilities while reducing computational costs by up to 100 times, compared to other available re-sampling techniques for ARCH/GARCH models. The proposed procedure is illustrated by an application to Yen/U.S. dollar daily exchange rate data.
Resumo:
In this article, techniques have been presented for faster evolution of wavelet lifting coefficients for fingerprint image compression (FIC). In addition to increasing the computational speed by 81.35%, the coefficients performed much better than the reported coefficients in literature. Generally, full-size images are used for evolving wavelet coefficients, which is time consuming. To overcome this, in this work, wavelets were evolved with resized, cropped, resized-average and cropped-average images. On comparing the peak- signal-to-noise-ratios (PSNR) offered by the evolved wavelets, it was found that the cropped images excelled the resized images and is in par with the results reported till date. Wavelet lifting coefficients evolved from an average of four 256 256 centre-cropped images took less than 1/5th the evolution time reported in literature. It produced an improvement of 1.009 dB in average PSNR. Improvement in average PSNR was observed for other compression ratios (CR) and degraded images as well. The proposed technique gave better PSNR for various bit rates, with set partitioning in hierarchical trees (SPIHT) coder. These coefficients performed well with other fingerprint databases as well.
Resumo:
In this letter, a Box-Cox transformation-based radial basis function (RBF) neural network is introduced using the RBF neural network to represent the transformed system output. Initially a fixed and moderate sized RBF model base is derived based on a rank revealing orthogonal matrix triangularization (QR decomposition). Then a new fast identification algorithm is introduced using Gauss-Newton algorithm to derive the required Box-Cox transformation, based on a maximum likelihood estimator. The main contribution of this letter is to explore the special structure of the proposed RBF neural network for computational efficiency by utilizing the inverse of matrix block decomposition lemma. Finally, the Box-Cox transformation-based RBF neural network, with good generalization and sparsity, is identified based on the derived optimal Box-Cox transformation and a D-optimality-based orthogonal forward regression algorithm. The proposed algorithm and its efficacy are demonstrated with an illustrative example in comparison with support vector machine regression.
Resumo:
We present a new approach that allows the determination and refinement of force field parameters for the description of disordered macromolecular systems from experimental neutron diffraction data obtained over a large Q range. The procedure is based on tight coupling between experimentally derived structure factors and computer modelling. By separating the potential into terms representing respectively bond stretching, angle bending and torsional rotation and by treating each of them separately, the various potential parameters are extracted directly from experiment. The procedure is illustrated on molten polytetrafluoroethylene.