901 resultados para Bio-inspired computation
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Les études génétiques, telles que les études de liaison ou d’association, ont permis d’acquérir une plus grande connaissance sur l’étiologie de plusieurs maladies affectant les populations humaines. Même si une dizaine de milliers d’études génétiques ont été réalisées sur des centaines de maladies ou autres traits, une grande partie de leur héritabilité reste inexpliquée. Depuis une dizaine d’années, plusieurs percées dans le domaine de la génomique ont été réalisées. Par exemple, l’utilisation des micropuces d’hybridation génomique comparative à haute densité a permis de démontrer l’existence à grande échelle des variations et des polymorphismes en nombre de copies. Ces derniers sont maintenant détectables à l’aide de micropuce d’ADN ou du séquençage à haut débit. De plus, des études récentes utilisant le séquençage à haut débit ont permis de démontrer que la majorité des variations présentes dans l’exome d’un individu étaient rares ou même propres à cet individu. Ceci a permis la conception d’une nouvelle micropuce d’ADN permettant de déterminer rapidement et à faible coût le génotype de plusieurs milliers de variations rares pour un grand ensemble d’individus à la fois. Dans ce contexte, l’objectif général de cette thèse vise le développement de nouvelles méthodologies et de nouveaux outils bio-informatiques de haute performance permettant la détection, à de hauts critères de qualité, des variations en nombre de copies et des variations nucléotidiques rares dans le cadre d’études génétiques. Ces avancées permettront, à long terme, d’expliquer une plus grande partie de l’héritabilité manquante des traits complexes, poussant ainsi l’avancement des connaissances sur l’étiologie de ces derniers. Un algorithme permettant le partitionnement des polymorphismes en nombre de copies a donc été conçu, rendant possible l’utilisation de ces variations structurales dans le cadre d’étude de liaison génétique sur données familiales. Ensuite, une étude exploratoire a permis de caractériser les différents problèmes associés aux études génétiques utilisant des variations en nombre de copies rares sur des individus non reliés. Cette étude a été réalisée avec la collaboration du Wellcome Trust Centre for Human Genetics de l’University of Oxford. Par la suite, une comparaison de la performance des algorithmes de génotypage lors de leur utilisation avec une nouvelle micropuce d’ADN contenant une majorité de marqueurs rares a été réalisée. Finalement, un outil bio-informatique permettant de filtrer de façon efficace et rapide des données génétiques a été implémenté. Cet outil permet de générer des données de meilleure qualité, avec une meilleure reproductibilité des résultats, tout en diminuant les chances d’obtenir une fausse association.
Resumo:
Les liquides ioniques connaissent depuis quelques décennies un essor particulier en raison de leurs nombreuses propriétés physico-chimiques intéressantes, telles qu’une faible pression de vapeur saturante, une viscosité limitée, une faible miscibilité avec la plupart des solvants communs, ou encore des propriétés d’agencement supramoléculaire, qui en font des outils puissants dans de nombreux domaines de la chimie. Les sels d’imidazolium représentent la plus grande famille de liquides ioniques à ce jour. Leur modulabilité leur permet d’être dérivés pour de nombreuses applications spécifiques, notamment en synthèse organique, où ils sont utilisés majoritairement comme solvants, et plus récemment comme catalyseurs. Les travaux présentés dans cette thèse se concentrent sur leur utilisation en synthèse organique, à la fois comme solvants et principalement comme catalyseurs chiraux, catalyseurs pour lesquels l’anion du sel est l’espèce catalytique, permettant d’ajouter de la flexibilité et de la mobilité au système. En tirant parti de la tolérance des liquides ioniques envers la majorité des macromolécules naturelles, l’objectif principal des travaux présentés dans cette thèse est le développement d’un nouveau type de catalyseur bio-hybride reposant sur l’encapsulation d’un sel d’imidazolium dans une protéine. Par le biais de la technologie biotine-avidine, l’inclusion supramoléculaire de sels d’imidazolium biotinylés portant des contre-anions catalytiques dans l’avidine a été réalisée et exploitée en catalyse. Dans un premier temps, le développement et l’étude de deux sels de 1-butyl-3-méthylimidazolium possédant des anions chiraux dérivés de la trans-4-hydroxy-L-proline sont rapportés, ainsi que leur comportement dans des réactions énantiosélectives d’aldol et d’addition de Michael. Ces types de composés se sont révélés actifs et performants en milieu liquide ionique. Dans un second temps, la préparation de sels d’imidazolium dont le cation est biotinylé et portant un contre-anion achiral, a été réalisée. Le comportement de l’avidine en milieu liquide ionique et son apport en termes de chiralité sur le système bio-hybride ont été étudiés. Les résultats montrent le rôle crucial des liquides ioniques sur la conformation de la protéine et l’efficacité du catalyseur pour des réactions d’aldol. Dans un dernier temps, l’influence de la structure du cation et de l’anion sur le système a été étudiée. Différents espaceurs ont été introduits successivement dans les squelettes cationiques et anioniques des sels d’imidazolium biotinylés. Dans le cas du cation, les résultats ne révèlent aucune influence majeure sur l’efficacité du catalyseur. La structure de l’anion se montre cependant beaucoup plus importante : la préparation de différents catalyseurs bio-hybrides possédant des anions aux propriétés physico-chimiques différentes a permis d’obtenir de plus amples informations sur le mode de fonctionnement du système bio-hybride et de la coopérativité entre l’avidine et l’anion du sel d’imidazolium.La nature ionique de la liaison cation-anion offrant une liberté de mouvement accrue à l’anion dans la protéine, la tolérance à différents substrats a également été abordée après optimisation du système.
Resumo:
Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .
Resumo:
Compte-rendu / Review
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
Resumo:
L’objectif de ce projet était de faire le lien entre gènes et métabolites afin d’éventuellement proposer des métabolites à mesurer en lien avec la fonction de gènes. Plus particulièrement, nous nous sommes intéressés aux gènes codant pour des protéines ayant un impact sur le métabolisme, soit les enzymes qui catalysent les réactions faisant partie intégrante des voies métaboliques. Afin de quantifier ce lien, nous avons développé une méthode bio-informatique permettant de calculer la distance qui est définie comme le nombre de réactions entre l’enzyme encodée par le gène et le métabolite dans la carte globale du métabolisme de la base de données Kyoto Encyclopedia of Genes and Genomes (KEGG). Notre hypothèse était que les métabolites d’intérêt sont des substrats/produits se trouvant à proximité des réactions catalysées par l’enzyme encodée par le gène. Afin de tester cette hypothèse et de valider la méthode, nous avons utilisé les études d’association pangénomique combinées à la métabolomique (mGWAS) car elles rapportent des associations entre variants génétiques, annotés en gènes, et métabolites mesurés. Plus précisément, la méthode a été appliquée à l’étude mGWAS par Shin et al. Bien que la couverture des associations de Shin et al. était limitée (24/299), nous avons pu valider de façon significative la proximité entre gènes et métabolites associés (P<0,01). En somme, cette méthode et ses développements futurs permettront d’interpréter de façon quantitative les associations mGWAS, de prédire quels métabolites mesurer en lien avec la fonction d’un gène et, plus généralement, de permettre une meilleure compréhension du contrôle génétique sur le métabolisme.
Resumo:
The thesis covers a systematic investigation on the synthesis of silica aerogels and microspheres with tailored porosity, at ambient conditions by varying the experimental parameters as well as using organic templates. Organically modified silica-gelatin and silica-chitosan hybrids were developed for the first time using alkylalkoxysilanes such as MTMS and VTMS. Application of novel silica-biopolymer antiwetting coatings on different substrates such as glass, leather and textile is also demonstrated in the thesis.
Resumo:
During 1990's the Wavelet Transform emerged as an important signal processing tool with potential applications in time-frequency analysis and non-stationary signal processing.Wavelets have gained popularity in broad range of disciplines like signal/image compression, medical diagnostics, boundary value problems, geophysical signal processing, statistical signal processing,pattern recognition,underwater acoustics etc.In 1993, G. Evangelista introduced the Pitch- synchronous Wavelet Transform, which is particularly suited for pseudo-periodic signal processing.The work presented in this thesis mainly concentrates on two interrelated topics in signal processing,viz. the Wavelet Transform based signal compression and the computation of Discrete Wavelet Transform. A new compression scheme is described in which the Pitch-Synchronous Wavelet Transform technique is combined with the popular linear Predictive Coding method for pseudo-periodic signal processing. Subsequently,A novel Parallel Multiple Subsequence structure is presented for the efficient computation of Wavelet Transform. Case studies also presented to highlight the potential applications.
Resumo:
School of environmental studies, Cochin University of Science and Technology
Resumo:
Identification and Control of Non‐linear dynamical systems are challenging problems to the control engineers.The topic is equally relevant in communication,weather prediction ,bio medical systems and even in social systems,where nonlinearity is an integral part of the system behavior.Most of the real world systems are nonlinear in nature and wide applications are there for nonlinear system identification/modeling.The basic approach in analyzing the nonlinear systems is to build a model from known behavior manifest in the form of system output.The problem of modeling boils down to computing a suitably parameterized model,representing the process.The parameters of the model are adjusted to optimize a performanace function,based on error between the given process output and identified process/model output.While the linear system identification is well established with many classical approaches,most of those methods cannot be directly applied for nonlinear system identification.The problem becomes more complex if the system is completely unknown but only the output time series is available.Blind recognition problem is the direct consequence of such a situation.The thesis concentrates on such problems.Capability of Artificial Neural Networks to approximate many nonlinear input-output maps makes it predominantly suitable for building a function for the identification of nonlinear systems,where only the time series is available.The literature is rich with a variety of algorithms to train the Neural Network model.A comprehensive study of the computation of the model parameters,using the different algorithms and the comparison among them to choose the best technique is still a demanding requirement from practical system designers,which is not available in a concise form in the literature.The thesis is thus an attempt to develop and evaluate some of the well known algorithms and propose some new techniques,in the context of Blind recognition of nonlinear systems.It also attempts to establish the relative merits and demerits of the different approaches.comprehensiveness is achieved in utilizing the benefits of well known evaluation techniques from statistics. The study concludes by providing the results of implementation of the currently available and modified versions and newly introduced techniques for nonlinear blind system modeling followed by a comparison of their performance.It is expected that,such comprehensive study and the comparison process can be of great relevance in many fields including chemical,electrical,biological,financial and weather data analysis.Further the results reported would be of immense help for practical system designers and analysts in selecting the most appropriate method based on the goodness of the model for the particular context.
Resumo:
Bio-compatible magnetic fluids having high saturation magnetization find immense applications in various biomedical fields. Aqueous ferrofluids of superparamagnetic iron oxide nanoparticles with narrow size distribution, high shelf life and good stability is realized by controlled chemical co-precipitation process. The crystal structure is verified by X-ray diffraction technique. Particle sizes are evaluated by employing Transmission electron microscopy. Room temperature and low-temperature magnetic measurements were carried out with Superconducting Quantum Interference Device. The fluid exhibits good magnetic response even at very high dilution (6.28 mg/cc). This is an advantage for biomedical applications, since only a small amount of iron is to be metabolised by body organs. Magnetic field induced transmission measurements carried out at photon energy of diode laser (670 nm) exhibited excellent linear dichroism. Based on the structural and magnetic measurements, the power loss for the magnetic nanoparticles under study is evaluated over a range of radiofrequencies.
Resumo:
In this thesis all these aspects are taken into consideration. Extensive studies were conducted on all aspects of processing of crabs, mussels and clams. The species taken for studies are commercially used ones namely Scylla sereta, perna viridis, and villorita cyprinoids. In Chapter 4.1 with regard to crab) the following aspects on their handling and processing are reported seasonal variation of chemical constituents, changes taking place during ice storage, freezing, canning etc. In Chapter 4._2 with regard to mussel, the relation between age (size) and chemical constituents, changes taking place during ice storage, freezing, canning etc. are reported and in Chapter 4.3 the changes taking place in clam muscle during icing and freezing are reported and the ame rebility of ice stored clams for canning purpose is reported.The interference of high concentration of glycogen in mussel and clam muscles during the colour development of ribose (Me-jbaum's method) is observed and remedial step are taken to minimise the interference.
Resumo:
This thesis is an outcome of the investigations carried out on the development of an Artificial Neural Network (ANN) model to implement 2-D DFT at high speed. A new definition of 2-D DFT relation is presented. This new definition enables DFT computation organized in stages involving only real addition except at the final stage of computation. The number of stages is always fixed at 4. Two different strategies are proposed. 1) A visual representation of 2-D DFT coefficients. 2) A neural network approach. The visual representation scheme can be used to compute, analyze and manipulate 2D signals such as images in the frequency domain in terms of symbols derived from 2x2 DFT. This, in turn, can be represented in terms of real data. This approach can help analyze signals in the frequency domain even without computing the DFT coefficients. A hierarchical neural network model is developed to implement 2-D DFT. Presently, this model is capable of implementing 2-D DFT for a particular order N such that ((N))4 = 2. The model can be developed into one that can implement the 2-D DFT for any order N upto a set maximum limited by the hardware constraints. The reported method shows a potential in implementing the 2-D DF T in hardware as a VLSI / ASIC
Resumo:
Fluorescence is a powerful tool in biological research, the relevance of which relies greatly on the availability of sensitive and selective fluorescent probes. Nanometer sized fluorescent semiconductor materials have attracted considerable attention in recent years due to the high luminescence intensity, low photobleaching, large Stokes’ shift and high photochemical stability. The optical and spectroscopic features of nanoparticles make them very convincing alternatives to traditional fluorophores in a range of applications. Efficient surface capping agents make these nanocrystals bio-compatible. They can provide a novel platform on which many biomolecules such as DNA, RNA and proteins can be covalently linked. In the second phase of the present work, bio-compatible, fluorescent, manganese doped ZnS (ZnS:Mn) nanocrystals suitable for bioimaging applications have been developed and their cytocompatibility has been assessed. Functionalization of ZnS:Mn nanocrystals by safe materials results in considerable reduction of toxicity and allows conjugation with specific biomolecules. The highly fluorescent, bio-compatible and water- dispersible ZnS:Mn nanocrystals are found to be ideal fluorescent probes for biological labeling