15 resultados para Échappatoire de la détection
Resumo:
Résumé : Les méthodes de détection de similarités de sites de liaison servent entre autres à la prédiction de fonction et à la prédiction de cibles croisées. Ces méthodes peuvent aider à prévenir les effets secondaires, suggérer le repositionnement de médicament existants, identifier des cibles polypharmacologiques et des remplacements bio-isostériques. La plupart des méthodes utilisent des représentations basées sur les atomes, même si les champs d’interaction moléculaire (MIFs) représentent plus directement ce qui cherche à être identifié. Nous avons développé une méthode bio-informatique, IsoMif, qui détecte les similarités de MIF entre différents sites de liaisons et qui ne nécessite aucun alignement de séquence ou de structure. Sa performance a été comparée à d’autres méthodes avec des bancs d’essais, ce qui n’a jamais été fait pour une méthode basée sur les MIFs. IsoMif performe mieux en moyenne et est plus robuste. Nous avons noté des limites intrinsèques à la méthodologie et d’autres qui proviennent de la nature. L’impact de choix de conception sur la performance est discuté. Nous avons développé une interface en ligne qui permet la détection de similarités entre une protéine et différents ensembles de MIFs précalculés ou à des MIFs choisis par l’utilisateur. Des sessions PyMOL peuvent être téléchargées afin de visualiser les similarités identifiées pour différentes interactions intermoléculaires. Nous avons appliqué IsoMif pour identifier des cibles croisées potentielles de drogues lors d’une analyse à large échelle (5,6 millions de comparaisons). Des simulations d’arrimage moléculaire ont également été effectuées pour les prédictions significatives. L’objectif est de générer des hypothèses de repositionnement et de mécanismes d’effets secondaires observés. Plusieurs exemples sont présentés à cet égard.
Resumo:
La paratuberculose bovine est une maladie causée par la mycobactérie Mycobacterium avium subsp. paratuberculosis (MAP). Elle est responsable d’énormes pertes économiques dans le monde. En effet, cette maladie provoque la diminution de la production laitière chez les vaches ainsi qu’un état de fatigue général en raison d’une entérite chronique chez les sujets atteints. Des indices mettent également en évidence le potentiel zoonotique de MAP et malheureusement aucun traitement n’est connu à ce jour. Ainsi, les stratégies actuelles pour contrer la maladie dans les troupeaux reposent plutôt sur des actions préventives. Actuellement, le diagnostic de la paratuberculose reste difficile et la prévalence de la maladie est probablement sous-estimée dans les troupeaux en raison de la faible sensibilité des tests diagnostiques. Dans l’optique de développer une nouvelle méthode diagnostique pour la paratuberculose, ce projet de recherche s’est établi en deux étapes : la mise en place d’un système de diagnostic robuste des animaux par les méthodes de dépistage traditionnelles, incluant une étude comparative de l’efficacité de trousses commerciales, et finalement l’étude de la prolifération cellulaire spécifique des lymphocytes comme d’une épreuve diagnostique pour la maladie. Ainsi, la comparaison des trousses commerciales a démontré un écart d’efficacité qui a permis d’établir de nouvelles recommandations pour l’analyse des animaux ainsi que l’amélioration du diagnostic de la paratuberculose dans les troupeaux. Concernant le développement d’une méthode de diagnostique basée sur la prolifération lymphocytaire, de nombreuses difficultés techniques ont entravé le bon déroulement du projet mais ces travaux montrent la possibilité de caractériser de manière plus complète les différents types lymphocytaires par cytométrie de flux chez le bovin laitier.
Resumo:
Résumé : Problématique : Une augmentation importante de la prévalence du diabète a été observée au Nouveau-Brunswick au cours de la dernière décennie. Sachant que le diabète est associé à des complications de santé nombreuses et à des coûts élevés infligés au système de soins de santé, il devient important d’identifier les facteurs pouvant expliquer l’augmentation de la prévalence du diabète. L’étude a pour objectif de décrire l’évolution de ces facteurs afin de prioriser les interventions en lien avec cette maladie. Méthodes : Une revue critique de la littérature a permis l’identification de l’ensemble des facteurs pouvant expliquer l’augmentation de la prévalence du diabète. Des données administratives disponibles au Nouveau-Brunswick et des données tirées d’enquêtes de Statistique Canada ont été utilisées afin de décrire l’évolution de plusieurs des facteurs tirés de la revue critique de la littérature. Résultats : Une augmentation de 120% de la prévalence du diabète de type 2 au Nouveau-Brunswick a été observée entre 2001 et 2014. Cette augmentation pourrait être explicable par l’ensemble des cinq catégories de facteurs pouvant expliquer une augmentation de la prévalence dont plusieurs facteurs de risque individuels (dont l’obésité, le prédiabète et l’hypertension), de facteurs de risque environnementaux (dont l’urbanisation), de l’évolution de la maladie (exprimée par une diminution du taux de mortalité et une augmentation de l’incidence), de l’effet de détection (augmentation du nombre de personnes testées, diminution de la valeur d’HbA1c et de l’âge à la détection) et d’un effet du changement dans l’environnement (exprimé par un effet de période et de cohorte). Conclusion: L’augmentation de la prévalence du diabète notée au Nouveau-Brunswick pourrait s’expliquer par plusieurs facteurs de risque individuels, environnementaux, de l’évolution de la maladie, de l’effet de détection et d’un effet du changement dans l’environnement. Cette étude permettra de guider les actions sur le diabète au Nouveau-Brunswick et d’inspirer les autres provinces et pays à identifier les facteurs pouvant contribuer à l’augmentation de la prévalence du diabète grâce à la liste de l’ensemble des facteurs potentiellement explicatifs.
Resumo:
Les protéines MCM (minichromosome maintenance) forment un complexe hétérohexamérique composé des protéines MCM2 à MCM7 qui possède une activité hélicase nécessaire lors de la réplication de l’ADN. Ce complexe est la cible des protéines ATM et ATR, kinases responsables de l’initiation de la réponse cellulaires aux dommages à l’ADN, pour permettre l’arrêt de la réplication lors de la détection de cassure double brin. De plus, les MCM permettent le remodelage de la chromatine par leur activité hélicase mais aussi par leur association avec une chaperone d’histone la protéine ASF1. Toutefois, la majorité des complexes MCM ne co-localisent pas avec les origines de réplication. De plus, la quantité des protéines MCM dans la cellule est nettement supérieure à la quantité requise lors de la réplication. Ces deux faits laissent présager que ce complexe hélicase pourrait jouer un second rôle. Des études effectuées au laboratoire ont démontré une augmentation de la fixation à la chromatine des protéines MCM suite au traitement avec l’étoposide, un inhibiteur de la topoisomérase II qui cause des cassures double brin. L’étude des interactions de la protéine MCM2 par spectrométrie de masse ainsi que par immunobuvardage ont démontré une augmentation de l’interaction entre la protéine MCM2 et ASF1 suite aux dommages. Ceci suggère que les protéines MCM pourraient être impliquées dans les mécanismes de réparation de l’ADN. La nature de l’interaction entre la protéine MCM2 et ASF1 a été déterminée in vitro par des immunobuvardages de type Far western et des Dot blot avec des mutants de la protéine MCM2. Des cellules U2OS-Flp-in ont été utilisées pour générer des lignées stables exprimants les protéines MCM2 à MCM7 avec une étiquette GFP ou fusionnées avec une biotine-ligase (BirA). Les cellules ont été cultivées dans du milieu SILAC et des immunoprécipitations ont été effectuées sur des cellules contrôles (R0K0), des cellules qui expriment MCM-GFP ou BirA (R6K4) non-traitées et des cellules qui expriment MCM-GFP ou BirA traitées à l’étoposide (R10K8). Les immunoprécipitations ont été analysés au spectromètre de masse pour déterminer la modulation des interactions avant et après dommages à l’ADN. Les études d’interactions in vitro ont permis d’identifier que l’interaction entre la protéine MCM2 et ASF1 se situe entre les acides aminés 81-162 sur la protéine MCM2. L’approche de spectrométrie de masse a permis d’identifier plusieurs protéines liant le complexe MCM qui sont impliquées non seulement dans la réplication de l’ADN mais aussi dans le remodelage de la chromatine. De plus, certains de ces nouveaux partenaires augmentent leur interaction avec le complexe suite à l’induction de dommages. Ces résultats suggèrent que les protéines MCM jouent un rôle dans la réorganisation de la chromatine dans les mécanismes de réparation de l’ADN.
Resumo:
Résumé : L’imagerie TEP est une modalité puissante qui permet de suivre d’infimes concentrations de traceurs marqués pour la détection de cancers et d’autres pathologies. Il y a actuellement un intérêt croissant pour le développement de peptides comme outils diagnostiques et de traitement en oncologie. Cet intérêt se justifie entre autres par le fait que les peptides sont tolérants à la présence de chélateurs bifonctionnels ou de groupements prosthétiques pour le marquage avec divers radiométaux (64Cu, T1/2 = 12,7 h, 68Ga, T1/2 = 68 min, etc.) ou le 18F (T1/2 = 109,8 min) sans perte de leur activité biologique. L’objectif des travaux rapportés dans ce document était de développer des outils moléculaires innovateurs et efficaces qui facilitent le marquage de peptides pour l’imagerie TEP. Il s’agit spécifiquement d’un chélateur bifonctionnel et d’une méthode de conjugaison rapide et sélective de groupe prosthétique. Sur un volet, un chélateur bifonctionnel analogue de la lysine avec des ligands méthylhydroxamates a été synthétisé en solution par double bisalkylation. Les résultats préliminaires indiquent une faible chélation avec le Cu(II), mais sont à poursuivre avec les 68Ga et 89Zr. Pour le second volet de radiomarquage au 18F, les procédures synthétiques ont été optimisées en deux étapes, soient le marquage du groupe prothétique et sa conjugaison au peptide. Tout d’abord, des conditions de marquage par une réaction de SNAr en présence de 18F- ont été développées pour donner le groupe prosthétique 18F-thioester nécessaire à la conjugaison. Par la suite, sa conjugaison au peptide par la réaction de ligation chémosélective, ce qui implique trois étapes 1) une transthioestérification favorisée entre les groupements thioester et thiol des segments de peptides; 2) un réarrangement irréversible de l’intermédiaire thioester en N-(oxyalkyl)amide, suivi; 3) du clivage de l’auxiliaire. Par les présents travaux, il a été prouvé que la nouvelle méthodologie en un seul pot réactionnel accélère la réaction et permet le marquage au 18F de peptides non protégés, limitant ainsi les réactions secondaires et le nombre d’étapes après le marquage des peptides. La conjugaison du groupe prothétique à un composé et un peptide modèle se produit en 26-55 min comparativement aux 48 h des conditions originales rapportées. La méthode proposée permet également le marquage de peptides non protégés. Dans le futur, le chélateur bifonctionnel et le groupe prothétique seront conjugués à différents dérivés peptidiques ciblant des récepteurs impliqués dans le cancer et des tests de compétition, de saturation, de biodistribution et d’imagerie µTEP seront effectués.
Resumo:
Résumé : Les photodiodes à avalanche monophotonique (SPAD) sont d'intérêts pour les applications requérant la détection de photons uniques avec une grande résolution temporelle, comme en physique des hautes énergies et en imagerie médicale. En fait, les matrices de SPAD, souvent appelés photomultiplicateurs sur silicium (SiPM), remplacent graduellement les tubes photomultiplicateurs (PMT) et les photodiodes à avalanche (APD). De plus, il y a une tendance à utiliser les matrices de SPAD en technologie CMOS afin d'obtenir des pixels intelligents optimisés pour la résolution temporelle. La fabrication de SPAD en technologie CMOS commerciale apporte plusieurs avantages par rapport aux procédés optoélectroniques comme le faible coût, la capacité de production, l'intégration d'électronique et la miniaturisation des systèmes. Cependant, le défaut principal du CMOS est le manque de flexibilité de conception au niveau de l'architecture du SPAD, causé par le caractère fixe et standardisé des étapes de fabrication en technologie CMOS. Un autre inconvénient des matrices de SPAD CMOS est la perte de surface photosensible amenée par la présence de circuits CMOS. Ce document présente la conception, la caractérisation et l'optimisation de SPAD fabriqués dans une technologie CMOS commerciale (Teledyne DALSA 0.8µm HV CMOS - TDSI CMOSP8G). Des modifications de procédé sur mesure ont été introduites en collaboration avec l'entreprise CMOS pour optimiser les SPAD tout en gardant la compatibilité CMOS. Les matrices de SPAD produites sont dédiées à être intégrées en 3D avec de l'électronique CMOS économique (TDSI) ou avec de l'électronique CMOS submicronique avancée, produisant ainsi un SiPM 3D numérique. Ce SiPM 3D innovateur vise à remplacer les PMT, les APD et les SiPM commerciaux dans les applications à haute résolution temporelle. L'objectif principal du groupe de recherche est de développer un SiPM 3D avec une résolution temporelle de 10 ps pour usage en physique des hautes énergies et en imagerie médicale. Ces applications demandent des procédés fiables avec une capacité de production certifiée, ce qui justifie la volonté de produire le SiPM 3D avec des technologies CMOS commerciales. Ce mémoire étudie la conception, la caractérisation et l'optimisation de SPAD fabriqués en technologie TDSI-CMOSP8G.
Resumo:
Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.
Resumo:
Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.
Resumo:
Le dimensionnement basé sur la performance (DBP), dans une approche déterministe, caractérise les objectifs de performance par rapport aux niveaux de performance souhaités. Les objectifs de performance sont alors associés à l'état d'endommagement et au niveau de risque sismique établis. Malgré cette approche rationnelle, son application est encore difficile. De ce fait, des outils fiables pour la capture de l'évolution, de la distribution et de la quantification de l'endommagement sont nécessaires. De plus, tous les phénomènes liés à la non-linéarité (matériaux et déformations) doivent également être pris en considération. Ainsi, cette recherche montre comment la mécanique de l'endommagement pourrait contribuer à résoudre cette problématique avec une adaptation de la théorie du champ de compression modifiée et d'autres théories complémentaires. La formulation proposée adaptée pour des charges monotones, cycliques et de type pushover permet de considérer les effets non linéaires liés au cisaillement couplé avec les mécanismes de flexion et de charge axiale. Cette formulation est spécialement appliquée à l'analyse non linéaire des éléments structuraux en béton soumis aux effets de cisaillement non égligeables. Cette nouvelle approche mise en œuvre dans EfiCoS (programme d'éléments finis basé sur la mécanique de l'endommagement), y compris les critères de modélisation, sont également présentés ici. Des calibrations de cette nouvelle approche en comparant les prédictions avec des données expérimentales ont été réalisées pour les murs de refend en béton armé ainsi que pour des poutres et des piliers de pont où les effets de cisaillement doivent être pris en considération. Cette nouvelle version améliorée du logiciel EFiCoS a démontrée être capable d'évaluer avec précision les paramètres associés à la performance globale tels que les déplacements, la résistance du système, les effets liés à la réponse cyclique et la quantification, l'évolution et la distribution de l'endommagement. Des résultats remarquables ont également été obtenus en référence à la détection appropriée des états limites d'ingénierie tels que la fissuration, les déformations unitaires, l'éclatement de l'enrobage, l'écrasement du noyau, la plastification locale des barres d'armature et la dégradation du système, entre autres. Comme un outil pratique d'application du DBP, des relations entre les indices d'endommagement prédits et les niveaux de performance ont été obtenus et exprimés sous forme de graphiques et de tableaux. Ces graphiques ont été développés en fonction du déplacement relatif et de la ductilité de déplacement. Un tableau particulier a été développé pour relier les états limites d'ingénierie, l'endommagement, le déplacement relatif et les niveaux de performance traditionnels. Les résultats ont démontré une excellente correspondance avec les données expérimentales, faisant de la formulation proposée et de la nouvelle version d'EfiCoS des outils puissants pour l'application de la méthodologie du DBP, dans une approche déterministe.
Resumo:
Résumé : Malgré le nombre croissant de capteurs dans les domaines de la chimie et la biologie, il reste encore à étudier en profondeur la complexité des interactions entre les différentes molécules présentes lors d’une détection à l’interface solide-liquide. Dans ce cadre, il est de tout intérêt de croiser différentes méthodes de détection afin d’obtenir des informations complémentaires. Le principal objectif de cette étude est de dimensionner, fabriquer et caractériser un détecteur optique intégré sur verre basé sur la résonance plasmonique de surface, destiné à terme à être combiné avec d’autres techniques de détection, dont un microcalorimètre. La résonance plasmonique de surface est une technique reconnue pour sa sensibilité adaptée à la détection de surface, qui a l’avantage d’être sans marquage et permet de fournir un suivi en temps réel de la cinétique d’une réaction. L’avantage principal de ce capteur est qu’il a été dimensionné pour une large gamme d’indice de réfraction de l’analyte, allant de 1,33 à 1,48. Ces valeurs correspondent à la plupart des entités biologiques associées à leurs couches d’accroche dont les matrices de polymères, présentés dans ce travail. Étant donné que beaucoup d’études biologiques nécessitent la comparaison de la mesure à une référence ou à une autre mesure, le second objectif du projet est d’étudier le potentiel du système SPR intégré sur verre pour la détection multi-analyte. Les trois premiers chapitres se concentrent sur l’objectif principal du projet. Le dimensionnement du dispositif est ainsi présenté, basé sur deux modélisations différentes, associées à plusieurs outils de calcul analytique et numérique. La première modélisation, basée sur l’approximation des interactions faibles, permet d’obtenir la plupart des informations nécessaires au dimensionnement du dispositif. La seconde modélisation, sans approximation, permet de valider le premier modèle approché et de compléter et affiner le dimensionnement. Le procédé de fabrication de la puce optique sur verre est ensuite décrit, ainsi que les instruments et protocoles de caractérisation. Un dispositif est obtenu présentant des sensibilités volumiques entre 1000 nm/RIU et 6000 nm/RIU suivant l’indice de réfraction de l’analyte. L’intégration 3D du guide grâce à son enterrage sélectif dans le verre confère au dispositif une grande compacité, le rendant adapté à la cointégration avec un microcalorimètre en particulier. Le dernier chapitre de la thèse présente l’étude de plusieurs techniques de multiplexage spectral adaptées à un système SPR intégré, exploitant en particulier la technologie sur verre. L’objectif est de fournir au moins deux détections simultanées. Dans ce cadre, plusieurs solutions sont proposées et les dispositifs associés sont dimensionnés, fabriqués et testés.
Resumo:
La vérification de la résistance aux attaques des implémentations embarquées des vérifieurs de code intermédiaire Java Card est une tâche complexe. Les méthodes actuelles n'étant pas suffisamment efficaces, seule la génération de tests manuelle est possible. Pour automatiser ce processus, nous proposons une méthode appelée VTG (Vulnerability Test Generation, génération de tests de vulnérabilité). En se basant sur une représentation formelle des comportements fonctionnels du système sous test, un ensemble de tests d'intrusions est généré. Cette méthode s'inspire des techniques de mutation et de test à base de modèle. Dans un premier temps, le modèle est muté selon des règles que nous avons définies afin de représenter les potentielles attaques. Les tests sont ensuite extraits à partir des modèles mutants. Deux modèles Event-B ont été proposés. Le premier représente les contraintes structurelles des fichiers d'application Java Card. Le VTG permet en quelques secondes de générer des centaines de tests abstraits. Le second modèle est composé de 66 événements permettant de représenter 61 instructions Java Card. La mutation est effectuée en quelques secondes. L'extraction des tests permet de générer 223 tests en 45 min. Chaque test permet de vérifier une précondition ou une combinaison de préconditions d'une instruction. Cette méthode nous a permis de tester différents mécanismes d'implémentations de vérifieur de code intermédiaire Java Card. Bien que développée pour notre cas d'étude, la méthode proposée est générique et a été appliquée à d'autres cas d'études.
Resumo:
La sécurité des systèmes de transports intelligents est au centre de tous les débats. Afin de s’assurer un fonctionnement sécuritaire, il est nécessaire de pouvoir vérifier le bon fonctionnement des capteurs permettant d’avoir une parfaite connaissance de l’environnement et de l’état du véhicule. Cette thèse présente une nouvelle solution de détection et d’identification de faute pouvant apparaitre sur les capteurs embarqués d’un véhicule intelligent. Cette méthode est basée sur la redondance analytique des données, consistant à estimer une même mesure à l’aide de capteurs de différentes natures. Cette mesure subit alors une transformation non linéaire permettant à la fois d’accroitre la sensibilité aux fautes et d’être plus robuste aux bruits. Cette étude propose plusieurs solutions de transformation et d’estimation qui seront évaluées en simulation avant de proposer une méthode d’optimisation de la prise de décision en fonction de critères choisis par l’utilisateur. La description de l’architecture, des méthodes employées ainsi que des équations permettant l’établissement de celle-ci seront décrites dans le chapitre 3. L’évaluation en simulation des performances de l’architecture sera effectuée dans le chapitre 4 avant une analyse finale des résultats ainsi qu’une comparaison avec une solution existante dans le dernier chapitre, permettant la validation de notre approche.
Resumo:
L’interaction physique humain-robot est un domaine d’étude qui s’est vu porter beaucoup d’intérêt ces dernières années. Une optique de coopération entre les deux entités entrevoit le potentiel d’associer les forces de l’humain (comme son intelligence et son adaptabilité) à celle du robot (comme sa puissance et sa précision). Toutefois, la mise en service des applications développées reste une opération délicate tant les problèmes liés à la sécurité demeurent importants. Les robots constituent généralement de lourdes machines capables de déplacements très rapides qui peuvent blesser gravement un individu situé à proximité. Ce projet de recherche aborde le problème de sécurité en amont avec le développement d’une stratégie dite "pré-collision". Celle-ci se caractérise par la conception d’un système de planification de mouvements visant à optimiser la sécurité de l’individu lors de tâches d’interaction humain-robot dans un contexte industriel. Pour ce faire, un algorithme basé sur l’échantillonnage a été employé et adapté aux contraintes de l’application visée. Dans un premier temps, l’intégration d’une méthode exacte de détection de collision certifie que le chemin trouvé ne présente, a priori, aucun contact indésirable. Ensuite, l’évaluation de paramètres pertinents introduit notre notion de sécurité et définit un ensemble d’objectifs à optimiser. Ces critères prennent en compte la proximité par rapport aux obstacles, l’état de conscience des êtres humains inclus dans l’espace de travail ainsi que le potentiel de réaction du robot en cas d'évènement imprévu. Un système inédit de combinaison d’objectifs guide la recherche et mène à l’obtention du chemin jugé comme étant le plus sûr, pour une connaissance donnée de l’environnement. Le processus de contrôle se base sur une acquisition minimale de données environnementales (dispositif de surveillance visuelle) dans le but de nécessiter une installation matérielle qui se veut la plus simple possible. Le fonctionnement du système a été validé sur le robot industriel Baxter.
Resumo:
La mise en oeuvre de systèmes de détection de défauts à même les structures ou infrastructures en génie est le sujet d’étude du Structural Health Monitoring (SHM). Le SHM est une solution efficace à la réduction des coûts associés à la maintenance de structures. Une stratégie prometteuse parmi les technologies émergentes en SHM est fondée sur l’utilisation d’ondes ultrasonores guidées. Ces méthodes sont basées sur le fait que les structures minces agissent comme guides d’ondes pour les ondes ultrasonores. Puisque les structures aéronautiques sont majoritairement minces, les ondes guidées constituent une stratégie pertinente afin d’inspecter de grandes surfaces. Toutefois, les assemblages aéronautiques sont constitués de plusieurs éléments modifiant et compliquant la propagation des ondes guidées dans celles-ci. En effet, la présence de rivets, de raidisseurs, de joints ainsi que la variation de la nature des matériaux utilisés complexifie la propagation des ondes guidées. Pour envisager la mise en oeuvre de systèmes de détection basés sur les ondes guidées, une compréhension des interactions intervenant dans ces diverses structures est nécessaire. Un tel travail entre dans le cadre du projet de collaboration CRIAQ DPHM 501 dont l’objectif principal est de développer une banque de connaissances quant à la propagation d’ondes guidées dans les structures aéronautiques. Le travail de ce mémoire présente d’abord les résultats d’études paramétriques numériques obtenus dans le cadre de ce projet CRIAQ. Puis, afin de faciliter la caractérisation expérimentale de la propagation des ondes guidées, une seconde partie du travail a porté sur le développement d’un absorbant d’ondes guidées. Cet absorbant permet également d’envisager l’extension des régions observables par les systèmes SHM. Ce deuxième volet contribue donc également au projet CRIAQ par l’atténuation de réflexions non désirées dans l’étude menée sur les maintes structures aéronautiques nourrissant la banque de connaissances. La première partie de ce mémoire relève l’état des connaissances de la littérature sur la propagation d’ondes guidées dans les structures aéronautiques. La deuxième partie présente rapidement le formalisme derrière les ondes de Lamb ainsi que les différentes approches analytiques pour caractériser les interactions entre ondes guidées et discontinuités. Par la suite, les outils utilisés pour effectuer les simulations par éléments finis sont présentés et validés par le biais d’une phase expérimentale. La deuxième partie se termine avec la présentation des différentes structures et discontinuités étudiées dans le cadre du projet CRIAQ. Finalement, la troisième et dernière partie de ce mémoire présente les travaux numériques orientés vers la conception d’un absorbant idéal pour ondes guidées. Afin d’y parvenir, une étude paramétrique quant à la forme, les dimensions et les propriétés mécaniques de l’absorbant est entreprise. Enfin, une étude expérimentale permettant de valider les résultats numériques est présentée.
Resumo:
Pour augmenter sa compréhension du monde qui l’entoure, le physicien moderne ne cesse de travailler au développement d’outils théoriques ou expérimentaux pour l’aider à répondre à ses questions fondamentales. Une partie de ces chercheurs tente de répondre à une question bien définie, mais simultanément très vague : qu’est-ce que le bruit électro- nique? Guidés par cette idée, certains étudient des dispositifs comme la jonction tunnel ou la jonction Josephson, alors que d’autres travaillent à l’amélioration des méthodes de détection du bruit. Le présent mémoire de maîtrise traite donc de la conception d’un outil de détection bien particulier, le micro-bolomètre supraconducteur de niobium-titane-niobium. La théorie derrière le fonctionnement d’un tel dispositif est expliquée à l’aide d’une comparaison entre un bolomètre conventionnel et un bolomètre supraconducteur. Des concepts comme la sensibilité d’un détecteur, la conductance thermique et la méthode d’utilisation sont présentés. Les étapes du procédé de fabrication sont ensuite explicitées dans les moindres détails. Finalement, les propriétés électroniques d’un tel micro-bolomètre sont analysées à l’aide de la courbe caractéristique courant-tension, de la courbe de transition supraconductrice en température et de dfférentes mesures en réflectométrie. La puissance équivalente de bruit (NEP) mesurée est de l’ordre de 10[indice supérieur −17] W/√Hz et le temps caractéristique de détection est de 1.43 μs. Le dispositif présenté dans ce mémoire a un avantage important par rapport aux bolomètres supraconducteurs généralement utilisés : il ne nécessite pas de courant de polarisation continu pour le mettre en fonctionnement. Ceci peut résulter en divers avantages technologiques.