26 resultados para Détection précoce

em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche porte sur les caractéristiques familiales associées à l'initiation précoce à la consommation de psychotropes chez les enfants âgés de 10, 11 et 12 ans. Cette étude s'appuie sur le constat suivant : bien que la plupart des individus s'initient à la consommation de psychotropes au cours de l'adolescence ou au début de l'âge adulte, un certain nombre d'entre eux en consommeront dès l'enfance (Oxford, Harachi, Catalano et Abbott, 2000). Aussi, on note que depuis le début des années 1990, les jeunes manifesteraient de moins en moins leur désapprobation à l'égard de la consommation de psychotropes, augmentant ainsi le niveau d'inquiétude face à cette situation (Johnston, O'Malley et Bachman, 1999). Il est reconnu que les enfants qui s'initient à la consommation de psychotropes, tels que le tabac, l'alcool et la marijuana, avant l'âge de 12 ans augmentent singulièrement leurs risques de développer des problèmes de consommation (abus, dépendance) à l'adolescence et à l'âge adulte (Kuperman, Chan, Kramer, Bierut, Bucholz, Fox, Hesselbrock et al. , 2005; Lambert, 2005), et de présenter différents problèmes d'adaptation sur les plans personnel, familial et social (Kuperman et al. , 2005). II semble donc important de s'intéresser à cette problématique, d'autant plus que la période de développement prépubertaire est reconnue fondamentale, notamment sur le plan du développement social, émotionnel, physique, comportemental, cognitif et affectif (Thomassin, 2004). Afin d'intervenir en amont de ces difficultés et d'offrir des programmes de prévention adaptés aux enfants s'étant initiés précocement aux psychotropes, il s'avère essentiel de mieux connaître les caractéristiques familiales associées à ce phénomène (Gouvernement du Québec, 2001). Cela se justifie par le fait qu'il appartient au système familial d'exercer une influence positive afin que l'enfant adopte des comportements adaptés (Clark, Cornelius, Kirisci, et Tarter, 2005; Sung, Erkanli, Angold, et Costello, 2003; Thomassin, 2004). On retrouve effectivement différentes caractéristiques familiales qui seraient associées à l'initiation précoce des enfants à la consommation de psychotropes, notamment, la structure familiale (Saint-Jacques, Turcotte, Drapeau, Cloutier et Doré, 2004), les caractéristiques personnelles des parents dont la présence d'un problème avec la justice, de santé mentale ou de consommation de psychotropes, les pratiques éducatives lacunaires des parents à l'égard des enfants, ainsi qu'un faible engagement parental (Vitaro, Carbonneau, Gosselin, Tremblay et Zoccolillo, 2000). Les objectifs de l'étude sont donc : (1) d'identifier les caractéristiques familiales associées à l'initiation précoce à la consommation de psychotropes chez ces enfants et (2) d'identifier, parmi ces caractéristiques familiales, celles qui sont les plus fortement associées à une initiation précoce aux psychotropes."--Résumé abrégé par UMI.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Considérant que l’acte de lire consiste à la fois au décodage et à la compréhension d’un message, il est apparu important d’explorer le lien entre ces composantes de la lecture, et ce, dès le préscolaire, afin d’orienter le dépistage et l’intervention auprès des enfants à risque. La recension des écrits permet de constater que les processus utilisés par le lecteur expert sont probablement aussi utilisés par le pré-lecteur entrant à la maternelle. Pour mieux connaître les relations existantes entre les habiletés liées au décodage et celles liées à la compréhension, une entrevue a été réalisée auprès de 61 participants entrant à la maternelle et des analyses corrélationnelles ont suivi ces entrevues. Les résultats confirment que le pré-lecteur utilise les mêmes processus que le lecteur et qu’il y a une corrélation entre les performances en décodage et en compréhension seulement lorsque la maîtrise des rimes est incluse dans le score global du décodage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé : Les méthodes de détection de similarités de sites de liaison servent entre autres à la prédiction de fonction et à la prédiction de cibles croisées. Ces méthodes peuvent aider à prévenir les effets secondaires, suggérer le repositionnement de médicament existants, identifier des cibles polypharmacologiques et des remplacements bio-isostériques. La plupart des méthodes utilisent des représentations basées sur les atomes, même si les champs d’interaction moléculaire (MIFs) représentent plus directement ce qui cherche à être identifié. Nous avons développé une méthode bio-informatique, IsoMif, qui détecte les similarités de MIF entre différents sites de liaisons et qui ne nécessite aucun alignement de séquence ou de structure. Sa performance a été comparée à d’autres méthodes avec des bancs d’essais, ce qui n’a jamais été fait pour une méthode basée sur les MIFs. IsoMif performe mieux en moyenne et est plus robuste. Nous avons noté des limites intrinsèques à la méthodologie et d’autres qui proviennent de la nature. L’impact de choix de conception sur la performance est discuté. Nous avons développé une interface en ligne qui permet la détection de similarités entre une protéine et différents ensembles de MIFs précalculés ou à des MIFs choisis par l’utilisateur. Des sessions PyMOL peuvent être téléchargées afin de visualiser les similarités identifiées pour différentes interactions intermoléculaires. Nous avons appliqué IsoMif pour identifier des cibles croisées potentielles de drogues lors d’une analyse à large échelle (5,6 millions de comparaisons). Des simulations d’arrimage moléculaire ont également été effectuées pour les prédictions significatives. L’objectif est de générer des hypothèses de repositionnement et de mécanismes d’effets secondaires observés. Plusieurs exemples sont présentés à cet égard.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les expériences des dernières années, dans le domaine de l'apprentissage précoce de la lecture, ont entraîné la remise en question de positions longtemps considérées comme définitives en rapport notamment avec l'âge optimal pour débuter la scolarisation et la pertinence de même que l'intérêt d'aborder à la maison des apprentissages normalement laissés à la compétence des professionnels de l'enseignement. Intéressée par ce phénomène de la rencontre précoce avec l'écrit, nous avons profité de notre double condition d'orthopédagogue et de mère de deux enfants, pour tenter d'entreprendre un processus d'apprentissage précoce de la lecture tout en conservant le recul nécessaire pour jeter un regard critique sur notre démarche. Le présent travail vise à faire le point sur ces années d'exploration en en dégageant les observations les plus significatives. Le premier chapitre contient un exposé théorique en trois volets destiné à faire ressortir les données disponibles de même que les interrogations qui demeurent en rapport avec l’apprentissage précoce de la lecture: on y retrouve un survol historique de l'évolution des positions face au développement du potentiel cognitif, une présentation des méthodes conventionnelles d'apprentissage de la lecture ainsi que des adaptations élaborées en fonction de l'apprentissage précoce, et un relevé des sources de controverses issues des premières explorations. Il se termine par la constatation que de nombreuses questions demeurent ouvertes tant sur le plan de l'approche à privilégier que sur celui des conséquences à court et à long termes. Le second chapitre comporte une présentation des sujets en cause, des éléments méthodologiques retenus et de la démarche d'objectivation des acquisitions. Le troisième chapitre est consacré à une présentation heuristique du processus d'apprentissage de la lecture; il comprend quelques précisions sur l'approche heuristique et une description détaillée du cheminement ayant conduit à la finalisation de l'apprentissage, incluant les réflexions, interrogations et modifications qui l'ont ponctuée. Le quatrième chapitre donne accès aux résultats obtenus au terme du processus d'apprentissage, leur présentation étant suivie d'une discussion générale où sont reprises les interrogations en rapport avec le potentiel d'apprentissage de l'enfant, la méthode ou plutôt, dans notre cas, l'approche la plus susceptible de permettre une intégration harmonieuse de l'écrit, la compétence des parents et les effets de l'apprentissage précoce de la lecture sur les plans cognitif et affectif. La conclusion propose certaines réflexions sur le sens et la contribution de notre démarche au-delà des aménagements techniques suggérés.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La vérification de la résistance aux attaques des implémentations embarquées des vérifieurs de code intermédiaire Java Card est une tâche complexe. Les méthodes actuelles n'étant pas suffisamment efficaces, seule la génération de tests manuelle est possible. Pour automatiser ce processus, nous proposons une méthode appelée VTG (Vulnerability Test Generation, génération de tests de vulnérabilité). En se basant sur une représentation formelle des comportements fonctionnels du système sous test, un ensemble de tests d'intrusions est généré. Cette méthode s'inspire des techniques de mutation et de test à base de modèle. Dans un premier temps, le modèle est muté selon des règles que nous avons définies afin de représenter les potentielles attaques. Les tests sont ensuite extraits à partir des modèles mutants. Deux modèles Event-B ont été proposés. Le premier représente les contraintes structurelles des fichiers d'application Java Card. Le VTG permet en quelques secondes de générer des centaines de tests abstraits. Le second modèle est composé de 66 événements permettant de représenter 61 instructions Java Card. La mutation est effectuée en quelques secondes. L'extraction des tests permet de générer 223 tests en 45 min. Chaque test permet de vérifier une précondition ou une combinaison de préconditions d'une instruction. Cette méthode nous a permis de tester différents mécanismes d'implémentations de vérifieur de code intermédiaire Java Card. Bien que développée pour notre cas d'étude, la méthode proposée est générique et a été appliquée à d'autres cas d'études.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La sécurité des systèmes de transports intelligents est au centre de tous les débats. Afin de s’assurer un fonctionnement sécuritaire, il est nécessaire de pouvoir vérifier le bon fonctionnement des capteurs permettant d’avoir une parfaite connaissance de l’environnement et de l’état du véhicule. Cette thèse présente une nouvelle solution de détection et d’identification de faute pouvant apparaitre sur les capteurs embarqués d’un véhicule intelligent. Cette méthode est basée sur la redondance analytique des données, consistant à estimer une même mesure à l’aide de capteurs de différentes natures. Cette mesure subit alors une transformation non linéaire permettant à la fois d’accroitre la sensibilité aux fautes et d’être plus robuste aux bruits. Cette étude propose plusieurs solutions de transformation et d’estimation qui seront évaluées en simulation avant de proposer une méthode d’optimisation de la prise de décision en fonction de critères choisis par l’utilisateur. La description de l’architecture, des méthodes employées ainsi que des équations permettant l’établissement de celle-ci seront décrites dans le chapitre 3. L’évaluation en simulation des performances de l’architecture sera effectuée dans le chapitre 4 avant une analyse finale des résultats ainsi qu’une comparaison avec une solution existante dans le dernier chapitre, permettant la validation de notre approche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les jeunes ayant des problèmes de conduites (PC) sont à risque d'avoir des conséquences développementales majeures tout au long de leur vie. Ces conséquences entraînent d'importants coûts autant pour eux que pour la société. Parmi celles-ci, il y a la sexualité précoce, qui doit faire l'objet d'études auprès des jeunes présentant des PC puisqu’elle augmente le risque de contracter une maladie transmise sexuellement, de vivre une grossesse non désirée chez les filles ou de la parentalité précoce chez ces jeunes en général. Selon la théorie développementale de Moffitt (1993), les jeunes, dont les conduites antisociales débutent avant 10 ans et qui persistent jusqu'à l'âge adulte, sont les plus à risque de sexualité précoce. Chez ces jeunes, il serait possible de prédire la sexualité précoce en se basant sur trois domaines de facteurs de risque : les conditions sociofamiliales adverses et les pratiques parentales inadéquates, le comportement de l'enfant et son tempérament, ainsi que le développement neurocognitif (Moffitt et Caspi, 2001). Dans la documentation scientifique, certains auteurs ont montré que des facteurs de risque de ces domaines étaient associés à la sexualité précoce. Néanmoins, plusieurs facteurs (p.ex. : la précocité des PC ou les facteurs du développement neurocognitif) demeurent à explorer. Le présent mémoire a pour objectif d'examiner le poids relatif de différents facteurs associés au risque de sexualité précoce chez les jeunes présentant des PC ou à risque d'en présenter. De plus, afin de vérifier si les mêmes facteurs sont associés à la sexualité précoce pour les filles et les garçons, les interactions entre les facteurs associés à la sexualité précoce et le sexe ont été explorées. Provenant d'une étude longitudinale d'envergure, l'échantillon est composé de 143 jeunes qui présentaient ou non des PC au début du projet. Les résultats suggèrent que cinq variables sont associées à une augmentation du risque de sexualité précoce, soit 1- la perception de comportements de rejets indifférenciés du parent envers son enfant, 2- l'affiliation du jeune à des pairs déviants, 3- la précocité des symptômes de PC,4- le fait d’être une fille ou 5- le fait d’être un garçon et de présenter des PC précoces. De leur côté, les habiletés verbales (fluidité) diminuent le risque de sexualité précoce chez les jeunes présentant des PC ou à risque d'en présenter. Ces différents constats militent en faveur d'adapter certains programmes de prévention des conduites antisociales persistantes en y ajoutant des modules sur la sexualité. Chez les jeunes qui présentent l'ensemble de ces facteurs de risque, il serait important d'éduquer les jeunes sur la sexualité afin d'éviter que ces jeunes aient d'autres activités sexuelles à risque. Par ailleurs, il serait souhaitable d’étudier d’autres variables susceptibles d’être associées à la sexualité précoce (par ex. : l'intelligence ou la réussite en lecture). De plus, ce domaine de recherche nécessite d'autres travaux afin d'évaluer si les facteurs associés à la sexualité précoce sont également liés à d'autres activités sexuelles à risque comme l'utilisation inconstante de contraception.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La paratuberculose bovine est une maladie causée par la mycobactérie Mycobacterium avium subsp. paratuberculosis (MAP). Elle est responsable d’énormes pertes économiques dans le monde. En effet, cette maladie provoque la diminution de la production laitière chez les vaches ainsi qu’un état de fatigue général en raison d’une entérite chronique chez les sujets atteints. Des indices mettent également en évidence le potentiel zoonotique de MAP et malheureusement aucun traitement n’est connu à ce jour. Ainsi, les stratégies actuelles pour contrer la maladie dans les troupeaux reposent plutôt sur des actions préventives. Actuellement, le diagnostic de la paratuberculose reste difficile et la prévalence de la maladie est probablement sous-estimée dans les troupeaux en raison de la faible sensibilité des tests diagnostiques. Dans l’optique de développer une nouvelle méthode diagnostique pour la paratuberculose, ce projet de recherche s’est établi en deux étapes : la mise en place d’un système de diagnostic robuste des animaux par les méthodes de dépistage traditionnelles, incluant une étude comparative de l’efficacité de trousses commerciales, et finalement l’étude de la prolifération cellulaire spécifique des lymphocytes comme d’une épreuve diagnostique pour la maladie. Ainsi, la comparaison des trousses commerciales a démontré un écart d’efficacité qui a permis d’établir de nouvelles recommandations pour l’analyse des animaux ainsi que l’amélioration du diagnostic de la paratuberculose dans les troupeaux. Concernant le développement d’une méthode de diagnostique basée sur la prolifération lymphocytaire, de nombreuses difficultés techniques ont entravé le bon déroulement du projet mais ces travaux montrent la possibilité de caractériser de manière plus complète les différents types lymphocytaires par cytométrie de flux chez le bovin laitier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude de cas analyse l'intervention éducative d'un enseignant du primaire qui a mis en oeuvre un dispositif didactique et pédagogique intégrant de façon systématique l'informatique scolaire à une pédagogie du projet dans le but de mieux répondre aux besoins liés à l'apprentissage d'élèves provenant d'un milieu socioéconomiquement faible.Cette étude longitudinale (1998-2001) fait ressortir l'impact de l'agir professionnel sur la réussite scolaire. La problématique de notre recherche s'inscrit dans la foulée de la réforme en cours, dont l'une des visées est de contrer le retard scolaire au primaire et le risque d'échec et d'abandon scolaire précoce au secondaire. Quatre dimensions éclairent l'implémentation du dispositif: l'équité sociale, les changements épistémologiques, une orientation vers la socialisation et le rôle des TIC pour soutenir le développement des compétences transversales. Le cadre conceptuel s'appuie sur une perspective socioconstructiviste cohérente avec la théorie de l'anthropologie culturelle de Vygotsky (1978) pour qui l'apprentissage ne se fait pas seul, mais avec l'aide de pairs plus avancés en contexte de cognition située. La médiation de l'enseignant, par sa réflexion en action , en synchronie avec les besoins immédiats de ses élèves, établit le lien entre enseignant et apprenants, pour qu'ils puissent développer un esprit d'initiative, ainsi que la responsabilité et l'autonomie pour assumer leurs apprentissages. Une méthodologie mixte interreliant des méthodes qualitatives et quantitatives a exigé un recueil de données sur des dimensions descriptives et évaluatives. Des données de deuxième ordre, issues d'une recherche FCAR (98-NT-004), ont permis de dégager des caractéristiques spécifiques à la planification, à la gestion de classe et aux comportements de l'"enseignant-cible" en contexte de pédagogie du projet. Les résultats obtenus par les 23 élèves aux examens sommatifs de 6e année témoignent de l'efficacité de l'intervention. La présente étude pourrait avoir des retombées en tant que modèle pour d'autres chercheurs intéressés à étudier l'impact des TIC comme matériel didactique. Sur le plan de la pratique, ce type d'intervention serait un moyen efficace pour contrer le décrochage scolaire chez les élèves en mobilisant leurs capacités de s'adapter avec succès à leur environnement, malgré les facteurs de risque qui pourraient les inhiber.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Les photodiodes à avalanche monophotonique (SPAD) sont d'intérêts pour les applications requérant la détection de photons uniques avec une grande résolution temporelle, comme en physique des hautes énergies et en imagerie médicale. En fait, les matrices de SPAD, souvent appelés photomultiplicateurs sur silicium (SiPM), remplacent graduellement les tubes photomultiplicateurs (PMT) et les photodiodes à avalanche (APD). De plus, il y a une tendance à utiliser les matrices de SPAD en technologie CMOS afin d'obtenir des pixels intelligents optimisés pour la résolution temporelle. La fabrication de SPAD en technologie CMOS commerciale apporte plusieurs avantages par rapport aux procédés optoélectroniques comme le faible coût, la capacité de production, l'intégration d'électronique et la miniaturisation des systèmes. Cependant, le défaut principal du CMOS est le manque de flexibilité de conception au niveau de l'architecture du SPAD, causé par le caractère fixe et standardisé des étapes de fabrication en technologie CMOS. Un autre inconvénient des matrices de SPAD CMOS est la perte de surface photosensible amenée par la présence de circuits CMOS. Ce document présente la conception, la caractérisation et l'optimisation de SPAD fabriqués dans une technologie CMOS commerciale (Teledyne DALSA 0.8µm HV CMOS - TDSI CMOSP8G). Des modifications de procédé sur mesure ont été introduites en collaboration avec l'entreprise CMOS pour optimiser les SPAD tout en gardant la compatibilité CMOS. Les matrices de SPAD produites sont dédiées à être intégrées en 3D avec de l'électronique CMOS économique (TDSI) ou avec de l'électronique CMOS submicronique avancée, produisant ainsi un SiPM 3D numérique. Ce SiPM 3D innovateur vise à remplacer les PMT, les APD et les SiPM commerciaux dans les applications à haute résolution temporelle. L'objectif principal du groupe de recherche est de développer un SiPM 3D avec une résolution temporelle de 10 ps pour usage en physique des hautes énergies et en imagerie médicale. Ces applications demandent des procédés fiables avec une capacité de production certifiée, ce qui justifie la volonté de produire le SiPM 3D avec des technologies CMOS commerciales. Ce mémoire étudie la conception, la caractérisation et l'optimisation de SPAD fabriqués en technologie TDSI-CMOSP8G.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’interaction physique humain-robot est un domaine d’étude qui s’est vu porter beaucoup d’intérêt ces dernières années. Une optique de coopération entre les deux entités entrevoit le potentiel d’associer les forces de l’humain (comme son intelligence et son adaptabilité) à celle du robot (comme sa puissance et sa précision). Toutefois, la mise en service des applications développées reste une opération délicate tant les problèmes liés à la sécurité demeurent importants. Les robots constituent généralement de lourdes machines capables de déplacements très rapides qui peuvent blesser gravement un individu situé à proximité. Ce projet de recherche aborde le problème de sécurité en amont avec le développement d’une stratégie dite "pré-collision". Celle-ci se caractérise par la conception d’un système de planification de mouvements visant à optimiser la sécurité de l’individu lors de tâches d’interaction humain-robot dans un contexte industriel. Pour ce faire, un algorithme basé sur l’échantillonnage a été employé et adapté aux contraintes de l’application visée. Dans un premier temps, l’intégration d’une méthode exacte de détection de collision certifie que le chemin trouvé ne présente, a priori, aucun contact indésirable. Ensuite, l’évaluation de paramètres pertinents introduit notre notion de sécurité et définit un ensemble d’objectifs à optimiser. Ces critères prennent en compte la proximité par rapport aux obstacles, l’état de conscience des êtres humains inclus dans l’espace de travail ainsi que le potentiel de réaction du robot en cas d'évènement imprévu. Un système inédit de combinaison d’objectifs guide la recherche et mène à l’obtention du chemin jugé comme étant le plus sûr, pour une connaissance donnée de l’environnement. Le processus de contrôle se base sur une acquisition minimale de données environnementales (dispositif de surveillance visuelle) dans le but de nécessiter une installation matérielle qui se veut la plus simple possible. Le fonctionnement du système a été validé sur le robot industriel Baxter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mise en oeuvre de systèmes de détection de défauts à même les structures ou infrastructures en génie est le sujet d’étude du Structural Health Monitoring (SHM). Le SHM est une solution efficace à la réduction des coûts associés à la maintenance de structures. Une stratégie prometteuse parmi les technologies émergentes en SHM est fondée sur l’utilisation d’ondes ultrasonores guidées. Ces méthodes sont basées sur le fait que les structures minces agissent comme guides d’ondes pour les ondes ultrasonores. Puisque les structures aéronautiques sont majoritairement minces, les ondes guidées constituent une stratégie pertinente afin d’inspecter de grandes surfaces. Toutefois, les assemblages aéronautiques sont constitués de plusieurs éléments modifiant et compliquant la propagation des ondes guidées dans celles-ci. En effet, la présence de rivets, de raidisseurs, de joints ainsi que la variation de la nature des matériaux utilisés complexifie la propagation des ondes guidées. Pour envisager la mise en oeuvre de systèmes de détection basés sur les ondes guidées, une compréhension des interactions intervenant dans ces diverses structures est nécessaire. Un tel travail entre dans le cadre du projet de collaboration CRIAQ DPHM 501 dont l’objectif principal est de développer une banque de connaissances quant à la propagation d’ondes guidées dans les structures aéronautiques. Le travail de ce mémoire présente d’abord les résultats d’études paramétriques numériques obtenus dans le cadre de ce projet CRIAQ. Puis, afin de faciliter la caractérisation expérimentale de la propagation des ondes guidées, une seconde partie du travail a porté sur le développement d’un absorbant d’ondes guidées. Cet absorbant permet également d’envisager l’extension des régions observables par les systèmes SHM. Ce deuxième volet contribue donc également au projet CRIAQ par l’atténuation de réflexions non désirées dans l’étude menée sur les maintes structures aéronautiques nourrissant la banque de connaissances. La première partie de ce mémoire relève l’état des connaissances de la littérature sur la propagation d’ondes guidées dans les structures aéronautiques. La deuxième partie présente rapidement le formalisme derrière les ondes de Lamb ainsi que les différentes approches analytiques pour caractériser les interactions entre ondes guidées et discontinuités. Par la suite, les outils utilisés pour effectuer les simulations par éléments finis sont présentés et validés par le biais d’une phase expérimentale. La deuxième partie se termine avec la présentation des différentes structures et discontinuités étudiées dans le cadre du projet CRIAQ. Finalement, la troisième et dernière partie de ce mémoire présente les travaux numériques orientés vers la conception d’un absorbant idéal pour ondes guidées. Afin d’y parvenir, une étude paramétrique quant à la forme, les dimensions et les propriétés mécaniques de l’absorbant est entreprise. Enfin, une étude expérimentale permettant de valider les résultats numériques est présentée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le dimensionnement basé sur la performance (DBP), dans une approche déterministe, caractérise les objectifs de performance par rapport aux niveaux de performance souhaités. Les objectifs de performance sont alors associés à l'état d'endommagement et au niveau de risque sismique établis. Malgré cette approche rationnelle, son application est encore difficile. De ce fait, des outils fiables pour la capture de l'évolution, de la distribution et de la quantification de l'endommagement sont nécessaires. De plus, tous les phénomènes liés à la non-linéarité (matériaux et déformations) doivent également être pris en considération. Ainsi, cette recherche montre comment la mécanique de l'endommagement pourrait contribuer à résoudre cette problématique avec une adaptation de la théorie du champ de compression modifiée et d'autres théories complémentaires. La formulation proposée adaptée pour des charges monotones, cycliques et de type pushover permet de considérer les effets non linéaires liés au cisaillement couplé avec les mécanismes de flexion et de charge axiale. Cette formulation est spécialement appliquée à l'analyse non linéaire des éléments structuraux en béton soumis aux effets de cisaillement non égligeables. Cette nouvelle approche mise en œuvre dans EfiCoS (programme d'éléments finis basé sur la mécanique de l'endommagement), y compris les critères de modélisation, sont également présentés ici. Des calibrations de cette nouvelle approche en comparant les prédictions avec des données expérimentales ont été réalisées pour les murs de refend en béton armé ainsi que pour des poutres et des piliers de pont où les effets de cisaillement doivent être pris en considération. Cette nouvelle version améliorée du logiciel EFiCoS a démontrée être capable d'évaluer avec précision les paramètres associés à la performance globale tels que les déplacements, la résistance du système, les effets liés à la réponse cyclique et la quantification, l'évolution et la distribution de l'endommagement. Des résultats remarquables ont également été obtenus en référence à la détection appropriée des états limites d'ingénierie tels que la fissuration, les déformations unitaires, l'éclatement de l'enrobage, l'écrasement du noyau, la plastification locale des barres d'armature et la dégradation du système, entre autres. Comme un outil pratique d'application du DBP, des relations entre les indices d'endommagement prédits et les niveaux de performance ont été obtenus et exprimés sous forme de graphiques et de tableaux. Ces graphiques ont été développés en fonction du déplacement relatif et de la ductilité de déplacement. Un tableau particulier a été développé pour relier les états limites d'ingénierie, l'endommagement, le déplacement relatif et les niveaux de performance traditionnels. Les résultats ont démontré une excellente correspondance avec les données expérimentales, faisant de la formulation proposée et de la nouvelle version d'EfiCoS des outils puissants pour l'application de la méthodologie du DBP, dans une approche déterministe.