42 resultados para Capteurs


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'attaque de retransmission sélective est une menace sérieuse dans les réseaux de capteurs sans fil (WSN), en particulier dans les systèmes de surveillance. Les noeuds peuvent supprimer de manière malicieuse certains paquets de données sensibles, ce qui risque de détruire la valeur des données assemblées dans le réseau et de diminuer la disponibilité des services des capteurs. Nous présentons un système de sécurité léger basé sur l'envoi de faux rapports pour identifier les attaques de retransmission sélective après avoir montré les inconvénients des systèmes existants. Le grand avantage de notre approche est que la station de base attend une séquence de faux paquets à un moment précis sans avoir communiqué avec les noeuds du réseau. Par conséquent, elle sera capable de détecter une perte de paquets. L'analyse théorique montre que le système proposé peut identifier ce type d'attaque et peut alors améliorer la robustesse du réseau dans des conditions d'un bon compromis entre la fiabilité de la sécurité et le coût de transmission. Notre système peut atteindre un taux de réussite élevé d‟identification face à un grand nombre de noeuds malicieux, tandis que le coût de transmission peut être contrôlé dans des limites raisonnables.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La sécurité des systèmes de transports intelligents est au centre de tous les débats. Afin de s’assurer un fonctionnement sécuritaire, il est nécessaire de pouvoir vérifier le bon fonctionnement des capteurs permettant d’avoir une parfaite connaissance de l’environnement et de l’état du véhicule. Cette thèse présente une nouvelle solution de détection et d’identification de faute pouvant apparaitre sur les capteurs embarqués d’un véhicule intelligent. Cette méthode est basée sur la redondance analytique des données, consistant à estimer une même mesure à l’aide de capteurs de différentes natures. Cette mesure subit alors une transformation non linéaire permettant à la fois d’accroitre la sensibilité aux fautes et d’être plus robuste aux bruits. Cette étude propose plusieurs solutions de transformation et d’estimation qui seront évaluées en simulation avant de proposer une méthode d’optimisation de la prise de décision en fonction de critères choisis par l’utilisateur. La description de l’architecture, des méthodes employées ainsi que des équations permettant l’établissement de celle-ci seront décrites dans le chapitre 3. L’évaluation en simulation des performances de l’architecture sera effectuée dans le chapitre 4 avant une analyse finale des résultats ainsi qu’une comparaison avec une solution existante dans le dernier chapitre, permettant la validation de notre approche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'imagerie intravasculaire ultrasonore (IVUS) est une technologie médicale par cathéter qui produit des images de coupe des vaisseaux sanguins. Elle permet de quantifier et d'étudier la morphologie de plaques d'athérosclérose en plus de visualiser la structure des vaisseaux sanguins (lumière, intima, plaque, média et adventice) en trois dimensions. Depuis quelques années, cette méthode d'imagerie est devenue un outil de choix en recherche aussi bien qu'en clinique pour l'étude de la maladie athérosclérotique. L'imagerie IVUS est par contre affectée par des artéfacts associés aux caractéristiques des capteurs ultrasonores, par la présence de cônes d'ombre causés par les calcifications ou des artères collatérales, par des plaques dont le rendu est hétérogène ou par le chatoiement ultrasonore (speckle) sanguin. L'analyse automatisée de séquences IVUS de grande taille représente donc un défi important. Une méthode de segmentation en trois dimensions (3D) basée sur l'algorithme du fast-marching à interfaces multiples est présentée. La segmentation utilise des attributs des régions et contours des images IVUS. En effet, une nouvelle fonction de vitesse de propagation des interfaces combinant les fonctions de densité de probabilité des tons de gris des composants de la paroi vasculaire et le gradient des intensités est proposée. La segmentation est grandement automatisée puisque la lumière du vaisseau est détectée de façon entièrement automatique. Dans une procédure d'initialisation originale, un minimum d'interactions est nécessaire lorsque les contours initiaux de la paroi externe du vaisseau calculés automatiquement sont proposés à l'utilisateur pour acceptation ou correction sur un nombre limité d'images de coupe longitudinale. La segmentation a été validée à l'aide de séquences IVUS in vivo provenant d'artères fémorales provenant de différents sous-groupes d'acquisitions, c'est-à-dire pré-angioplastie par ballon, post-intervention et à un examen de contrôle 1 an suivant l'intervention. Les résultats ont été comparés avec des contours étalons tracés manuellement par différents experts en analyse d'images IVUS. Les contours de la lumière et de la paroi externe du vaisseau détectés selon la méthode du fast-marching sont en accord avec les tracés manuels des experts puisque les mesures d'aire sont similaires et les différences point-à-point entre les contours sont faibles. De plus, la segmentation par fast-marching 3D s'est effectuée en un temps grandement réduit comparativement à l'analyse manuelle. Il s'agit de la première étude rapportée dans la littérature qui évalue la performance de la segmentation sur différents types d'acquisition IVUS. En conclusion, la segmentation par fast-marching combinant les informations des distributions de tons de gris et du gradient des intensités des images est précise et efficace pour l'analyse de séquences IVUS de grandes tailles. Un outil de segmentation robuste pourrait devenir largement répandu pour la tâche ardue et fastidieuse qu'est l'analyse de ce type d'images.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une série de dimères composés de thiophène-aniline encombrée stériquement a été synthétisée. Les différents processus de désactivation de l’état singulet excité ont été étudiés par UV-visible, fluorescence, phosphorescence, photolyse par impulsion laser et calculs théoriques. Les graphiques de Stern-Volmer obtenus à partir des expériences de désactivation des états singulet et triplet ont démontré l’efficacité de l’azométhine à désactiver les fluorophores. Les calculs semi-empiriques AM1 examinant l’effet des substituants encombrés ont démontrés que les groupements tert-butyls sur l’aniline ont moins d’influence sur la barrière de rotation N-aryl que les substitutions alkyles en ont sur la rotation de thiophène-C. Les calculs Rehm-Weller basés sur les potentiels d’oxydation et de réduction ont montré que l’autodésactivation de l’état excité des azométhines se fait par transfert d’électron photoinduit menant à une éradication complète de la fluorescence. Des complexes métalliques contenant des ligands azométhines ont aussi été préparés. Le ligand est composé d’une unité hydroxyquinoline lié à un cycle thiophène. Les données photophysiques de ces complexes indiquent un déplacement bathochromique aussi bien en absorbance qu’en fluorescence. Des dispositifs de détection d’ion métallique ont été préparés et un exemple à partir d’une solution de cuivre a montré un déplacement bathochromique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les microcantileviers fonctionnalisés offrent une plateforme idéale pour la nano- et micro-mécanique et pour le développement de (bio-) capteurs tres sensible. Le principe d’opération consiste dans des évènements physicochimiques qui se passent du côté fonctionnalisé du microcantilevier induisant une différence de stress de surface entre les deux côtés du cantilevier qui cause une déflexion verticale du levier. Par contre, les facteurs et les phénomènes interfacials qui régissent la nature et l'intensité du stress de surface sont encore méconnus. Pour éclaircir ce phénomène, la première partie de cette thèse porte sur l'étude des réactions de microcantileviers qui sont recouverts d'or et fonctionnalisés par une monocouche auto-assemblée (MAA) électroactive. La formation d'une MAA de ferrocènylundécanethiol (FcC11SH) à la surface d'or d'un microcantilevier est le modèle utilisé pour mieux comprendre le stress de surface induit par l’électrochimie. Les résultats obtenus démontrent qu'une transformation rédox de la MAA de FcC11SH crée un stress de surface qui résulte dans une déflexion verticale du microcantilevier. Dépendamment de la flexibilité du microcantilevier, cette déflexion peut varier de quelques nanomètres à quelques micromètres. L’oxydation de cette MAA de FcC11SH dans un environnement d'ions perchlorate génère un changement de stress de surface compressive. Les résultats indiquent que la déflexion du microcantilevier est due à une tension latérale provenant d'une réorientation et d'une expansion moléculaire lors du transfért de charge et de pairage d’anions. Pour vérifier cette hypothèse, les mêmes expériences ont été répéteés avec des microcantileviers qui ont été couverts d'une MAA mixte, où les groupements électroactifs de ferrocène sont isolés par des alkylthiols inactifs. Lorsqu’un potentiel est appliqué, un courant est détecté mais le microcantilevier ne signale aucune déflexion. Ces résultats confirment que la déflexion du microcantilevier est due à une pression latérale provenant du ferrocènium qui se réorganise et qui crée une pression sur ses pairs avoisinants plutôt que du couplage d’anions. L’amplitude de la déflexion verticale du microcantilevier dépend de la structure moléculaire de la MAA et du le type d’anion utilisés lors de la réaction électrochimique. Dans la prochaine partie de la thèse, l’électrochimie et la spectroscopie de résonance de plasmon en surface ont été combinées pour arriver à une description de l’adsorption et de l’agrégation des n-alkyl sulfates à l’interface FcC11SAu/électrolyte. À toutes les concentrations de solution, les molécules d'agent tensio-actif sont empilées perpendiculairement à la surface d'électrode sous forme de monocouche condensé entrecroisé. Cependant, la densité du film spécifiquement adsorbé s'est avérée être affectée par l'état d'organisation des agents tensio-actifs en solution. À faible concentration, où les molécules d'agent tensio-actif sont présentes en tant que monomères solvatés, les monomères peuvent facilement s'adapter à l’évolution de la concentration en surface du ferrocènium lors du balayage du potential. Cependant, lorsque les molécules sont présentes en solution en tant que micelles une densité plus faible d'agent tensio-actif a été trouvée en raison de l'incapacité de répondre effectivement à la surface de ferrocenium générée dynamiquement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’électrofilage est une technique permettant de fabriquer des fibres polymériques dont le diamètre varie entre quelques nanomètres et quelques microns. Ces fibres ont donc un rapport surface/volume très élevé. Les fibres électrofilées pourraient trouver des applications dans le relargage de médicaments et le génie tissulaire, comme membranes et capteurs chimiques, ou dans les nanocomposites et dispositifs électroniques. L’électrofilage était initialement utilisé pour préparer des toiles de fibres désordonnées, mais il est maintenant possible d’aligner les fibres par l’usage de collecteurs spéciaux. Cependant, il est important de contrôler non seulement l’alignement macroscopique des fibres mais aussi leur orientation au niveau moléculaire puisque l’orientation influence les propriétés mécaniques, optiques et électriques des polymères. Les complexes moléculaires apparaissent comme une cible de choix pour produire des nanofibres fortement orientées. Dans les complexes d’inclusion d’urée, les chaînes polymères sont empilées dans des canaux unidimensionnels construits à partir d’un réseau tridimensionnel de molécules d’urée liées par des ponts hydrogène. Ainsi, les chaînes polymère sonts très allongées à l’échelle moléculaire. Des nanofibres du complexe PEO-urée ont été préparées pour la première fois par électrofilage de suspensions et de solutions. Tel qu’attendu, une orientation moléculaire inhabituellement élevée a été observée dans ces fibres. De tels complexes orientés pourraient être utilisés à la fois dans des études fondamentales et dans la préparation de matériaux hiérarchiquement structurés. La méthode d’électrofilage peut parfois aussi être utilisée pour préparer des matériaux polymériques métastables qui ne peuvent pas être préparés par des méthodes conventionnelles. Ici, l’électrofilage a été utilisé pour préparer des fibres des complexes stables (α) et "métastables" (β) entre le PEO et l’urée. La caractérisation du complexe β, qui était mal connu, révèle un rapport PEO:urée de 12:8 appartenant au système orthorhombique avec a = 1.907 nm, b = 0.862 nm et c = 0.773 nm. Les chaînes de PEO sont orientées selon l’axe de la fibre. Leur conformation est significativement affectée par les ponts hydrogène. Une structure en couches a été suggérée pour la forme β, plutôt que la structure conventionnelle en canaux adoptée par la forme α. Nos résultats indiquent que le complexe β est thermodynamiquement stable avant sa fonte et peut se transformer en forme α et en PEO liquide par un processus de fonte et recristallisation à 89 ºC. Ceci va dans le sens contraire aux observations faites avec le complexe β obtenu par trempe du complexe α fondu. En effet, le complexe β ainsi obtenu est métastable et contient des cristaux d’urée. Il peut subir une transition de phases cinétique solide-solide pour produire du complexe α dans une vaste gamme de températures. Cette transition est induite par un changement de conformation du PEO et par la formation de ponts hydrogène intermoléculaires entre l’urée et le PEO. Le diagramme de phases du système PEO-urée a été tracé sur toute la gamme de compositions, ce qui a permis d’interpréter la formation de plusieurs mélanges qui ne sont pas à l’équilibre mais qui sont été observés expérimentalement. La structure et le diagramme de phases du complexe PEO-thiourée, qui est aussi un complexe très mal connu, ont été étudiés en détail. Un rapport molaire PEO :thiourée de 3:2 a été déduit pour le complexe, et une cellule monoclinique avec a = 0.915 nm, b = 1.888 nm, c = 0.825 nm et β = 92.35º a été déterminée. Comme pour le complexe PEO-urée de forme β, une structure en couches a été suggérée pour le complexe PEO-thiourée, dans laquelle les molécules de thiourée seraient disposées en rubans intercalés entre deux couches de PEO. Cette structure en couches pourrait expliquer la température de fusion beaucoup plus faible des complexes PEO-thiourée (110 ºC) et PEO-urée de forme β (89 ºC) en comparaison aux structures en canaux du complexe PEO-urée de forme α (143 ºC).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques années, la recherche dans le domaine des réseaux maillés sans fil ("Wireless Mesh Network (WMN)" en anglais) suscite un grand intérêt auprès de la communauté des chercheurs en télécommunications. Ceci est dû aux nombreux avantages que la technologie WMN offre, telles que l'installation facile et peu coûteuse, la connectivité fiable et l'interopérabilité flexible avec d'autres réseaux existants (réseaux Wi-Fi, réseaux WiMax, réseaux cellulaires, réseaux de capteurs, etc.). Cependant, plusieurs problèmes restent encore à résoudre comme le passage à l'échelle, la sécurité, la qualité de service (QdS), la gestion des ressources, etc. Ces problèmes persistent pour les WMNs, d'autant plus que le nombre des utilisateurs va en se multipliant. Il faut donc penser à améliorer les protocoles existants ou à en concevoir de nouveaux. L'objectif de notre recherche est de résoudre certaines des limitations rencontrées à l'heure actuelle dans les WMNs et d'améliorer la QdS des applications multimédia temps-réel (par exemple, la voix). Le travail de recherche de cette thèse sera divisé essentiellement en trois principaux volets: le contrôle d‟admission du trafic, la différentiation du trafic et la réaffectation adaptative des canaux lors de la présence du trafic en relève ("handoff" en anglais). Dans le premier volet, nous proposons un mécanisme distribué de contrôle d'admission se basant sur le concept des cliques (une clique correspond à un sous-ensemble de liens logiques qui interfèrent les uns avec les autres) dans un réseau à multiples-sauts, multiples-radios et multiples-canaux, appelé RCAC. Nous proposons en particulier un modèle analytique qui calcule le ratio approprié d'admission du trafic et qui garantit une probabilité de perte de paquets dans le réseau n'excédant pas un seuil prédéfini. Le mécanisme RCAC permet d‟assurer la QdS requise pour les flux entrants, sans dégrader la QdS des flux existants. Il permet aussi d‟assurer la QdS en termes de longueur du délai de bout en bout pour les divers flux. Le deuxième volet traite de la différentiation de services dans le protocole IEEE 802.11s afin de permettre une meilleure QdS, notamment pour les applications avec des contraintes temporelles (par exemple, voix, visioconférence). À cet égard, nous proposons un mécanisme d'ajustement de tranches de temps ("time-slots"), selon la classe de service, ED-MDA (Enhanced Differentiated-Mesh Deterministic Access), combiné à un algorithme efficace de contrôle d'admission EAC (Efficient Admission Control), afin de permettre une utilisation élevée et efficace des ressources. Le mécanisme EAC prend en compte le trafic en relève et lui attribue une priorité supérieure par rapport au nouveau trafic pour minimiser les interruptions de communications en cours. Dans le troisième volet, nous nous intéressons à minimiser le surcoût et le délai de re-routage des utilisateurs mobiles et/ou des applications multimédia en réaffectant les canaux dans les WMNs à Multiples-Radios (MR-WMNs). En premier lieu, nous proposons un modèle d'optimisation qui maximise le débit, améliore l'équité entre utilisateurs et minimise le surcoût dû à la relève des appels. Ce modèle a été résolu par le logiciel CPLEX pour un nombre limité de noeuds. En second lieu, nous élaborons des heuristiques/méta-heuristiques centralisées pour permettre de résoudre ce modèle pour des réseaux de taille réelle. Finalement, nous proposons un algorithme pour réaffecter en temps-réel et de façon prudente les canaux aux interfaces. Cet algorithme a pour objectif de minimiser le surcoût et le délai du re-routage spécialement du trafic dynamique généré par les appels en relève. Ensuite, ce mécanisme est amélioré en prenant en compte l‟équilibrage de la charge entre cliques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Par cette recherche, nous voulons évaluer de manière exhaustive les bénéfices qu’apporte l’ExAO (Expérimentation Assistée par Ordinateur) dans les laboratoires scolaires de sciences et technologie au Liban. Nous aimerions aussi qu’elle contribue d’une manière tangible aux recherches du laboratoire de Robotique Pédagogique de l’Université de Montréal, notamment dans le développement du µlaboratoire ExAO. Nous avons voulu tester les capacités de l’ExAO, son utilisation en situation de classe comme : 1. Substitut d’un laboratoire traditionnel dans l’utilisation de la méthode expérimentale; 2. Outil d’investigation scientifique; 3. Outil d’intégration des sciences expérimentales et des mathématiques; 4. Outil d’intégration des sciences expérimentales, des mathématiques et de la technologie dans un apprentissage technoscientifique; Pour ce faire, nous avons mobilisé 13 groupe-classes de niveaux complémentaire et secondaire, provenant de 10 écoles libanaises. Nous avons désigné leurs enseignants pour expérimenter eux-mêmes avec leurs étudiants afin d’évaluer, de manière plus réaliste les avantages d’implanter ce micro laboratoire informatisé à l’école. Les différentes mise à l’essai, évaluées à l’aide des résultats des activités d’apprentissage réalisées par les étudiants, de leurs réponses à un questionnaire et des commentaires des enseignants, nous montrent que : 1. La substitution d’un laboratoire traditionnel par un µlaboratoire ExAO ne semble pas poser de problème; dix minutes ont suffi aux étudiants pour se familiariser avec cet environnement, mentionnant que la rapidité avec laquelle les données étaient représentées sous forme graphique était plus productive. 2. Pour l’investigation d’un phénomène physique, la convivialité du didacticiel associée à la capacité d’amplifier le phénomène avant de le représenter graphiquement a permis aux étudiants de concevoir et de mettre en œuvre rapidement et de manière autonome, une expérimentation permettant de vérifier leur prédiction. 3. L’intégration des mathématiques dans une démarche expérimentale permet d’appréhender plus rapidement le phénomène. De plus, elle donne un sens aux représentations graphiques et algébriques, à l’avis des enseignants, permettant d’utiliser celle-ci comme outil cognitif pour interpréter le phénomène. 4. La démarche réalisée par les étudiants pour concevoir et construire un objet technologique, nous a montré que cette activité a été réalisée facilement par l’utilisation des capteurs universels et des amplificateurs à décalage de l’outil de modélisation graphique ainsi que la capacité du didacticiel à transformer toute variable mesurée par une autre variable (par exemple la variation de résistance en variation de température, …). Cette activité didactique nous montre que les étudiants n’ont eu aucune difficulté à intégrer dans une même activité d’apprentissage les mathématiques, les sciences expérimentales et la technologie, afin de concevoir et réaliser un objet technologique fonctionnel. µlaboratoire ExAO, en offrant de nouvelles possibilités didactiques, comme la capacité de concevoir, réaliser et valider un objet technologique, de disposer pour ce faire, des capacités nouvelles pour amplifier les mesures, modéliser les phénomènes physiques, créer de nouveaux capteurs, est un ajout important aux expériences actuellement réalisées en ExAO.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces travaux visent à étendre les applications de la résonance de plasmons de surface (SPR) L’objectif est d’offrir des outils diagnostics plus rapides, efficaces et simple d’utilisation pour diagnostiquer ou effectuer le suivi de conditions cliniques. Pour se faire, un nouveau type d’instrumentation SPR basé sur l’utilisation d’un prisme d’inversion (dove) a permis d’atteindre une limite de détection (LOD) de 10-6 unité d’indice de réfraction (RIU), une valeur comparable aux instruments commerciaux complexes tout en demeurant peu dispendieux, robuste et simple d’utilisation. Les travaux présentés dans cet ouvrage visent, dans un second temps, à réduire les interactions nonspécifiques (NSB) entre la surface des biocapteurs SPR et les composants de la matrice biologique complexe telles que: l’urine, le lysat cellulaire, le sérum et le sang. Ces dernières induisent des réponses empêchant l’utilisation de biocapteurs SPR en milieux complexes. Les acides aminés (AA) offrent une grande variété de propriétés physico-chimiques permettant la mise au point de monocouches auto-assemblées (SAM) aux propriétés diverses. Initialement, 19 des 20 acides aminés naturels ont été attachés à l’acide 3-mercaptopropionique (3-MPA) formant des SAMs peptidomimétiques. La quantité d’interactions nonspécifiques engendrées par ces différentes surfaces a été mesurée en exposant ces surfaces au sérum sanguin bovin complet variant de 400 ng/cm² jusqu’à 800 ng/cm². La détection à l’aide de ces surfaces de la β-lactamase (une enzyme responsable de la résistance aux antibiotiques au niveau μM) a démontré la possibilité d’employer ces surfaces pour bâtir des biocapteurs SPR. Des peptides de longueur allant de 2 à 5 résidus attachés à 3-MPA ont été synthétisés sur support solide. Cette étude a démontré que l’augmentation de la longueur des peptides formés d’AA résistants aux NBS accroit leur résistance jusqu’à 5 résidus. Le composé le plus performant de ce type (3-MPA-(Ser)5-OH) a permis d’atteindre 180 ng/cm². Cette valeur est similaire à celle des meilleures surfaces disponibles commercialement, notamment les surfaces de polyethylène glycol (PEG) à 100 ng/cm². Des surfaces de 3-MPA-(Ser)5-OH ont permis l’étalonnage de la β-lactamase et sa quantification directe dans un lysat cellulaire. La LOD pour ces biocapteurs est de 10 nM. Une troisième génération de surfaces peptidiques binaires a permis la réduction de la NSB jusqu’à un niveau de 23±10 ng/cm² une valeur comparable aux meilleures surfaces disponibles. Ces surfaces ont permis l’étalonnage d’un indicateur potentiel du cancer la metalloprotéinase-3 de matrice (MMP-3). Les surfaces formées de peptides binaires (3-MPA-H3D2-OH) ont permis la quantification directe de la MMP-3 dans le sérum sanguin complet. Une quatrième génération de surfaces peptidiques a permis de réduire davantage le niveau de NSB jusqu’à une valeur de 12 ± 11 ng/cm². Ces surfaces ont été modifiées en y attachant une terminaison de type acide nitriloacétique (NTA) afin d’y attacher des biomolécules marquées par six résidus histidines terminaux. Ces surfaces ont permis le développement d’une méthode rapide de balayage des ligands ciblant le « cluster of differenciation-36 » (CD36). L’étude d’électroformation des monocouches de peptide a permis de déterminer les conditions de formation optimales d’une couche de 3-MPA-HHHDD-OH permettant ainsi la formation de monocouches résistantes au NSB en moins de 6 minutes en appliquant un potentiel de formation de 200mV vs Ag/AgCl.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les propriétés d'une nouvelle classe de chimie de surface basée sur les monocouches auto-assemblées de liquides ioniques (ILs-SAMs), ont été étudiées pour une utilisation dans la construction de biocapteurs basés sur la résonance des plasmons de surface (SPR). Les biocapteurs sont utiles pour détecter des biomolécules spécifiques dans une matrice biologique complexe. Cependant, le signal analytique de la biomolécule spécifique peut être masqué par l’adsorption non spécifique de la matrice biologique, produisant une réponse faussement positive. Par ailleurs, l'activité des récepteurs moléculaires est souvent réduite par des techniques d'immobilisation chimique. Ainsi, il est essentiel de déterminer une surface idéale pour la préparation de biocapteurs. Les liquides ioniques sont bien connus pour favoriser l'activité des récepteurs moléculaires et cette étude enquête si cette propriété importante peut se traduire sur des capteurs SPR. Différents liquides ioniques ont été utilisés pour former des monocouches auto-assemblées sur une surface d'or. Les ILs-SAMs sont tous basés sur les sels de mercapto-(chaîne alkyle)nCH2-méthylimidazolium avec différentes chaînes alkyles (n = 3, 6, 9, 12) et différents contre-anions (Br-, BF4-, PF6-, NTf2-). Des études cinétiques de l'adsorption non spécifique de sérum bovin ont été réalisées sur des capteurs SPR avec un instrument construit sur mesure, basé sur l'interrogation des longueurs d’ondes SPR sur un prisme d’inversion d’image (dove). Par la suite, l’anti-IgG de chèvre sélective à l’IgG humain a été utilisé en tant que modèle pour la confection de biocapteurs sur les ILs-SAMs. En solution, il est possible d’effectuer des échanges du contre-anion des liquides ioniques pour un contre-anion de plus en plus hydrophobe. Cependant, l’échange inverse, soit vers des anions de plus en plus hydrophile, s’avère impossible. Toutefois, il a été observé par les travaux présentés dans ce mémoire, que les liquides ioniques immobilisés sur une surface d'or ont la capacité d'échanger leurs contre-anions réversiblement, procurant une méthode simple de moduler leurs propriétés physico-chimiques. Ce phénomène a été observé par la mesure d’angles de contacts et par les techniques spectroscopiques de l’infrarouge moyen (mid-IR), des photoélectrons de rayon-X (XPS) et par la diffusion Raman exaltée par les surfaces (SERS) ii ainsi que par la spectrométrie de masse (MS). La connaissance des propriétés d’échange d’anion est importante pour prédire le comportement de ces surfaces de liquides ioniques dans les tampons et fluides biologiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le besoin pour des biocapteurs à haute sensibilité mais simples à préparer et à utiliser est en constante augmentation, notamment dans le domaine biomédical. Les cristaux colloïdaux formés par des microsphères de polymère ont déjà prouvé leur fort potentiel en tant que biocapteurs grâce à l’association des propriétés des polymères et à la diffraction de la lumière visible de la structure périodique. Toutefois, une meilleure compréhension du comportement de ces structures est primordiale avant de pouvoir développer des capteurs efficaces et polyvalents. Ce travail propose d’étudier la formation et les propriétés des cristaux colloïdaux résultant de l’auto-assemblage de microsphères de polymère en milieu aqueux. Dans ce but, des particules avec différentes caractéristiques ont été synthétisées et caractérisées afin de corréler les propriétés des particules et le comportement de la structure cristalline. Dans un premier temps, des microsphères réticulées de polystyrène anioniques et cationiques ont été préparées par polymérisation en émulsion sans tensioactif. En variant la quantité de comonomère chargé, le chlorure de vinylbenzyltriméthylammonium ou le sulfonate styrène de sodium, des particules de différentes tailles, formes, polydispersités et charges surfaciques ont été obtenues. En effet, une augmentation de la quantité du comonomère ionique permet de stabiliser de façon électrostatique une plus grande surface et de diminuer ainsi la taille des particules. Cependant, au-dessus d’une certaine concentration, la polymérisation du comonomère en solution devient non négligeable, provoquant un élargissement de la distribution de taille. Quand la polydispersité est faible, ces microsphères chargées, même celles non parfaitement sphériques, peuvent s’auto-assembler et former des cristaux colloïdaux diffractant la lumière visible. Il semble que les répulsions électrostatiques créées par les charges surfaciques favorisent la formation de la structure périodique sur un grand domaine de concentrations et améliorent leur stabilité en présence de sel. Dans un deuxième temps, le besoin d’un constituant stimulable nous a orientés vers les structures cœur-écorce. Ces microsphères, synthétisées en deux étapes par polymérisation en émulsion sans tensioactif, sont formées d’un cœur de polystyrène et d’une écorce d’hydrogel. Différents hydrogels ont été utilisés afin d’obtenir des propriétés différentes : le poly(acide acrylique) pour sa sensibilité au pH, le poly(N-isopropylacrylamide) pour sa thermosensibilité, et, enfin, le copolymère poly(N-isopropylacrylamide-co-acide acrylique) donnant une double sensibilité. Ces microsphères forment des cristaux colloïdaux diffractant la lumière visible à partir d’une certaine concentration critique et pour un large domaine de concentrations. D’après les changements observés dans les spectres de diffraction, les stimuli ont un impact sur la structure cristalline mais l’amplitude de cet effet varie avec la concentration. Ce comportement semble être le résultat des changements induits par la transition de phase volumique sur les interactions entre particules plutôt qu’une conséquence du changement de taille. Les interactions attractives de van der Waals et les répulsions stériques sont clairement affectées par la transition de phase volumique de l’écorce de poly(N-isopropylacrylamide). Dans le cas des microsphères sensibles au pH, les interactions électrostatiques sont aussi à considérer. L’effet de la concentration peut alors être mis en relation avec la portée de ces interactions. Finalement, dans l’objectif futur de développer des biocapteurs de glucose, les microsphères cœur-écorce ont été fonctionnalisées avec l’acide 3-aminophénylboronique afin de les rendre sensibles au glucose. Les effets de la fonctionnalisation et de la complexation avec le glucose sur les particules et leur empilement périodique ont été examinés. La structure cristalline est visiblement affectée par la présence de glucose, même si le mécanisme impliqué reste à élucider.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse vise à définir une nouvelle méthode d’enseignement pour les systèmes tutoriels intelligents dans le but d’améliorer l’acquisition des connaissances. L’apprentissage est un phénomène complexe faisant intervenir des mécanismes émotionnels et cognitifs de nature consciente et inconsciente. Nous nous intéressons à mieux comprendre les mécanismes inconscients du raisonnement lors de l’acquisition des connaissances. L’importance de ces processus inconscients pour le raisonnement est bien documentée en neurosciences, mais demeure encore largement inexplorée dans notre domaine de recherche. Dans cette thèse, nous proposons la mise en place d’une nouvelle approche pédagogique dans le domaine de l’éducation implémentant une taxonomie neuroscientifique de la perception humaine. Nous montrons que cette nouvelle approche agit sur le raisonnement et, à tour de rôle, améliore l’apprentissage général et l’induction de la connaissance dans un environnement de résolution de problème. Dans une première partie, nous présentons l’implémentation de notre nouvelle méthode dans un système tutoriel visant à améliorer le raisonnement pour un meilleur apprentissage. De plus, compte tenu de l’importance des mécanismes émotionnels dans l’apprentissage, nous avons également procédé dans cette partie à la mesure des émotions par des capteurs physiologiques. L’efficacité de notre méthode pour l’apprentissage et son impact positif observé sur les émotions a été validée sur trente et un participants. Dans une seconde partie, nous allons plus loin dans notre recherche en adaptant notre méthode visant à améliorer le raisonnement pour une meilleure induction de la connaissance. L’induction est un type de raisonnement qui permet de construire des règles générales à partir d’exemples spécifiques ou de faits particuliers. Afin de mieux comprendre l’impact de notre méthode sur les processus cognitifs impliqués dans ce type de raisonnement, nous avons eu recours à des capteurs cérébraux pour mesurer l’activité du cerveau des utilisateurs. La validation de notre approche réalisée sur quarante-trois volontaires montre l’efficacité de notre méthode pour l’induction de la connaissance et la viabilité de mesurer le raisonnement par des mesures cérébrales suite à l’application appropriée d’algorithmes de traitement de signal. Suite à ces deux parties, nous clorons la thèse par une discussion applicative en décrivant la mise en place d’un nouveau système tutoriel intelligent intégrant les résultats de nos travaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’auteur traite ici de la télémédecine, une sorte d’application des technologies de l’information et de la communication aux activités du secteur des soins de santé. Il fait d’abord état des nombreux produits et services qu’offre cette application, allant de la prise de rendez-vous chez le médecin grâce à l’informatique, aux vêtements dits intelligents et qui sont munis de capteurs permettant la délivrance à distance des médicaments directement au patient. Le nombre d’applications de la télémédecine étant quasi illimité, nombreuses deviennent les informations à gérer et qui se rapportent tant aux patients qu’au personnel soignant et qu’à leurs collaborateurs. Cela pose évidemment le problème de la confidentialité et de la sécurité se rapportant à de telles applications. C'est justement cette question qui sera traitée par l’auteur qui nous rappelle d’abord l’importance en Europe de l’encadrement juridique de la télémédecine afin d’assurer la protection des données médicales. Une telle protection a surtout été consacrée à travers des directives émanant de la Communauté européenne où la confidentialité et la sécurité des traitements de données ne sont qu’une partie des règles qui assurent la protection des données médicales.