379 resultados para Échographie à hautes fréquences
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
Réalisé en cotutelle avec l'Université Joseph Fourier École Doctorale Ingénierie pour la Santé,la Cognition et l'Environnement (France)
Resumo:
Cette thèse est une enquête épistémologique qui s’interroge sur la persistance de « l’éther » dans le champ de la technologie. De façon générale, le mot « éther » évoque un modèle conceptuel de la physique pré-einsteinienne, celui d’un milieu invisible permettant la propagation de la lumière et des ondes électromagnétiques. Or, ce n’est là qu’une des figures de l’éther. Dans plusieurs mythologies et cosmogonies anciennes, le nom « éther » désignait le feu originel contenu dans les plus hautes régions célestes. Aristote nommait « éther », par exemple, le « cinquième être », ou « cinquième élément ». La chimie a aussi sa propre figure de l’éther où il donne son nom à un composé chimique, le C4H10O, qui a été utilisé comme premier anesthésiant général à la fin du XIXe siècle. L’apparition soutenue dans l’histoire de ces figures disparates de l’éther, qui a priori ne semblent pas entretenir de relation entre elles, est pour nous la marque de la persistance de l’éther. Nous défendons ici l’argument selon lequel cette persistance ne se résume pas à la constance de l’attribution d’un mot ou d’un nom à différents phénomènes dans l’histoire, mais à l’actualisation d’une même signature, éthérogène. À l’invitation d’Agamben et en nous inspirant des travaux de Nietzsche et Foucault sur l’histoire-généalogie et ceux de Derrida sur la déconstruction, notre thèse amorce une enquête historique motivée par un approfondissement d’une telle théorisation de la signature. Pour y parvenir, nous proposons de placer l’éther, ou plutôt la signature-éther, au cœur de différentes enquêtes historiques préoccupées par le problème de la technologie. En abordant sous cet angle des enjeux disparates – la légitimation des savoirs narratifs, la suspension des sens, la pseudoscience et la magie, les révolutions de l’information, l’obsession pour le sans-fil, l’économie du corps, la virtualisation de la communication, etc. –, nous proposons dans cette thèse autant d’amorces pour une histoire autre, une contre-histoire.
Resumo:
Objectifs Aucun agent n’a été approuvé pour prévenir l’ototoxicité secondaire au cisplatin. Nos objectifs consistaient à évaluer la protection auditive offerte par le lactate et le N-acétylcystéine (NAC) intra-tympaniques après injection de cisplatin, ainsi que l’absorption systémique du NAC intra-tympanique. Méthodes Seize cochons d’inde formaient 2 groupes ayant reçu une solution de lactate et de NAC à 20% dans l’oreille testée. L’oreille contro-latérale a reçu une solution saline contrôle. Après 30 minutes, une injection intrapéritonéale de 3 mg/kg de cisplatin a été effectuée et répétée une fois par semaine jusqu’à une dose finale de 24 mg/kg. Les potentiels évoqués auditifs du tronc cérébral (PEATC) ont été mesurés avant les injections, après 9 mg/kg et 24 mg/kg de cisplatin. Les cochlées ont été analysées au microscope électronique à balayage. La diffusion systémique du NAC a été évaluée par chromatographie en phase liquide. Résultats Pour les oreilles contrôles, les seuils auditifs des PEATC ont augmenté uniformément sur toutes les fréquences (28,4 dB en moyenne). Le groupe lactate montrait une augmentation moins importante (17,0 dB). Les basses fréquences étaient nettement moins affectées. Le groupe NAC a subi une augmentation des seuils de 89 dB. La microscopie électronique a démontré une préservation partielle des cellules ciliées externes des cochlées traitées au lactate et une destruction complète de celles traitées au NAC. La chromatographie n’a démontré aucune diffusion de NAC. Conclusions Le lactate offre une protection partielle significative contre l’ototoxicité induite par le cisplatin. Les injections de NAC n’offrent pas de protection lorsque administrées en concentrations élevée. Le NAC intra-tympanique ne se diffuse pas systémiquement.
Resumo:
Les jeunes adultes sont plus susceptibles de subir de la violence conjugale que les adultes plus âgés. Toutefois, l'effet de se confier à propos de la violence subie sur la santé mentale est peu connu. L'objectif de cette étude est d'explorer les liens entre la violence conjugale, le soutien social et la détresse psychologique selon le sexe dans un échantillon de 233 jeunes couples. Les résultats indiquent que, pour les femmes, la fréquence de la violence psychologique subie, mais pas celle de la violence physique, était positivement associée à la détresse psychologique. Pour ces femmes, recourir à un plus grand nombre de confidents diminue la force de la relation entre la violence et de leur niveau de détresse psychologique. Pour les hommes, les fréquences de la violence physique et psychologique subies étaient positivement liées à la détresse psychologique, mais contrairement aux femmes, plus ils se sont confiés à propos de la violence qu'ils ont subi, plus leur niveau de détresse est élevé.
Resumo:
L’athérosclérose est une maladie qui cause, par l’accumulation de plaques lipidiques, le durcissement de la paroi des artères et le rétrécissement de la lumière. Ces lésions sont généralement localisées sur les segments artériels coronariens, carotidiens, aortiques, rénaux, digestifs et périphériques. En ce qui concerne l’atteinte périphérique, celle des membres inférieurs est particulièrement fréquente. En effet, la sévérité de ces lésions artérielles est souvent évaluée par le degré d’une sténose (réduction >50 % du diamètre de la lumière) en angiographie, imagerie par résonnance magnétique (IRM), tomodensitométrie ou échographie. Cependant, pour planifier une intervention chirurgicale, une représentation géométrique artérielle 3D est notamment préférable. Les méthodes d’imagerie par coupe (IRM et tomodensitométrie) sont très performantes pour générer une imagerie tridimensionnelle de bonne qualité mais leurs utilisations sont dispendieuses et invasives pour les patients. L’échographie 3D peut constituer une avenue très prometteuse en imagerie pour la localisation et la quantification des sténoses. Cette modalité d’imagerie offre des avantages distincts tels la commodité, des coûts peu élevés pour un diagnostic non invasif (sans irradiation ni agent de contraste néphrotoxique) et aussi l’option d’analyse en Doppler pour quantifier le flux sanguin. Étant donné que les robots médicaux ont déjà été utilisés avec succès en chirurgie et en orthopédie, notre équipe a conçu un nouveau système robotique d’échographie 3D pour détecter et quantifier les sténoses des membres inférieurs. Avec cette nouvelle technologie, un radiologue fait l’apprentissage manuel au robot d’un balayage échographique du vaisseau concerné. Par la suite, le robot répète à très haute précision la trajectoire apprise, contrôle simultanément le processus d’acquisition d’images échographiques à un pas d’échantillonnage constant et conserve de façon sécuritaire la force appliquée par la sonde sur la peau du patient. Par conséquent, la reconstruction d’une géométrie artérielle 3D des membres inférieurs à partir de ce système pourrait permettre une localisation et une quantification des sténoses à très grande fiabilité. L’objectif de ce projet de recherche consistait donc à valider et optimiser ce système robotisé d’imagerie échographique 3D. La fiabilité d’une géométrie reconstruite en 3D à partir d’un système référentiel robotique dépend beaucoup de la précision du positionnement et de la procédure de calibration. De ce fait, la précision pour le positionnement du bras robotique fut évaluée à travers son espace de travail avec un fantôme spécialement conçu pour simuler la configuration des artères des membres inférieurs (article 1 - chapitre 3). De plus, un fantôme de fils croisés en forme de Z a été conçu pour assurer une calibration précise du système robotique (article 2 - chapitre 4). Ces méthodes optimales ont été utilisées pour valider le système pour l’application clinique et trouver la transformation qui convertit les coordonnées de l’image échographique 2D dans le référentiel cartésien du bras robotisé. À partir de ces résultats, tout objet balayé par le système robotique peut être caractérisé pour une reconstruction 3D adéquate. Des fantômes vasculaires compatibles avec plusieurs modalités d’imagerie ont été utilisés pour simuler différentes représentations artérielles des membres inférieurs (article 2 - chapitre 4, article 3 - chapitre 5). La validation des géométries reconstruites a été effectuée à l`aide d`analyses comparatives. La précision pour localiser et quantifier les sténoses avec ce système robotisé d’imagerie échographique 3D a aussi été déterminée. Ces évaluations ont été réalisées in vivo pour percevoir le potentiel de l’utilisation d’un tel système en clinique (article 3- chapitre 5).
Resumo:
Les neurones des couches superficielles du collicule supérieur et du cortex visuel primaire du rat adulte sont sensibles à de basses fréquences spatiales de haut contraste défilant à des vitesses élevées. Entre les jours post-nataux 27-30 et l’âge adulte, les fréquences temporelles optimales des neurones du cortex visuel primaire augmentent, tandis que leurs seuils de contraste diminuent. Cependant, les fréquences spatiales optimales, les valeurs de résolution spatiale et les bandes passantes spatiales de ces neurones sont, dès l’ouverture des paupières, similaires à celles observées chez le rat adulte. Ces profils de réponse neuronale suggèrent que les projections rétino-colliculaires et rétino-géniculo-corticales sont essentiellement issues de neurones ganglionnaires rétinofuges magnocellulaires et koniocellulaires. Les neurones du cortex visuel primaire du rat ayant subi des convulsions hyperthermiques présentent, dès l’ouverture des paupières, de basses fréquences spatiales optimales, de larges bandes passantes directionnelles et temporelles ainsi que des seuils de contraste élevés par rapport aux neurones du rat normal. À l’âge adulte, de basses fréquences temporelles optimales et de larges bandes passantes spatiales sont également observées chez le rat ayant subi des convulsions hyperthermiques. L’altération des profils de réponse des neurones du cortex visuel primaire du rat ayant subi de convulsions hyperthermiques suggère un déséquilibre entre les mécanismes neuronaux excitateurs et inhibiteurs de cette aire corticale. Ces résultats suggèrent également qu’un épisode unique de convulsions fébriles infantiles suffit à altérer le développement des propriétés spatio-temporelles des champs récepteurs des neurones du cortex visuel primaire.
Resumo:
Durant les dernières décennies, la technique Langmuir-Blodgett (LB) s’est beaucoup développée dans l’approche « bottom-up » pour la création de couches ultra minces nanostructurées. Des patrons constitués de stries parallèles d’environ 100 à 200 nm de largeur ont été générés avec la technique de déposition LB de monocouches mixtes de 1,2-dilauroyl-sn-glycéro-3-phosphatidylcholine (DLPC) et de 1,2-dipalmitoyl-sn-glycéro-3-phosphatidylcholine (DPPC) sur des substrats de silicium et de mica. Afin d’amplifier la fonctionnalité de ces patrons, la 1-palmitoyl-2-(16-(S-methyldithio)hexadécanoyl)-sn-glycéro-3-phosphatidylcholine (DSDPPC) et la 1-lauroyl-2-(12-(S-methyldithio)dodédecanoyl)-sn-glycéro-3-phosphatidylcholine (DSDLPC) ont été employées pour la préparation de monocouches chimiquement hétérogènes. Ces analogues de phospholipide possèdent un groupement fonctionnel méthyldisulfide qui est attaché à la fin de l’une des chaînes alkyles. Une étude exhaustive sur la structure de la phase des monocouches Langmuir, Langmuir-Schaefer (LS) et LB de la DSDPPC et de la DSDLPC et leurs différents mélanges avec la DPPC ou la DLPC est présentée dans cette thèse. Tout d’abord, un contrôle limité de la périodicité et de la taille des motifs des stries parallèles de DPPC/DLPC a été obtenu en variant la composition lipidique, la pression de surface et la vitesse de déposition. Dans un mélange binaire de fraction molaire plus grande de lipide condensé que de lipide étendu, une vitesse de déposition plus lente et une plus basse pression de surface ont généré des stries plus continues et larges. L’addition d’un tensioactif, le cholestérol, au mélange binaire équimolaire de la DPPC/DLPC a permis la formation de stries parallèles à de plus hautes pressions de surface. La caractérisation des propriétés physiques des analogues de phospholipides a été nécessaire. La température de transition de phase de la DSDPPC de 44.5 ± 1.5 °C comparativement à 41.5 ± 0.3 °C pour la DPPC. L’isotherme de la DSDPPC est semblable à celui de la DPPC. La monocouche subit une transition de phase liquide-étendue-à-condensée (LE-C) à une pression de surface légèrement supérieure à celle de la DPPC (6 mN m-1 vs. 4 mN m-1) Tout comme la DLPC, la DSDLPC demeure dans la phase LE jusqu’à la rupture de la monocouche. Ces analogues de phospholipide existent dans un état plus étendu tout au long de la compression de la monocouche et montrent des pressions de surface de rupture plus basses que les phospholipides non-modifiés. La morphologie des domaines de monocouches Langmuir de la DPPC et de la DSDPPC à l’interface eau/air a été comparée par la microscopie à angle de Brewster (BAM). La DPPC forme une monocouche homogène à une pression de surface (π) > 10 mN/m, alors que des domaines en forme de fleurs sont formés dans la monocouche de DSDPPC jusqu’à une π ~ 30 mN m-1. La caractérisation de monocouches sur substrat solide a permis de démontrer que le patron de stries parallèles préalablement obtenu avec la DPPC/DLPC était reproduit en utilisant des mélanges de la DSDPPC/DLPC ou de la DPPC/DSDLPC donnant ainsi lieu à des patrons chimiquement hétérogènes. En général, pour obtenir le même état de phase que la DPPC, la monocouche de DSDPPC doit être comprimée à de plus hautes pressions de surface. Le groupement disulfide de ces analogues de phospholipide a été exploité, afin de (i) former des monocouches auto-assemblées sur l’or et de (ii) démontrer la métallisation sélective des terminaisons fonctionnalisées des stries. La spectrométrie de photoélectrons induits par rayons X (XPS) a confirmé que la monocouche modifiée réagit avec la vapeur d’or pour former des thiolates d’or. L’adsorption de l’Au, de l’Ag et du Cu thermiquement évaporé démontre une adsorption préférentielle de la vapeur de métal sur la phase fonctionnalisée de disulfide seulement à des recouvrements sub-monocouche.
Resumo:
Les troubles anxieux sont parmi les troubles psychiatriques les plus souvent diagnostiqués chez les adolescents. Ces troubles sont souvent accompagnés de nombreuses comorbidités, dont des difficultés de sommeil. L’objectif principal de cette thèse est de caractériser l’activité corticale à l’éveil et pendant le sommeil à l’aide de l’EEG quantifié chez une population d’adolescents présentant un trouble anxieux, et de la comparer à un groupe témoin d’adolescents. Dans un second temps, on cherche à savoir si l’activité EEG des patients anxieux corrèle avec différentes mesures cliniques. Deux études permettent de répondre à ces objectifs, une première portant sur l’activité EEG au cours de l’éveil, et une seconde portant sur l’activité EEG au cours du sommeil (SL et SP). La première étude démontre que l’activité EEG des deux groupes ne présente pas de différence à l’EEG le soir. Par contre, le matin, les patients anxieux présentent une activité significativement supérieure à celle des contrôles aux électrodes centrales (0,75-10 Hz et 13-20 Hz) ainsi qu’aux électrodes occipitales (2,5-7,75 Hz). Dans la seconde étude, nous avons analysé l’activité EEG absolue et relative en SL et en SP. Nous avons trouvé une activité absolue significativement supérieure à l’EEG de la région centrale chez les participants du groupe anxieux : en SLP (stades 3 et 4) sur l’ensemble des bandes de fréquence, en stade 2 sur les bandes de fréquence thêta, alpha et beta seulement. Finalement, en SP, les différences sont trouvées en alpha et beta, et non en thêta et delta. Les résultats obtenus à ces deux études suggèrent la présence de mécanismes de synchronisation et de filtrage inadéquats au niveau de la boucle thalamo-corticale, entraînant une hypervigilance du SNC. Quant aux corrélations entre l’activité EEG et les mesures cliniques, les résultats obtenus dans les deux études révèlent que les fréquences lentes (thêta et delta) de l’activité d’éveil le matin corrèlent à la fois avec l’anxiété de trait et d’état et les fréquences rapides (Alpha et Beta) de l’EEG du sommeil corrèlent sélectivement avec l’anxiété d’état. Il semble donc exister un lien entre les mesures cliniques et l’activité EEG. Une hausse d’activité EEG pourrait être un indicateur de la sévérité accrue des symptômes anxieux.
Resumo:
Thèse de doctorat réalisée dans le cadre d'une cotutelle entre l'Université de Montréal et l'École des Hautes Études en Sciences Sociales, Paris
Resumo:
L’habenula, un noyau épithalamique, est située au centre de la voie dorsale diencéphalique. Cette voie relie les structures limbiques et les ganglions de la base aux cellules monoaminergiques du mésencéphale. En particulier, l’habenula latérale (HbL) projette directement aux cellules dopaminergiques et GABAergiques de l’aire tegmentale ventrale (ATV). L’ATV est le site d’origine de la voie mésolimbique dopaminergique, une voie impliquée de façon cruciale dans la manifestation des comportements dirigés. L’importance de cette projection habenulaire pour le comportement demeure encore méconnue. Ainsi, l’objectif de cette étude est d’approfondir notre compréhension du rôle de régulation de l’HbL sur les comportements dépendants de la neurotransmission dopaminergique. MATÉRIEL ET MÉTHODES: Des rats adultes mâles Sprague-Dawley ont été anesthésiés avec de l’isofluorane et installés sur un appareil stéréotaxique. L’acide iboténique, une neurotoxine agoniste des récepteurs glutamatergiques, était infusée bilatéralement dans l’HbL (0,25 μg/0,25 μl/côté). Les rats du groupe contrôle recevaient des infusions NaCl 0,9%. Les rats de l’expérience d’autostimulation intracérébrale (ASIC) étaient aussi implantés d’une électrode monopolaire dans le mésencéphale postérieur. Un groupe de rats était testé pour leur réponse de locomotion à l’amphétamine (0; 0,5 ou 1 mg/kg, intrapéritonéal), dix jours suivant la lésion de l’HbL. La locomotion était mesurée dans des chambres d’activité, chacune équipée de deux faisceaux parallèles infrarouges. Le jour du test, les rats étaient pesés et placés dans la chambre d’activité puis leur activité locomotrice de base était mesurée pendant une heure. Les rats recevaient ensuite une dose d’amphétamine ou le véhicule (NaCl 0,9%) par voie intrapéritonéale et l’activité locomotrice était mesurée pendant deux heures supplémentaires. Un groupe de rats distinct a été utilisé dans l’expérience d’ASIC. Commençant sept jours suivant la lésion, les rats étaient entraînés à appuyer sur un levier afin de s’autoadministrer des stimulations électriques, au cours de sessions quotidiennes. Nous avons ensuite mesuré chacun des taux de réponses d’une série de stimulations aux fréquences décroissantes. À partir d’une courbe réponses-fréquences, le seuil de récompense était inféré par la fréquence de la stimulation nécessaire pour produire une réponse semi-maximale. Les seuils de récompense étaient stabilisés à un niveau similaire pour l’ensemble des rats. Enfin, l’effet sur la récompense de l’amphétamine était testé aux mêmes doses employées pour l’expérience de locomotion. RÉSULTATS: Une lésion neurotoxique de l’HbL n’a pas altéré les niveaux de base de l’activité locomotrice dans chaque groupe. Cependant, une telle lésion a potentialisé l’effet de locomotion de l’amphétamine (1 mg/kg) pendant la première heure suivant son administration, et une tendance similaire était observable pendant la seconde heure. À l’inverse, nous n’avons observé aucune interaction entre une lésion à l’HbL et l’effet amplificateur sur la récompense de l’amphétamine. CONCLUSION: Nos résultats révèlent une importante contribution fonctionnelle de l’HbL à la locomotion induite par l’activation de la voie mésolimbique dopaminergique avec une dose de 1 mg/kg d’amphétamine. À l’opposé, aucun effet sur la récompense n’a été observé. Ces résultats suggèrent que l’activation psychomotrice et l’amplifiation de la récompense produite par l’amphétamine dépendent de substrats dissociables, chacun étant différentiellement sensible à la modulation provenant de l’HbL.
Resumo:
Peu d’études explorent les fréquences de traumas et d’état de stress posttraumatique (ÉSPT) chez les itinérants, spécifiquement parmi ceux avec des troubles liés à l’utilisation de substances (TUS). L’objectif principal de cette étude était de mesurer les fréquences de trauma et d’ÉSPT parmi les usagers en traitement pour des TUS à Montréal. L’autre objectif était de vérifier les différences entre ceux ayant ou non un ÉSPT. 51 individus itinérants, 9 femmes et 42 hommes, ont constitué l’échantillon. L’âge moyen était de 46 ans (SD = 7.19). Les participants ont vécu en moyenne 4.24 (SD = 2.06) types de trauma. 49% de l’échantillon avaient potentiellement un diagnostic d’ÉSPT. La majorité avait: un parent alcoolique, vécu un trauma dans l’enfance et un soutien social faible. Les participants qui avaient potentiellement un diagnostic d’ÉSPT: avaient un parent alcoolique, vécurent un trauma dans l’enfance et utilisaient davantage de stratégies de coping inadaptées.
Resumo:
La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.
Resumo:
Ces dernières années, les technologies sans fil ont connu un essor fulgurant. Elles ont permis la mise en place de réseaux sans fil à hautes performances. Les réseaux maillées sans fil (RMSF) sont une nouvelle génération de réseaux sans fil qui offrent des débits élevés par rapport aux réseaux Wi-Fi (Wireless Fidelity) classiques et aux réseaux ad-hoc. Ils présentent de nombreux avantages telles que leur forte tolérance aux pannes, leur robustesse, leur faible coût etc. Les routeurs des RMSF peuvent disposer de plusieurs interfaces radio et chaque interface peut opérer sur plusieurs canaux distincts, c’est des RMSF multiples-radios, multiples-canaux. Ce type de réseau peut accroître de manière considérable les performances des RMSF. Cependant plusieurs problèmes subsistent et doivent être résolus notamment celui du routage. Le routage dans les RMSF demeure un défi majeur. Le but des protocoles de routage est de trouver les meilleures routes i.e. des routes qui maximisent les débits et minimisent les délais, lors de l’acheminement du trafic. La qualité des routes dans les RMSF peut être fortement affectée par les interférences, les collisions, les congestions etc. Alors les protocoles doivent être en mesure de détecter ces problèmes pour pouvoir en tenir compte lors de la sélection des routes. Plusieurs études ont été dédiées aux métriques et aux protocoles de routage dans les RMSF afin de maximiser les performances de celles ci. Mais la plupart ne prennent pas en considération toutes les contraintes telles que les interférences, le problème des stations cachées etc. Ce mémoire propose une nouvelle métrique de routage pour RMSF. Nous avons mis en place une nouvelle métrique de routage pour RMSF appelée MBP (Metric Based on Probabilities). Cette métrique est destinée aux RMSF mono-radio ou multiples-radios. Elle permet d’éviter les routes à forte ii interférence. Les résultats des simulations ont montré que MBP présente des améliorations par rapport à certaines métriques : ETT, WCETT et iAWARE qui sont connues dans le domaine.
Resumo:
Dans ce mémoire nous allons présenter une méthode de diffusion d’erreur originale qui peut reconstruire des images en demi-ton qui plaisent à l’œil. Cette méthode préserve des détails fins et des structures visuellement identifiables présentes dans l’image originale. Nous allons tout d’abord présenter et analyser quelques travaux précédents afin de montrer certains problèmes principaux du rendu en demi-ton, et nous allons expliquer pourquoi nous avons décidé d’utiliser un algorithme de diffusion d’erreur pour résoudre ces problèmes. Puis nous allons présenter la méthode proposée qui est conceptuellement simple et efficace. L’image originale est analysée, et son contenu fréquentiel est détecté. Les composantes principales du contenu fréquentiel (la fréquence, l’orientation et le contraste) sont utilisées comme des indices dans un tableau de recherche afin de modifier la méthode de diffusion d’erreur standard. Le tableau de recherche est établi dans un étape de pré-calcul et la modification est composée par la modulation de seuil et la variation des coefficients de diffusion. Ensuite le système en entier est calibré de façon à ce que ces images reconstruites soient visuellement proches d’images originales (des aplats d’intensité constante, des aplats contenant des ondes sinusoïdales avec des fréquences, des orientations et des constrastes différents). Finalement nous allons comparer et analyser des résultats obtenus par la méthode proposée et des travaux précédents, et démontrer que la méthode proposée est capable de reconstruire des images en demi-ton de haute qualité (qui préservent des structures) avec un traitement de temps très faible.