15 resultados para Détection de mouvements
em Université Laval Mémoires et thèses électroniques
Resumo:
L’automatisation de la détection et de l’identification des animaux est une tâche qui a de l’intérêt dans plusieurs domaines de recherche en biologie ainsi que dans le développement de systèmes de surveillance électronique. L’auteur présente un système de détection et d’identification basé sur la vision stéréo par ordinateur. Plusieurs critères sont utilisés pour identifier les animaux, mais l’accent a été mis sur l’analyse harmonique de la reconstruction en temps réel de la forme en 3D des animaux. Le résultat de l’analyse est comparé avec d’autres qui sont contenus dans une base évolutive de connaissances.
Resumo:
Le sepsis, un syndrome d’infection générale grave, est une importante cause de décès dans le monde et a un impact considérable sur le taux de mortalité dans le département des soins intensifs des hôpitaux. Plusieurs médecins soutiennent que le diagnostic de sepsis est fréquemment omis, menant ainsi à de graves conséquences pour l’état de santé du patient. Considérant cette problématique, la présente étude a pour buts de déterminer les caractéristiques du processus décisionnel des médecins en situation de triage et de prise en charge du sepsis pédiatrique, d’évaluer la performance des médecins en contexte de détection du sepsis pédiatrique et enfin, de valider une méthode permettant de développer un modèle cognitif de prise de décision relié à cette condition médicale. Une tâche décisionnelle à l’aide d’un tableau d’information est administrée aux participants. Les résultats sont analysés selon une combinaison de méthodes : la théorie de détection de signal, l’identification de la règle décisionnelle et l’extraction du processus décisionnel. Le personnel médical a une capacité de discrimination moyenne. Leurs réponses tendent vers un biais libéral. La comparaison entre un arbre décisionnel normatif et les arbres décisionnels individuels a démontré une mésestimation de l’importance des critères diagnostics pertinents. Il y a présence d’hétérogénéité quant aux critères utilisés par les médecins pour poser le diagnostic. Ces résultats permettent de cibler davantage la problématique de détection du sepsis pédiatrique et démontre la pertinence de développer un outil d’aide à la détection afin de soutenir les médecins dans leurs décisions. Les résultats de la présente étude fournissent des lignes directrices quant au développement d’un tel outil. Les résultats montrent également que la combinaison de la théorie de détection de signal, de l’identification de la règle décisionnelle et de l’extraction du processus décisionnel fournie une méthode adaptée afin de développer des modèles de prise de décision.
Resumo:
La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).
Resumo:
Les convertisseurs de longueur d’onde sont essentiels pour la réalisation de réseaux de communications optiques à routage en longueur d’onde. Dans la littérature, les convertisseurs de longueur d’onde basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur constituent une solution extrêmement intéressante, et ce, en raison de leurs nombreuses caractéristiques nécessaires à l’implémentation de tels réseaux de communications. Avec l’émergence des systèmes commerciaux de détection cohérente, ainsi qu’avec les récentes avancées dans le domaine du traitement de signal numérique, il est impératif d’évaluer la performance des convertisseurs de longueur d’onde, et ce, dans le contexte des formats de modulation avancés. Les objectifs de cette thèse sont : 1) d’étudier la faisabilité des convertisseurs de longueur d’onde basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur pour les formats de modulation avancés et 2) de proposer une technique basée sur le traitement de signal numérique afin d’améliorer leur performance. En premier lieu, une étude expérimentale de la conversion de longueur d’onde de formats de modulation d’amplitude en quadrature (quadrature amplitude modulation - QAM) est réalisée. En particulier, la conversion de longueur d’onde de signaux 16-QAM à 16 Gbaud et 64-QAM à 5 Gbaud dans un amplificateur optique à semi-conducteur commercial est réalisée sur toute la bande C. Les résultats démontrent qu’en raison des distorsions non-linéaires induites sur le signal converti, le point d’opération optimal du convertisseur de longueur d’onde est différent de celui obtenu lors de la conversion de longueur d’onde de formats de modulation en intensité. En effet, dans le contexte des formats de modulation avancés, c’est le compromis entre la puissance du signal converti et les non-linéarités induites qui détermine le point d’opération optimal du convertisseur de longueur d’onde. Les récepteurs cohérents permettent l’utilisation de techniques de traitement de signal numérique afin de compenser la détérioration du signal transmis suite à sa détection. Afin de mettre à profit les nouvelles possibilités offertes par le traitement de signal numérique, une technique numérique de post-compensation des distorsions induites sur le signal converti, basée sur une analyse petit-signal des équations gouvernant la dynamique du gain à l’intérieur des amplificateurs optiques à semi-conducteur, est développée. L’efficacité de cette technique est démontrée à l’aide de simulations numériques et de mesures expérimentales de conversion de longueur d’onde de signaux 16-QAM à 10 Gbaud et 64-QAM à 5 Gbaud. Cette méthode permet d’améliorer de façon significative les performances du convertisseur de longueur d’onde, et ce, principalement pour les formats de modulation avancés d’ordre supérieur tel que 64-QAM. Finalement, une étude expérimentale exhaustive de la technique de post-compensation des distorsions induites sur le signal converti est effectuée pour des signaux 64-QAM. Les résultats démontrent que, même en présence d’un signal à bruité à l’entrée du convertisseur de longueur d’onde, la technique proposée améliore toujours la qualité du signal reçu. De plus, une étude du point d’opération optimal du convertisseur de longueur d’onde est effectuée et démontre que celui-ci varie en fonction des pertes optiques suivant la conversion de longueur d’onde. Dans un réseau de communication optique à routage en longueur d’onde, le signal est susceptible de passer par plusieurs étages de conversion de longueur d’onde. Pour cette raison, l’efficacité de la technique de post-compensation est démontrée, et ce pour la première fois dans la littérature, pour deux étages successifs de conversion de longueur d’onde de signaux 64-QAM à 5 Gbaud. Les résultats de cette thèse montrent que les convertisseurs de longueur d’ondes basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur, utilisés en conjonction avec des techniques de traitement de signal numérique, constituent une technologie extrêmement prometteuse pour les réseaux de communications optiques modernes à routage en longueur d’onde.
Resumo:
Les réseaux de capteurs sont formés d’un ensemble de dispositifs capables de prendre individuellement des mesures d’un environnement particulier et d’échanger de l’information afin d’obtenir une représentation de haut niveau sur les activités en cours dans la zone d’intérêt. Une telle détection distribuée, avec de nombreux appareils situés à proximité des phénomènes d’intérêt, est pertinente dans des domaines tels que la surveillance, l’agriculture, l’observation environnementale, la surveillance industrielle, etc. Nous proposons dans cette thèse plusieurs approches pour effectuer l’optimisation des opérations spatio-temporelles de ces dispositifs, en déterminant où les placer dans l’environnement et comment les contrôler au fil du temps afin de détecter les cibles mobiles d’intérêt. La première nouveauté consiste en un modèle de détection réaliste représentant la couverture d’un réseau de capteurs dans son environnement. Nous proposons pour cela un modèle 3D probabiliste de la capacité de détection d’un capteur sur ses abords. Ce modèle inègre également de l’information sur l’environnement grâce à l’évaluation de la visibilité selon le champ de vision. À partir de ce modèle de détection, l’optimisation spatiale est effectuée par la recherche du meilleur emplacement et l’orientation de chaque capteur du réseau. Pour ce faire, nous proposons un nouvel algorithme basé sur la descente du gradient qui a été favorablement comparée avec d’autres méthodes génériques d’optimisation «boites noires» sous l’aspect de la couverture du terrain, tout en étant plus efficace en terme de calculs. Une fois que les capteurs placés dans l’environnement, l’optimisation temporelle consiste à bien couvrir un groupe de cibles mobiles dans l’environnement. D’abord, on effectue la prédiction de la position future des cibles mobiles détectées par les capteurs. La prédiction se fait soit à l’aide de l’historique des autres cibles qui ont traversé le même environnement (prédiction à long terme), ou seulement en utilisant les déplacements précédents de la même cible (prédiction à court terme). Nous proposons de nouveaux algorithmes dans chaque catégorie qui performent mieux ou produits des résultats comparables par rapport aux méthodes existantes. Une fois que les futurs emplacements de cibles sont prédits, les paramètres des capteurs sont optimisés afin que les cibles soient correctement couvertes pendant un certain temps, selon les prédictions. À cet effet, nous proposons une méthode heuristique pour faire un contrôle de capteurs, qui se base sur les prévisions probabilistes de trajectoire des cibles et également sur la couverture probabiliste des capteurs des cibles. Et pour terminer, les méthodes d’optimisation spatiales et temporelles proposées ont été intégrées et appliquées avec succès, ce qui démontre une approche complète et efficace pour l’optimisation spatio-temporelle des réseaux de capteurs.
Resumo:
Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace.
Resumo:
Une partie appréciable de la recherche moderne dans le domaine du photovoltaïque est basée sur des systèmes organiques sur couches minces. Les photo-détecteurs organiques ne diffèrent des technologies photovoltaïques solaires que par leurs structures chimiques au sein de la couche active, ainsi que par certaines propriétés nécessaires à leurs viabilités. Afin d’obtenir un matériau photoactif dans le proche infrarouge, la structure chimique doit être choisie et conçue de façon à placer ses bandes d’absorptions aux bons endroits. Un contrôle précis de la bande interdite du polymère dictera à quel point ce matériau peut servir à des fins de photo-détections. Les unités thieno-pyrazine et thieno-thiadiazole sont reconnues comme ayant un fort caractère électronique et viennent aisément produire des polymères à faible bande interdite lorsqu’ elles y sont incorporées. Au sein d’un système à hétérojonction de type donneur / accepteur, la miscibilité entre ces deux est cruciale et viendra justifier les performances finales d’un dispositif. Cette miscibilité dictera la morphologie de la couche active, qui est trop souvent imprévisible lors de la conception des structures chimiques des composés. On peut par contre penser à baser une étude sur une morphologie déjà établie, en balisant la structure globale du polymère, tout en modifiant ses fonctionnalités pour avoir un contrôle sur les propriétés électroniques finales. Une structure de poly (4,4’’-didodecyl-2,2’:5’,2’’-terthiophène) dont la morphologie est connue sera donc utilisée dans ce projet et une modification de son thiophène central viendra moduler son activité optique pour en faire un bon candidat en photo-détection infrarouge. Ces travaux ont permis de développer de nouveaux polymères conjugués et de vérifier leurs propriétés électro-optiques.
Resumo:
L’augmentation de la croissance des réseaux, des blogs et des utilisateurs des sites d’examen sociaux font d’Internet une énorme source de données, en particulier sur la façon dont les gens pensent, sentent et agissent envers différentes questions. Ces jours-ci, les opinions des gens jouent un rôle important dans la politique, l’industrie, l’éducation, etc. Alors, les gouvernements, les grandes et petites industries, les instituts universitaires, les entreprises et les individus cherchent à étudier des techniques automatiques fin d’extraire les informations dont ils ont besoin dans les larges volumes de données. L’analyse des sentiments est une véritable réponse à ce besoin. Elle est une application de traitement du langage naturel et linguistique informatique qui se compose de techniques de pointe telles que l’apprentissage machine et les modèles de langue pour capturer les évaluations positives, négatives ou neutre, avec ou sans leur force, dans des texte brut. Dans ce mémoire, nous étudions une approche basée sur les cas pour l’analyse des sentiments au niveau des documents. Notre approche basée sur les cas génère un classificateur binaire qui utilise un ensemble de documents classifies, et cinq lexiques de sentiments différents pour extraire la polarité sur les scores correspondants aux commentaires. Puisque l’analyse des sentiments est en soi une tâche dépendante du domaine qui rend le travail difficile et coûteux, nous appliquons une approche «cross domain» en basant notre classificateur sur les six différents domaines au lieu de le limiter à un seul domaine. Pour améliorer la précision de la classification, nous ajoutons la détection de la négation comme une partie de notre algorithme. En outre, pour améliorer la performance de notre approche, quelques modifications innovantes sont appliquées. Il est intéressant de mentionner que notre approche ouvre la voie à nouveaux développements en ajoutant plus de lexiques de sentiment et ensembles de données à l’avenir.
Resumo:
La tordeuse des bourgeons de l’épinette (Choristoneura fumiferana, TBE) est l’insecte ravageur le plus important de la forêt boréale de l’est de l’Amérique du Nord. Depuis 2006, la région de la Côte-Nord est affectée par une épidémie de TBE et les superficies forestières infestées doublent annuellement. Des images satellitaires Landsat ont été utilisées pour cartographier la sévérité de l’épidémie avec une approche de détection de changements, en utilisant une image pré-épidémie (2004) et une image prise pendant l’épidémie (2013). Des relevés terrains de la défoliation par la TBE ont été utilisés pour développer (R2 = 0,50) une cartographie fiable (R2 de validation = 0,64) et non biaisée de la sévérité des infestations de la TBE sur une échelle continue de sévérité (0-100%) pour la région d’étude. Une analyse des facteurs environnementaux affectant la sévérité des infestations (extraite de la carte de défoliation) a démontré l’importance de la composition forestière en sapin baumier tant à l’échelle locale qu’à l’échelle du paysage. De plus, une analyse de contexte spatial montre que dans les sites peu défoliés (défoliation cumulée < 50%), le meilleur prédicteur est plutôt son abondance à l’échelle du paysage (distance > 500 m). Ces résultats suggèrent une interaction entre les échelles spatiales et temporelles lors des épidémies de TBE.
Resumo:
Les caractéristiques physiques d’un site de nidification peuvent influencer la probabilité qu’il soit utilisé et l’issue des tentatives de nidification. La buse pattue (Buteo lagopus) construit un imposant nid, qui peut être réutilisé plusieurs années, en bordure des falaises et des versants en Arctique. Ces habitats escarpés sont perturbés par des mouvements de masse pouvant entraîner la destruction de sites critiques pour la reproduction des buses. Nous avons d’abord examiné l’effet de plusieurs variables environnementales et de la réutilisation d’un nid sur la reproduction de la buse pattue. Ensuite, nous avons évalué la vulnérabilité des nids aux mouvements de masse et identifié les facteurs environnementaux associés à la persistance des nids. L’étude s’est déroulée à l’île Bylot (Nunavut) de 2007 à 2015. La probabilité qu’un nid soit utilisé par un couple augmentait avec la distance du nid actif le plus proche, la présence d’un surplomb au-dessus du nid et la densité des lemmings. Les nids accessibles aux renards et orientés vers le nord étaient associés à un moins bon succès reproducteur. Celui-ci était aussi positivement relié à la densité estivale de lemmings et négativement relié aux précipitations. Nos résultats suggèrent que les caractéristiques physiques du site de nidification offrant un microclimat favorable et une protection contre les prédateurs reflètent des sites de haute qualité. Le succès reproducteur était similaire entre les nouveaux nids et ceux préexistants, suggérant que la construction d’un nid n’entraîne pas de coût sur la reproduction à court terme. Parmi les 82 nids connus, près du tiers ont été détruits par des mouvements de masse et parmi ceux encore intacts, la majorité sont à risque modéré et haut de l’être. La probabilité de destruction était élevée pour les nids construits sur des sédiments non consolidés et positivement associée aux fortes précipitations. La hausse anticipée des précipitations due aux changements climatiques est susceptible d’augmenter la vulnérabilité des nids aux mouvements de masse ce qui pourrait ultimement réduire la disponibilité de sites appropriés pour la reproduction de ce rapace.
Resumo:
OBJECTIFS: La libération de dopamine par les afférences à sérotonine (5-HT) du striatum constitue un déterminant pré-synaptique important des dyskinésies induites par la L-Dopa (DILs), un effet délétère du traitement pharmacologique de la maladie de Parkinson. En effet, les axones 5-HT seraient en mesure de libérer de façon non-physiologique de la dopamine lorsque la L-Dopa est administrée au patient, contribuant ainsi à l’expression des DILs. Certaines afférences striatales 5-HT contiennent un transporteur vésiculaire du glutamate (VGluT3) et nous croyons que sa présence puisse avoir un effet synergique sur la libération de dopamine. L’objectif général de ce mémoire est donc d’évaluer la quantité de VGluT3 présent au sein des axones 5-HT et de mesurer son implication dans l’expression des DILs. MÉTHODES : Dix-huit souris C57/Bl6 ont été séparées en trois groupes expérimentaux. Douze souris ont reçu une injection intracérébrale de 6- hydroxydopamine (6-OHDA) dans le faisceau prosencéphalique médian afin de léser les afférences dopaminergiques du striatum. Six souris lésées ont reçu des injections systémiques de L-Dopa (12 jours, 1 fois/jour). Six autres souris ont reçu une injection intracérébrale du véhicule afin de servir de contrôle. La sévérité des mouvements involontaires anormaux induits par la L-Dopa (équivalent des dyskinésies) a été quantifiée selon une échelle reconnue. Un double marquage en immunofluorescence pour le transporteur membranaire de la 5-HT (SERT) et le VGluT3 a permis d’évaluer la densité des varicosités SERT+ et SERT+/VGluT3+ dans le striatum dorsal et de comparer ces données entre les trois groupes expérimentaux. RÉSULTATS: Chez les trois groupes de souris, un faible pourcentage des varicosités axonales 5-HT sont également VGluT3+. Ces varicosités doublement marquées sont souvent retrouvées sur une même branche axonale. Aucune différence significative n’a été observée entre les trois groupes expérimentaux en ce qui a trait à la proportion de varicosités SERT+ qui contiennent le VGluT3+. CONCLUSION: Nos données expérimentales ne nous permettent pas de conclure que la densité des varicosités axonales SERT+ ou SERT+/VGluT3+ au sein du striatum dorsal varie en fonction de la sévérité des mouvements involontaires anormaux induits par l’administration de L-Dopa.
Resumo:
Cette thèse propose une lecture anthropologique de la consommation d’alcool. Elle met de l’avant une approche novatrice qui repose sur le concept de « métaphysique du quasi- arrêt ». Cette approche a été développée à la suite d’une recherche ethnographique réalisée dans la région de la Beauce, au Québec. Au lieu de considérer la consommation d’alcool comme un problème social ou de santé publique, j’ai cherché à comprendre comment et pourquoi l’on boit, en Beauce, en me laissant guider par les buveurs et les buveuses côtoyés sur place. En prenant part à de nombreuses soirées où la bière est omniprésente, que ce soit dans les garages, les bars ou l’aréna local, je me suis laissé affecter par les sensations ressenties et par les paroles prononcées lorsque les buveurs éprouvent ce qu’ils appellent le « feeling du moment ». En prenant du recul, j’ai constaté que les Beaucerons qui boivent ont développé des stratégies défensives pour échapper à la tentative de contrôle de la société québécoise sur leurs conduites alcooliques et, plus largement, sur l’alcoolisme. En effet, dans la perspective de la « métaphysique du quasi-arrêt », la quantité de verres consommés n’a d’importance qu’eu égard au « feeling du moment »; les normes culturelles ou médicales liées à la consommation d’alcool ne tiennent pas, et c’est pourquoi cette approche permet d’expliquer des discours et des pratiques liés à la consommation d’alcool qui, à première vue, semblent paradoxaux, voire complètement absurdes. Pour bien montrer en quoi l’approche mise de l’avant se distingue, mais surtout pour expliquer comment la consommation excessive d’alcool en est venue à représenter, en anthropologie comme dans d’autres disciplines, une pratique problématique qu’il faut comprendre pour la combattre, une première partie de la thèse consiste en une mise en perspective historique de l’alcoolisme en tant que concept scientifique et enjeu de société. Y sont passées en revue les approches et concepts développés, depuis la fin du XVIIe siècle, par des médecins, des psychologues, des économistes, des sociologues et des anthropologues euro-américains pour aborder ce genre de consommation. Je suggère que ces scientifiques mènent, depuis plus de deux siècles, une véritable croisade contre les « buveurs excessifs ». Collaborant avec l’État, les mouvements de tempérance et les entreprises privées, ils ont contribué à contenir les abus d’alcool en Occident. Dans la seconde partie de la thèse, l’ethnographie sert de support au déploiement de la perspective théorique développée à l’issue du travail de terrain. Il s’agit d’analyser comment les buveurs d’alcool vivent et font durer le « feeling du moment » au cours du boire social. Sur le terrain, j’ai découvert que les buveurs d’alcool ont inventé onze stratégies pour vivre et faire durer le « feeling du moment » en consommant de l’alcool avec les autres. Ces stratégies constituent une forme de résistance face à une société qui cherche à contrôler les conduites alcooliques.
Resumo:
Les systèmes de communication optique avec des formats de modulation avancés sont actuellement l’un des sujets de recherche les plus importants dans le domaine de communication optique. Cette recherche est stimulée par les exigences pour des débits de transmission de donnée plus élevés. Dans cette thèse, on examinera les techniques efficaces pour la modulation avancée avec une détection cohérente, et multiplexage par répartition en fréquence orthogonale (OFDM) et multiples tonalités discrètes (DMT) pour la détection directe et la détection cohérente afin d’améliorer la performance de réseaux optiques. Dans la première partie, nous examinons la rétropropagation avec filtre numérique (DFBP) comme une simple technique d’atténuation de nonlinéarité d’amplificateur optique semiconducteur (SOA) dans le système de détection cohérente. Pour la première fois, nous démontrons expérimentalement l’efficacité de DFBP pour compenser les nonlinéarités générées par SOA dans un système de détection cohérente porteur unique 16-QAM. Nous comparons la performance de DFBP avec la méthode de Runge-Kutta quatrième ordre. Nous examinons la sensibilité de performance de DFBP par rapport à ses paramètres. Par la suite, nous proposons une nouvelle méthode d’estimation de paramètre pour DFBP. Finalement, nous démontrons la transmission de signaux de 16-QAM aux taux de 22 Gbaud sur 80km de fibre optique avec la technique d’estimation de paramètre proposée pour DFBP. Dans la deuxième partie, nous nous concentrons sur les techniques afin d’améliorer la performance des systèmes OFDM optiques en examinent OFDM optiques cohérente (CO-OFDM) ainsi que OFDM optiques détection directe (DDO-OFDM). Premièrement, nous proposons une combinaison de coupure et prédistorsion pour compenser les distorsions nonlinéaires d’émetteur de CO-OFDM. Nous utilisons une interpolation linéaire par morceaux (PLI) pour charactériser la nonlinéarité d’émetteur. Dans l’émetteur nous utilisons l’inverse de l’estimation de PLI pour compenser les nonlinéarités induites à l’émetteur de CO-OFDM. Deuxièmement, nous concevons des constellations irrégulières optimisées pour les systèmes DDO-OFDM courte distance en considérant deux modèles de bruit de canal. Nous démontrons expérimentalement 100Gb/s+ OFDM/DMT avec la détection directe en utilisant les constellations QAM optimisées. Dans la troisième partie, nous proposons une architecture réseaux optiques passifs (PON) avec DDO-OFDM pour la liaison descendante et CO-OFDM pour la liaison montante. Nous examinons deux scénarios pour l’allocations de fréquence et le format de modulation des signaux. Nous identifions la détérioration limitante principale du PON bidirectionnelle et offrons des solutions pour minimiser ses effets.
Resumo:
De nombreuses populations migratrices sont actuellement en déclin. Les changements climatiques entrainent des modifications dans les habitats des espèces migratrices et la phénologie des processus naturels, lesquels se répercutent sur la migration, une période critique pour ces espèces. Comprendre comment les variables environnementales et climatiques affectent la phénologie et les patrons de migration est donc crucial. Ma thèse s’intéresse à l’impact du climat, des ressources alimentaires et de la compétition sur les migrations printanières et automnales des caribous migrateurs, Rangifer tarandus, des troupeaux Rivière-George (TRG) et Rivière-aux-Feuilles (TRF) du Nord-du-Québec et du Labrador. Le premier volet de ma thèse propose une approche objective, basée sur la détection des changements dans la structure des déplacements saisonniers, pour identifier les dates de départ et arrivée en migration. Validée à l’aide de trajets simulés, elle a été appliquée aux migrations printanières et automnales de femelles caribous. Le second volet porte sur l’impact des conditions environnementales sur la phénologie des migrations de printemps et d’automne. Il montre que la phénologie de la migration est principalement affectée par les conditions climatiques rencontrées lors de la migration, les conditions d’enneigement affectant notamment les coûts des déplacements. Au printemps, les caribous subissent des conditions défavorables lorsque la fonte des neiges est précoce. À l’automne, ils semblent ajuster leurs déplacements et migrent plus vite quand la neige débute tôt pour limiter les coûts de déplacement dans une neige profonde. Le troisième volet porte sur les patrons de migration à l’automne et montre que ceux-ci sont affectés essentiellement par une compétition intra- et inter-troupeaux pour les aires d’hivernages. Les caribous du TRG répondent à une augmentation de la compétition sur les aires les plus proches de l’aire de mise bas, liée à une taille de population élevée, en migrant préférentiellement vers les aires les plus éloignées. L’utilisation des aires hivernales par les caribous du TRF est, quant à elle, contrainte par la présence et l’abondance du TRG, cette contrainte diminuant à mesure que le TRG décline et abandonne les migrations vers les aires d’hivernages communes aux deux troupeaux. Cette thèse améliore notre compréhension de l’influence des facteurs environnementaux sur la phénologie et les patrons de migration du caribou migrateur. Ces connaissances sont très utiles pour comprendre l’impact des changements climatiques et établir les plans de conservation pour les espèces migratrices.
Resumo:
Ce mémoire présente 2 types de méthodes pour effectuer la réorientation d’un robot sériel en chute libre en utilisant les mouvements internes de celui-ci. Ces mouvements sont prescrits à partir d’algorithmes de planification de trajectoire basés sur le modèle dynamique du robot. La première méthode tente de réorienter le robot en appliquant une technique d’optimisation locale fonctionnant avec une fonction potentielle décrivant l’orientation du système, et la deuxième méthode applique des fonctions sinusoïdales aux articulations pour réorienter le robot. Pour tester les performances des méthodes en simulation, on tente de réorienter le robot pour une configuration initiale et finale identiques où toutes les membrures sont alignées mais avec le robot ayant complété une rotation de 180 degrés sur lui-même. Afin de comparer les résultats obtenus avec la réalité, un prototype de robot sériel plan flottant possédant trois membrures et deux liaisons rotoïdes est construit. Les expérimentations effectuées montrent que le prototype est capable d’atteindre les réorientations prescrites si peu de perturbations extérieures sont présentes et ce, même si le contrôle de l’orientation est effectué en boucle ouverte.