6 resultados para Large-mode-area (LMA)
em Université de Montréal, Canada
Resumo:
La stimulation électrique transcrânienne à courant direct (tDCS) est une technique non invasive de neuromodulation qui modifie l’excitabilité corticale via deux grosses électrodes de surface. Les effets dépendent de la polarité du courant, anodique = augmentation de l’excitabilité corticale et cathodique = diminution. Chez l’humain, il n’existe pas de consensus sur des effets de la tDCS appliquée au cortex somatosensoriel primaire (S1) sur la perception somesthésique. Nous avons étudié la perception vibrotactile (20 Hz, amplitudes variées) sur le majeur avant, pendant et après la tDCS appliquée au S1 controlatéral (anodale, a; cathodale, c; sham, s). Notre hypothèse « shift-gain » a prédit une diminution des seuils de détection et de discrimination pour la tDCS-a (déplacement vers la gauche de la courbe stimulus-réponse et une augmentation de sa pente). On attendait les effets opposés avec la tDCS-c, soit une augmentation des seuils (déplacement à droite et diminution de la pente). Chez la majorité des participants, des diminutions des seuils ont été observées pendant et immédiatement suivant la tDCS-a (1 mA, 20 min) en comparaison à la stimulation sham. Les effets n’étaient plus présents 30 min plus tard. Une diminution du seuil de discrimination a également été observée pendant, mais non après la tDCS-c (aucun effet pour détection). Nos résultats supportent notre hypothèse, uniquement pour la tDCS-a. Une suite logique serait d’étudier si des séances répétées de tDCS-a mènent à des améliorations durables sur la perception tactile. Ceci serait bénéfique pour la réadaptation sensorielle (ex. suite à un accident vasculaire cérébral).
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
Les détecteurs à pixels Medipix ont été développés par la collaboration Medipix et permettent de faire de l'imagerie en temps réel. Leur surface active de près de $2\cm^2$ est divisée en 65536~pixels de $55\times 55\um^2$ chacun. Seize de ces détecteurs, les Medipix2, sont installés dans l'expérience ATLAS au CERN afin de mesurer en temps réel les champs de radiation produits par les collisions de hadrons au LHC. Ils seront prochainement remplacés par des Timepix, la plus récente version de ces détecteurs, qui permettent de mesurer directement l'énergie déposée dans chaque pixel en mode \textit{time-over-threshold} (TOT) lors du passage d'une particule dans le semi-conducteur. En vue d'améliorer l'analyse des données recueillies avec ces détecteurs Timepix dans ATLAS, un projet de simulation Geant4 a été amorcé par John Id\'{a}rraga à l'Université de Montréal. Dans le cadre de l'expérience ATLAS, cette simulation pourra être utilisée conjointement avec Athena, le programme d'analyse d'ATLAS, et la simulation complète du détecteur ATLAS. Sous l'effet de leur propre répulsion, les porteurs de charge créés dans le semi-conducteur sont diffusés vers les pixels adjacents causant un dépôt d'énergie dans plusieurs pixels sous l'effet du partage de charges. Un modèle effectif de cette diffusion latérale a été développé pour reproduire ce phénomène sans résoudre d'équation différentielle de transport de charge. Ce modèle, ainsi que le mode TOT du Timepix, qui permet de mesurer l'énergie déposée dans le détecteur, ont été inclus dans la simulation afin de reproduire adéquatement les traces laissées par les particules dans le semi-conducteur. On a d'abord étalonné le détecteur pixel par pixel à l'aide d'une source de $\Am$ et de $\Ba$. Ensuite, on a validé la simulation à l'aide de mesures d'interactions de protons et de particules $\alpha$ produits au générateur Tandem van de Graaff du Laboratoire René-J.-A.-Lévesque de l'Université de Montréal.
Resumo:
Les objectifs de l’étude de l’évolution du risque cardiométabolique (RCM) sur une période de quatre ans (2006-2010) chez des adultes béninois consistaient à: • Examiner les relations entre l’obésité abdominale selon les critères de la Fédération Internationale du Diabète (IFD) ou l’insulino-résistance mesurée par le Homeostasis Model Assessment (HOMA) et l’évolution des autres facteurs de RCM, • Examiner les liens entre les habitudes alimentaires, l’activité physique et les conditions socio-économiques et l’évolution du RCM évalué conjointement par le score de risque de maladies cardiovasculaires de Framingham (FRS) et le syndrome métabolique (SMet). Les hypothèses de recherche étaient: • L’obésité abdominale telle que définie par les critères de l’IDF est faiblement associée à une évolution défavorable des autres facteurs de RCM, alors que l’insulino-résistance mesurée par le HOMA lui est fortement associée; • Un niveau socioéconomique moyen, un cadre de vie peu urbanisé (rural ou semi-urbain), de meilleures habitudes alimentaires (score élevé de consommation d’aliments protecteurs contre le RCM) et l’activité physique contribuent à une évolution plus favorable du RCM. L’étude a inclus 541 sujets âgés de 25 à 60 ans, apparemment en bonne santé, aléatoirement sélectionnés dans la plus grande ville (n = 200), une petite ville (n = 171) et sa périphérie rurale (n = 170). Après les études de base, les sujets ont été suivis après deux et quatre ans. Les apports alimentaires et l’activité physique ont été cernés par deux ou trois rappels de 24 heures dans les études de base puis par des questionnaires de fréquence simplifiés lors des suivis. Les données sur les conditions socioéconomiques, la consommation d’alcool et le tabagisme ont été recueillies par questionnaire. Des mesures anthropométriques et la tension artérielle ont été prises. La glycémie à jeun, l’insulinémie et les lipides sanguins ont été mesurés. Un score de fréquence de consommation d’« aliments sentinelles » a été développé et utilisé. Un total de 416 sujets ont participé au dernier suivi. La prévalence initiale du SMet et du FRS≥10% était de 8,7% et 7,2%, respectivement. L’incidence du SMet et d’un FRS≥10% sur quatre ans était de 8,2% et 5%, respectivement. Le RCM s’était détérioré chez 21% des sujets. L’obésité abdominale définie par les valeurs seuils de tour de taille de l’IDF était associée à un risque plus élevé d’insulino-résistance: risque relatif (RR) = 5,7 (IC 95% : 2,8-11,5); d’un ratio cholestérol total/HDL-Cholestérol élevé: RR = 3,4 (IC 95% : 1,5-7,3); mais elle n’était pas associée à un risque significativement accru de tension artérielle élevée ou de triglycérides élevés. Les valeurs seuils de tour de taille optimales pour l’identification des sujets accusant au moins un facteur de risque du SMet étaient de 90 cm chez les femmes et de 80 cm chez les hommes. L’insulino-résistance mesurée par le HOMA était associée à un risque élevé d’hyperglycémie: RR = 5,7 (IC 95% : 2,8-11,5). En revanche, l’insulino-résistance n’était pas associée à un risque significatif de tension artérielle élevée et de triglycérides élevés. La combinaison de SMet et du FRS pour l’évaluation du RCM identifiait davantage de sujets à risque que l’utilisation de l’un ou l’autre outil isolément. Le risque de détérioration du profil de RCM était associé à un faible score de consommation des «aliments sentinelles» qui reflètent le caractère protecteur de l’alimentation (viande rouge, volaille, lait, œufs et légumes): RR = 5,6 (IC 95%: 1,9-16,1); et à l’inactivité physique: RR = 6,3 (IC 95%: 3,0-13,4). Les sujets de niveau socioéconomique faible et moyen, et ceux du milieu rural et semi-urbain avaient un moindre risque d’aggravation du RCM. L’étude a montré que les relations entre les facteurs de RCM présentaient des particularités chez les adultes béninois par rapport aux Caucasiens et a souligné le besoin de reconsidérer les composantes du SMet ainsi que leurs valeurs seuils pour les Africains sub-sahariens. La détérioration rapide du RCM nécessité des mesures préventives basées sur la promotion d’un mode de vie plus actif associé à de meilleures habitudes alimentaires.
Resumo:
La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.
Resumo:
L’objectif principal de ce mémoire est l’étude de la relation entre le navettage, soit le fait de faire la navette quotidiennement entre le domicile et le travail, et l’épuisement professionnel. Plus précisément, les rôles de modération du moyen de transport et de la région du milieu de travail, tant distinctement que simultanément, sur la relation entre la durée et la distance de navettage et l’épuisement professionnel sont examinés. L’épuisement professionnel a été mesuré grâce au MBI-GS (Maslah Burnout Inventory – General Survey). Les données proviennent de l’étude SALVEO menée au Canada par l’Équipe de Recherche sur le Travail et la Santé Mentale (ERTSM). Les données ont été recueillies entre 2009 et 2012 dans 63 milieux de travail selon un taux de réponse de 71.3 %, équivalent à 2162 employés. Les multiples analyses de régression effectuées sont pamis lespremières à lier significativement le navettage à l’épuisement professionnel. En effet, les navetteurs qui travaillent en grandes régions urbaines sont significativement plus épuisés émotionnellement que les travailleurs des petites régions urbaines ou des régions rurales. Il existe une relation curvilinéaire entre la durée de navettage et la dimension du cynisme. Une relation curvilinéaire existe également entre la durée de navettage et la mesure globale de l’épuisement professionnel. Enfin, le moyen de transport ainsi que la région dans laquelle se situe l’établissement de travail modèrent simultanément la relation entre la durée de navettage et la dimension de l’efficacité professionnelle. Globalement, les résultats suggèrent que le stress de navettage provient de l’ajustement quotidien des travailleurs à leurs conditions de navettage, qui se répercute en emploi. Les organisations devraient donc s’intéresser au développement de pratiques de gestion en ressources humaines misant sur l’amélioration des conditions de navettage de leurs employés. Ces pratiques RH pourraient moduler la relation entre le navettage et les problèmes de santé mentale au travail.