993 resultados para Systèmes multiagents
Resumo:
La perception est de plus en plus reconnue comme fondamentale à la compréhension du phénotype autistique. La première description de l’autisme, par Kanner en 1947, fait état d’un profil cognitif hétérogène caractérisé par des habiletés exceptionnelles à l’intérieur de domaines spécifiques de la perception (ex., la musique). L’accumulation des observations cliniques sur la présence de particularités perceptives a mené à l’élaboration d’études empiriques permettant d’objectiver des surfonctionnements dans le traitement élémentaire de l’information perceptive dans l’autisme. Parallèlement, des études cognitives suggèrent la présence d’une « intelligence différente » chez les personnes autistes. Celle-ci serait caractérisée par une dissociation entre des performances à différents tests d’intelligence fortement corrélés ensemble chez les personnes typiques. Le potentiel intellectuel des personnes autistes serait sous-estimé lorsque mesuré par l’échelle de Wechsler, plutôt que des mesures d’intelligence fluide comme les Matrices Progressives de Raven. Avec l’appui d’études en imagerie cérébrale, ces résultats suggèrent une relation unique entre la perception et l’intelligence chez cette population clinique. Étant donné l’accumulation de preuves sur 1) la présence d’atypies perceptuelles, 2) le rôle différent de la perception dans l’intelligence et 3) l’importance des comportements répétitifs et intérêts restreints dans le phénotype autistique (DSM-5), le premier volet de cette thèse s’est intéressé à la relation entre les performances perceptives des personnes autistes et celle des personnes ayant un développement typique, au-delà de ce qui est expliqué par l’intelligence. À l’aide de modèles de régression linéaire, les résultats démontrent un profil de covariation spécifique à l’autisme pour les habiletés plurimodales. Contrairement aux personnes ayant un développement typique, ces associations persistent au-delà de ce qui est expliqué par l’intelligence générale ou par l’efficacité générale des systèmes perceptifs. Ce profil de covariation résiduelle propre aux personnes autistes suggère la présence d’un facteur plurimodal spécifique à ce groupe clinique : le facteur « p ». Le deuxième volet de cette thèse s’est intéressé à la prévalence des habiletés exceptionnelles au niveau individuel, la relation les forces perceptives et les talents, ainsi qu’aux facteurs de prédisposition en lien avec le développement d’habiletés exceptionnelles. Les forces perceptives des personnes autistes furent évaluées à l’aide de tâches expérimentales sensibles à la détection de surfonctionnements perceptifs, soit une tâche de discrimination de hauteurs sonores et une version modifiée du sous-test « Blocs » de l’échelle d’intelligence de Wechsler. Les talents furent évalués de manière clinique à l’aide de l’ADI-R (« Autism Diagnostic Interview-Revised »). Les données indiquent que 88.4 % des personnes autistes avec une intelligence dans la normale présentent au moins une habileté exceptionnelle (force perceptive ou talent). Les talents sont rapportés chez 62.5 % des cas et les forces perceptives se retrouvent chez 58 % des cas. La cooccurrence des forces perceptives entre les modalités perceptives est relativement peu fréquente (24 % à 27 %) et la présence d’un talent dans une modalité n’augmente pas les chances de présenter une force perceptive dans une même modalité. Une plus grande intelligence augmente les chances de présenter au moins un talent. En revanche, une intelligence plus faible, mais se situant tout de même dans les limites de la normale, est associée à un profil cognitif plus hétérogène avec des forces perceptives plus fréquentes. En somme, l’intelligence autistique serait caractérisée par un rôle plus important de la perception, indépendamment des surfonctionnements perceptifs. Cette particularité cognitive se manifesterait par la présence d’un facteur plurimodal, « p », spécifique à l’autisme. Théoriquement, le facteur « p » reflèterait des modifications innées (ou « hardwired ») dans l’organisation corticale des microcircuits responsables de l'encodage des dimensions perceptives élémentaires. En revanche, une faible association intermodale entre les forces perceptives suggère que des modifications corticales sont essentielles, mais non suffisantes pour le développement d’habiletés exceptionnelles. Par des processus de plasticité, des modifications corticales auraient des répercussions sur le phénotype autistique en offrant une base plus « fertile » pour le développement d’habiletés exceptionnelles, voire savantes, lorsque la personne autiste serait exposée à des expériences de vie avantageuses. Par ailleurs, les résultats de cette thèse, combinés à la littérature existante sur l’intelligence et l’apprentissage des personnes autistes, nous amènent à réfléchir sur les approches d’évaluation et d’intervention les mieux adaptées au fonctionnement spécifique de cette population clinique.
Resumo:
Les systèmes logiciels sont devenus de plus en plus répondus et importants dans notre société. Ainsi, il y a un besoin constant de logiciels de haute qualité. Pour améliorer la qualité de logiciels, l’une des techniques les plus utilisées est le refactoring qui sert à améliorer la structure d'un programme tout en préservant son comportement externe. Le refactoring promet, s'il est appliqué convenablement, à améliorer la compréhensibilité, la maintenabilité et l'extensibilité du logiciel tout en améliorant la productivité des programmeurs. En général, le refactoring pourra s’appliquer au niveau de spécification, conception ou code. Cette thèse porte sur l'automatisation de processus de recommandation de refactoring, au niveau code, s’appliquant en deux étapes principales: 1) la détection des fragments de code qui devraient être améliorés (e.g., les défauts de conception), et 2) l'identification des solutions de refactoring à appliquer. Pour la première étape, nous traduisons des régularités qui peuvent être trouvés dans des exemples de défauts de conception. Nous utilisons un algorithme génétique pour générer automatiquement des règles de détection à partir des exemples de défauts. Pour la deuxième étape, nous introduisons une approche se basant sur une recherche heuristique. Le processus consiste à trouver la séquence optimale d'opérations de refactoring permettant d'améliorer la qualité du logiciel en minimisant le nombre de défauts tout en priorisant les instances les plus critiques. De plus, nous explorons d'autres objectifs à optimiser: le nombre de changements requis pour appliquer la solution de refactoring, la préservation de la sémantique, et la consistance avec l’historique de changements. Ainsi, réduire le nombre de changements permets de garder autant que possible avec la conception initiale. La préservation de la sémantique assure que le programme restructuré est sémantiquement cohérent. De plus, nous utilisons l'historique de changement pour suggérer de nouveaux refactorings dans des contextes similaires. En outre, nous introduisons une approche multi-objective pour améliorer les attributs de qualité du logiciel (la flexibilité, la maintenabilité, etc.), fixer les « mauvaises » pratiques de conception (défauts de conception), tout en introduisant les « bonnes » pratiques de conception (patrons de conception).
Resumo:
Depuis plus de trente ans, le Québec a pris position en faveur d’un mouvement de professionnalisation de l’enseignement. Ce choix se fonde principalement sur la volonté de moderniser les systèmes d’éducation grâce à la consolidation d’une expertise du travail enseignant. Elle a donc engendré toute une série de réformes visant à formaliser les pratiques des enseignants, à les appuyer sur les résultats de la recherche et à développer un code de pratiques responsables. Cependant, dans une perspective critique, ce processus de professionnalisation entre également dans le cadre plus large d’un processus de rationalisation étatique. Il exige de plus en plus des enseignants de faire preuve d’efficacité à tout prix, mais cette exigence ne tient pas compte de l’incertitude de l’action et des valeurs en jeu. Cette thèse vise à analyser, à partir d’une perspective critique, la conception de l’articulation entre la recherche et la pratique sous-jacente au mouvement de professionnalisation en vue de proposer une conception plus adéquate en regard de la réalité pratique: la traduction. Ce faisant, la thèse propose une réflexion sur le rôle transformateur du langage dans tout processus de transmission des connaissances. L’approche de la traduction s'inspire à la fois de la tradition herméneutique et de la critique poststructuraliste, et remet en question la conception du langage comme véhicule transparent de la pensée et des connaissances. À la lumière de ce cadre, je propose une analyse empirique (analyses discursive et sémiotique) des mécanismes de traduction qui assurent le passage du monde de la recherche vers le monde de l'enseignement. Cette partie repose sur une analyse comparative d’articles provenant de la revue Vie pédagogique, analyse qui se concentre sur les processus de traductions à l’œuvre dans trois concepts centraux du mouvement de professionnalisation : la pratique réflexive, la compétence et la collaboration. Elle met en lumière la manière dont le cadre actuel de la professionnalisation est réducteur, totalisant, et nie le caractère traductif du langage et de l’activité humaine. Je conclus avec une reconceptualisation de l'enseignement en tant que traduction et acte de profession de foi.
Resumo:
L’objectif de ce projet était de développer une formulation liquisolide (LS) de clozapine ayant des propriétés de dissolution améliorées et évaluer sa stabilité et ainsi que sa robustesse à la modification d’excipients. Le propylène glycol (PG), la cellulose microcrystalline (MCC) et le glycolate d’amidon sodique (SSG) ont été utilisés respectivement en tant que véhicule liquide non volatile, agent de masse et agent désintégrant pour la préparation de comprimés LS. Le dioxyde de silicium colloïdal (CSD), le silicate de calcium (CS) et l'aluminométasilicate de magnésium (MAMS) ont été choisis comme agents d’enrobage sec. La caractérisation complète des mélanges et des comprimés a été effectuée. Le taux de libération des comprimés LS était statistiquement supérieur à celui des comprimés réguliers. La surface spécifique des matériaux d’enrobage avait un effet sur les propriétés d’écoulement des mélanges et la taille des particules des matériaux d’enrobage a eu un effet sur la vitesse de dissolution. Le ratio support/enrobage du mélange de poudres (valeur de R) était un paramètre important pour les systèmes LS et devait être plus grand que 20 afin d’obtenir une meilleure libération du médicament. La formulation choisie a démontré une stabilité pour une période d’au moins 12 mois. La technique LS s’est avéré une approche efficace pour le développement de comprimés de clozapine ayant des propriétés de dissolution améliorées. Les comprimés oro-dispersibles (ODT) sont une formulation innovante qui permettent de surmonter les problèmes de déglutition et de fournir un début d'action plus rapide. Dans l’optique d’améliorer les propriétés de dissolution, un essai a été effectué pour étudier la technique LS dans la formulation des ODT de clozapine. Le PG, la MCC, le CSD et la crospovidone (CP) ont été utilisés respectivement en tant que véhicule liquide non volatile, agent de masse, agent d’enrobage sec et agent superdésintégrant pour la préparation de comprimés oro-dispersibles liquisolides (OD-LST). Le mannitol a été choisi comme agent de masse et agent édulcorant. La saccharine de sodium a été utilisée comme agent édulcorant. La caractérisation complète des comprimés a été effectuée. Le taux de libération des OD-LSTs était statisquement supérieur comparativement aux comprimés ODTs. La formulation choisie a démontré une stabilité pour une période d’au moins 6 mois. Il a été conclu que des ODT de clozapine peuvent être préparés avec succès en utilisant la technologie LS dans le but d’améliorer la désintégration et le taux de dissolution de la clozapine dans la cavité orale.
Bioethics’ Lack in Relation to Person-Centred User-Driven Health Systems Planning: A Call for Change
Resumo:
La tribune de l'éditeur / Editor's Soapbox
Resumo:
Introduction Chaque année, 289 000 femmes décèdent des complications reliées à la grossesse et à l’accouchement, et 2.9 millions de nouveau-nés décèdent avant d’atteindre 28 jours de vie. La quasi-totalité (99%) des décès maternels et néonataux ont cours dans les pays à revenu faible et intermédiaire (PRFI). L’utilisation des services obstétricaux essentiels, incluant l’assistance qualifiée à l’accouchement (AA) et les services postnataux, contribue largement à la réduction de la morbidité et de la mortalité maternelle et néonatale. Il est donc essentiel d’évaluer les déterminants et les inégalités de couverture de ces services, en vue d’informer l’élaboration de politiques et de programmes de santé dans les PRFI. Objectifs 1. Étudier systématiquement les déterminants et inégalités socioéconomiques, géographiques et démographiques dans l’utilisation des services de santé postnataux dans les PRFI. 2. Évaluer l’effet de la politique de subvention des frais aux usagers introduite au Burkina Faso en 2007 sur les taux d’utilisation de l’assistance qualifiée à l’accouchement, en fonction du statut socioéconomique (SSE). Méthodes 1. Nous avons réalisé une revue systématique sur l’utilisation des services postnataux dans les PRFI, en fonction des déterminants socioéconomiques, géographiques et démographiques. Notre étude incluait une méta-analyse de l’utilisation des services selon les quintiles de SSE et le milieu de vie (urbain vs. rural). 2. Nous avons utilisé un devis quasi-expérimental. Les sources de données consistaient en deux sondages représentatifs (n=1408 et n=1403), conduits respectivement en 2008 et 2010 auprès de femmes des districts sanitaires de Houndé et de Ziniaré au Burkina Faso, en plus d’une enquête sur la qualité structurelle des soins offerts dans les centres de santé primaire. Nous avons utilisé des modèles de régression de Poisson, multi-niveaux et segmentés, afin d’évaluer l’effet de la politique de subvention sur les taux d’AA. Nous avons estimé des ratios et différences de taux d’incidence ajustés, en fonction du SSE et du temps écoulé depuis l’introduction de la subvention. Résultats 1. Les estimés de ratio de cotes (RC) agrégés (IC 95%) pour les femmes de SSE élevé (5e quintile ou Q5), Q4, Q3 et Q2 (référence : quintile le plus pauvre, Q1) étaient respectivement : 2.27 (1.75 – 2.93); 1.60 (1.30-1.98); 1.32 (1.12-1.55); et 1.14 (0.96-1.34). La méta-analyse a aussi démontré un gradient d’utilisation des services postnataux entre les femmes urbaines et rurales : RC (IC 95%) = 1.36 (1.01-1.81). L’évaluation narrative a par ailleurs identifié une différence dans la couverture de services selon le niveau d’éducation. 2. Pour les femmes de faible SSE, le taux d’AA était 24% plus élevé (IC 95% : 4-46%) immédiatement après l’introduction de la subvention, en comparaison au taux attendu en l’absence de ladite subvention. L’ampleur de l’effet a diminué dans le temps, correspondant à des estimés (IC 95%) de 22% (3-45%) à 6 mois, 20% (1-43%) à 12 mois, et 17% (-4-42%) à 24 mois après l’introduction de la subvention. La force d’association variait selon les strates de SSE, l’effet le plus prononcé étant observé au sein du SSE le plus faible. Conclusions 1. L’utilisation des services postnataux demeure inéquitable selon le SSE et l’accessibilité géographique aux formations sanitaires dans les PRFI. 2. Notre étude suggère que l’introduction de la subvention des frais aux usagers au Burkina Faso résulte en une augmentation soutenue dans le taux d’assistance qualifiée à l’accouchement, particulièrement chez les femmes de faible SSE. Cette évidence scientifique devrait alimenter l’élaboration de programmes de santé materno-infantile, en plus de guider la planification de politiques et le renforcement des systèmes de santé des PRFI.
Resumo:
Les hétérojonctions formées de deux matériaux, un donneur et un accepteur (D/A), sont la base de la majorité des mélanges photovoltaïques organiques. Les mécanismes de séparation des charges dans ces systèmes représentent aujourd'hui l'un des sujets les plus chauds et les plus débattus dans ce domaine. Nous entrons au coeur de ce débat en choisissant un système D/A à base de phtalocyanine de cuivre (CuPc) et de fullerène (C60). Pour sonder les états excités de nos molécules et obtenir de l'information sur les phénomènes à l'interface D/A, nous réalisons une expérience pompe-sonde, appelée absorption photoinduite (PIA). Nous y mesurons le changement fractionnaire de transmission au travers de l'échantillon. Les mesures de PIA sont réalisées à l'état de quasi équilibre, à T=10K. Nous observons une modulation prononcée dans la région du photoblanchiment de l'état fondamental qui nous indique que la pompe induit un décalage du spectre d'absorption de l'état fondamental. Ce décalage peut être expliqué par deux processus : soit l'échantillon est chauffé par la pompe (effet thermique) ou bien des charges sont créées à l'interface entre les deux matériaux (effet Stark). La dépendance en température du spectre d'absorption entre 10K et 290K montre une signature thermique pour un changement de température de 80K. Grâce au ratio des raies Raman anti-Stokes et Stokes, nous démontrons que la pompe chauffe l'échantillon de 34 K, température insuffisante pour attribuer notre signal à un effet thermique. Nous évaporons ensuite la bicouche CuPc/C60 sur de l'ITO et du saphir, substrats qui possèdent des conductivités thermiques différentes et nous observons le même signal de PIA, excluant par le fait même l'hypothèse de l'effet thermique. Puisque notre étude est comparable à la spectroscopie à effet Stark, nous procédons à une analyse similaire en comparant notre signal de PIA au spectre de la transmittance et à ses dérivés première et seconde. Nous observons alors que notre signal reproduit presque parfaitement la dérivée seconde de la transmittance. Ces résultats sont conformes à une signature optique d'effet Stark due à la création de charges à l'interface D/A.
Resumo:
En s’inscrivant dans la perspective du féminisme intersectionnelle et en mobilisant des méthodes mixtes, cette recherche tente de mieux comprendre la violence domestique envers les femmes au Mexique, à la fois à travers une analyse du discours des féministes mexicaines et d’une analyse statistique multidimensionnelle de données d’enquête identifiant les facteurs institutionnels, économiques et socioculturels associés au risque de vivre de la violence domestique. Cette thèse se démarque des réflexions féministes traditionnelles faites au Mexique puisqu’elle approche les rapports de genre en lien avec d’autres systèmes d’oppression et de subordination, fondés notamment sur les rapports de classe et l’ethnicité. Ainsi, elle appréhende la violence faite aux femmes en lien avec le patriarcat, sans réduire ce dernier à quelques indicateurs sociodémographiques et comportementaux mesurés au niveau individuel, mais en tenant compte du contexte d’inégalité de genre au niveau régional. Ce faisant, la recherche tente de réconcilier les deux grandes perspectives théoriques qui expliquent la violence conjugale, soit les approches de la violence familiale (qui s’attardent à des facteurs au niveau microsocial) et les approches féministes (qui mettent l’accent sur la structure patriarcale, c’est-à-dire le contexte plus large des inégalités de genre). Les résultats des entretiens réalisés avec des féministes représentant les trois branches du féminisme mexicain (féminisme hégémonique, populaire et autochtone) ont révélé les fractures existantes à l’intérieur du mouvement féministe au Mexique (antagonisme entre l’institutionnalisation et l’autonomie du mouvement féministe). De façon générale, l’analyse des entretiens a montré que l’engagement des féministes envers la cause des femmes est en accord avec les «idéaux types» des trois branches du féminisme mexicain. Les féministes hégémoniques mettent surtout l’accent sur la structure patriarcale de la société mexicaine et sur les inégalités de genre lorsqu’il s’agit de trouver des causes à la violence faite aux femmes. Pour les féministes du secteur populaire, la violence faite aux femmes s’explique autant par les inégalités de genre, que par les effets du système économique capitaliste. Le discours des femmes autochtones semble, quant à lui, tenir davantage compte de l’articulation des rapports de genre, des rapports ethniques, ainsi que des rapports socio-économiques. Néanmoins, nous constatons que les féministes de la branche hégémonique et populaire semblent de plus en plus sensibles à l’entrecroisement de systèmes de domination et d’oppression. Par ailleurs, l’analyse multiniveau effectuée à partir des données de l’Enquête nationale portant sur la dynamique des relations dans les ménages (2006), a révélé plusieurs résultats importants qui méritent d’être soulignés. D’abord on constate que les différences de prévalence des violences entre les municipalités mexicaines sont en grande partie expliquées par leur composition sociale, c’est-à-dire par des caractéristiques des femmes et de leur couple (niveau micro), plutôt que par des différences entre le niveau des inégalités de genre dans les municipalités mexicaines mesurées par l’ISDH (Indice Sexospécifique du Développement Humain). Les résultats des analyses montrent que les femmes autochtones ont en général des taux de violences moins élevés que les femmes métisses (groupe majoritaire). Enfin, en ce qui a trait à la relation entre le contexte d’inégalité de genre et la violence conjugale, les résultats suggèrent que plus l’ISDH d’une municipalité est élevée, plus il y a de femmes qui subissent les formes de violences. Cela va à l’encontre des postulats habituels des théories féministes et suggèrent que les progrès récents de la situation de la femme en matière de santé, d’éducation et de revenu n’ont pas bouleversé les rapports de genre encore très patriarcales qui continuent à privilégier la suprématie des hommes (Casique, 2004).
Resumo:
L’importance que revêt la localisation des entreprises dans le fonctionnement et la compétitivité de celles-ci amène à porter l’attention sur la problématique des clusters et l’influence qu’ils peuvent avoir sur la production de connaissances. À travers une perspective théorique qui repose sur la prise en compte des travaux portant sur les districts industriels et ceux plus récents, sur les clusters, nous mettons en évidence une évolution conceptuelle du phénomène de la localisation des entreprises. La place qu’occupe la production de connaissances constitue désormais un élément central des travaux récents qui portent sur les districts et les clusters industriels. Notre examen des dynamiques de fonctionnement de ces systèmes permet d’affirmer que la production de connaissances est une caractéristique centrale des clusters ainsi que leur principal avantage compétitif. Étroitement liée aux réseaux inter-organisationnels, la production de connaissances n’est pas un phénomène naturel, elle découle des mécanismes intrinsèques aux clusters, qu’on cherche à mettre en évidence. Pour ce faire, notre méthodologie qui emprunte les principaux repères de l’analyse stratégique des organisations conduit à l’étude du fonctionnement concret d’un réseau local d’innovation, constitué d’entreprises et d’institutions locales présentes dans le cluster montréalais de l’aérospatiale. Un réseau constitué par l’intermédiaire du Consortium de Recherche et d’Innovation en Aérospatiale du Québec, une institution centrale dans le fonctionnement de ce cluster.
Resumo:
Dans cette thèse, nous présentons quelques analyses théoriques récentes ainsi que des observations expérimentales de l’effet tunnel quantique macroscopique et des tran- sitions de phase classique-quantique dans le taux d’échappement des systèmes de spins élevés. Nous considérons les systèmes de spin biaxial et ferromagnétiques. Grâce à l’approche de l’intégral de chemin utilisant les états cohérents de spin exprimés dans le système de coordonnées, nous calculons l’interférence des phases quantiques et leur distribution énergétique. Nous présentons une exposition claire de l’effet tunnel dans les systèmes antiferromagnétiques en présence d’un couplage d’échange dimère et d’une anisotropie le long de l’axe de magnétisation aisé. Nous obtenons l’énergie et la fonc- tion d’onde de l’état fondamentale ainsi que le premier état excité pour les systèmes de spins entiers et demi-entiers impairs. Nos résultats sont confirmés par un calcul utilisant la théorie des perturbations à grand ordre et avec la méthode de l’intégral de chemin qui est indépendant du système de coordonnées. Nous présentons aussi une explica- tion claire de la méthode du potentiel effectif, qui nous laisse faire une application d’un système de spin quantique vers un problème de mécanique quantique d’une particule. Nous utilisons cette méthode pour analyser nos modèles, mais avec la contrainte d’un champ magnétique externe ajouté. La méthode nous permet de considérer les transitions classiques-quantique dans le taux d’échappement dans ces systèmes. Nous obtenons le diagramme de phases ainsi que les températures critiques du passage entre les deux régimes. Nous étendons notre analyse à une chaine de spins d’Heisenberg antiferro- magnétique avec une anisotropie le long d’un axe pour N sites, prenant des conditions frontière périodiques. Pour N paire, nous montrons que l’état fondamental est non- dégénéré et donné par la superposition des deux états de Néel. Pour N impair, l’état de Néel contient un soliton, et, car la position du soliton est indéterminée, l’état fondamen- tal est N fois dégénéré. Dans la limite perturbative pour l’interaction d’Heisenberg, les fluctuations quantiques lèvent la dégénérescence et les N états se réorganisent dans une bande. Nous montrons qu’à l’ordre 2s, où s est la valeur de chaque spin dans la théorie des perturbations dégénérées, la bande est formée. L’état fondamental est dégénéré pour s entier, mais deux fois dégénéré pour s un demi-entier impair, comme prévu par le théorème de Kramer
Resumo:
Le contrôle des mouvements du bras fait intervenir plusieurs voies provenant du cerveau. Cette thèse, composée principalement de deux études, tente d’éclaircir les contributions des voies tirant leur origine du système vestibulaire et du cortex moteur. Dans la première étude (Raptis et al 2007), impliquant des mouvements d’atteinte, nous avons cerné l’importance des voies descendantes partant du système vestibulaire pour l’équivalence motrice, i.e. la capacité du système moteur à atteindre un but moteur donné lorsque le nombre de degrés de liberté articulaires varie. L’hypothèse émise était que le système vestibulaire joue un rôle essentiel dans l’équivalence motrice. Nous avons comparé la capacité d’équivalence motrice de sujets sains et de patients vestibulodéficients chroniques lors de mouvements nécessitant un contrôle des positions du bras et du tronc. Pendant que leur vision était temporairement bloquée, les sujets devaient soit maintenir une position de l’index pendant une flexion du tronc, soit atteindre une cible dans l’espace péri-personnel en combinant le mouvement du bras avec une flexion du tronc. Lors d’essais déterminés aléatoirement et imprévus par les participants, leur tronc était retenu par un mécanisme électromagnétique s’activant en même temps que le signal de départ. Les sujets sains ont pu préserver la position ou la trajectoire de l’index dans les deux conditions du tronc (libre, bloqué) en adaptant avec une courte latence (60-180 ms) les mouvements articulaires au niveau du coude et de l’épaule. En comparaison, six des sept patients vestibulodéficients chroniques ont présenté des déficits au plan des adaptations angulaires compensatoires. Pour ces patients, entre 30 % et 100 % du mouvement du tronc n’a pas été compensé et a été transmis à la position ou trajectoire de l’index. Ces résultats indiqueraient que les influences vestibulaires évoquées par le mouvement de la tête pendant la flexion du tronc jouent un rôle majeur pour garantir l’équivalence motrice dans ces tâches d’atteinte lorsque le nombre de degrés de liberté articulaires varie. Également, ils démontrent que la plasticité de long terme survenant spontanément après une lésion vestibulaire unilatérale complète ne serait pas suffisante pour permettre au SNC de retrouver un niveau d’équivalence motrice normal dans les actions combinant un déplacement du bras et du tronc. Ces tâches de coordination bras-tronc constituent ainsi une approche inédite et sensible pour l’évaluation clinique des déficits vestibulaires. Elles permettent de sonder une dimension fonctionnelle des influences vestibulaires qui n’était pas prise en compte dans les tests cliniques usuels, dont la sensibilité relativement limitée empêche souvent la détection d’insuffisances vestibulaires six mois après une lésion de ces voies. Avec cette première étude, nous avons donc exploré comment le cerveau et les voies descendantes intègrent des degrés de liberté articulaires supplémentaires dans le contrôle du bras. Dans la seconde étude (Raptis et al 2010), notre but était de clarifier la nature des variables spécifiées par les voies descendantes pour le contrôle d’actions motrices réalisées avec ce membre. Nous avons testé l’hypothèse selon laquelle les voies corticospinales contrôlent la position et les mouvements des bras en modulant la position-seuil (position de référence à partir de laquelle les muscles commencent à être activés en réponse à une déviation de cette référence). Selon ce principe, les voies corticospinales ne spécifieraient pas directement les patrons d’activité EMG, ce qui se refléterait par une dissociation entre l’EMG et l’excitabilité corticospinale pour des positions-seuils différentes. Dans un manipulandum, des participants (n=16) ont modifié leur angle du poignet, d’une position de flexion (45°) à une position d’extension (-25°), et vice-versa. Les forces élastiques passives des muscles ont été compensées avec un moteur couple afin que les sujets puissent égaliser leur activité EMG de base dans les deux positions. L’excitabilité motoneuronale dans ces positions a été comparée à travers l’analyse des réponses EMG évoquées à la suite d’étirements brefs. Dans les deux positions, le niveau d’EMG et l’excitabilité motoneuronale étaient semblables. De plus, ces tests ont permis de montrer que le repositionnement du poignet était associé à une translation de la position-seuil. Par contre, malgré la similitude de l’excitabilité motoneuronale dans ces positions, l’excitabilité corticospinale des muscles du poignet était significativement différente : les impulsions de stimulation magnétique transcrânienne (TMS; à 1.2 MT, sur l’aire du poignet de M1) ont provoqué des potentiels moteurs évoqués (MEP) de plus grande amplitude en flexion pour les fléchisseurs comparativement à la position d’extension et vice-versa pour les extenseurs (p<0.005 pour le groupe). Lorsque les mêmes positions étaient établies après une relaxation profonde, les réponses réflexes et les amplitudes des MEPs ont drastiquement diminué. La relation caractéristique observée entre position physique et amplitude des MEPs dans le positionnement actif s’est aussi estompée lorsque les muscles étaient relâchés. Cette étude suggère que la voie corticospinale, en association avec les autres voies descendantes, participerait au contrôle de la position-seuil, un processus qui prédéterminerait le référentiel spatial dans lequel l’activité EMG émerge. Ce contrôle de la « référence » constituerait un principe commun s’appliquant à la fois au contrôle de la force musculaire, de la position, du mouvement et de la relaxation. Nous avons aussi mis en évidence qu’il est nécessaire, dans les prochaines recherches ou applications utilisant la TMS, de prendre en compte la configuration-seuil des articulations, afin de bien interpréter les réponses musculaires (ou leurs changements) évoquées par cette technique; en effet, la configuration-seuil influencerait de manière notable l’excitabilité corticomotrice, qui peut être considérée comme un indicateur non seulement lors d’activités musculaires, mais aussi cognitives, après apprentissages moteurs ou lésions neurologiques causant des déficits moteurs (ex. spasticité, faiblesse). Considérées dans leur ensemble, ces deux études apportent un éclairage inédit sur des principes fondamentaux du contrôle moteur : nous y illustrons de manière plus large le rôle du système vestibulaire dans les tâches d’atteinte exigeant une coordination entre le bras et son « support » (le tronc) et clarifions l’implication des voies corticomotrices dans la spécification de paramètres élémentaires du contrôle moteur du bras. De plus amples recherches sont cependant nécessaires afin de mieux comprendre comment les systèmes sensoriels et descendants (e.g. vestibulo-, réticulo-, rubro-, propriospinal) participent et interagissent avec les signaux corticofugaux afin de spécifier les seuils neuromusculaires dans le contrôle de la posture et du mouvement.
Resumo:
Cette étude a pour but de présenter le dialogue entre les juges de la Cour européenne des droits de l’homme (CEDH) et de la Cour interaméricaine des droits de l’homme (CIADH), deux Cours régionales supranationales, visant toutes deux à garantir le respect des droits fondamentaux. Le dialogue est étudié à travers l’analyse du contentieux portant sur l’intégrité de la personne humaine et sur la protection des droits économiques et sociaux. Ce sujet se rattache au contexte de mondialisation qui vient transformer les relations de pouvoir et révèle l’émancipation des juges dans la régulation transgouvernementale. Le présent mémoire conclut que le dialogue vise à établir une cohérence entre les systèmes afin de faire prévaloir une vision commune des droits de l’homme à travers la constitution d’un espace euro-américain, tel un réseau d’échange informel. Néanmoins, le dialogue est limité par certains facteurs contextuels liés aux réalités contrastées des deux systèmes régionaux ainsi que par la volonté des acteurs étatiques.
Resumo:
La littérature abordant les enjeux socio-éthiques et réglementaires associés aux médicaments est relativement abondante, ce qui n’est pas le cas des dispositifs médicaux (DM). Ce dernier secteur couvre une très large diversité de produits qui servent à de multiples applications: diagnostic, traitement, gestion des symptômes de certaines conditions physiques ou psychiatriques, restauration d’une fonction débilitante, chirurgie, etc. À tort, on a tendance à croire que les DM sont réglementés de la même manière que les médicaments, que ce soit pour les exigences concernant leur mise en marché ou des pratiques de surveillance après mise en marché. Or, au cours des dernières années, leur usage élargi, leur impact sur les coûts des soins de santé, et les rappels majeurs dont certains ont fait l’objet ont commencé à inquiéter la communauté médicale et de nombreux chercheurs. Ils interpellent les autorités réglementaires à exercer une plus grande vigilance tant au niveau de l’évaluation des nouveaux DM à risque élevé avant leur mise en marché, que dans les pratiques de surveillance après mise en marché. Une stratégie plus rigoureuse d’évaluation des nouveaux DM permettrait d’assurer un meilleur suivi des risques associés à leur utilisation, de saisir la portée des divers enjeux socio-éthiques découlant de l’utilisation de certains DM, et de préserver la confiance du public. D’emblée, il faut savoir que les autorités nationales n’ont pas pour mandat d’évaluer la portée des enjeux socio-éthiques, ou encore les coûts des DM qui font l’objet d’une demande de mise en marché. Cette évaluation est essentiellement basée sur une analyse des rapports risques-bénéfices générés par l’usage du DM pour une indication donnée. L’évaluation des impacts socio-éthiques et l’analyse coûts-bénéfices relèvent des agences d’Évaluation des technologies de santé (ÉTS). Notre recherche montre que les DM sont non seulement peu fréquemment évalués par les agences d’ÉTS, mais l’examen des enjeux socio-éthiques est trop souvent encore incomplet. En fait, les recommandations des rapports d’ÉTS sont surtout fondées sur une analyse coûts-bénéfices. Or, le secteur des DM à risque élevé est particulièrement problématique. Plusieurs sont non seulement porteurs de risques pour les patients, mais leur utilisation élargie comporte des impacts importants pour les systèmes de santé. Nous croyons que le Principisme, au cœur de l’éthique biomédicale, que ce soit au plan de l’éthique de la recherche que de l’éthique clinique, constitue un outil pour faciliter la reconnaissance et l’examen, particulièrement par les agences d’ÉTS, des enjeux socio-éthiques en jeu au niveau des DM à risque élevé. Également, le Principe de Précaution pourrait aussi servir d’outil, particulièrement au sein des agences nationales de réglementation, pour mieux cerner, reconnaître, analyser et gérer les risques associés à l’évaluation et l’utilisation de ce type de DM. Le Principisme et le Principe de Précaution pourraient servir de repères 1) pour définir les mesures nécessaires pour éliminer les lacunes observées dans pratiques associées aux processus de réglementation, et 2) pour mieux cerner et documenter les enjeux socio-éthiques spécifiques aux DM à risque élevé.
Resumo:
Les réchauffements climatiques associés aux activités anthropiques ont soumis les écosystèmes arctiques à des changements rapides qui menacent leur stabilité à court terme. La diminution dramatique de la banquise arctique est une des conséquences les plus concrètes de ce réchauffement. Dans ce contexte, comprendre et prédire comment les systèmes arctiques évolueront est crucial, surtout en considérant comment les flux de carbone (C) de ces écosystèmes - soit des puits nets, soit des sources nettes de CO2 pour l'atmosphère - pourraient avoir des répercussions importantes sur le climat. Le but de cette thèse est de dresser un portrait saisonnier de l’activité bactérienne afin de déterminer l’importance de sa contribution aux flux de carbone en Arctique. Plus spécifiquement, nous caractérisons pour la première fois la respiration et le recours à la photohétérotrophie chez les microorganismes du golfe d’Amundsen. Ces deux composantes du cycle du carbone demeurent peu décrites et souvent omises des modèles actuels, malgré leur rôle déterminant dans les flux de C non seulement de l’Arctique, mais des milieux marins en général. Dans un premier temps, nous caractérisons la respiration des communautés microbiennes (RC) des glaces de mer. La connaissance des taux de respiration est essentielle à l’estimation des flux de C, mais encore limitée pour les milieux polaires. En effet, les études précédentes dans le golfe d’Amundsen n’ont pas mesuré la RC. Par la mesure de la respiration dans les glaces, nos résultats montrent des taux élevés de respiration dans la glace, de 2 à 3 fois supérieurs à la colonne d'eau, et une production bactérienne jusqu’à 25 fois plus importante. Ces résultats démontrent que la respiration microbienne peut consommer une proportion significative de la production primaire (PP) des glaces et pourrait jouer un rôle important dans les flux biogéniques de CO2 entre les glaces de mer et l’atmosphère (Nguyen et Maranger, 2011). Dans un second temps, nous mesurons la respiration des communautés microbiennes pélagiques du golfe d’Amundsen pendant une période de 8 mois consécutif, incluant le couvert de glace hivernal. En mesurant directement la consommation d'O2, nous montrons une RC importante, mesurable tout au long de l’année et dépassant largement les apports en C de la production primaire. Globalement, la forte consommation de C par les communautés microbiennes suggère une forte dépendance sur recyclage interne de la PP locale. Ces observations ont des conséquences importantes sur notre compréhension du potentiel de séquestration de CO2 par les eaux de l’Océan Arctique (Nguyen et al. 2012). Dans un dernier temps, nous déterminons la dynamique saisonnière de présence (ADN) et d’expression (ARN) du gène de la protéorhodopsine (PR), impliqué dans la photohétérotrophie chez les communautés bactérienne. Le gène de la PR, en conjonction avec le chromophore rétinal, permet à certaines bactéries de capturer l’énergie lumineuse à des fins énergétiques ou sensorielles. Cet apport supplémentaire d’énergie pourrait contribuer à la survie et prolifération des communautés qui possèdent la protéorhodopsine. Bien que détectée dans plusieurs océans, notre étude est une des rares à dresser un portrait saisonnier de la distribution et de l’expression du gène en milieu marin. Nous montrons que le gène de la PR est présent toute l’année et distribué dans des communautés diversifiées. Étonnamment, l’expression du gène se poursuit en hiver, en absence de lumière, suggérant soit qu’elle ne dépend pas de la lumière, ou que des sources de photons très localisées justifie l’expression du gène à des fins sensorielles et de détection (Nguyen et al., soumis au journal ISME). Cette thèse contribue à la compréhension du cycle du C en Arctique et innove par la caractérisation de la respiration et de l’efficacité de croissance des communautés microbiennes pélagiques et des glaces de mer. De plus, nous montrons pour la première fois une expression soutenue de la protéorhodopsine en Arctique, qui pourrait moduler la consommation de C par la respiration et justifier son inclusion éventuelle dans les modélisations du cycle du C. Dans le contexte des changements climatiques, il est clair que l'importance de l’activité bactérienne a été sous-estimée et aura un impact important dans le bilan de C de l'Arctique.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.