989 resultados para forme
Resumo:
Beaucoup de personnes consomment des drogues d’abus de façon récréative ou expérimentale dans leur vie, mais peu d’entre elles développent une toxicomanie. Nous avons exploré, chez le rat, deux facteurs impliqués dans la transition vers la toxicomanie, soit la vitesse à laquelle la drogue parvient au cerveau et le fait d’être sous traitement antipsychotique. Dans une première étude, notre objectif était de déterminer si augmenter la vitesse de livraison de la cocaïne (0.5 mg/kg) par auto-administration intraveineuse (i.v.; livrée en 5 secondes dans un groupe versus 90 secondes dans l’autre) mènerait à une plus grande consommation de celle-ci lors d’un accès prolongé (6 h/j versus 1 h/j), et à une plus grande motivation à obtenir la drogue telle que mesurée sous un ratio de renforcement progressif à une vitesse différente (10 secondes). Nous avons trouvé que le groupe 5 s consommait plus de cocaïne que le groupe 90 s en accès prolongé, mais aussi en accès limité. Cependant, la motivation des deux groupes était la même à la vitesse de 10 s, ainsi qu’à leurs vitesses initiales. Nous pensons que ceci peut être dû à une forme de plasticité du système méso-cortico-limbique survenue suite à l’auto-administration en accès prolongé en conjonction avec l’augmentation de consommation, chez les deux groupes, rendant impossible une distinction de leur motivation. Dans une deuxième série d’études nous avons émis l’hypothèse que l’antipsychotique typique, halopéridol (HAL, 0.5 mg/kg/j), et non l’atypique, aripiprazole (ARI, 1 mg/kg/j), un modulateur dopaminergique, induirait une augmentation de la poursuite de récompense conditionnée (RC) et de la locomotion (LOCO) en réponse à l’amphétamine (AMPH). Cependant, nous avons trouvé une augmentation chez le groupe HAL, mais non ARI, de la réponse RC, trois semaines, mais non une semaine post traitement, ainsi qu’une augmentation de la LOCO, chez le groupe HAL, mais non ARI, une semaine mais non trois semaines post traitement. L’incohérence des résultats entre les deux tests (RC et LOCO) rend leur interprétation difficile. Ces études restent à être explorées d’avantage afin de pouvoir en tirer des conclusions plus éclairées quant à l’impact de la vitesse d’administration de la cocaïne et du traitement antipsychotique sur le développement d’une toxicomanie.
Resumo:
Cotutelle entre l’Université de Montréal et l’Université de Paris I Panthéon-Sorbonne
Resumo:
Cette étude quasi-expérimentale a pour but de 1) comparer la prise en compte et les effets de trois conditions rétroactives, à savoir la reformulation, l’incitation et un mélange des deux techniques, 2) déterminer le lien entre la prise en compte et l’apprentissage, et 3) identifier l’effet des perceptions des apprenants quant à la rétroaction corrective sur la prise en compte et l’apprentissage. Quatre groupes d’apprenants d’anglais langue seconde ainsi que leurs enseignants provenant d’un CEGEP francophone de l’île de Montréal ont participé à cette étude. Chaque enseignant a été assigné à une condition rétroactive expérimentale qui correspondait le plus à ses pratiques rétroactives habituelles. La chercheure a assuré l’intervention auprès du groupe contrôle. L’utilisation du passé et de la phrase interrogative était ciblée durant l’intervention expérimentale. Des protocoles de pensée à haute voie ainsi qu’un questionnaire ont été utilisés pour mesurer la prise en compte de la rétroaction corrective. Des tâches de description d’images et d’identification des différences entre les images ont été administrées avant l’intervention (pré-test), immédiatement après l’intervention (post-test immédiat) et 8 semaines plus tard (post-test différé) afin d’évaluer les effets des différentes conditions rétroactives sur l’apprentissage des formes cibles. Un questionnaire a été administré pour identifier les perceptions des apprenants quant à la rétroaction corrective. En termes de prise en compte, les résultats indiquent que les participants sont en mesure de remarquer la rétroaction dépendamment de la forme cible (les erreurs dans l’utilisation du passé sont détectées plus que les erreurs d’utilisation de la phrase interrogative) et de la technique rétroactive utilisée (l’incitation et le mélange d’incitation et de reformulations sont plus détectés plus que la reformulation). En ce qui a trait à l’apprentissage, l’utilisation du passé en général est marquée par plus de développement que celle de la phrase interrogative, mais il n'y avait aucune différence entre les groupes. Le lien direct entre la prise en compte et l’apprentissage ne pouvait pas être explicitement établi. Pendant que la statistique inférentielle a suggéré une relation minimale entre la prise en compte du passé et son apprentissage, mais aucune relation entre la prise en compte de la phrase interrogative et son apprentissage, les analyses qualitatives ont montrés à une association entre la prise en compte et l’apprentissage (sur les deux cibles) pour certains étudiants et augmentations sans prise en compte pour d'autres. Finalement, l’analyse factorielle du questionnaire indique la présence de quatre facteurs principaux, à savoir l’importance de la rétroaction corrective, la reformulation, l’incitation et les effets affectifs de la rétroaction. Deux de ces facteurs ont un effet modérateur sur la prise en compte de la rétroaction sans, toutefois, avoir d’impact sur l’apprentissage.
Resumo:
Les dommages au nerf optique (neuropathie optique) peuvent entraîner la perte permanente de la vision ou la cécité causée par la mort des cellules ganglionnaires de la rétine (CGR). Nous avons identifié qu’une surproduction de l'anion superoxyde constitue un événement moléculaire critique précédant la mort cellulaire induite par des lésions. Récemment, Suarez-Moreira et al (JACS 131:15078, 2009) ont démontré que la vitamine B12 peut capter l’anion superoxyde aussi efficacement que l’enzyme superoxyde dismutase. La carence en vitamine B12 peut conduire à une neuropathie optique causée par des mécanismes inconnus. Nous avons étudié la relation entre la captation de superoxyde par la cyanocobalamine (forme de vitamine B12 la plus abondante) et ses propriétés neuroprotectrices dans les cellules neuronales. La cyanocobalamine aux concentrations de 10 μM et 100 μM a réduit le taux de production de superoxyde respectivement par 34% et 79% dans les essais sans-cellule. Dans les cellules RGC-5 traités avec la ménadione, les concentrations de cyanocobalamine supérieures à 10 nM ont diminué l’anion superoxyde à des valeurs similaires à celles traitées par PEG-SOD. La cyanocobalamine aux concentrations de 100 μM et 1 μM a réduit la mort des cellules RGC-5 exposées à la ménadione par 20% et 32%, respectivement. Chez les rats avec section du nerf optique unilatérale, une dose intravitréenne de 667 μM de cyanocobalamine a réduit le nombre de CGRs exposées au superoxyde. Cette dose a également augmenté le taux de survie des CGRs comparativement aux rats injectés avec la solution témoin. Ces données suggèrent que la vitamine B12 peut être un neuroprotecteur important, et sa carence nutritionnelle pourrait causer la mort de CGRs. La vitamine B12 pourrait aussi potentiellement être utilisée comme une thérapie pour ralentir la progression de la mort CGR chez les patients avec les neuropathies optiques caractérisés par une surproduction de superoxyde.
Resumo:
L’aspect visuel dans les Illuminations de Rimbaud nous a amenés à nous demander s’il était possible d’adapter ces poèmes au cinéma. Il y a eu bien sûr plusieurs recherches sur le cinéma des années 20 qui exploraient la création poétique. D’autres recherches ont été menées pour trouver des traces de poésie dans des films narratifs un peu plus conventionnels. Bien que ces études soient fort intéressantes, nous voulions tendre vers une démarche plus radicale. Notre travail de recherche avait pour but de trouver le moyen de faire une adaptation de poème complètement autonome de l’œuvre originelle. Bien que nous nous soyons penchés sur les textes Surréalistes par l’entremise de Man Ray, nous avons aussi étudié des tentatives plus récentes d’adaptation de poèmes au cinéma. Nous avons découvert un lien entre ces adaptations et la notion d’altérité. C’est pourquoi nous avons décidé de traiter de notre sujet sous l’angle de l’altérité du point de vue philosophique. D’ailleurs, les trois films que nous avons retenus pour notre travail de recherche présentent des situations de marginalisation. La marginalisation est l’un des aspects de l’altérité qui nous intéressent. Le premier chapitre de ce mémoire est destiné à établir ce que nous entendons par altérité. Dans le deuxième chapitre, nous abordons l’adaptation de la poésie au cinéma en lien avec l’altérité. Nous avons adapté dix-huit poèmes des Illuminations de Rimbaud sous la forme d’un scénario dans la deuxième partie de ce mémoire afin de tenter d’explorer ce que nous avons établi dans notre partie théorique.
Resumo:
Nous analysons des bulles d'espace-temps d'épaisseur finie en relativité générale. Les conditions d'énergie sont utilisées afin d'obtenir un ensemble de critères permettant de restreindre la structure du bord de la bulle. Dans le cas des bulles statiques et à symétrie sphérique, nous obtenons quatre inégalités différentielles équivalentes aux trois conditions d'énergie les plus communes. Nous montrons qu'elles sont équivalentes à un ensemble de deux inégalités différentielles simples lorsque le potentiel gravitationnel effectif a une forme particulière. Nous paramétrons alors l'espace-temps de manière à rendre la vérification de ces inégalités plus simple lorsqu'il sera question de bulles d'espace-temps. Nous traitons en particulier quatre formes de bulles, toutes caractérisées par un extérieur de type Schwarzschild de Sitter. Nous montrons que notre méthode donne les bons résultats lorsque la limite où l'épaisseur de la bulle tend vers zéro est prise. Nous terminons par un traitement succinct du problème d'une onde gravitationnelle se propageant dans un nuage de bulles d'espace-temps.
Resumo:
L'ostéoarthrose (OA) est la forme la plus commune d’arthrite et son étiologie demeure encore méconnue. Les travaux du Dr Moreau et son équipe ont permis de mettre en évidence une quasi perte d’expression du facteur de transcription Pitx1 dans les chondrocytes OA et la protéine PHB-1 a été identifiée comme étant membre d’un complexe répresseur pouvant lier le promoteur de Pitx1. Le but de la présente étude était de confirmer l’accumulation anormale de PHB-1 dans le noyau des chondrocytes OA, tel que suggéré par des données préliminaires, et d’identifier les mécanismes impliqués dans son import ou rétention au noyau. Pour ce faire, un volet mécanistique utilisant les lignées C28/I2 et U2OS fut combiné à l’étude clinique des chondrocytes articulaires de patients OA et de sujets sains. Les résultats de cette étude démontrent que chez 55 pourcent des patients OA, la Prohibitine s’accumule dans le noyau des chondrocytes articulaires et que cette accumulation corrèle avec une augmentation de la sumoylation totale dans le noyau des cellules OA. Le présent projet de recherche propose pour la première fois qu’une sumoylation accrue au sein des cellules OA pourrait être responsable de l’accumulation nucléaire de PHB-1, médiée par sa liaison aux protéines SUMO-1 via un domaine de liaison aux SUMOs (SBM) localisé aux résidus 76 à 79 de PHB-1. Les résultats de cette étude ont aussi permis de mettre en évidence que dans les chondrocytes OA, les protéines SUMO-1 et SUMO-2/3 s’accumulent dans des corps nucléaires de type PML, suggérant un recrutement de protéines interagissant avec les SUMOs au sein de ces structures dans les cellules OA. Nous sommes persuadés que cette étude générera des retombées importantes non seulement au niveau fondamental pour la compréhension des mécanismes moléculaires liés à la biologie des chondrocytes articulaires, mais aussi au niveau du développement d’outils génétiques permettant le dépistage de l’arthrose à un stade précoce.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l ’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
On retrouve dans la nature un nombre impressionnant de matériaux semi-transparents tels le marbre, le jade ou la peau, ainsi que plusieurs liquides comme le lait ou les jus. Que ce soit pour le domaine cinématographique ou le divertissement interactif, l'intérêt d'obtenir une image de synthèse de ce type de matériau demeure toujours très important. Bien que plusieurs méthodes arrivent à simuler la diffusion de la lumière de manière convaincante a l'intérieur de matériaux semi-transparents, peu d'entre elles y arrivent de manière interactive. Ce mémoire présente une nouvelle méthode de diffusion de la lumière à l'intérieur d'objets semi-transparents hétérogènes en temps réel. Le coeur de la méthode repose sur une discrétisation du modèle géométrique sous forme de voxels, ceux-ci étant utilisés comme simplification du domaine de diffusion. Notre technique repose sur la résolution de l'équation de diffusion à l'aide de méthodes itératives permettant d'obtenir une simulation rapide et efficace. Notre méthode se démarque principalement par son exécution complètement dynamique ne nécessitant aucun pré-calcul et permettant une déformation complète de la géométrie.
Resumo:
De nos jours, les applications de grande taille sont développées à l’aide de nom- breux cadres d’applications (frameworks) et intergiciels (middleware). L’utilisation ex- cessive d’objets temporaires est un problème de performance commun à ces applications. Ce problème est appelé “object churn”. Identifier et comprendre des sources d’“object churn” est une tâche difficile et laborieuse, en dépit des récentes avancées dans les tech- niques d’analyse automatiques. Nous présentons une approche visuelle interactive conçue pour aider les développeurs à explorer rapidement et intuitivement le comportement de leurs applications afin de trouver les sources d’“object churn”. Nous avons implémenté cette technique dans Vasco, une nouvelle plate-forme flexible. Vasco se concentre sur trois principaux axes de con- ception. Premièrement, les données à visualiser sont récupérées dans les traces d’exécu- tion et analysées afin de calculer et de garder seulement celles nécessaires à la recherche des sources d’“object churn”. Ainsi, des programmes de grande taille peuvent être vi- sualisés tout en gardant une représentation claire et compréhensible. Deuxièmement, l’utilisation d’une représentation intuitive permet de minimiser l’effort cognitif requis par la tâche de visualisation. Finalement, la fluidité des transitions et interactions permet aux utilisateurs de garder des informations sur les actions accomplies. Nous démontrons l’efficacité de l’approche par l’identification de sources d’“object churn” dans trois ap- plications utilisant intensivement des cadres d’applications framework-intensive, inclu- ant un système commercial.
Resumo:
Le CD40 ligand (CD40L) est un régulateur important de la réponse immunitaire et un contributeur clé dans les maladies auto-immunes. Nous avons rapporté précédemment que le CD40L se liait à l’intégrine α5β1, toutefois, les conséquences fonctionnelles de cette interaction demeurent inconnues. Les lymphocytes T sont au centre de la pathogénèse des maladies auto-immunes. Ils expriment, lors de celles-ci, des quantités aberrantes d’intégrines β1 faisant en sorte que la liaison CD40L/α5β1 pourrait être d’une haute importance dans les réponses inflammatoires. Dans cette étude, nous avons démontré que la forme soluble du CD40L (sCD40L) se liait aux lymphocytes T primaires ainsi qu’aux cellules Jurkat E6.1 et ce, dépendamment de l’intégrine α5β1. L’interaction du CD40L avec l’α5β1 lymphocytaire a induit l’activation des voies anti-apoptotiques dont les MAPKs (les protéines kinases mitogène activée) et les PI3 kinases (PI3K). La liaison du sCD40L à l’α5β1 n’a pas induit son changement structural ni son adhésion à la FN (fibronectine). Ceci pourrait avoir des conséquences directes sur la survie des cellules T lors de la progression des maladies inflammatoires. Ces résultats soulignent l’impact de l’interaction CD40L/α5β1 sur la fonction biologique des lymphocytes T et ils pourraient expliquer leur survie et leur persistance au niveau des sites d’inflammations durant les maladies auto- immunes.
Resumo:
L'objectif ultime en géomorphologie fluviale est d'expliquer les formes des cours d'eau et leur évolution temporelle et spatiale. La multiplication des études nous a mené à la réalisation que les systèmes géomorphologiques sont complexes. Les formes observées sont plus que la somme des processus individuels qui les régissent en raison d’interactions et de rétroactions non-linéaires à de multiples échelles spatiales et temporelles. Dans ce contexte, le but général de la thèse est de proposer et de tester de nouvelles avenues de recherche afin de mieux appréhender la complexité des dynamiques fluviales en utilisant des approches méthodologiques et analytiques mettant l’accent sur les interactions entre l’écoulement, le transport de sédiments en charge fond et la morphologie du lit en rivière graveleuse. Cette orientation découle du constat que les paradigmes actuels en géomorphologie fluviale n’arrivent pas à expliquer adéquatement la variabilité naturelle du transport en charge de fond ainsi que des formes du lit qui en résultent. Cinq pistes de réflexion sont développées sous forme d’articles basés sur des études de cas : 1. L'intégration des échelles de variation de l'écoulement permet d’insérer la notion de structures turbulentes dans des pulsations de plus grande échelle et d'améliorer la compréhension de la variabilité du transport de sédiments. 2. La quantification des taux de changement de l’écoulement (accélération /décélération) au cours d’une crue permet d’expliquer la variabilité des flux de transport en charge fond autant que la magnitude de l’écoulement. 3. L’utilisation de techniques de mesures complémentaires révèle une nouvelle dynamique du lit des rivières graveleuses, la dilatation et la contraction du lit suite à une crue. 4. La remise en cause du fait généralement accepté que le transport en charge de fond est corrélé positivement à l'intensité des modifications morphologiques en raison d’un problème associé aux échelles différentes des processus en cause. 5. L’approche systémique des dynamiques fluviales par l’utilisation d’analyses multivariées permet d’appréhender la complexité des dynamiques de rétroactions linéaires et non-linéaires dans l’évolution d’un chenal et d’illustrer l’importance de l’historique récent des changements géomorphologiques en réponse aux crues. Cette thèse se veut une avancée conceptuelle issue d'une profonde réflexion sur les approches classiques que l'on utilise en géomorphologie fluviale depuis plusieurs décennies. Elle est basée sur un jeu de données unique récolté lors du suivi intensif de 21 évènements de crue dans un petit cours d’eau à lit de graviers, le ruisseau Béard (Québec). Le protocole expérimental axé sur la simultanéité des mesures de l’écoulement, de la morphologie du lit et du transport de sédiments en charge de fond a permis de centrer la recherche directement sur les interactions entre les processus plutôt que sur les processus individuels, une approche rarement utilisée en géomorphologie fluviale. Chacun des chapitres illustre un nouveau concept ou une nouvelle approche permettant de résoudre certaines des impasses rencontrées actuellement en géomorphologie fluviale. Ces travaux ont des implications importantes pour la compréhension de la dynamique des lits de rivières et des habitats fluviaux et servent de point de départ pour de nouveaux développements.
Resumo:
En 1985, la Charte des droits et libertés de la personne (L.R.Q., ch. C-12) du Québec était amendée afin d’inclure une nouvelle section consacrée aux programmes d’accès à l’égalité (PAE). Cet ajout résulte du constat d’une situation d’inégalité sur le marché du travail québécois pour les membres de certains groupes, en raison de motifs illicites de discrimination. Concrètement, on observe une certaine ségrégation professionnelle, de faibles revenus moyens et des conditions précaires d’emploi. L’objectif des PAE est de redresser la situation de groupes victimes de discrimination; pour réaliser cet objectif, ils autorisent la mise en œuvre de mesures spécifiques à l’intention de ces derniers. Plusieurs types de PAE ont été mis en place par les gouvernements québécois successifs afin d’élargir leur champ d’application. Parmi ces différents types de PAE, cette étude se concentre sur ceux associés à l’obligation contractuelle qui obligent toutes les organisations qui emploient 100 employés ou plus et qui obtiennent un contrat ou une subvention du gouvernement du Québec d’une valeur de 100 000 $ et plus, à développer et à mettre en œuvre un PAE. Il s’agit de la principale forme de PAE touchant les organisations privées. Quatre groupes cibles sont identifiés dans ces PAE : les femmes, les membres des minorités visibles, les Autochtones et les personnes handicapées. Parmi ceux-ci, compte tenu de la croissance importante de ce groupe et des situations souvent aiguës de discrimination qu’ils vivent sur le marché du travail québécois, l’attention sera portée sur le groupe des minorités visibles. Très peu de recherches ont été réalisées sur ces PAE en raison d’une obligation de confidentialité de résultats complète. Les rares études effectuées jusqu’à présent ont constaté des progrès très inégaux entre les employeurs : alors qu’un petit nombre d’organisations semblaient progresser rapidement dans l’atteinte de leurs objectifs, la vaste majorité stagnait ou encore progressait très lentement. Ce constat menait à s’interroger sur les facteurs, autres que le cadre juridique, qui peuvent expliquer le niveau de conformité aux objectifs. En se basant sur une analyse de contenu d’entrevues semi-dirigées menées auprès de gestionnaires responsables des PAE dans 31 organisations privées de la région de Montréal, plusieurs facteurs des environnements externes et internes des organisations, ont été identifiés pour expliquer les niveaux de conformité aux objectifs qualitatifs. Parmi les facteurs positivement reliés, on remarque l’engagement des membres de la haute direction en faveur des PAE, la mise en place d’un système d’imputabilité et la perception de certains bénéfices liés à la diversification des effectifs. Au contraire, la confusion entre l’égalité et l’équité, le fait de privilégier les mouvements internes de personnel et les biais des gestionnaires de première ligne semblent être négativement reliés à l’atteinte des objectifs qualitatifs. Ces résultats démontrent l’importance que prennent les facteurs liés à l’environnement interne, surtout lorsque le cadre juridique est peu contraignant et que les gestionnaires croient que les probabilités de sanctions sont faibles. En se basant sur ces résultats, une série de recommandations est proposée, afin d’améliorer les PAE, mais aussi afin d’améliorer la compréhension des gestionnaires des ressources humaines sur ce qu’est la discrimination en emploi et les moyens les plus appropriés pour la combattre.
Resumo:
Les modèles sur réseau comme ceux de la percolation, d’Ising et de Potts servent à décrire les transitions de phase en deux dimensions. La recherche de leur solution analytique passe par le calcul de la fonction de partition et la diagonalisation de matrices de transfert. Au point critique, ces modèles statistiques bidimensionnels sont invariants sous les transformations conformes et la construction de théories des champs conformes rationnelles, limites continues des modèles statistiques, permet un calcul de la fonction de partition au point critique. Plusieurs chercheurs pensent cependant que le paradigme des théories des champs conformes rationnelles peut être élargi pour inclure les modèles statistiques avec des matrices de transfert non diagonalisables. Ces modèles seraient alors décrits, dans la limite d’échelle, par des théories des champs logarithmiques et les représentations de l’algèbre de Virasoro intervenant dans la description des observables physiques seraient indécomposables. La matrice de transfert de boucles D_N(λ, u), un élément de l’algèbre de Temperley- Lieb, se manifeste dans les théories physiques à l’aide des représentations de connectivités ρ (link modules). L’espace vectoriel sur lequel agit cette représentation se décompose en secteurs étiquetés par un paramètre physique, le nombre d de défauts. L’action de cette représentation ne peut que diminuer ce nombre ou le laisser constant. La thèse est consacrée à l’identification de la structure de Jordan de D_N(λ, u) dans ces représentations. Le paramètre β = 2 cos λ = −(q + 1/q) fixe la théorie : β = 1 pour la percolation et √2 pour le modèle d’Ising, par exemple. Sur la géométrie du ruban, nous montrons que D_N(λ, u) possède les mêmes blocs de Jordan que F_N, son plus haut coefficient de Fourier. Nous étudions la non diagonalisabilité de F_N à l’aide des divergences de certaines composantes de ses vecteurs propres, qui apparaissent aux valeurs critiques de λ. Nous prouvons dans ρ(D_N(λ, u)) l’existence de cellules de Jordan intersectorielles, de rang 2 et couplant des secteurs d, d′ lorsque certaines contraintes sur λ, d, d′ et N sont satisfaites. Pour le modèle de polymères denses critique (β = 0) sur le ruban, les valeurs propres de ρ(D_N(λ, u)) étaient connues, mais les dégénérescences conjecturées. En construisant un isomorphisme entre les modules de connectivités et un sous-espace des modules de spins du modèle XXZ en q = i, nous prouvons cette conjecture. Nous montrons aussi que la restriction de l’hamiltonien de boucles à un secteur donné est diagonalisable et trouvons la forme de Jordan exacte de l’hamiltonien XX, non triviale pour N pair seulement. Enfin nous étudions la structure de Jordan de la matrice de transfert T_N(λ, ν) pour des conditions aux frontières périodiques. La matrice T_N(λ, ν) a des blocs de Jordan intrasectoriels et intersectoriels lorsque λ = πa/b, et a, b ∈ Z×. L’approche par F_N admet une généralisation qui permet de diagnostiquer des cellules intersectorielles dont le rang excède 2 dans certains cas et peut croître indéfiniment avec N. Pour les blocs de Jordan intrasectoriels, nous montrons que les représentations de connectivités sur le cylindre et celles du modèle XXZ sont isomorphes sauf pour certaines valeurs précises de q et du paramètre de torsion v. En utilisant le comportement de la transformation i_N^d dans un voisinage des valeurs critiques (q_c, v_c), nous construisons explicitement des vecteurs généralisés de Jordan de rang 2 et discutons l’existence de blocs de Jordan intrasectoriels de plus haut rang.
Resumo:
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.