681 resultados para thermodynamical observables
Resumo:
Le sujet de ce mémoire émane d’une volonté d’intégrer la recherche à ma réalité organisationnelle, celle des Forces canadiennes (FC). De cette aspiration est née l’idée d’étudier comment se dévoilent la face et la figuration lors de l’instruction de base. Partant d’une approche interactionniste, l’attention a été portée sur la face et la figuration d’un stagiaire au cours de trois interactions avec ses supérieurs. C’est plus précisément, la filature et l’analyse de conversation qui ont été mobilisées pour examiner cette problématique. La pertinence de la démarche est qu'elle met de l'avant une perspective de recherche peu présente dans la littérature, mais surtout, qu’elle s’insère dans un contexte organisationnel méconnu. L'entreprise vise d’une part, à nourrir la théorie en raffinant des concepts existants : la face et la figuration. D’autre part, elle cherche à éclairer la pratique en mettant en évidence des actes communicationnels difficilement observables dans le cadre habituel des activités militaires.
Resumo:
Lors d'une intervention conversationnelle, le langage est supporté par une communication non-verbale qui joue un rôle central dans le comportement social humain en permettant de la rétroaction et en gérant la synchronisation, appuyant ainsi le contenu et la signification du discours. En effet, 55% du message est véhiculé par les expressions faciales, alors que seulement 7% est dû au message linguistique et 38% au paralangage. L'information concernant l'état émotionnel d'une personne est généralement inférée par les attributs faciaux. Cependant, on ne dispose pas vraiment d'instruments de mesure spécifiquement dédiés à ce type de comportements. En vision par ordinateur, on s'intéresse davantage au développement de systèmes d'analyse automatique des expressions faciales prototypiques pour les applications d'interaction homme-machine, d'analyse de vidéos de réunions, de sécurité, et même pour des applications cliniques. Dans la présente recherche, pour appréhender de tels indicateurs observables, nous essayons d'implanter un système capable de construire une source consistante et relativement exhaustive d'informations visuelles, lequel sera capable de distinguer sur un visage les traits et leurs déformations, permettant ainsi de reconnaître la présence ou absence d'une action faciale particulière. Une réflexion sur les techniques recensées nous a amené à explorer deux différentes approches. La première concerne l'aspect apparence dans lequel on se sert de l'orientation des gradients pour dégager une représentation dense des attributs faciaux. Hormis la représentation faciale, la principale difficulté d'un système, qui se veut être général, est la mise en œuvre d'un modèle générique indépendamment de l'identité de la personne, de la géométrie et de la taille des visages. La démarche qu'on propose repose sur l'élaboration d'un référentiel prototypique à partir d'un recalage par SIFT-flow dont on démontre, dans cette thèse, la supériorité par rapport à un alignement conventionnel utilisant la position des yeux. Dans une deuxième approche, on fait appel à un modèle géométrique à travers lequel les primitives faciales sont représentées par un filtrage de Gabor. Motivé par le fait que les expressions faciales sont non seulement ambigües et incohérentes d'une personne à une autre mais aussi dépendantes du contexte lui-même, à travers cette approche, on présente un système personnalisé de reconnaissance d'expressions faciales, dont la performance globale dépend directement de la performance du suivi d'un ensemble de points caractéristiques du visage. Ce suivi est effectué par une forme modifiée d'une technique d'estimation de disparité faisant intervenir la phase de Gabor. Dans cette thèse, on propose une redéfinition de la mesure de confiance et introduisons une procédure itérative et conditionnelle d'estimation du déplacement qui offrent un suivi plus robuste que les méthodes originales.
Resumo:
Les modèles sur réseau comme ceux de la percolation, d’Ising et de Potts servent à décrire les transitions de phase en deux dimensions. La recherche de leur solution analytique passe par le calcul de la fonction de partition et la diagonalisation de matrices de transfert. Au point critique, ces modèles statistiques bidimensionnels sont invariants sous les transformations conformes et la construction de théories des champs conformes rationnelles, limites continues des modèles statistiques, permet un calcul de la fonction de partition au point critique. Plusieurs chercheurs pensent cependant que le paradigme des théories des champs conformes rationnelles peut être élargi pour inclure les modèles statistiques avec des matrices de transfert non diagonalisables. Ces modèles seraient alors décrits, dans la limite d’échelle, par des théories des champs logarithmiques et les représentations de l’algèbre de Virasoro intervenant dans la description des observables physiques seraient indécomposables. La matrice de transfert de boucles D_N(λ, u), un élément de l’algèbre de Temperley- Lieb, se manifeste dans les théories physiques à l’aide des représentations de connectivités ρ (link modules). L’espace vectoriel sur lequel agit cette représentation se décompose en secteurs étiquetés par un paramètre physique, le nombre d de défauts. L’action de cette représentation ne peut que diminuer ce nombre ou le laisser constant. La thèse est consacrée à l’identification de la structure de Jordan de D_N(λ, u) dans ces représentations. Le paramètre β = 2 cos λ = −(q + 1/q) fixe la théorie : β = 1 pour la percolation et √2 pour le modèle d’Ising, par exemple. Sur la géométrie du ruban, nous montrons que D_N(λ, u) possède les mêmes blocs de Jordan que F_N, son plus haut coefficient de Fourier. Nous étudions la non diagonalisabilité de F_N à l’aide des divergences de certaines composantes de ses vecteurs propres, qui apparaissent aux valeurs critiques de λ. Nous prouvons dans ρ(D_N(λ, u)) l’existence de cellules de Jordan intersectorielles, de rang 2 et couplant des secteurs d, d′ lorsque certaines contraintes sur λ, d, d′ et N sont satisfaites. Pour le modèle de polymères denses critique (β = 0) sur le ruban, les valeurs propres de ρ(D_N(λ, u)) étaient connues, mais les dégénérescences conjecturées. En construisant un isomorphisme entre les modules de connectivités et un sous-espace des modules de spins du modèle XXZ en q = i, nous prouvons cette conjecture. Nous montrons aussi que la restriction de l’hamiltonien de boucles à un secteur donné est diagonalisable et trouvons la forme de Jordan exacte de l’hamiltonien XX, non triviale pour N pair seulement. Enfin nous étudions la structure de Jordan de la matrice de transfert T_N(λ, ν) pour des conditions aux frontières périodiques. La matrice T_N(λ, ν) a des blocs de Jordan intrasectoriels et intersectoriels lorsque λ = πa/b, et a, b ∈ Z×. L’approche par F_N admet une généralisation qui permet de diagnostiquer des cellules intersectorielles dont le rang excède 2 dans certains cas et peut croître indéfiniment avec N. Pour les blocs de Jordan intrasectoriels, nous montrons que les représentations de connectivités sur le cylindre et celles du modèle XXZ sont isomorphes sauf pour certaines valeurs précises de q et du paramètre de torsion v. En utilisant le comportement de la transformation i_N^d dans un voisinage des valeurs critiques (q_c, v_c), nous construisons explicitement des vecteurs généralisés de Jordan de rang 2 et discutons l’existence de blocs de Jordan intrasectoriels de plus haut rang.
Resumo:
Bien que ce soit un procédé industriel répandu, les films de copolymères à blocs préparés par trempage (« dip-coating ») sont moins étudiés que ceux obtenus par tournette (« spin-coating »). Pourtant, il est possible grâce à cette technique de contrôler précisément les caractéristiques de ces films. Au-delà de la méthode de fabrication, la capacité de modifier la morphologie des films trempés à l’aide d’autres facteurs externes est un enjeu primordial pour leur utilisation dans les nanotechnologies. Nous avons choisi, ici, d’étudier l’influence d’une petite molécule sur la morphologie de films supramoléculaires réalisés par « dip-coating » à partir de solutions de poly(styrène-b-4-vinyl pyridine) (PS-P4VP) dans le tétrahydrofurane (THF). En présence de 1-naphtol (NOH) et d’1-acide napthoïque (NCOOH), qui se complexent par pont hydrogène au bloc P4VP, ces films donnent, respectivement, une morphologie en nodules (sphères) et en stries (cylindres horizontaux). Des études par spectroscopie infrarouge ont permis de mesurer la quantité de petite molécule dans ces films minces, qui varie avec la vitesse de retrait mais qui s’avère être identique pour les deux petites molécules, à une vitesse de retrait donnée. Cependant, des études thermiques ont montré qu’une faible fraction de petite molécule est dispersée dans le PS (davantage de NOH que de NCOOH à cause de la plus faible liaison hydrogène du premier). La vitesse de retrait est un paramètre clé permettant de contrôler à la fois l’épaisseur et la composition du film supramoléculaire. L’évolution de l’épaisseur peut être modélisée par deux régimes récemment découverts. Aux faibles vitesses, l’épaisseur décroît (régime de capillarité), atteint un minimum, puis augmente aux vitesses plus élevées (régime de drainage). La quantité de petite molécule augmente aux faibles vitesses pour atteindre un plateau correspondant à la composition de la solution aux vitesses les plus élevées. Des changements de morphologie, à la fois liés à l’épaisseur et à la quantité de petite molécule, sont alors observés lorsque la vitesse de retrait est modifiée. Le choix du solvant est aussi primordial dans le procédé de « dip-coating » et a été étudié en utilisant le chloroforme, qui est un bon solvant pour les deux blocs. Il s’avère qu’à la fois la composition ainsi que la morphologie des films de PS-P4VP complexés sont différentes par rapport aux expériences réalisées dans le THF. Premièrement, la quantité de petite molécule reste constante avec la vitesse de retrait mais les films sont plus riches en NCOOH qu’en NOH. Deuxièmement, la morphologie des films contenant du NOH présente des stries ainsi que des lamelles à plat, tandis que seules ces dernières sont observables pour le NCOOH. Ce comportement est essentiellement dû à la quantité différente de petite molécule modulée par leur force de complexation différente avec le P4VP dans le chloroforme. Enfin, ces films ont été utilisés pour l’adsorption contrôlée de nanoparticules d’or afin de guider leur organisation sur des surfaces recouvertes de PS-P4VP. Avant de servir comme gabarits, un recuit en vapeurs de solvant permet soit d’améliorer l’ordre à longue distance des nodules de P4VP, soit de modifier la morphologie des films selon le solvant utilisé (THF ou chloroforme). Ils peuvent être ensuite exposés à une solution de nanoparticules d’or de 15 nm de diamètre qui permet leur adsorption sélective sur les nodules (ou stries) de P4VP.
Resumo:
Le caribou forestier est une espèce menacée au Canada, la principale hypothèse au déclin des populations étant l’intensification de la prédation provoquée par les perturbations anthropiques du paysage. Afin de faire face à cette situation, il est nécessaire d’étudier et comprendre l’impact de l’environnement sur les interactions prédateur-proies entre le caribou et le loup, ainsi qu’avec l’orignal, qui est sa principale proie alternative. Pour cela, cette thèse présente la conception d’un modèle centré sur l’individu des déplacements de ces trois espèces en fonction de leur environnement, dont résulteront les interactions prédateur-proies. Afin de permettre l’application de ce modèle sur de longues périodes, et donc pour un environnement changeant, une méthodologie a été développée, qui s’articule atour de deux aspects principaux. Tout d’abord, la notion de niveaux d’émergence est introduite, permettant d’ordonner les comportements observables du système selon leurs interdépendances, afin de choisir comme trait du modèle un com- portement correspondant au domaine d’applicabilité visé. Ordonner les comportements selon leurs niveaux d’émergence permet également d’identifier la redondance entre les patrons, qui peut être à l’origine d’un phénomène de sur-apprentissage lorsqu’ils sont utilisés lors de la calibration. Dans un second temps, un nouveau protocole pour la calibration et la validation du ou des traits choisis à l’aide des niveaux d’émergence, nommé réplication de système basé sur l’individu (Individual Based System Replication - IBSRtion) est également présenté. Ce protocole met l’emphase sur la modélisation directe, contrairement au principal protocole existant, la modélisation orientée patrons (Pattern Oriented Modelling - POM), et permet une approche empirique en générant artificiellement des données non disponibles ou ne pouvant être récoltées par des études de terrains. IBSRtion a également l’avantage de pouvoir être intégrée dans POM, afin de contribuer à la création d’une méthodologie universelle pour la conception de modèles centrés sur l’individu. Le processus de conception de ce modèle aura entre autre permis de faire une synthèse des connaissances et d’identifier certaines lacunes. Une étude visant à palier le manque de connaissances satisfaisantes sur les réponses comportementales à court-terme des proies face au risque de prédation a notamment permis d’observer que celles-ci sont une combinaison de comportements chroniques et éphémères, et que les mécanismes qui en sont à l’origine sont complexes et non-linéaires. Le résultat de ce travail est un modèle complexe utilisant de nombreux sous-modèles, et calibré de façon empirique, applicable à une grande variété d’environnements. Ce modèle a permis de tester l’impact de l’enfeuillement sur les relations prédateur-proies. Des simulations ont été effectuées pour différentes quantités d’enfeuillement, suivant deux configurations spatiales différentes. Les résultats de simulation suggèrent que des plans d’aménagement considérant également l’habitat de l’orignal pourraient être bénéfiques pour le caribou forestier, car ils permettraient d’améliorer la ségrégation spatiale entre les deux espèces, et donc entre le caribou et le loup. En le couplant avec un module de naissances et de morts naturelles ainsi qu’un modèle d’évolution du paysage, ce modèle permettra par la suite d’évaluer l’impact de plans d’aménagement forestier sur la viabilité des populations de caribou forestier.
Resumo:
À ce jour, la scoliose idiopathique de l’adolescent (SIA) est la déformation rachidienne la plus commune parmi les enfants. Il est bien connu dans le domaine de recherche sur la SIA que les forces mécaniques, en particulier les forces biomécaniques internes dans le système musculosquelettique, pourraient jouer un rôle majeur dans l’initiation et le développement de la maladie. Cependant, les connaissances sur la transformation des forces et des stimulations mécaniques en activité biochimique sont peu abondantes. Cet axe de recherche est très prometteur et peut nous fournir de nouvelles idées dans le dépistage et le traitement de la SIA. Dans le cadre de cette étude, nous visons à caractériser la mécanotransduction chez les patients atteints de la SIA en employant des techniques novatrices aux niveaux in vivo et in vitro. Antérieurement dans notre laboratoire, nous avons démontré que les niveaux d’Ostéopontine (OPN) plasmatique chez l’humain corrèlent avec la progression et la sévérité de la maladie, et que ces changements sont observables avant le début de la scoliose. En plus, selon la littérature, l’OPN est une molécule sensible à la force mécanique, dont l’expression augmente en réponse dans de nombreux types de cellules chez plusieurs espèces. Toutefois, il n’existe aucune preuve que ce résultat soit valide in vivo chez l’humain. L’hétérogénéité physique et biochimique de la SIA pose un gros défi aux chercheurs. Souvent, il est très difficile de trouver des résultats ayant une grande applicabilité. Les études portant sur les facteurs biomécaniques ne font pas exception à cette tendance. En dépit de tout cela, nous croyons qu’une approche basée sur l’observation des contraintes de cisaillement présentes dans le système musculosquelettique pourrait aider à surmonter ces difficultés. Les contraintes de cisaillement physiologique sont générées par des courants de fluide en mouvement à l’intérieur des os. Aussi, elles sont omniprésentes et universelles chez l’humain, peu importe l’âge, le sexe, la condition physique, etc., ce qui veut dire que l’étudier pourrait fort bien avancer nos connaissances en formant une base fondamentale avec laquelle on pourra mieux comprendre les différences quant à la mécanotransduction chez les patients atteints de la SIA par rapport aux sujets sains. Pour ce projet, donc, nous proposons l’hypothèse que les sujets atteints de la SIA se différencient par leurs réponses respectives à la force mécanique au niveau cellulaire (en termes de l’expression génique) ainsi qu’au niveau in vivo (en termes du marqueur OPN et son récepteur, sCD44). Afin de vérifier la partie de notre hypothèse de recherche concernant l’aspect in vivo, nous avons recruté une cohorte de patients âgés de 9-17 ans, y compris i) des cas pré-chirurgicaux (angle de Cobb > 45°), ii) des cas modérément atteints (angle de Cobb 10-44°), iii) des témoins, et iv) des enfants asymptomatiques à risque de développer la scoliose (selon nos dépistages biochimiques et fonctionnels) d’âge et sexe appariés. Une pression pulsatile et dynamique avec une amplitude variant de 0-4 psi à 0.006 Hz a été appliquée à un des bras de chacun de nos sujets pour une durée de 90 minutes. Au tout début et à chaque intervalle de 30 minutes après l’initiation de la pression, un échantillon de sang a été prélevé, pour pouvoir surveiller les niveaux d’OPN et de sCD44 circulants chez les sujets. Nous avons découvert que le changement des niveaux d’OPN plasmatique, mais pas des niveaux de sCD44, corrélaient avec la sévérité de la difformité rachidienne chez les sujets, ceux ayant une courbe plus prononcée démontrant une ampleur de réponse moins élevée. Pour vérifier la partie de notre hypothèse de recherche concernant la réponse mécanotransductive cellulaire, des ostéoblastes prélevées à 12 sujets ont été mis en culture pour utilisation avec notre appareil (le soi-disant « parallel plate flow chamber »), qui sert à fournir aux ostéoblastes le niveau de contraintes de cisaillement désiré, de manière contrôlée et prévisible. Les sujets étaient tous femelles, âgées de 11-17 ans ; les patients ayant déjà une scoliose possédaient une courbe diagnostiquée comme « double courbe majeure ». Une contrainte fluidique de cisaillement à 2 Pa, 0.5 Hz a été appliquée à chaque échantillon ostéoblastique pour une durée de 90 minutes. Les changements apportés à l’expression génique ont été mesurés et quantifiés par micropuce et qRT-PCR. En réponse à notre stimulation, nous avons trouvé qu’il n’y avait que quelques gènes étant soit différentiellement exprimés, soit inchangés statistiquement dans tous les groupes expérimentaux atteints, en exhibant simultanément la condition contraire chez les témoins. Ces résultats mettent en évidence la grande diversité de la réponse mécanotransductive chez les patients comparés aux contrôles, ainsi qu’entre les sous-groupes fonctionnels de la SIA. Globalement, cette œuvre pourrait contribuer au développement d’outils diagnostiques innovateurs pour identifier les enfants asymptomatiques à risque de développer une scoliose, et évaluer le risque de progression des patients en ayant une déjà. Aussi, dans les années à venir, les profils mécanotransductifs des patients pourraient s’avérer un facteur crucial à considérer cliniquement, particulièrement en concevant ou personnalisant des plans de traitements pour des personnes atteintes.
Resumo:
Dans cette thèse, je me suis interessé à l’identification partielle des effets de traitements dans différents modèles de choix discrets avec traitements endogènes. Les modèles d’effets de traitement ont pour but de mesurer l’impact de certaines interventions sur certaines variables d’intérêt. Le type de traitement et la variable d’intérêt peuvent être défini de manière générale afin de pouvoir être appliqué à plusieurs différents contextes. Il y a plusieurs exemples de traitement en économie du travail, de la santé, de l’éducation, ou en organisation industrielle telle que les programmes de formation à l’emploi, les techniques médicales, l’investissement en recherche et développement, ou l’appartenance à un syndicat. La décision d’être traité ou pas n’est généralement pas aléatoire mais est basée sur des choix et des préférences individuelles. Dans un tel contexte, mesurer l’effet du traitement devient problématique car il faut tenir compte du biais de sélection. Plusieurs versions paramétriques de ces modèles ont été largement étudiées dans la littérature, cependant dans les modèles à variation discrète, la paramétrisation est une source importante d’identification. Dans un tel contexte, il est donc difficile de savoir si les résultats empiriques obtenus sont guidés par les données ou par la paramétrisation imposée au modèle. Etant donné, que les formes paramétriques proposées pour ces types de modèles n’ont généralement pas de fondement économique, je propose dans cette thèse de regarder la version nonparamétrique de ces modèles. Ceci permettra donc de proposer des politiques économiques plus robustes. La principale difficulté dans l’identification nonparamétrique de fonctions structurelles, est le fait que la structure suggérée ne permet pas d’identifier un unique processus générateur des données et ceci peut être du soit à la présence d’équilibres multiples ou soit à des contraintes sur les observables. Dans de telles situations, les méthodes d’identifications traditionnelles deviennent inapplicable d’où le récent développement de la littérature sur l’identification dans les modèles incomplets. Cette littérature porte une attention particuliere à l’identification de l’ensemble des fonctions structurelles d’intérêt qui sont compatibles avec la vraie distribution des données, cet ensemble est appelé : l’ensemble identifié. Par conséquent, dans le premier chapitre de la thèse, je caractérise l’ensemble identifié pour les effets de traitements dans le modèle triangulaire binaire. Dans le second chapitre, je considère le modèle de Roy discret. Je caractérise l’ensemble identifié pour les effets de traitements dans un modèle de choix de secteur lorsque la variable d’intérêt est discrète. Les hypothèses de sélection du secteur comprennent le choix de sélection simple, étendu et généralisé de Roy. Dans le dernier chapitre, je considère un modèle à variable dépendante binaire avec plusieurs dimensions d’hétérogéneité, tels que les jeux d’entrées ou de participation. je caractérise l’ensemble identifié pour les fonctions de profits des firmes dans un jeux avec deux firmes et à information complète. Dans tout les chapitres, l’ensemble identifié des fonctions d’intérêt sont écrites sous formes de bornes et assez simple pour être estimées à partir des méthodes d’inférence existantes.
Resumo:
On révise les prérequis de géométrie différentielle nécessaires à une première approche de la théorie de la quantification géométrique, c'est-à-dire des notions de base en géométrie symplectique, des notions de groupes et d'algèbres de Lie, d'action d'un groupe de Lie, de G-fibré principal, de connexion, de fibré associé et de structure presque-complexe. Ceci mène à une étude plus approfondie des fibrés en droites hermitiens, dont une condition d'existence de fibré préquantique sur une variété symplectique. Avec ces outils en main, nous commençons ensuite l'étude de la quantification géométrique, étape par étape. Nous introduisons la théorie de la préquantification, i.e. la construction des opérateurs associés à des observables classiques et la construction d'un espace de Hilbert. Des problèmes majeurs font surface lors de l'application concrète de la préquantification : les opérateurs ne sont pas ceux attendus par la première quantification et l'espace de Hilbert formé est trop gros. Une première correction, la polarisation, élimine quelques problèmes, mais limite grandement l'ensemble des observables classiques que l'on peut quantifier. Ce mémoire n'est pas un survol complet de la quantification géométrique, et cela n'est pas son but. Il ne couvre ni la correction métaplectique, ni le noyau BKS. Il est un à-côté de lecture pour ceux qui s'introduisent à la quantification géométrique. D'une part, il introduit des concepts de géométrie différentielle pris pour acquis dans (Woodhouse [21]) et (Sniatycki [18]), i.e. G-fibrés principaux et fibrés associés. Enfin, il rajoute des détails à quelques preuves rapides données dans ces deux dernières références.
Resumo:
Le réseau magnétique consiste en un ensemble de petites concentrations de flux magnétique sur la photosphère solaire. Vu sa petite échelle de taille et de flux, à la limite de détection, son comportement n'est connu que depuis récemment. Les interactions du réseau sont pourtant cruciales afin de comprendre la dynamo et l'irradiance solaires, car beaucoup de caractérisques du réseau dépendent de ces interactions. De plus, le réseau est la principale contribution magnétique surfacique à l'irradiance solaire. Les modèles existants du réseau ne tenaient jusqu'à maintenant pas compte des interactions du réseau. Nous avons tenté de combler cette lacune avec notre modèle. Nos simulations impliquent une marche aléatoire en 2D de tubes de flux magnétiques sur la photosphère solaire. Les tubes de flux sont injectés puis soumis à des règles de déplacement et d'interaction. L'injection se fait à deux échelles, respectivement la plus petite et la plus grande observables: les tubes de flux élémentaires et les taches solaires. Des processus de surface imitant ceux observés sont inclus, et consistent en l'émergence, la coalescence, l'annulation et la submergence de flux. La fragmentation des concentrations n'est présente que pour les taches, sous forme de désintégration libérant des tubes de flux. Le modèle est appliqué au cycle solaire 21 (1976-1986, le mieux documenté en termes de caractéristiques de taches solaires. Il en résulte des réponses à deux questions importantes en physique solaire. La première est: l'injection de flux magnétique à deux échelles très distinctes peut-elle conduire à une distribution de flux en loi de puissance comme on l'observe, si l'on inclut des processus de surface qui retraitent le flux? Cette question est étroitement liée à l'origine de la dynamo solaire, qui pourrait produire ladite distribution. Nous trouvons qu'on peut effectivement produire une telle distribution avec ce type d'injection et ce type de processus de surface. Cela implique que la distribution de flux observée ne peut servir à déterminer quel type de dynamo opère dans le Soleil. La deuxième question à laquelle nous avons apporté un élément de réponse est celle à savoir combien de temps il faut au réseau pour retrouver son état d'activité de base. Cet état a été observé lors du minimum de Maunder en 1645-1715 et touche de près la question de l'influence de l'activité solaire sur le climat terrestre. Le récent minimum d'activité est considéré par certains comme ayant atteint cet état. Nous trouvons plutôt que ça n'a pas été le cas. En effet, le temps de relaxation du réseau que nous avons calculé est supérieur au temps écoulé entre la fin du dernier cycle solaire d'activité et celui de l'amorce du présent cycle.
Resumo:
L'outil développé dans le cadre de cette thèse est disponible à l'adresse suivante: www.astro.umontreal.ca/~malo/banyan.php
Resumo:
Depuis l’arrivée de la psychologie dans les universités québécoises en 1872, la psychologie n’a cessé d’évoluer. Alors qu’autrefois aucune loi ne régissait la pratique de la psychothérapie et l’usage du titre de psychothérapeute, le gouvernement du Québec a adopté en 2009, le projet de loi 21. Ce mémoire retrace l’histoire de la psychologie au Québec ainsi que l’histoire de l’Ordre des psychologues du Québec en portant une attention particulière aux changements légaux concernant la règlementation de la pratique de la psychothérapie et l’usage de titres réservés. Afin de dresser un portrait de la psychothérapie au Québec deux ans après l’adoption de la Loi 28 (mieux connue sous le nom de projet de loi 21), trois banques de données de l’Ordre des psychologues ont été utilisées ( 1) «Membres», 2) «Psychothérapeutes» et 3) «Signalement psychothérapie»). De ces trois banques de données, deux sont construites à partir de formulaires remplis par les psychologues et psychothérapeutes. Des 8509 psychologues, 870 psychothérapeutes, et 524 dossiers de pratique illégale (usurpation de titres professionnels et/ou pratique illégale de la psychothérapie) inclus dans l’étude, des différences statistiquement significatives ont été remarquées pour ce qui est du sexe, de l’âge et de la langue maternelle. Toutefois, l’effet de taille était petit. Les différences les plus importantes étaient observables au niveau de la scolarité et de l’exercice de la psychothérapie. Les dispositions de la Loi modifiant le Code des professions et d’autres dispositions législatives dans le domaine de la santé mentale et des relations humaines n’étant en vigueur que depuis deux ans, il serait intéressant de suivre l’évolution de la psychothérapie et de la pratique illégale de la psychothérapie au Québec dans les prochaines années.
Resumo:
Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention du grade de maîtrise (M. Sc.) en criminologie
Resumo:
Ce mémoire présente l’étude de la faisabilité de la planification de traitements pour la curiethérapie interstitielle du sein en utilisant l’imagerie par résonance magnétique (IRM) seule au lieu de l’imagerie par tomodensitométrie (CT). L'imagerie CT étant la référence, la mesure des différences observables sur la distribution de doses provenant des deux types d’imagerie a été effectuée. Des fantômes de seins ont été fabriqués et utilisés, ainsi que l’imagerie de patients. La taille des fantômes en fonction du positionnement dans l’appareil d’IRM et la longueur reconstruite des cathéters ont été analysées. Les différences dans les distributions de doses de fantômes et de patients ont été calculées en s’assurant que la reconstruction des cathéters provenant des images CT et IRM est la seule variable. La différence dans les critères de doses à respecter est plus grande lorsque la taille du fantôme et/ou un déplacement latéral dans l’IRM sont plus grands. La longueur reconstruite des cathéters est comparable entre les deux techniques d’imagerie. Pour le petit fantôme des différences <2% ont été observées pour tous les critères de dose. Pour le grand fantôme et pour les patients, une valeur maximale de 5% est observée pour les critères sur la cible, mais peut atteindre 19% pour le critère Externe V150%/V100% pour le grand fantôme et 33% pour les patients. Par contre, le seuil clinique de ce critére est toujours respecté. Ceci nous indique que pour la plupart des patients, la zone à traiter serait bien couverte en utilisant les images IRM uniquement pour planifier.
Resumo:
Le processus de vieillissement humain est un processus complexe qui varie grandement d’une personne à l’autre. Malgré l’ampleur des recherches faites sur le sujet, il reste encore beaucoup à explorer et à comprendre. Cette thèse propose trois expériences qui nous permettent d’améliorer notre compréhension des changements qui s’opèrent dans la mémoire de travail visuelle et l’attention visuospatiale avec la prise en âge. La première expérience propose d’examiner les changements dans les capacités de mémoire de travail visuelle entre des jeunes adultes, des adultes âgés sains et des personnes atteintes de trouble cognitif léger (TCL). De plus, grâce à un suivi fait avec les personnes ayant un TCL, nous avons pu examiner si des différences existaient au niveau comportemental entre les âgés qui ont déclinés vers un type de démence et ceux dont l’état est resté stable. Plusieurs techniques peuvent être utilisées pour étudier les effets du vieillissement sur le cerveau. Les tests neuropsychologiques et les tâches comportementales présentées dans la première expérience en sont un exemple. La neuroimagerie peut aussi s’avérer particulièrement utile. En effet, certaines mesures électrophysiologiques, aussi appelées potentiels reliés aux évènements (PRE), sont associées à des fonctions cognitives précises. Ces composantes nous permettent de suivre ces processus et d’observer les modulations causées par les caractéristiques des stimuli ou l’âge par exemple. C’est le cas de la N2pc (négativité 2 postérieure controlatérale) et de la SPCN (sustained posterior contralateral negativity), des composantes électrophysiologiques liées respectivement à l’attention visuospatiale et la mémoire de travail visuelle. On connait bien ces deux composantes ainsi que les facteurs qui les modulent, or elles sont peu utilisées pour les changements qui occurrent dans l’attention et la mémoire de travail visuelle dans le cadre du processus de vieillissement. Les deuxième et troisième expériences proposent d’utiliser une tâche de recherche visuelle (nombre d’items de couleur et identification d’une relation spatiale entre deux items de couleur) afin d’explorer les changements observables sur ces composantes électrophysiologiques. La deuxième expérience examine l’efficacité d’un paradigme à présentations multiples (‘multiple frame’) afin de mesurer la N2pc et la SPCN chez de jeunes adultes. La troisième expérience a pour but d’examiner les effets du vieillissement normal sur l’amplitude et la latence de la N2pc et la SPCN en utilisant le même type de tâche de recherche visuelle.
Resumo:
Le capital humain d’un pays est un facteur important de sa croissance et de son développement à long terme. Selon l’Unicef, ce capital humain est constitué en donnant à chaque enfant un bon départ dans la vie : non seule- ment la possibilité de survivre, mais aussi les conditions nécessaires pour se développer et réaliser tout son potentiel. Malheureusement, cet état de fait est loin d’être une réalité en Afrique Subsaharienne. En effet, selon toujours l’Unicef et sur la base d’enquêtes ménages dans 21 pays d’Afrique de l’Ouest et du Centre, c’est près de 32 millions d’enfants qui ont l’âge officiel d’être scolarisés, mais qui ne le sont pas. A ces chiffres, il faut ajouter 17 millions d’enfants scolarisés qui risquent fortement l’exclusion. De son Côté, l’OMS pointe du doigt la mauvaise santé des enfants dans cette région. Ainsi, les décès d’enfants sont de plus en plus concentrés en Afrique subsaharienne où les enfants ont plus de 15 fois plus de risques de mourir avant l’âge de cinq ans que les enfants des régions développées. Les difficultés économiques apparaissent comme la première explication des obstacles à l’amélioration du bien être des enfants aussi bien du côté de l’offre que de la demande. Cette thèse relie trois essais sur d’une part le lien entre conflit armés, l’éducation et la mortalité des enfants et d’autre part sur le lien entre fertilité et éducation des enfants en milieu urbain. Le premier chapitre identifie l’impact de la crise politico-militaire de la Côte d’Ivoire sur le bien être des enfants, en particulier sur l’éducation et la mor- talité infanto-juvénile en exploitant la variation temporelle et géographique de la crise. Il ressort de cette analyse que les individus qui vivaient dans les régions de conflit et qui ont atteint durant la crise, l’âge officiel d’entrer à l’école ont 10% moins de chance d’être inscrits à l’école. Les élèves qui habitaient dans des régions de conflit pendant la crise ont subit une diminu- tion du nombre d’années scolaire d’au moins une année. Les élèves les plus v vi âgés et qui sont susceptibles d’être au secondaire ont connu une décroissance du nombre d’année scolaire d’au moins deux années. Il ressort également que la crise ivoirienne a accru la mortalité infanto-juvénile d’au moins 3%. Mes résultats suggèrent également que la détérioration des conditions de vie et la limitation de l’utilisation des services de santé au cours du conflit con- tribuent à expliquer ces effets négatifs. Des tests de robustesse incluant un test de placebo suggèrent que les résultats ne sont pas dus à des différences préexistantes entre les régions affectées par le conflit et celles non affectées. Le deuxième chapitre étudie les disparités intra-urbaines en matière d’arbitrage entre le nombre d’enfant et la scolarisation des enfants en se focalisant sur le cas de Ouagadougou (Capitale du Burkina Faso). Dans cette ville, au moins 33% des deux millions d’habitants vivent dans des zones informelles (appelées localement des zones non-loties). Cette sous-population manque d’infrastructures socioéconomiques de base et a un niveau d’éducation très bas. Dans ce chapitre, prenant en compte la possible endogénéité du nombre d’enfants et en utilisant une approche "two-step control function" avec des modèles Probit, nous investiguons les différences de comportement des mé- nages en matière de scolarisation entre zones formelles et zones informelles. Nous nous focalisons en particulier sur l’arbitrage entre la "quantité" et la "qualité" des enfants. Compte tenu de l’hétérogénéité des deux types de zones, nous utilisons les probabilités prédites pour les comparer. Nos princi- pales conclusions sont les suivantes. Tout d’abord, nous trouvons un impact négatif de la taille de la famille sur le niveau de scolarisation dans les deux types de zone. Cependant, nous constatons que l’impact est plus aigu dans les zones informelles. Deuxièmement, si nous supposons que le caractère en- dogène du nombre d’enfants est essentiellement due à la causalité inverse, les résultats suggèrent que dans les zones formelles les parents tiennent compte de la scolarisation des enfants dans la décision de leur nombre d’enfants, mais ce ne est pas le cas dans les zones informelles. Enfin, nous constatons que, pour des familles avec les mêmes caractéristiques observables, la probabilité d’atteindre le niveau post-primaire est plus élevée dans les zones formelles que dans les zones informelles. En terme d’implications politique, selon ces résultats, les efforts pour améliorer la scolarisation des enfants ne doivent pas être dirigées uniquement vers les zones rurales. En plus de réduire les frais de scolarité dans certaines zones urbaines, en particulier les zones informelles, un accent particulier devrait être mis sur la sensibilisation sur les avantages de l’éducation pour le bien-être des enfants et leur famille. Enfin, du point vii de vue méthodologique, nos résultats montrent l’importance de tenir compte de l’hétérogénéité non observée entre les sous-populations dans l’explication des phénomènes socio-économiques. Compte tenu du lien négatif entre la taille de la famille et la scolarisation des enfants d’une part et les différences intra-urbaines de comportement des ménages en matière de scolarisation, le trosième chapitre étudie le rôle des types de méthodes contraceptives dans l’espacement des naissances en mi- lieu urbain. Ainsi, en distinguant les méthodes modernes et traditionnelles et en utilisant l’histoire génétique des femmes, ce chapitre fait ressortir des différences de comportement en matière de contraception entre les femmes des zones formelles et informelles à Ouagadougou (capitale du Burkina Faso). Les résultats montrent que les deux types de méthodes contraceptives aug- mentent l’écart des naissances et diminuent la probabilité qu’une naissance se produise moins de 24 mois après la précédente. Prendre en compte les caractéristiques non observées mais invariants avec le temps ne modifie pas significativement l’amplitude du coefficient de l’utilisation de la contracep- tion moderne dans les deux types de zone. Toutefois, dans la zone informelle, la prise en compte les effets fixes des femmes augmentent significativement l’effet des méthodes traditionnelles. Les normes sociales, la perception de la planification familiale et le rôle du partenaire de la femme pourraient expli- quer ces différences de comportement entre les zones formelles et informelles. Par conséquent, pour améliorer l’utilisation de la contraception et de leur efficacité, il est essentiel de hiérarchiser les actions en fonction du type de sous-population, même dans les zones urbaines.