1000 resultados para conception du réseau en fonction du temps
Resumo:
Depuis la rentrée scolaire de septembre 2002, les écoles primaires québécoises doivent composer avec une nouvelle organisation des programmes ainsi qu’avec de nouveaux contenus. Au premier cycle, en univers social, la compétence visée est « Construire sa représentation de l’espace, du temps et de la société » (MEQ, 2001). Or, nous savons que, pour bâtir un enseignement qui a pour but de guider un individu dans la construction de sa représentation, il est nécessaire d’avoir conscience de ses représentations initiales de l’objet. Mais, quelles sont les représentations du temps des élèves de maternelle et de premier cycle du primaire au Québec? C’est la question que nous nous posons dans cette thèse. Pour y répondre, nous avons cherché à circonscrire le temps dont il est question en proposant une réflexion théorique sur son essence et en analysant les sens qu’il prend dans le programme. Puis, nous avons mis en place une méthodologie et les outils lui étant nécessaires pour dégager les dimensions de représentations présentes dans les discours de 164 sujets de maternelle, de première et de deuxième année, répartis sur 13 classes d’écoles de la grande région montréalaise. À l’issue de cette recherche, nous pouvons proposer aux chercheurs et aux enseignants une nouvelle liste de dimensions de représentations du temps adaptée au contexte québécois actuel. Cette liste nous permet de dépeindre le paysage des représentations du temps des élèves des classes que nous avons visitées. Enfin, riche de nos résultats, nous pouvons émettre quelques remarques et principes pour l’enseignement du temps en classe.
Resumo:
Les détecteurs ATLAS-MPX sont des détecteurs Medipix2-USB recouverts de convertisseurs de fluorure de lithium et de polyéthylène pour augmenter l’efficacité de détection des neutrons lents et des neutrons rapides respectivement. Un réseau de quinze détecteurs ATLAS-MPX a été mis en opération dans le détecteur ATLAS au LHC du CERN. Deux détecteurs ATLAS-MPX de référence ont été exposés à des sources de neutrons rapides 252 Cf et 241 AmBe ainsi qu’aux neutrons rapides produits par la réaction 7Li(p, xn) pour l’étude de la réponse du détecteur à ces neutrons. Les neutrons rapides sont principalement détectés à partir des protons de recul des collisions élastiques entre les neutrons et l’hydrogène dans le polyéthylène. Des réactions nucléaires entre les neutrons et le silicium produisent des particules-α. Une étude de l’efficacité de reconnaissance des traces des protons et des particules-α dans le détecteur Medipix2-USB a été faite en fonction de l’énergie cinétique incidente et de l’angle d’incidence. L’efficacité de détection des neutrons rapides a été évaluée à deux seuils d’énergie (8 keV et 230 keV) dans les détecteurs ATLAS-MPX. L’efficacité de détection des neutrons rapides dans la région du détecteur couverte avec le polyéthylène augmente en fonction de l’énergie des neutrons : (0.0346 ± 0.0004) %, (0.0862 ± 0.0018) % et (0.1044 ± 0.0026) % pour des neutrons rapides de 2.13 MeV, 4.08 MeV et 27 MeV respectivement. L’étude pour déterminer l’énergie des neutrons permet donc d’estimer le flux des neutrons quand le détecteur ATLAS-MPX est dans un champ de radiation inconnu comme c’est le cas dans le détecteur ATLAS au LHC.
Resumo:
Dans les neurones et les cellules vasculaires cérébrales, les dérivés réactifs de l’oxygène jouent un double rôle puisqu’ils peuvent avoir à la fois des effets bénéfiques, à faibles concentrations, et des effets délétères, à des concentrations élevées. Chez la souris, la circulation cérébrale se distingue des autres lits vasculaires puisque le peroxyde d’hydrogène (H2O2) est le principal médiateur endothélial relaxant endogène. L’objectif de notre première étude a été de caractériser l’implication physiologique du H2O2 dérivé de la eNOS dans la fonction endothéliale cérébrale de la souris. Nous avons voulu identifier les mécanismes impliqués dans la dilatation induite par l’augmentation de débit intra-luminal (flow-mediated dilation, FMD). La FMD est la réponse à un stimulus physiologique endothélial la plus représentative de la situation in vivo. Nous avons démontré que le H2O2, et non le monoxyde d’azote (NO), dérivant de l’activation de la eNOS cérébrale, est le principal médiateur de la FMD. Cependant, nous connaissons très peu de données sur l’évolution de la voie du H2O2 au cours du vieillissement qu’il soit associé ou non aux facteurs de risque pour les maladies cardiovasculaires. Au cours du vieillissement, au niveau périphérique, les facteurs endothéliaux constricteurs ou dilatateurs évoluent en fonction de l’augmentation de stress oxydant. La présence de facteurs de risque pour les maladies cardiovasculaires, telle que l’hypercholestérolémie, pourrait accentuer l’augmentation du stress oxydant et ainsi accélérer la dysfonction endothéliale. Au niveau cérébral, très peu de données sont disponibles. Dans le cadre de notre deuxième étude, nous avons émis l’hypothèse qu’un débalancement des facteurs endothéliaux pourrait être à l’origine (1) de la dysfonction endothéliale cérébrale observée au cours du vieillissement et (2) de la dysfonction endothéliale précoce qui apparaît en présence d’athérosclérose. Nos résultats ont montré que l’augmentation de stress oxydant associée au vieillissement conduit à une libération endogène accrue de TXA2 qui diminue la voie du H2O2 au niveau cérébral et, par conséquent, réduit la dilatation dépendante de l’endothélium. De plus, la présence d’athérosclérose accélère l’apparition de la dysfonction endothéliale cérébrale. Le rôle clé joué par le stress oxydant a été confirmé par un traitement préventif avec l’antioxydant catéchine qui a permis de renverser tous les effets délétères de l’athérosclérose sur les fonctions endothéliales cérébrales. Finalement, la dysfonction endothéliale cérébrale précoce, associée avec l’athérosclérose, pourrait non seulement augmenter l’incidence de développer des accidents vasculaires cérébraux (AVC) mais aussi induire une diminution du débit sanguin cérébral et, ultimement, affecter les fonctions neuronales. Dans le cadre de notre troisième étude, nous avons émis l’hypothèse que l’augmentation de stress oxydant est associée avec une diminution du débit sanguin cérébral et un déclin subséquent des fonctions cognitives. Nous avons utilisé des souris athérosclérotiques âgées de 3 mois que nous avons soumises, ou pas, à un traitement chronique à la catéchine. Nos travaux montrent qu’un traitement préventif avec la catéchine peut prévenir les effets néfastes de l’athérosclérose sur la FMD, le débit sanguin et le déclin des fonctions cognitives qui est normalement associé au vieillissement. Nos résultats ont permis de distinguer l’effet du vieillissement des effets de l’athérosclérose sur les fonctions vasculaires cérébrales. Le traitement préventif avec la catéchine a eu des effets bénéfiques marqués sur la fonction endothéliale cérébrale, le débit sanguin cérébral et les fonctions cognitives, démontrant le rôle clé de l’environnement redox dans la régulation des fonctions cérébrales.
Resumo:
Malgré la préoccupation croissante des chercheurs et praticiens pour la santé psychologique au travail, le concept de bien-être vécu au travail est encore mal compris de la communauté scientifique. En effet, peu d’efforts ont été consacrés à ce jour pour développer des connaissances sur le bien-être psychologique au travail arrimées à la réalité des employés. Cette thèse a donc pour objectif de développer une conceptualisation du bien-être psychologique au travail et une instrumentation psychométriquement fiable lui étant rattachée. Pour ce faire, deux études ont été réalisées. La première, de nature qualitative et exploratoire, fut menée auprès de 20 travailleurs canadiens francophones afin de répertorier, à partir d’incidents critiques vécus par ceux-ci, des manifestations de bien-être psychologique au travail. Celles-ci ont pu être classifiées selon un modèle en 2 axes, soit la sphère de référence dans laquelle le bien-être psychologique au travail se vit et la directionnalité selon laquelle il se développe. Ce modèle a ensuite été comparé aux conceptualisations génériques du bien-être psychologique existantes, et cette analyse a permis d’étayer la validité convergente et divergente du modèle. Dans un deuxième temps, l’Indice de bien-être psychologique au travail (IBEPT) a été créé sur la base des manifestations relevées lors de l’étude qualitative, afin d’en assurer la validité de contenu. Une version expérimentale de l’instrument a ensuite été soumise à une expérimentation auprès de 1080 travailleurs québécois. Les analyses factorielles exploratoires révèlent une structure interne en 25 items reflétant 5 dimensions, représentant elles-mêmes un construit de second ordre. La validité de construit de cette conceptualisation a ensuite été étudiée par l’analyse des intercorrélations avec une série de mesures du bien-être et de la détresse psychologique génériques. Les résultats appuient la validité convergente de l’instrument, et démontrent également sa validité divergente. Enfin, l’instrument affiche une cohérence interne satisfaisante. Au terme de cette recherche doctorale, les résultats des deux études sont interprétés en fonction de l’état actuel des connaissances sur le bien-être psychologique, les limites des études sont énoncées, et des pistes de recherche future sont avancées.
Resumo:
Généralement, les problèmes de conception de réseaux consistent à sélectionner les arcs et les sommets d’un graphe G de sorte que la fonction coût est optimisée et l’ensemble de contraintes impliquant les liens et les sommets dans G sont respectées. Une modification dans le critère d’optimisation et/ou dans l’ensemble de contraintes mène à une nouvelle représentation d’un problème différent. Dans cette thèse, nous nous intéressons au problème de conception d’infrastructure de réseaux maillés sans fil (WMN- Wireless Mesh Network en Anglais) où nous montrons que la conception de tels réseaux se transforme d’un problème d’optimisation standard (la fonction coût est optimisée) à un problème d’optimisation à plusieurs objectifs, pour tenir en compte de nombreux aspects, souvent contradictoires, mais néanmoins incontournables dans la réalité. Cette thèse, composée de trois volets, propose de nouveaux modèles et algorithmes pour la conception de WMNs où rien n’est connu à l’ avance. Le premiervolet est consacré à l’optimisation simultanée de deux objectifs équitablement importants : le coût et la performance du réseau en termes de débit. Trois modèles bi-objectifs qui se différent principalement par l’approche utilisée pour maximiser la performance du réseau sont proposés, résolus et comparés. Le deuxième volet traite le problème de placement de passerelles vu son impact sur la performance et l’extensibilité du réseau. La notion de contraintes de sauts (hop constraints) est introduite dans la conception du réseau pour limiter le délai de transmission. Un nouvel algorithme basé sur une approche de groupage est proposé afin de trouver les positions stratégiques des passerelles qui favorisent l’extensibilité du réseau et augmentent sa performance sans augmenter considérablement le coût total de son installation. Le dernier volet adresse le problème de fiabilité du réseau dans la présence de pannes simples. Prévoir l’installation des composants redondants lors de la phase de conception peut garantir des communications fiables, mais au détriment du coût et de la performance du réseau. Un nouvel algorithme, basé sur l’approche théorique de décomposition en oreilles afin d’installer le minimum nombre de routeurs additionnels pour tolérer les pannes simples, est développé. Afin de résoudre les modèles proposés pour des réseaux de taille réelle, un algorithme évolutionnaire (méta-heuristique), inspiré de la nature, est développé. Finalement, les méthodes et modèles proposés on été évalués par des simulations empiriques et d’événements discrets.
Resumo:
Tout au long de la vie, le cerveau développe des représentations de son environnement permettant à l’individu d’en tirer meilleur profit. Comment ces représentations se développent-elles pendant la quête de récompenses demeure un mystère. Il est raisonnable de penser que le cortex est le siège de ces représentations et que les ganglions de la base jouent un rôle important dans la maximisation des récompenses. En particulier, les neurones dopaminergiques semblent coder un signal d’erreur de prédiction de récompense. Cette thèse étudie le problème en construisant, à l’aide de l’apprentissage machine, un modèle informatique intégrant de nombreuses évidences neurologiques. Après une introduction au cadre mathématique et à quelques algorithmes de l’apprentissage machine, un survol de l’apprentissage en psychologie et en neuroscience et une revue des modèles de l’apprentissage dans les ganglions de la base, la thèse comporte trois articles. Le premier montre qu’il est possible d’apprendre à maximiser ses récompenses tout en développant de meilleures représentations des entrées. Le second article porte sur l'important problème toujours non résolu de la représentation du temps. Il démontre qu’une représentation du temps peut être acquise automatiquement dans un réseau de neurones artificiels faisant office de mémoire de travail. La représentation développée par le modèle ressemble beaucoup à l’activité de neurones corticaux dans des tâches similaires. De plus, le modèle montre que l’utilisation du signal d’erreur de récompense peut accélérer la construction de ces représentations temporelles. Finalement, il montre qu’une telle représentation acquise automatiquement dans le cortex peut fournir l’information nécessaire aux ganglions de la base pour expliquer le signal dopaminergique. Enfin, le troisième article évalue le pouvoir explicatif et prédictif du modèle sur différentes situations comme la présence ou l’absence d’un stimulus (conditionnement classique ou de trace) pendant l’attente de la récompense. En plus de faire des prédictions très intéressantes en lien avec la littérature sur les intervalles de temps, l’article révèle certaines lacunes du modèle qui devront être améliorées. Bref, cette thèse étend les modèles actuels de l’apprentissage des ganglions de la base et du système dopaminergique au développement concurrent de représentations temporelles dans le cortex et aux interactions de ces deux structures.
Resumo:
La vision fournit des informations essentielles sur la surface de marche, ainsi que sur la taille, la forme et la position d’obstacles potentiels dans notre environnement. Dans le cas d’un prédateur, la vision fournit également des informations sur la vitesse d’une proie potentielle. Les mécanismes neuronaux impliqués dans l’exécution des modifications de la marche sous guidage visuel sont relativement bien connus, mais ceux impliqués dans la planification de ces modifications de la marche sont peu étudiés. Le cortex pariétal postérieur (CPP) semble être un candidat approprié si l’on considère les propriétés du CPP lors des mouvements d’atteinte vers une cible. Le but des présents travaux est de déterminer la contribution du CPP au contrôle de la locomotion sous guidage visuel. La première étude présentée dans cette thèse a pour hypothèse que le CPP du chat est impliqué dans la planification du placement précis du pied lors des modifications volontaires de la marche. Nous avons entraîné les animaux à enjamber des obstacles en mouvement attachés à la ceinture d’un tapis roulant. Afin d’augmenter la nécessité d’intégrer les informations visuelles et proprioceptives, nous avons dissocié la vitesse des obstacles de celle du tapis roulant. Nous avons observé que plus la vision devient critique pour la tâche, plus les déficits sont importants. Notre analyse démontre que ceux-ci résultent d’un placement inapproprié du pied dans le cycle de marche précédant l’enjambement de l’obstacle. Ceci suggère que le CPP est impliqué dans la planification du placement précis du pied pendant la locomotion sous guidage visuel. La vision directe est disponible lors de la modification de l’activité des membres antérieurs, mais n’est plus disponible lorsque l’obstacle passe sous le corps. Par conséquent, la modification de l’activité des membres postérieurs doit être basée sur l’information gardée en mémoire et coordonnée avec celle des membres antérieurs. Notre deuxième étude a pour but de caractériser les mécanismes neuronaux responsables de cette coordination. Nous avons proposé que le CPP soit impliqué dans la coordination des membres antérieurs et postérieurs lors de l’enjambement d’obstacles. Pour tester cette hypothèse, nous avons enregistré l’activité de neurones de l’aire 5 pendant la même tâche. Nous avons découvert deux populations: une qui décharge lors du passage de l’obstacle entre les membres antérieurs et postérieurs et une autre qui décharge lors du passage de l’obstacle par les membres postérieurs. Dans la tâche de dissociation visuelle, la décharge est modifiée en fonction du temps de passage de l’obstacle sous le corps et reflète la modification du couplage entre les membres lors du changement dans la stratégie d’enjambement. De plus, ces mêmes neurones maintiennent une décharge soutenue lorsqu’un obstacle fixe se trouve entre les membres antérieurs et postérieurs ou les deux membres postérieurs (limite testée : 1-2min). Ces neurones pourraient être responsables de l’emmagasinage à plus long terme des caractéristiques d’un obstacle pour le guidage des mouvements des membres postérieurs. Nos résultats suggèrent que le CPP est impliqué dans l’intégration des informations visuelles et proprioceptives pour la planification du placement précis du pied devant un obstacle. Le patron de décharge de nos populations neuronales suggère qu’il encode également l’information temporelle et spatiale concernant la vitesse et la position de l’obstacle afin de coordonner l’activité des quatre membres pendant la tâche. Finalement, nous proposons qu’une des fonctions du CPP soit d’estimer la position des membres par rapport à l’obstacle en mouvement.
Resumo:
L’objectif de notre recherche est l’exploration et l’étude de la question de l’instrumentation informatique des projets de reconstitution archéologiques en architecture monumentale dans le but de proposer de nouveaux moyens. La recherche a pour point de départ une question, à savoir : « Comment, et avec quels moyens informatiques, les projets de reconstitution architecturale pourraient-ils être menés en archéologie? ». Cette question a nécessité, en premier lieu, une étude des différentes approches de restitution qui ont été mises à contribution pour des projets de reconstitution archéologiques, et ceci, à ses différentes phases. Il s’agit de comprendre l’évolution des différentes méthodologies d’approche (épistémologiquement) que les acteurs de ce domaine ont adoptées afin de mettre à contribution les technologies d’information et de communication (TIC) dans le domaine du patrimoine bâti. Cette étude nous a permis de dégager deux principales avenues: une première qui vise exclusivement la « représentation » des résultats des projets et une seconde qui vise la modélisation de ce processus dans le but d’assister l’archéologue dans les différentes phases du projet. Nous démontrons que c’est la deuxième approche qui permet la combinaison et met à la disposition des archéologues une meilleure exploitation des possibilités que l’outil informatique peut et pourra présenter. Cette partie permet de démontrer la nature systémique et complexe de la mise à contribution des TICs dans le domaine de la restitution archéologique. La multitude des acteurs, des conditions techniques, culturelles et autres, des moyens utilisés ainsi que la variété des objectifs envisagés dans les projets de reconstitution archéologiques poussent à explorer une nouvelle approche qui tient compte de cette complexité. Pour atteindre notre objectif de recherche, la poursuite de l’étude de la nature de la démarche archéologique s’impose. Il s’agit de comprendre les liens et les interrelations qui s’établissent entre les différentes unités techniques et intellectuelles en jeu ainsi que les différents modes de réflexions présents dans les projets de reconstitution archéologique du patrimoine bâti. Cette étude met en évidence le rapport direct entre le caractère subjectif de la démarche avec la grande variabilité des approches et des raisonnements mis en œuvre. La recherche est alors exploratoire et propositionnelle pour confronter notamment le caractère systémique et complexe de l’expérience concrète et à travers les publications savantes, les éléments de la réalité connaissable. L’étude des raisonnements archéologiques à travers les publications savantes nous permet de proposer une première typologie de raisonnements étudiés. Chacune de ces typologies reflète une méthodologie d’approche basée sur une organisation d’actions qui peut être consignée dans un ensemble de modules de raisonnements. Cette recherche fait ressortir, des phénomènes et des processus observés, un modèle qui représente les interrelations et les interactions ainsi que les produits spécifiques de ces liaisons complexes. Ce modèle témoigne d’un processus récursif, par essais et erreurs, au cours duquel l’acteur « expérimente » successivement, en fonction des objectifs de l’entreprise et à travers des modules de raisonnements choisis, plusieurs réponses aux questions qui se posent à lui, au titre de la définition du corpus, de la description, de la structuration, de l’interprétation et de la validation des résultats, jusqu’à ce que cette dernière lui paraisse satisfaire aux objectifs de départ. Le modèle établi est validé à travers l’étude de cas du VIIème pylône du temple de Karnak en Égypte. Les résultats obtenus montrent que les modules de raisonnements représentent une solution intéressante pour assister les archéologues dans les projets de reconstitution archéologiques. Ces modules offrent une multiplicité de combinaisons des actions et avantagent ainsi une diversité d’approches et de raisonnements pouvant être mis à contribution pour ces projets tout en maintenant la nature évolutive du système global.
Resumo:
À l'aide des tout derniers modèles narratologiques développés entre autres par Ansgar Nünning, nous nous penchons sur l'oeuvre d'Eveline Hasler, une voix phare de la littérature alémanique contemporaine. À partir d’un corpus de six romans, nous examinons de façon systématique sa poétique du roman historique au regard 1) des techniques narratives, 2) de la marginalité de ses personnages en société, 3) de la conception de l’Histoire, 4) de l'image critique qu'elle présente de la Suisse. Il en ressort un portrait très nuancé de l'oeuvre de Hasler, puisqu’elle allie un récit principalement réaliste, plutôt traditionnel, mais aussi inspiré du langage cinématographique, à des passages métahistoriographiques postmodernes, où une narratrice assimilable à l’auteure fait part au « je » de ses réflexions sur l'Histoire. Même si ces brefs passages relativement rares rappellent sans contredit la posture de l’historien, ils s’inscrivent toutefois dans la fiction, laquelle actualise le passé dans la perspective historique d’un lecteur contemporain. De fait, l’œuvre de Hasler se présente comme un jeu habile avec la liberté poétique et le souci de véracité historique, ce à quoi concourt l’imbrication de documents originaux en italique dans le roman. Par ailleurs, la question de la marginalité en société joue un rôle prépondérant chez Hasler, car tous ses personnages principaux sont autant de marginaux, de Außenseiter. Cette problématique montre entre autres les limites de l’Aufklärung, étant donné que ses tenants, les adversaires des marginaux, se targuent le plus souvent d’être motivés par la pensée éclairante pour mieux la pervertir. Il en résulte la mise à l’écart des individus dérangeants — la prétendue sorcière, le géant et les femmes qui remettent en cause l’organisation patriarcale. Or, certains marginaux de Hasler parviennent à s’arracher un espace de liberté dans la marge, au prix de leurs racines helvétiques. Ainsi, ces marginaux peinent à s’inscrire dans l’Histoire dite officielle, ce que Hasler tente de rectifier en leur redonnant une voix. Sur le plan individuel, la plupart d’entre eux expérimentent une évolution circulaire, puisqu’ils ne parviennent pas à sortir de la marge (sauf peut-être Henry Dunant). Cette impression de tourner en rond s’oppose à une conception de l’Histoire humaine qui se déroule en continuum, puisque les exclusions d’hier préfigurent celles d’aujourd’hui. Au-delà de cette mesure humaine du temps, l’horizon temporel de la nature s’inscrit pour sa part dans la permanence. Ainsi, Hasler développe une conception historique qui varie selon des points de vue coexistants. Cet amalgame est le plus souvent marqué par un certain pessimisme, comme le dénote la vie d’Emily Kempin associée au mythe d’Icare. Finalement, tous les acteurs historiques de Hasler appartiennent au contexte helvétique et en présentent une image assez rétrograde, laquelle se dévoile non seulement à travers la fictionnalisation des lieux, mais aussi par des références à trois symboles nationaux : les Alpes, le réduit helvétique et la légende de Guillaume Tell. Hasler fait le procès de ces mythes, associés à la liberté et à la sauvegarde de ce « peuple de bergers », en montrant que la Suisse n’apporte pas de solution originale aux défis de l’Occident.
Resumo:
Le principal rôle du corps calleux est d’assurer le transfert de l’information entre les hémisphères cérébraux. Du support empirique pour cette fonction provient d’études investiguant la communication interhémisphérique chez les individus à cerveau divisé (ICD). Des paradigmes expérimentaux exigeant une intégration interhémisphérique de l’information permettent de documenter certains signes de déconnexion calleuse chez ces individus. La présente thèse a investigué le transfert de l’information sous-tendant les phénomènes de gain de redondance (GR), de différence croisé– non-croisé (DCNC) et d’asynchronie bimanuelle chez les ICD et les individus normaux, et a ainsi contribué à préciser le rôle du corps calleux. Une première étude a comparé le GR des individus normaux et des ICD ayant subi une section partielle ou totale du corps calleux. Dans une tâche de détection, le GR consiste en la réduction des temps de réaction (TR) lorsque deux stimuli sont présentés plutôt qu’un seul. Typiquement, les ICD présentent un GR beaucoup plus grand (supra-GR) que celui des individus normaux (Reuter-Lorenz, Nozawa, Gazzaniga, & Hughes, 1995). Afin d’investiguer les conditions d’occurrence du supra-GR, nous avons évalué le GR en présentation interhémisphérique, intrahémisphérique et sur le méridien vertical, ainsi qu’avec des stimuli requérant une contribution corticale différente (luminance, couleur équiluminante ou mouvement). La présence d’un supra-GR chez les ICD partiels et totaux en comparaison avec celui des individus normaux a été confirmée. Ceci suggère qu’une section antérieure du corps calleux, qui perturbe le transfert d’informations de nature motrice/décisionnelle, est suffisante pour produire un supra-GR chez les ICD. Nos données permettent aussi d’affirmer que, contrairement au GR des individus normaux, celui des ICD totaux est sensible aux manipulations sensorielles. Nous concluons donc que le supra-GR des ICD est à la fois attribuable à des contributions sensorielles et motrices/décisionnelles. Une deuxième étude a investigué la DCNC et l’asynchronie bimanuelle chez les ICD et les individus normaux. La DCNC réfère à la soustraction des TR empruntant une voie anatomique « non-croisée » aux TR empruntant une voie anatomique « croisée », fournissant ainsi une estimation du temps de transfert interhémisphérique. Dans le contexte de notre étude, l’asynchronie bimanuelle réfère à la différence de TR entre la main gauche et la main droite, sans égard à l’hémichamp de présentation. Les effets de manipulations sensorielles et attentionnelles ont été évalués pour les deux mesures. Cette étude a permis d’établir une dissociation entre la DCNC et l’asynchronie bimanuelle. Précisément, les ICD totaux, mais non les ICD partiels, ont montré une DCNC significativement plus grande que celle des individus normaux, alors que les deux groupes d’ICD se sont montrés plus asynchrones que les individus normaux. Nous postulons donc que des processus indépendants sous-tendent la DCNC et la synchronie bimanuelle. De plus, en raison de la modulation parallèle du GR et de l’asynchronie bimanuelle entre les groupes, nous suggérons qu’un processus conjoint sous-tend ces deux mesures.
Resumo:
Résumé Depuis le début des années 1990, la recherche sur le développement régional a pris une importance considérable dans les disciplines de l’économie et de la géographie dans la plupart des pays. De nombreuses études ont été consacrées à ce sujet et l’on constate une approche analytique de plus en plus sophistiquée. Que les économies pauvres ont tendance à converger vers les pays riches, ou bien à diverger au fil du temps est une question qui a attiré l'attention des décideurs et des universitaires depuis quelques décennies. Convergence ou de divergence économique est un sujet d'intérêt et de débat, non seulement pour valider ou non les deux modèles principaux de croissance qui sont considérés comme concurrent (l’approche néo-classique et celle des approches de croissance endogène), mais aussi pour ses implications pour les publiques politiques. En se basant sur une analyse des politiques de développement régional et des analyses statistiques de la convergence et des disparités régionales, les objectifs de cette thèse sont de tenter de fournir une explication des différents processus et des modèles de développement économique régional poursuivis dans le cas de territoires immenses en utilisant le Canada et la Chine comme études de cas, d'entreprendre une analyse des différents facteurs et des forces motrices qui sous-tendent le développement régional dans ces deux pays, et d'explorer à la fois les réussites et les échecs apparents dans les politiques de développement régional en comparant et contrastant les expériences de développement régional et les modèles de ces deux pays. A fin d'atteindre cet objectif, la recherche utilise une approche multi-scalaire et des méthodes de mesure multidimensionnelle dans le cadre des analyses sur les disparités « régionales » entre les macro régions (sous-ensembles de provinces) des deux pays, des provinces et des régions urbaines sélectionnées, dans le but ultime d’identifier des problèmes existants en termes de développement régional et de pouvoir proposer des solutions. Les étapes principales de la recherche sont : 1. La cueillette des données statistiques pour le Canada et la Chine (incluant les provinces de Québec et de Xinjiang) pour une gamme d’indicateurs (voir ci-dessous). 2. D’entreprendre une analyse de chaque dimension dans les deux juridictions: Population (p.ex. composition, structure, changement); Ressources (p. ex. utilisation, exploitation de l’énergie); Environnement (p.ex. la pollution); et le Développement socioéconomique (p.ex. le développement et la transformation des secteurs clé, et les modèles de développement rural et urbain), et les disparités changeantes par rapport à ces dimensions. 3. La définition d’une typologie de différents types de région en fonction de leurs trajectoires de développement, ce qui servira pour critiquer l’hypothèse centre-périphérie. 4. Le choix d’une région métropolitaine dans chaque juridiction (province). 5. D’entreprendre une analyse temporelle des événements clé (politiques, investissements) dans chaque région et les facteurs impliqués dans chaque événement, en utilisant l’information documentaire générale et des agences institutionnelles impliqués actuellement et dans un passée récent. Cette étude a tenté d'expliquer les schémas et les processus des deux économies, ainsi que la présentation d'études de cas qui illustrent et examinent les différences dans les deux économies à partir de l’échelle nationale jusqu’au niveau régional et provincial et aussi pour certaines zones urbaines. Cette étude a essayé de répondre aux questions de recherche comme: Est-il vrai que les pays avec des plus grandes territoires sont associés avec des plus grandes disparités interrégionales? Quel est le résultat des comparaisons entre pays développés et pays en développement? Quels sont les facteurs les plus importants dans le développement économique de vastes territoires dans les pays développés et pays en développement? Quel est le mécanisme de convergence et de divergence dans les pays développés et, respectivement, les pays en développement? Dans l'introduction à la thèse, le cadre général de l'étude est présenté, suivie dans le chapitre 1 d'une discussion sur les théories et les concepts utilisés dans la littérature théorique principale qui est pertinent à l'étude. Le chapitre 2 décrit la méthodologie de recherche. Le chapitre 3 présente une vue d'ensemble des politiques de développement économique régional et les programmes du Canada et de la Chine dans des périodes différentes à différentes échelles. Au chapitre 4, la convergence des deux pays à l'échelle nationale et la convergence provinciale pour chaque pays sont examinés en utilisant différentes méthodes de mesure telles que les méthodes traditionnelles, la convergence bêta et la convergence sigma. Dans le chapitre le plus complexe, le chapitre 5, les analyses comparatives sont présentées à l'aide de données statistiques, à partir des analyses des cas régionaux et provinciaux retenus des deux pays. Au chapitre 6, ces dispositions sont complétées par une analyse des régions urbaines choisies, qui permet également des aperçus sur les régions les plus périphériques. Dans la recherche proposée pour cette thèse, la politique, la population, le revenu, l'emploi, la composition industrielle, l'investissement, le commerce et le facteur de la migration sont également pris en compte comme facteurs importants de l'analyse régionale compte tenu de la superficie du territoire des deux pays et les différences de population entre eux. Cette thèse a évalué dans quelle mesure les politiques gouvernementales ont réussi à induire la convergence régionale ou ont encore ont creusé davantage les disparités régionales, ce qui implique nécessairement une évaluation de la durabilité des patrons et des programmes de développement régional. Cette étude a également mis l'accent sur les disparités régionales et la politique de développement régional, les comparaisons entre pays, pour mesurer la convergence entre les pays et entre les régions, y compris l'analyse spatiale, d'identifier les facteurs les plus actifs tels que la population, les ressources, la politique, l'urbanisation, les migrations, l'ouverture économique et leurs différents rôles dans le développement économique de ces grands territoires (au Canada et Chine). Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionales et les disparités régionales dans les deux économies. L'approche adoptée a révélé les différentes mosaïques complexes du développement régional dans les deux pays. Les résultats de cette étude ont démontré que la disparité en termes de revenu régional est une réalité dans chaque zone géographique, et que les causes sont nombreuses et complexes. Les deux économies ont certains parallèles dans la mise en œuvre des politiques de développement économique régional, mais il existe des différences importantes aussi et elles se sont développées à différentes vitesses. Les deux économies se sont développées depuis la Seconde Guerre mondiale, mais la Chine a connu une croissance rapide que le Canada comme témoignent de nombreux indicateurs depuis 1980. Cependant, la Chine est maintenant confrontée à un certain nombre de problèmes économiques et sociaux, y compris les disparités régionales marquées, un fossé toujours croissant entre les revenus ruraux et urbains, une population vieillissante, le chômage, la pauvreté et la dégradation rapide de l'environnement avec toujours plus de demandes en énergie. Le développement économique régional en Chine est plus déséquilibré. Le Canada accuse un degré de disparités régionales et provinciales moins important que la Chine. Dans les cas provinciaux, il existe d'importantes différences et de disparités dans la structure économique et spatiale du Québec et du Xinjiang. Les disparités infra provinciales sont plus grandes que celles à l’échelle des provinces et des grandes régions (des sous-ensembles de provinces). Les mécanismes de convergence et de divergence dans les deux pays sont différents. Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionale et les disparités régionales dans les deux économies. Cette étude démontre également que l'urbanisation (les métropoles et les villes) s’avère être le facteur le plus actif et contribue à l'économie régionale dans ces grands territoires. L'ouverture a joué un rôle important dans les économies des deux pays. La migration est un facteur majeur dans la stimulation de l'économie des deux pays mais de façons différentes. Les résultats empiriques démontrent que les disparités régionales ne peuvent pas être évitées et elles existent presque partout. Il n'y a pas une formule universelle et de politiques spécifiques sont de mise pour chaque région. Mais il semble possible pour les décideurs politiques nationaux et régionaux d’essayer de maintenir l'écart à une échelle raisonnable pour éviter l'instabilité sociale.
Resumo:
La présente étude vise à examiner dans quelle mesure le sexe ainsi que les caractéristiques comportementales et relationnelles des agresseurs permettent de rendre compte de l’augmentation, sur une période d’un an, du sentiment de solitude chez les victimes de harcèlement par les pairs au secondaire. L’échantillon est composé de 538 élèves de secondaire I et II de la région de Montréal. Au cours de deux années consécutives, le niveau de victimisation des élèves ainsi que l’identité et les caractéristiques des agresseurs (i.e.: sexe, agressivité, popularité et victimisation) ont été évalués à partir de mesures auto-révélées et de procédures de nominations par les pairs. Les résultats démontrent, qu’au-delà de la fréquence à laquelle les élèves sont victimisés, le sexe des agresseurs permet de rendre compte de l’augmentation à travers le temps du sentiment de solitude chez les filles et les garçons. Plus spécifiquement, le nombre d’agresseurs féminins identifiés par les élèves constitue un facteur de risque étroitement lié au développement du sentiment de solitude. Par ailleurs, les caractéristiques des agresseurs ne sont pas associées à l’accroissement du sentiment de solitude à travers le temps. Cependant, le fait de se faire agresser par des élèves qui présentent des difficultés d’ajustement social importantes (i.e. : agressifs et victimisés) est associé de manière concomitante à un moins fort sentiment de solitude. La discussion aborde les processus intra- et interpersonnels permettant d’expliquer pourquoi les sentiments de solitude associés à la victimisation par les pairs sont susceptibles de varier en fonction des caractéristiques des agresseurs.
Resumo:
Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.
Resumo:
Problématique : La pénurie d’organes qui sévit actuellement en transplantation rénale incite les chercheurs et les équipes de transplantation à trouver de nouveaux moyens afin d’en améliorer l’efficacité. Le Groupe de recherche transdisciplinaire sur les prédicteurs du risque immunologique du FRSQ travaille actuellement à mettre en place de nouveaux outils facilitant la quantification du risque immunologique global (RIG) de rejet de chaque receveur en attente d’une transplantation rénale. Le calcul du RIG s’effectuerait en fonction de facteurs scientifiques et quantifiables, soit le biologique, l’immunologique, le clinique et le psychosocial. La détermination précise du RIG pourrait faciliter la personnalisation du traitement immunosuppresseur, mais risquerait aussi d’entraîner des changements à l’actuelle méthode de sélection des patients en vue d’une transplantation. Cette sélection se baserait alors sur des critères quantifiables et scientifiques. L’utilisation de cette méthode de sélection possède plusieurs avantages, dont celui d’améliorer l’efficacité de la transplantation et de personnaliser la thérapie immunosuppressive. Malgré tout, cette approche soulève plusieurs questionnements éthiques à explorer chez les différents intervenants œuvrant en transplantation rénale quant à sa bonne utilisation. Buts de l’étude : Cette recherche vise à étudier les perceptions de néphrologues transplanteurs et référents de la province de Québec face à l’utilisation d’une méthode de sélection des patients basée sur des critères scientifiques et quantifiables issus de la médecine personnalisée. Les résultats pourront contribuer à déterminer la bonne utilisation de cette méthode et à étudier le lien de plus en plus fort entre science et médecine. Méthodes : Des entretiens semi-dirigés combinant l’emploi de courtes vignettes cliniques ont été effectués auprès de 22 néphrologues québécois (transplanteurs et référents) entre juin 2007 à juillet 2008. Le contenu des entretiens fut analysé qualitativement selon la méthode d’analyse de Miles et Huberman. Résultats : Les résultats démontrent une acceptation généralisée de cette approche. La connaissance du RIG pour chaque patient peut améliorer le traitement et la prise en charge post-greffe. Son efficacité serait supérieure à la méthode actuelle. Par contre, la possible exclusion de patients pose un important problème éthique. Cette nouvelle approche doit toutefois être validée scientifiquement et accorder une place au jugement clinique. Conclusions : La médecine personnalisée en transplantation devrait viser le meilleur intérêt du patient. Malgré l’utilisation de données scientifiques et quantifiables dans le calcul du RIG, le jugement clinique doit demeurer en place afin d’aider le médecin à prendre une décision fondée sur les données médicales, son expertise et sa connaissance du patient. Une réflexion éthique approfondie s’avère nécessaire quant à l’exclusion possible de patients et à la résolution de la tension entre l’équité et l’efficacité en transplantation rénale.
Resumo:
Dans une société où il est plutôt normal de passer beaucoup de temps assis, nous étudions, à partir de l’aménagement, l’intégration de l’activité physique de loisirs et de transport dans les activités et les lieux du quotidien. Cette intégration est relativement peu étudiée dans sa globalité car elle nécessite de prendre en considération les facteurs de l’environnement physique et social, les deux types d’activité physique, les différents lieux fréquentés quotidiennement et elle pose en ce sens de nombreux défis d’ordre méthodologique. Cette vue globale du phénomène s’impose car de plus en plus de recherches font état d’associations entre des dimensions spécifiques de l’aménagement et des comportements précis; occasionnellement, ces résultats se contredisent. Pour comprendre le phénomène, nous sommes partis du modèle écoenvironnemental et l’avons adapté pour mieux représenter la mobilité de la population. Nous avons conséquemment choisi une unité d’analyse comprenant le territoire résidentiel, le territoire du milieu de travail et le trajet entre les deux. Ainsi, en utilisant plusieurs sources de données, nous avons caractérisé des milieux comme étant contraignants ou facilitants pour l’activité physique et les personnes y résidant comme étant suffisamment actives ou pas. Nous avons ensuite fait ressortir les éléments importants des entrevues en fonction de cet appariement. Parmi les thèmes explorés en entrevue, nommons les caractéristiques de l’environnement physique qui ont de l’importance, l’impact de l’environnement social au travail et au domicile, la logique sous-jacente aux courses, etc. Les principaux résultats de cette recherche démontrent que les usagers du train de banlieue font suffisamment d’activité physique en dépit qu’ils résident en banlieue. En ce sens, notre échantillon est plus actif que la moyenne québécoise. Nous remarquons que l’influence de l’environnement est manifeste mais sous le principe des vases communicants, c'est-à-dire que le pôle résidentiel et le pôle des emplois ont tous deux des contributions qui s’avèrent très souvent complémentaires. L’influence de l’environnement social passe par le rôle signifiant des proches plutôt que par leur proximité géographique tandis que l’aménagement a une énorme contribution à rendre les parcours agréables et, de ce fait, donner une plus-value au temps requis pour les emprunter. La vocation des milieux, le type de marche et le sens qu’y voient les usagers doivent guider le design; il n’y a donc pas qu’une formule ou une seule prescription pour augmenter le potentiel piétonnier et/ou cyclable des milieux. Cela dit, les outils de caractérisation doivent être revus. En conclusion des pistes de développements futurs à cette recherche sont proposées.