922 resultados para Dynamique inter-hémisphérique
Resumo:
Réalisée en cotutelle avec l'Unité de Formation à la Recherche Lettres Arts et Sciences Humaines - Université Nice-Sophia Antipolis.
Resumo:
Le phénomène de Clignement Attentionnel (Attentional Blink, AB), fait référence à une diminution transitoire du rapport exact d’une deuxième cible (C2) si celle-ci est présentée trop tôt après une première cible (C1) lors d’une présentation visuelle sérielle rapide (rapid serial visual presentation, RSVP), et ce, quand les deux cibles doivent être rapportées. Cette étude a examiné l’existence possible d’asymétries hémisphèriques dans le traitement attentionnel ainsi que l’éventualité que la présentation de cibles à deux hémisphères différents puisse diminuer le AB chez des participants neurologiquement sains et l’abolir dans le cas d’un patient callosotomisé. Pour ce faire, nous avons employé un paradigme modifié du AB dans lequel les cibles pouvaient apparaître dans n’importe quelle de quatre RSVP, une dans chaque quadrant du champ visuel, pour permettre des essais dans lesquels les deux cibles puissent être présentées au même hémisphère et d’autres où chaque cible était présentée à un hémisphère différent. Bien que nous n’ayons trouvé aucune diminution de l’effet AB lors de présentation inter-hémisphérique, dans les deux populations à l’étude, le taux de bonnes réponses globales à la deuxième cible était plus élevé quand les cibles étaient présentées à des hémisphères différents. Nous avons également trouvé un avantage de l’hémisphère gauche chez le patient callosotomisé.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Nous étudions la recombinaison radiative des porteurs de charges photogénérés dans les puits quantiques InGaN/GaN étroits (2 nm). Nous caractérisons le comportement de la photoluminescence face aux différentes conditions expérimentales telles la température, l'énergie et la puissance de l'excitation et la tension électrique appliquée. Ces mesures montrent que l'émission provient d'états localisés. De plus, les champs électriques, présents nativement dans ces matériaux, n'ont pas une influence dominante sur la recombinaison des porteurs. Nous avons montré que le spectre d'émission se modifie significativement et subitement lorsque la puissance de l'excitation passe sous un certain seuil. L'émission possède donc deux ``phases'' dont nous avons déterminé le diagramme. La phase adoptée dépend à la fois de la puissance, de la température et de la tension électrique appliquée. Nous proposons que la phase à basse puissance soit associée à un état électriquement chargé dans le matériau. Ensuite, nous avons caractérisé la dynamique temporelle de notre échantillon. Le taux de répétition de l'excitation a une influence importante sur la dynamique mesurée. Nous concluons qu'elle ne suit pas une exponentielle étirée comme on le pensait précédemment. Elle est exponentielle à court temps et suit une loi de puissance à grand temps. Ces deux régimes sont lié à un seul et même mécanisme de recombinaison. Nous avons développé un modèle de recombinaison à trois niveaux afin d'expliquer le comportement temporel de la luminescence. Ce modèle suppose l'existence de centres de localisation où les porteurs peuvent se piéger, indépendamment ou non. L'électron peut donc se trouver sur un même centre que le trou ou sur n'importe quel autre centre. En supposant le transfert des porteurs entre centres par saut tunnel on détermine, en fonction de la distribution spatiale des centres, la dynamique de recombinaison. Ce modèle indique que la recombinaison dans les puits InGaN/GaN minces est liée à des agglomérats de centre de localisation.
Resumo:
La douleur est une expérience perceptive comportant de nombreuses dimensions. Ces dimensions de douleur sont inter-reliées et recrutent des réseaux neuronaux qui traitent les informations correspondantes. L’élucidation de l'architecture fonctionnelle qui supporte les différents aspects perceptifs de l'expérience est donc une étape fondamentale pour notre compréhension du rôle fonctionnel des différentes régions de la matrice cérébrale de la douleur dans les circuits corticaux qui sous tendent l'expérience subjective de la douleur. Parmi les diverses régions du cerveau impliquées dans le traitement de l'information nociceptive, le cortex somatosensoriel primaire et secondaire (S1 et S2) sont les principales régions généralement associées au traitement de l'aspect sensori-discriminatif de la douleur. Toutefois, l'organisation fonctionnelle dans ces régions somato-sensorielles n’est pas complètement claire et relativement peu d'études ont examiné directement l'intégration de l'information entre les régions somatiques sensorielles. Ainsi, plusieurs questions demeurent concernant la relation hiérarchique entre S1 et S2, ainsi que le rôle fonctionnel des connexions inter-hémisphériques des régions somatiques sensorielles homologues. De même, le traitement en série ou en parallèle au sein du système somatosensoriel constitue un autre élément de questionnement qui nécessite un examen plus approfondi. Le but de la présente étude était de tester un certain nombre d'hypothèses sur la causalité dans les interactions fonctionnelle entre S1 et S2, alors que les sujets recevaient des chocs électriques douloureux. Nous avons mis en place une méthode de modélisation de la connectivité, qui utilise une description de causalité de la dynamique du système, afin d'étudier les interactions entre les sites d'activation définie par un ensemble de données provenant d'une étude d'imagerie fonctionnelle. Notre paradigme est constitué de 3 session expérimentales en utilisant des chocs électriques à trois différents niveaux d’intensité, soit modérément douloureux (niveau 3), soit légèrement douloureux (niveau 2), soit complètement non douloureux (niveau 1). Par conséquent, notre paradigme nous a permis d'étudier comment l'intensité du stimulus est codé dans notre réseau d'intérêt, et comment la connectivité des différentes régions est modulée dans les conditions de stimulation différentes. Nos résultats sont en faveur du mode sériel de traitement de l’information somatosensorielle nociceptive avec un apport prédominant de la voie thalamocorticale vers S1 controlatérale au site de stimulation. Nos résultats impliquent que l'information se propage de S1 controlatéral à travers notre réseau d'intérêt composé des cortex S1 bilatéraux et S2. Notre analyse indique que la connexion S1→S2 est renforcée par la douleur, ce qui suggère que S2 est plus élevé dans la hiérarchie du traitement de la douleur que S1, conformément aux conclusions précédentes neurophysiologiques et de magnétoencéphalographie. Enfin, notre analyse fournit des preuves de l'entrée de l'information somatosensorielle dans l'hémisphère controlatéral au côté de stimulation, avec des connexions inter-hémisphériques responsable du transfert de l'information à l'hémisphère ipsilatéral.
Resumo:
Le recours à la stratégie du recentrage sur le cœur de métier (core business) par les entreprises fait apparaître, en discours comme en pratique, trois mouvements qui déstabilisent les ensembles bureaucratiques: la réorganisation de la grande firme en « centres de profits », la multiplication des relations inter-firmes et un changement d’ordre qualitatif dans les termes de l’échange. L’avènement et le maintien de ce que nous convenons d’appeler l’« entreprise réseau » demeurent à ce jour problématique : soit cette forme organisationnelle serait le résultat d’une adaptation unilatérale à son environnement; soit la dynamique sociale serait réglée par la confiance entre les acteurs. Notre démarche inductive et exploratoire d’un cas d’entreprise réseau québécoise veut contribuer au démontage de la notion, puis à la compréhension sociologique du phénomène. Nous constatons que cette forme d’entreprise ne peut être comprise que lorsque nous la mettons en perspective avec l’entreprise bureaucratique.
Resumo:
Un système, décrit avec un grand nombre d'éléments fortement interdépendants, est complexe, difficile à comprendre et à maintenir. Ainsi, une application orientée objet est souvent complexe, car elle contient des centaines de classes avec de nombreuses dépendances plus ou moins explicites. Une même application, utilisant le paradigme composant, contiendrait un plus petit nombre d'éléments, faiblement couplés entre eux et avec des interdépendances clairement définies. Ceci est dû au fait que le paradigme composant fournit une bonne représentation de haut niveau des systèmes complexes. Ainsi, ce paradigme peut être utilisé comme "espace de projection" des systèmes orientés objets. Une telle projection peut faciliter l'étape de compréhension d'un système, un pré-requis nécessaire avant toute activité de maintenance et/ou d'évolution. De plus, il est possible d'utiliser cette représentation, comme un modèle pour effectuer une restructuration complète d'une application orientée objets opérationnelle vers une application équivalente à base de composants tout aussi opérationnelle. Ainsi, La nouvelle application bénéficiant ainsi, de toutes les bonnes propriétés associées au paradigme composants. L'objectif de ma thèse est de proposer une méthode semi-automatique pour identifier une architecture à base de composants dans une application orientée objets. Cette architecture doit, non seulement aider à la compréhension de l'application originale, mais aussi simplifier la projection de cette dernière dans un modèle concret de composant. L'identification d'une architecture à base de composants est réalisée en trois grandes étapes: i) obtention des données nécessaires au processus d'identification. Elles correspondent aux dépendances entre les classes et sont obtenues avec une analyse dynamique de l'application cible. ii) identification des composants. Trois méthodes ont été explorées. La première utilise un treillis de Galois, la seconde deux méta-heuristiques et la dernière une méta-heuristique multi-objective. iii) identification de l'architecture à base de composants de l'application cible. Cela est fait en identifiant les interfaces requises et fournis pour chaque composant. Afin de valider ce processus d'identification, ainsi que les différents choix faits durant son développement, j'ai réalisé différentes études de cas. Enfin, je montre la faisabilité de la projection de l'architecture à base de composants identifiée vers un modèle concret de composants.
Resumo:
L’oxyde nitreux (N2O), un puissant gaz à effet de serre (GES) ayant plus de 300 fois le potentiel de réchauffement du dioxyde de carbone (CO2), est produit par des processus microbiens du cycle de l’azote (N). Bien que les eaux de surface continentales soient reconnues comme des sites actifs de transformations de l’azote, leur intégration dans les budgets globaux de N2O comporte de nombreuses incertitudes, dont l’absence des lacs dans ces modèles. Le biome boréal est caractérisé par une des plus grandes densités d’eaux douces au monde, pourtant aucune évaluation exhaustive des émissions aquatiques de N2O n’a à date été conduite dans cette région. Dans la présente étude, nous avons mesuré les concentrations de N2O à travers une large gamme de lacs, rivières, et étangs, dans quatre régions boréales du Québec (Canada), et nous avons calculé les flux eau-air résultants. Les flux nets fluctuent entre -23.1 et 177.9 μmol m-2 J-1, avec une grande variabilité inter-système, inter-régionale, et saisonnière. Étonnamment, 40% des systèmes échantillonnés agissaient en tant que puits de N2O durant l’été, et le réseau d’eaux de surfaces d’une des régions était un net consommateur de N2O. Les concentrations maximales de N2O ont été mesurées en hiver dû à l’accumulation de ce gaz sous la glace. Nous avons estimé que l’émission qui en résulte lors de la fonte des glaces représente 20% des émissions annuelles des eaux douces. Parmi les types d’eaux douces échantillonnées, les lacs sont les principaux responsables du flux aquatique net (jusqu’à 90%), et doivent donc être intégrés dans les budgets globaux de N2O. En se basant sur les données empiriques de la littérature, nous avons éstimé l’émission globale de N2O des eaux douces à 0.78 Tg N (N2O) an-1. Ce chiffre est influencé par les émissions des régions de hautes latitudes (tel que le biome boréal) dont les flux nets varient de positif à négatif constituant -9 à 27 % du total.
Resumo:
Les activités de la petite pêche et de la pêche côtière en Guyane ne sont pas encore assez bien organisées pour permettre un suivi rigoureux. On sait surtout qu'il s'agit d'une activité en baisse et le déclin amorcé au début des années 80 n'a fait que se confirmer dans les années récentes. Alors que le nombre de bateaux pratiquant de façon régulière la petite pêche avoisinait les 150 en 1985, en 1998, la flottille était réduite à 65 unités. Un chiffre fera mieux comprendre cette évolution: dans les années 80, il y a eu jusqu'à 12 tapouilles à Cayenne, alors qu'à la fin 1998, il en restait 4. On peut espérer qu'en 1999, 2 tapouilles supplémentaires et les 3 navires expérimentaux construits par la Région Guyane viendront s'ajouter à cette flottille et permettront d'améliorer le suivi des captures et de l'effort. La perspective du Marché d'Intérêt Régional abritant une criée stimulera le passage des captures sous la halle à marée et favorisera la tenue de statistiques de débarquements. L'activité de cette flottille est difficile à cerner, car seules les tapouilles dont les captures sont importantes en raison de la durée de leurs sorties peuvent donner lieu à des statistiques sinon précises du moins régulières dans le temps. Quelques doris et canots créoles sont également dans ce cas et ont permis des comparaisons inter flottilles. Pendant la période sèche, d'août à novembre, tous les bateaux sont actifs. Pendant la saison des pluies, de décembre à juillet, en raison de la houle, les tapouilles réduisent leurs sorties et la plupart des pirogues de mer et des canots créoles opèrent dans les estuaires.
Inter-Organisational Approaches to Regional Growth Management: A Case Study in South East Queensland