442 resultados para Paramètres atmosphériques
Resumo:
La version intégrale de ce mémoire [ou de cette thèse] est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU)
Resumo:
Nous y introduisons une nouvelle classe de distributions bivariées de type Marshall-Olkin, la distribution Erlang bivariée. La transformée de Laplace, les moments et les densités conditionnelles y sont obtenus. Les applications potentielles en assurance-vie et en finance sont prises en considération. Les estimateurs du maximum de vraisemblance des paramètres sont calculés par l'algorithme Espérance-Maximisation. Ensuite, notre projet de recherche est consacré à l'étude des processus de risque multivariés, qui peuvent être utiles dans l'étude des problèmes de la ruine des compagnies d'assurance avec des classes dépendantes. Nous appliquons les résultats de la théorie des processus de Markov déterministes par morceaux afin d'obtenir les martingales exponentielles, nécessaires pour établir des bornes supérieures calculables pour la probabilité de ruine, dont les expressions sont intraitables.
Resumo:
Les réseaux de nanotrous sont des structures plasmoniques ayant un énorme potentiel en tant que transducteurs pour la conception de biocapteurs. De telles structures sont prometteuses pour l’élaboration de biocapteurs capable d’effectuer du criblage à haut débit. L’intérêt de travailler avec des réseaux de nanotrous est dû à la simplicité d’excitation des polaritons de plasmons de surface en transmission directe, à la sensibilité et à la facilité de fabrication de ces senseurs. L’architecture de tels réseaux métalliques permet la conception de nanostructures ayant de multiples propriétés plasmoniques. L’intensité, la signature spectrale et la sensibilité du signal plasmonique sont grandement affectées par l’aspect physique du réseau de nanotrous. L’optimisation du signal plasmonique nécessite ainsi un ajustement du diamètre des trous, de la périodicité et de la composition métallique du réseau. L'agencement de l'ensemble de ces paramètres permet d'identifier une structure optimale possédant une périodicité de 1000 nm, un diamètre des nanotrous de 600-650 nm et un film métallique ayant une épaisseur de 125 nm d'or. Ce type de transducteur a une sensibilité en solution de 500-600 nm/RIU pour des bandes plasmoniques situées entre 600-700 nm. L'intérêt de travailler avec cette structure est la possibilité d'exciter les plasmons de polaritons de surface (SPPs) selon deux modes d'excitation : en transmission exaltée (EOT) ou en réflexion totale interne par résonance des plasmons de surface (SPR). Une comparaison entre les propriétés plasmoniques des senseurs selon les modes d'excitation permet de déterminer expérimentalement que le couplage de la lumière avec les ondes de SPP de Bloch (BW-SPPs) en transmission directe résulte en un champ électromagnétique davantage propagatif que localisé. D'un point de vue analytique, la biodétection de l'IgG en SPR est 6 fois plus sensible par rapport au mode EOT pour une même structure. Une étude du signal plasmonique associé au BW-SPP pour un certain mode de diffraction démontre que la distance de pénétration de ces structures en EOT est d'environ 140 nm. La limite de détection de l'IgG humain pour un réseau de nanotrous de 1000 nm de périodicité est d'environ 50 nM en EOT. Ce mémoire démontre la viabilité des réseaux de nanotrous pour effectuer de la biodétection par criblage à haut débit lors de prochaines recherches. L'investigation de l'effet de l'angle d'excitation en transmission exaltée par rapport au signal plasmonique associé au mode (1,0) d'un réseau de nanotrous de 820 nm d'or démontre que la sensibilité en solution n'est pas proportionnelle à la sensibilité en surface du senseur. En fait, une optimisation de l'angle d'incidence pour le mode (1,0) de diffraction des BW-SPP permet d'amplifier la sensibilité en surface du senseur jusqu'à 3-fois pour un angle de 13,3°. Ce mémoire démontre ainsi la nécessité d'optimiser l'angle d'excitation et les propriétés physiques du senseur afin de développer un transducteur de grande sensibilité basé sur l'excitation en transmission de réseaux de nanotrous.
Resumo:
Le diabète de type 2 (DT2) apparaît lorsque la sécrétion d’insuline par les cellules β des îlots du pancréas ne parvient plus à compenser la résistance à l’insuline des organes cibles. Parmi les médicaments disponibles pour traiter le DT2, deux classes agissent en améliorant la sensibilité à l’insuline : les biguanides (metformine) et les thiazolidinediones (pioglitazone et rosiglitazone). Des études suggèrent que ces médicaments protègent également la fonction des cellules β. Dans le but d’identifier des mécanismes par lesquels les médicaments insulinosensibilisateurs protègent les cellules β, nous avons étudié les effets aigus de la metformine et de la pioglitazone sur le métabolisme et la fonction des cellules INS 832/13, sécrétrices d’insuline et des îlots pancréatiques isolés de rats. Nous avons aussi validé in vivo avec des rats Wistar les principales observations obtenues en présence de pioglitazone grâce à des clamps glucidiques et par calorimétrie indirecte. Le traitement aigu des cellules β avec de la pioglitazone ou de la metformine inhibe la sécrétion d’insuline induite par le glucose en diminuant la sensibilité des cellules au glucose (inhibition en présence de concentrations intermédiaires de glucose seulement). Dans les mêmes conditions, les traitements inhibent aussi plusieurs paramètres du métabolisme mitochondrial des nutriments et, pour la pioglitazone, du métabolisme des lipides. Les composés affectent le métabolisme en suivant un patron d’inhibition similaire à celui observé pour la sécrétion d’insuline, que nous avons nommé « décélération métabolique ». La capacité de la pioglitazone à inhiber la sécrétion d’insuline et à ralentir le métabolisme mitochondrial de façon aigüe se confirme in vivo. En conclusion, nous avons identifié la décélération métabolique de la cellule β comme nouveau mode d’action pour les médicaments insulinosensibilisateurs. La décélération métabolique causée par les agents insulinosensibilisateurs les plus utilisés semble provenir d’une inhibition du métabolisme mitochondrial et pourrait être impliquée dans les bienfaits de ceux-ci dans un contexte de stress métabolique. Le fait que les deux agents insulinosensibilisateurs étudiés agissent à la fois sur la sensibilité à l’insuline et sur la sécrétion d’insuline, les deux composantes majeures du DT2, pourrait expliquer pourquoi ils sont parmi les agents antidiabétiques les plus efficaces. La décélération métabolique est une approche thérapeutique à considérer pour le traitement du DT2 et d’autres maladies métaboliques.
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.
Resumo:
Il est bien connu des professionnels de la vision que l’ajustement des verres progressifs sur un patient presbyte peut induire de l’inconfort et des difficultés posturales (Timmis, Johnson, Elliott, & Buckley, 2010). Ces plaintes sont directement associées à l’information visuelle perçue à travers les verres progressifs. Le principal objectif de cette thèse est d’identifier quels sont les paramètres d’un stimulus visuel (p.ex. fréquence temporelle ou vélocité) à l’origine de la perturbation posturale et de l’inconfort. Les distorsions dynamiques perçues à travers des verres progressifs s’apparentent aux mouvements d’un bateau qui roule de droite à gauche ou qui tangue d’avant en arrière. Ce type de stimulation visuelle a été reproduit dans une voute d’immersion en réalité virtuelle avec un sol à texture de damier noir et blanc qui oscillait périodiquement de droite à gauche et d’avant en arrière à différentes fréquences et amplitudes. Les études qui portent sur ce sujet montrent que la réponse posturale induite visuellement augmente avec la vélocité de stimulation et diminue lorsque la fréquence augmente. Cette information peut paraitre contradictoire, car ces deux variables sont liées entre elles par l’amplitude et covarient dans le même sens. Le premier objectif de cette thèse était de déterminer les causes possibles de cette contradiction. En faisant varier la fréquence temporelle de stimulation visuelle, on retrouve deux domaines de réponse posturale. Le premier domaine correspond aux fréquences inférieures à 0,12 Hz. Dans ce domaine, la réponse posturale est visuodépendante et augmente avec la vélocité du stimulus. Le second domaine postural correspond aux fréquences supérieures à 0,25 Hz. Dans ce domaine, la réponse posturale sature et diminue avec l’augmentation de la fréquence. Cette saturation de la réponse posturale semble causée par des limitations biomécaniques et fréquentielles du système postural. D’autres études ont envisagé d’étudier l’inconfort subjectif induit par des stimuli visuels périodiques. Au sein de la communauté scientifique, deux théories principales se confrontent. La théorie sensorielle repose sur les conflits sensoriels induit par le stimulus visuel tandis que la théorie posturale suggère que l’inconfort est la conséquence de l’instabilité posturale. Nos résultats révèlent que l’inconfort subjectif induit par une stimulation visuelle dynamique dépend de la vélocité du stimulus plutôt que de sa fréquence. L’inconfort peut être prédit par l’instabilité naturelle des individus en l’absence de stimulus visuel comme le suggère la théorie posturale. Par contre, l’instabilité posturale induite par un stimulus visuel dynamique ne semble pas être une condition nécessaire et suffisante pour entrainer de l’inconfort. Ni la théorie sensorielle ni la théorie posturale ne permettent à elles seules d’expliquer tous les mécanismes à l’origine de l’inconfort subjectif. Ces deux théories sont complémentaires, l’une expliquant que l’instabilité intrinsèque est un élément prédictif de l’inconfort et l’autre que l’inconfort induit par un stimulus visuel dynamique résulte d’un conflit entre les entrées sensorielles et les représentations acquises par l’individu.
Resumo:
La problématique du consentement éclairé en santé mentale demeure au coeur des préoccupations des cliniciens, médecins spécialistes et médecins experts. Le travail auprès des cérébrolésés ou des patients souffrant de troubles mentaux graves, tout comme les questions qui me sont adressées depuis près de 20 ans par les médecins spécialistes, juristes ou résidents en psychiatrie, m’ont amenée à y réfléchir davantage. J’ajouterais que le constat personnel d’une compréhension des comportements, attitudes, motivations et jugements des patients vulnérables qui s’est modifiée au fil des ans, et le constat de l’importance de la notion du consentement vs le flou de sa définition et la fragilité des paramètres établis pour l’évaluer et la définir ont ravivé cette réflexion. La présente étude n’a aucunement pour but d’élaborer quelque règle de conduite que ce soit, ni de définir ce que devrait être le consentement éclairé en psychiatrie, mais plutôt d’explorer les dilemmes éthiques et les questionnements cliniques auxquels sont confrontés les médecins psychiatres afin de raviver une réflexion éthique qui semble s’estomper au profit de procédures juridiques et administratives.
Resumo:
Dans cette thèse nous démontrons que la paysannerie colombienne s'est constituée telle quelle, à partir de: 1) la construction et de la mise en œuvre des pratiques économiques et agro-productives compatibles avec l'environnement; 2) des habitus et des coutumes qu’elle a inventé et a récré à partir de l'interaction quotidienne avec sa famille et sa communauté et 3) de la lutte politique qu'elle a entrepris tant pour exiger à l'État sa reconnaissance sociale, territoriale et juridique, comme pour arrêter l'avance territoriale des entrepreneurs agraires. Par conséquent, la paysannerie ne peut pas être conçue comme une catégorie conceptuelle construite, a priori , définie dehors de l’histoire, comme un groupe social homogène, et avec caractéristiques égales à niveau global. La paysannerie colombienne, dans sa lutte politique pour la défense du territoire, a affronté à un entrepreneur agraire qui, orienté par une logique unidirectionnelle, élitiste et exclusive de « progrès » et du « développement », a nié à la paysannerie ses droits territoriaux, économiques, sociaux et culturels. De plus, en faisant un usage patrimonial de l’État, il l`a poursuivi, stigmatisé et expulsé de la communauté politique. La paysannerie a affronté un État et un entrepreneur agraire que, depuis l'État d’Exception et de la déclaration de la paysannerie comme “obstacle du développement” et “ennemi de la nation”, ils ont revendiqué le droit, inhérent des souverainetés classiques, de définir qui peut vivre et qui doit mourir. La dynamique historique et successive d'expropriation territoriale de la paysannerie et la mise en œuvre de ce qui est dénommé, dans cette thèse, nécro-politique agraire, ont été cachées dans le concept de “colonisation spontanée” et dans un discours qui présente au paysan comme « héros», «entrepreneur» et «constructeur de patrie», quand il a été obligé par raisons d'ordre économique, juridique et militaire, à entreprendre de nouveaux processus de colonisation forcée. La réponse de la paysannerie à cette dynamique a inclus des résistances de caractère intrasystémique et contre-systémique. Elle n'a jamais décliné à sa lutte par le droit à la terre – qui fait partie de son territoire et considère comme inaliénable - et à son droit d'avoir des droits. En étudiant le cas de la paysannerie de l'Amazonie colombienne, dans cette recherche, nous démontrons que la paysannerie a eu une grande capacité d'affronter les adversités économiques et politiques, et de s’inventer et de se refaire eux-mêmes dans nouveaux espaces. La paysannerie est un sujet social qui a refusé de façon entêtée et permanente, avec ses attitudes et ses actions, à obéir et à être domestiquée par les paramètres de la modernité. Elle s'est refusée à modifier ses dispositions internes et ses manières de voir le monde, son habitus et s’est reconstituée chaque jour dans une modernité qui menace sa subjectivité et son autonomie. La paysannerie formule des projets agro-écologiques, socioéconomiques et d'insertion politique dans un modèle du développement agraire qui insiste de le nier comme sujet avec des droits.
Resumo:
En simulant l’écoulement du sang dans un réseau de capillaires (en l’absence de contrôle biologique), il est possible d’observer la présence d’oscillations de certains paramètres comme le débit volumique, la pression et l’hématocrite (volume des globules rouges par rapport au volume du sang total). Ce comportement semble être en concordance avec certaines expériences in vivo. Malgré cet accord, il faut se demander si les fluctuations observées lors des simulations de l’écoulement sont physiques, numériques ou un artefact de modèles irréalistes puisqu’il existe toujours des différences entre des modélisations et des expériences in vivo. Pour répondre à cette question de façon satisfaisante, nous étudierons et analyserons l’écoulement du sang ainsi que la nature des oscillations observées dans quelques réseaux de capillaires utilisant un modèle convectif et un modèle moyenné pour décrire les équations de conservation de masse des globules rouges. Ces modèles tiennent compte de deux effets rhéologiques importants : l’effet Fåhraeus-Lindqvist décrivant la viscosité apparente dans un vaisseau et l’effet de séparation de phase schématisant la distribution des globules rouges aux points de bifurcation. Pour décrire ce dernier effet, deux lois de séparation de phase (les lois de Pries et al. et de Fenton et al.) seront étudiées et comparées. Dans ce mémoire, nous présenterons une description du problème physiologique (rhéologie du sang). Nous montrerons les modèles mathématiques employés (moyenné et convectif) ainsi que les lois de séparation de phase (Pries et al. et Fenton et al.) accompagnés d’une analyse des schémas numériques implémentés. Pour le modèle moyenné, nous employons le schéma numérique explicite traditionnel d’Euler ainsi qu’un nouveau schéma implicite qui permet de résoudre ce problème d’une manière efficace. Ceci est fait en utilisant une méthode de Newton- Krylov avec gradient conjugué préconditionné et la méthode de GMRES pour les itérations intérieures ainsi qu’une méthode quasi-Newton (la méthode de Broyden). Cette méthode inclura le schéma implicite d’Euler et la méthode des trapèzes. Pour le schéma convectif, la méthode explicite de Kiani et al. sera implémentée ainsi qu’une nouvelle approche implicite. La stabilité des deux modèles sera également explorée. À l’aide de trois différentes topologies, nous comparerons les résultats de ces deux modèles mathématiques ainsi que les lois de séparation de phase afin de déterminer dans quelle mesure les oscillations observées peuvent être attribuables au choix des modèles mathématiques ou au choix des méthodes numériques.
Resumo:
Cette recherche vise à décrire comment a évolué l’évaluation de la compétence à écrire dans les épreuves uniques d’écriture de 5e secondaire, en portant spécifiquement le regard sur la composante linguistique de cette compétence. Une recherche documentaire a permis de recueillir des épreuves et autres documents les concernant pour une période allant de 1971 à 2012. Bien que notre étude porte en particulier sur les épreuves uniques d’écriture, implantées en 1986, nous avons pu remonter plus loin dans le temps afin de brosser un tableau le plus large possible de l’évaluation certificative de l’écriture en 5e secondaire. Plusieurs aspects sont analysés : le contexte des épreuves, les tâches qu’elles contiennent, les paramètres encadrant leur correction, ainsi que les seuils de réussite relatifs à la langue, les épreuves entières, la compétence à écrire et la matière français, langue d’enseignement. Nous avons également pu observer, à l’échelle provinciale, l’évolution des résultats des élèves aux épreuves uniques d’écriture. À l’aide de divers concepts théoriques reliés à l’évaluation de la compétence écrire et sa composante linguistique, un cadre méthodologique a été développé pour permettre l’analyse des épreuves d’écriture. Celle-ci révèle notamment que la nature des tâches et leurs paramètres sont restés assez constants dans le temps, particulièrement depuis 1986. Le nombre d’erreurs linguistiques permises a augmenté, alors que les résultats des élèves sont restés stables. De plus, le regard historique de cette étude montre comment le ministère de l’Éducation accorde à notre époque une grande importance à l’écriture et à la correction de l’orthographe.
Resumo:
Doctorat réalisé en cotutelle avec l'Université Paris Sorbonne. La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Les réseaux sociaux accueillent chaque jour des millions d’utilisateurs. Les usagers de ces réseaux, qu’ils soient des particuliers ou des entreprises, sont directement affectés par leur fulgurante expansion. Certains ont même développé une certaine dépendance à l’usage des réseaux sociaux allant même jusqu’à transformer leurs habitudes de vie de tous les jours. Cependant, cet engouement pour les réseaux sociaux n’est pas sans danger. Il va de soi que leur expansion favorise et sert également l’expansion des attaques en ligne. Les réseaux sociaux constituent une opportunité idéale pour les délinquants et les fraudeurs de porter préjudice aux usagers. Ils ont accès à des millions de victimes potentielles. Les menaces qui proviennent des amis et auxquelles font face les utilisateurs de réseaux sociaux sont nombreuses. On peut citer, à titre d’exemple, la cyberintimidation, les fraudes, le harcèlement criminel, la menace, l’incitation au suicide, la diffusion de contenu compromettant, la promotion de la haine, l’atteinte morale et physique, etc. Il y a aussi un « ami très proche » qui peut être très menaçant sur les réseaux sociaux : soi-même. Lorsqu’un utilisateur divulgue trop d’informations sur lui-même, il contribue sans le vouloir à attirer vers lui les arnaqueurs qui sont à la recherche continue d’une proie. On présente dans cette thèse une nouvelle approche pour protéger les utilisateurs de Facebook. On a créé une plateforme basée sur deux systèmes : Protect_U et Protect_UFF. Le premier système permet de protéger les utilisateurs d’eux-mêmes en analysant le contenu de leurs profils et en leur proposant un ensemble de recommandations dans le but de leur faire réduire la publication d’informations privées. Le second système vise à protéger les utilisateurs de leurs « amis » dont les profils présentent des symptômes alarmants (psychopathes, fraudeurs, criminels, etc.) en tenant compte essentiellement de trois paramètres principaux : le narcissisme, le manque d’émotions et le comportement agressif.
Resumo:
Cette thèse porte sur la capacité à détecter des compagnons de faible intensité en présence de bruit de tavelures dans le contexte de l’imagerie à haute gamme dynamique pour l’astronomie spatiale. On s’intéressera plus particulièrement à l’imagerie spectrale différentielle (ISD) obtenue en utilisant un étalon Fabry-Pérot comme filtre accordable. Les performances d’un tel filtre accordable sont présentées dans le cadre du Tunable Filter Imager (TFI), instrument conçu pour le télescope spatial James Webb (JWST). La capacité de l’étalon à supprimer les tavelures avec ISD est démontrée expérimentalement grâce à un prototype de l’étalon installé sur un banc de laboratoire. Les améliorations de contraste varient en fonction de la séparation, s’étendant d’un facteur 10 pour les séparations supérieures à 11 lambda/D jusqu’à un facteur 60 à 5 lambda/D. Ces résultats sont cohérents avec une étude théorique qui utilise un modèle basé sur la propagation de Fresnel pour montrer que les performances de suppression de tavelures sont limitées par le banc optique et non pas par l’étalon. De plus, il est démontré qu’un filtre accordable est une option séduisante pour l’imagerie à haute gamme dynamique combinée à la technique ISD. Une seconde étude basée sur la propagation de Fresnel de l’instrument TFI et du télescope, a permis de définir les performances de la technique ISD combinée avec un étalon pour l’astronomie spatiale. Les résultats prévoient une amélioration de contraste de l’ordre de 7 jusqu’à 100, selon la configuration de l’instrument. Une comparaison entre ISD et la soustraction par rotation a également été simulée. Enfin, la dernière partie de ce chapitre porte sur les performances de la technique ISD dans le cadre de l’instrument Near-Infrared Imager and Slitless Spectrograph (NIRISS), conçu pour remplacer TFI comme module scientifique à bord du Fine Guidance Sensor du JWST. Cent quatre objets localisés vers la région centrale de la nébuleuse d’Orion ont été caractérisés grâce à un spectrographe multi-objet, de basse résolution et multi-bande (0.85-2.4 um). Cette étude a relevé 7 nouvelles naines brunes et 4 nouveaux candidats de masse planétaire. Ces objets sont utiles pour déterminer la fonction de masse initiale sous-stellaire et pour évaluer les modèles atmosphériques et évolutifs futurs des jeunes objets stellaires et sous-stellaires. Combinant les magnitudes en bande H mesurées et les valeurs d’extinction, les objets classifiés sont utilisés pour créer un diagramme de Hertzsprung-Russell de cet amas stellaire. En accord avec des études antérieures, nos résultats montrent qu’il existe une seule époque de formation d’étoiles qui a débuté il y a environ 1 million d’années. La fonction de masse initiale qui en dérive est en accord avec des études antérieures portant sur d’autres amas jeunes et sur le disque galactique.
Resumo:
Le travail présenté dans cette thèse porte sur le rôle du cortex prémoteur dorsal (PMd) au sujet de la prise de décision (sélection d’une action parmis nombreux choix) et l'orientation visuelle des mouvements du bras. L’ouvrage décrit des expériences électrophysiologiques chez le singe éveillé (Macaca mulatta) permettant d’adresser une fraction importante des prédictions proposées par l'hypothèse des affordances concurrentes (Cisek, 2006; Cisek, 2007a). Cette hypothèse suggère que le choix de toute action est l’issue d'une concurrence entre les représentations internes des exigences et des atouts de chacune des options présentées (affordances; Gibson, 1979). Un intérêt particulier est donné au traitement de l'information spatiale et la valeur des options (expected value, EV) dans la prise de décisions. La première étude (article 1) explore la façon dont PMd reflète ces deux paramètres dans la période délai ainsi que de leur intéraction. La deuxième étude (article 2) explore le mécanisme de décision de façon plus détaillée et étend les résultats au cortex prémoteur ventral (PMv). Cette étude porte également sur la représentation spatiale et l’EV dans une perspective d'apprentissage. Dans un environnement nouveau les paramètres spatiaux des actions semblent être présents en tout temps dans PMd, malgré que la représentation de l’EV apparaît uniquement lorsque les animaux commencent à prendre des décisions éclairées au sujet de la valeur des options disponibles. La troisième étude (article 3) explore la façon dont PMd est impliqué aux “changements d'esprit“ dans un procès de décision. Cette étude décrit comment la sélection d’une action est mise à jour à la suite d'une instruction de mouvement (GO signal). I II Les résultats principaux des études sont reproduits par un modèle computationnel (Cisek, 2006) suggérant que la prise de décision entre plusieurs actions alternatives peux se faire par voie d’un mécanisme de concurrence (biased competition) qui aurait lieu dans la même région qui spécifie les actions.
Resumo:
Les paramètres de l’exil, comme déplacement, se transforment aujourd’hui dans un contexte de mondialisation, interrogeant le rôle des nations alors que les sociétés impliquent de plus en plus de mobilité et de diversité culturelle. Cette condition d’exilé aux repères mouvants, inscrite dans une temporalité discontinue et dont l’expérience est toujours douloureuse, a donné lieu à une littérature prolifique dans le domaine des études littéraires au cours du 20e siècle. En quoi le 21e propose-t-il un regard différent sur cette condition ? Dans ce mémoire nous analyserons quatre œuvres contemporaines qui nous proposent différentes variations des transformations identitaires profondes qui caractérisent la condition d’exilé. Deux des grands axes autour desquels s’est articulée la condition d’exilé ont été développés par Edward Said, qui propose une posture critique et politique, et Julia Kristeva, qui présente l’exil comme une condition plutôt psychique. Suivant cette perspective analytique, l’autobiographie de Mourid Barghouti fait écho à la compréhension de l’exil telle que l’entend Said, en pleine autonomie instauratrice. Puis, le roman de Rawi Hage dans une expérience plus psychique de l’exil, plus traumatique et plus violente du vécu avant l’exil, suggère que le rapport avec le milieu environnant a un impact sur l’expérience de l’exil, alors que dans ce cas il reste dysfonctionnel, et qu’un rapport pathologique à l’existence peut ensuite se manifester. Ensuite, le roman d’Abla Farhoud expose la possibilité d’un dépassement de cette expérience pathologique de l’exil par la distance, celle de l’âge et de la prise de parole. Finalement, dans la pièce Incendies de Mouawad, l’expérience psychique de l’exil est dépassée à la fois par une traduction de l’indicible de la violence, par un retour sur les traumas précédant l’exil, et par un travail collectif – comme autres formes de distances. Cette dernière œuvre est donc porteuse d’une compréhension de l’exil impliquant une dimension psychique, tout en devenant critique et politique, telle que le révèlent les écrits de Jacques Rancière. À la lumière de ces analyses, la condition d’exilé réclame d’urgence un retour sur les traumas précédents, le trauma qu’est l’exil, afin qu’une autonomie, une créativité et un engagement s’en dégagent, dans une société, dans un monde plus grand que soi. Pour les trois derniers auteurs, c’est la société québécoise qui révèle à la fois une compréhension des problématiques majeures de la condition d’exilé et une ouverture face à celles-ci, en ce début de 21e siècle.