103 resultados para Armington Assumption
Resumo:
Dans les recherches québécoises sur l’insertion en emploi des jeunes et dans les considérations de la population en général, il est bien ancré que le fait de décrocher du secondaire sans avoir obtenu de diplôme mène éventuellement et inévitablement à des difficultés d’insertion dans le marché du travail. Toutefois, lorsque l’on entreprend de vérifier l’origine de cette considération, on ne trouve que très peu de réponses, puisque les enquêtes sur l’insertion des jeunes au Québec et au Canada ont presque toujours ignoré les jeunes sans diplômes et les recherches traitant du sujet citent souvent des sources non probantes. Dans ce mémoire, nous avons utilisé une enquête récente qui n’est pas restreinte aux seuls diplômés pour étudier l’insertion des jeunes, en faisant l’hypothèse que les jeunes décrocheurs du secondaire du Québec et du reste du Canada n’ont pas significativement plus de chances de connaître des insertions en emploi difficiles que les jeunes n’ayant que ce niveau de diplôme à leur actif. Nos résultats ne nous permettent pas d’affirmer que les décrocheurs ne connaissent pas plus de problèmes d’insertion que les diplômés du secondaire, mais ils montrent tout de même que d’autres variables sont bien plus déterminantes. L’intérêt de ce mémoire ne s’arrête pas à la comparaison statistique entre les deux groupes de jeunes à l’étude, il se veut être une réflexion théorique sur la notion d’insertion, sur les raisons qui expliquent son caractère restrictif, et sur les paradigmes qui inspirent ce champ de recherche.
Resumo:
Cette étude aborde le thème de l’utilisation des modèles de mélange de lois pour analyser des données de comportements et d’habiletés cognitives mesurées à plusieurs moments au cours du développement des enfants. L’estimation des mélanges de lois multinormales en utilisant l’algorithme EM est expliquée en détail. Cet algorithme simplifie beaucoup les calculs, car il permet d’estimer les paramètres de chaque groupe séparément, permettant ainsi de modéliser plus facilement la covariance des observations à travers le temps. Ce dernier point est souvent mis de côté dans les analyses de mélanges. Cette étude porte sur les conséquences d’une mauvaise spécification de la covariance sur l’estimation du nombre de groupes formant un mélange. La conséquence principale est la surestimation du nombre de groupes, c’est-à-dire qu’on estime des groupes qui n’existent pas. En particulier, l’hypothèse d’indépendance des observations à travers le temps lorsque ces dernières étaient corrélées résultait en l’estimation de plusieurs groupes qui n’existaient pas. Cette surestimation du nombre de groupes entraîne aussi une surparamétrisation, c’est-à-dire qu’on utilise plus de paramètres qu’il n’est nécessaire pour modéliser les données. Finalement, des modèles de mélanges ont été estimés sur des données de comportements et d’habiletés cognitives. Nous avons estimé les mélanges en supposant d’abord une structure de covariance puis l’indépendance. On se rend compte que dans la plupart des cas l’ajout d’une structure de covariance a pour conséquence d’estimer moins de groupes et les résultats sont plus simples et plus clairs à interpréter.
Resumo:
Scénarios d’aveuglement dans la littérature d’Orhan Pamuk, d’Ernesto Sábato, et de José Saramago analyse trois œuvres importantes de trois auteurs contemporains : Mon nom est Rouge d’Orhan Pamuk ; « Rapport sur les aveugles » du roman Héros et tombes d’Ernesto Sábato ; et L’aveuglement de José Saramago. Malgré leurs différences, ces romans ont des points communs évidents, synthétisés dans la figure de l’aveuglement. Cette figure signale l’avènement, dans les textes, d’un régime de connaissance alternatif, centré moins sur le primat de la raison et du visuel que sur une nouvelle capacité cognitive, basée sur une logique spéciale du destin. L’aveuglement s’ouvre également sur une nouvelle compréhension de l’histoire, grâce à une capacité du récit de fiction qui passe par le point de fuite de la cécité. Pour Pamuk, l’aveuglement est le couronnement paradoxal d’une vision du monde, gravement mise en crise à la fin du XVIe siècle par le perspectivisme et le réalisme de la Renaissance, la voie d’entrée vers un monde imaginal qui n’est plus accessible à l’imaginaire occidental. Pour Sábato, il représente la variante renversée d’une quête de l’absolu qui passe par les antres de l’inceste, de l’enfer et du crime, tandis que le monde décrit par Saramago est un monde qui sombre sur la pente de la déchéance, en suivant une logique implacable. Il est l’équivalent de plusieurs formes de cécité qui menacent le monde contemporain, comme le fondamentalisme religieux, l’homogénéité préconisée par la société de masse, l’exclusion raciale, l’oppression idéologique. La thèse se divise en trois parties, La violente beauté du monde, Un mythe hérétique de la caverne et Une épidémie à cause inconnue, chacune d’entre elles analysant l’œuvre d’un auteur, mais établissant également des liens avec les autres chapitres. L’approche adoptée est interdisciplinaire, un croisement entre études littéraires, philosophie et histoire de l’art. Dans leur quête de nouveaux concepts et de nouvelles formes de pensée qui s’écartent du modèle rationnel dominant de la modernité, les trois auteurs partent de la présupposition que regarder les choses n’est pas du tout l’équivalent de voir les choses. Ils tentent d’articuler une logique du voir qui ressemble plutôt à la vision et à la clairvoyance qu’à la conformité logique. La figure de l’aveuglement sert de tremplin vers le monde imaginal (Pamuk), la pensée magique (Sábato) et la vision dystopique (Saramago) – des espaces ontologiquement différents où les auteurs mènent leurs attaques contre la rationnalité à tout prix. C’est précisément ces espaces que nous avons choisi d’explorer dans les trois romans. Nous soutenons également que ces trois textes proposent un nouveau régime de « connaissance » qui met en question les règles de pensée héritées de la Renaissance et surtout des Lumières, qui constituent un discours dominant dans la culture visuelle et philosophique moderne.
Resumo:
Film abstrait peint à la main sur de la pellicule recyclée, The Dante Quartet de Stan Brakhage est une adaptation personnelle de La divine comédie de Dante. Agissant comme un palimpseste où chaque couche révèle des éléments caractéristiques de l’oeuvre du cinéaste ainsi que l’influence de certains poètes et artistes, The Dante Quartet reprend certaines caractéristiques de l’ekphrasis. Dans ce mémoire, je travaille avec l’hypothèse heuristique que The Dante Quartet est une ekphrasis, et plus précisément une ekphrasis inversée. Ce mémoire s’intéresse à ce qui reste du pré-texte après son passage d’un média à un autre. Compte tenu du laps temporel qui sépare ces deux œuvres, il est aussi question d’influences contemporaines au travail de Brakhage. Le cinéaste basant son travail sur les phénomènes de vision (et plus particulièrement sur les visions hypnagogiques dans le cas qui m’occupe), le point sera fait sur la pensée de Brakhage à ce sujet, pensée qu’il expose dans son livre-manifeste Metaphors on Vision.
Resumo:
Le sujet prend appui sur une hypothèse : à l’origine, la musique est un phénomène culturel et biologique, social (et donc pas privé) et communautaire (et donc pas individuel). Les travaux de plusieurs théoriciens évolutionnistes du langage et/ou de la musique étayent l’hypothèse selon laquelle l’objet de la musique dépasse l’opposition nature-culture. Quelle est alors l’influence de ces caractéristiques sur l’apparition de la musicalité ou d’une faculté de musique ? Pour avancer dans notre réflexion, nous mesurons la contribution des recherches sur les amusies quant à la question des origines de la musique. Par la suite, nous étudions le rapport entre l’intentionnalité et l’évolution de la musique. Nous nous concentrons sur la nature sociale du phénomène musical, puis proposons l'intégration de la caractérisation biologique et sociale de la musique dans une conception institutionnelle et communautaire. Ainsi fondée philosophiquement, notre hypothèse de départ devient le véhicule du dépassement disciplinaire convoité. Enfin, certaines options proposées par différents auteurs décrivant la contribution de la musique au développement de réseaux neuronaux à la propriété miroir sont évoquées. Et nous tentons de répondre à cette question, inévitable : la musique peut-elle, étant donné son caractère irréductiblement culturel, social et communautaire, entretenir des connexions neuronales? Nous examinons notamment à cette fin les implications de la théorie du chaos et des résultats des simulations informatiques multi-agents.
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
La plupart des travaux portant sur l’usage du français en milieu de travail tendent à adopter une perspective métrologique qui vise à cerner les déterminants de l’utilisation du français en milieu de travail. Dans ce mémoire, nous cherchons à changer d’optique en envisageant non pas d’expliquer les déterminants de l’usage principal du français en milieu de travail, mais à connaitre les principaux contextes auxquels les personnes se réfèrent pour déclarer le français comme langue principale de travail. Nous faisons en effet l’hypothèse que le fait de déclarer le français comme langue principale de travail est le résultat d’une synthèse de pratiques linguistiques contextuelles distinctes. Pour répondre à cet objectif de recherche, nous mobilisons les données d’une enquête de l’Office québécois de la langue française réalisée en 2007. Au sein de l’ensemble des contextes de travail pris en compte dans cette enquête, nous avons choisi cinq contextes : la réunion de travail, la lecture de documents produits par l’entreprise, le fait de communiquer avec l’extérieur, le fait de communiquer avec le ou les supérieurs immédiats et l’utilisation des technologies de l’information. Ainsi, nous nous sommes limités d’abord à l’étude d’un certain nombre de contextes qui touchent presqu’à l’ensemble des travailleurs particulièrement ceux qui ont à communiquer avec des supérieurs, à lire des documents produits par leur entreprise, à participer régulièrement à des réunions de travail, puis nous abordons des contextes plus spécifiques et qui touchent à un nombre plus faible de travailleurs tels : ceux qui ont à utiliser des logiciels et enfin à communiquer avec l’extérieur. Notre analyse révèle que, au-delà des caractéristiques individuelles et du contexte général du milieu de travail, ces usages contextuels des langues en milieu de travail prédisent mieux la déclaration de la langue de travail des travailleurs. Quand il s’agit de déclarer la langue principale de travail, les travailleurs semblent principalement faire référence à la langue qu’ils utilisent dans les réunions de travail, dans la langue de lecture des documents produits par l’entreprise, dans les communications avec les supérieurs immédiats ainsi qu’aux versions linguistiques des logiciels utilisés et des communications avec des clients et fournisseurs de l’extérieur du Québec.
Resumo:
Ce mémoire propose de faire l’analyse épistémologique du pouvoir créateur de la sélection naturelle. L’objectif sera de déterminer en quelle mesure il est légitime ou non de lui attribuer un tel pouvoir. Pour ce faire, il sera question de savoir si l’explication sélectionniste peut répondre à la question de l’origine des formes structurelles du vivant. Au premier chapitre, nous verrons le raisonnement qui mena Darwin à accorder un pouvoir créateur à la sélection naturelle. Nous comprendrons alors qu’un cadre exclusivement darwinien n’est peut-être pas à même de répondre au problème de la nouveauté évolutionnaire. Au deuxième chapitre, nous verrons dans une perspective darwinienne qu’il est possible de conserver l’essence de la théorie darwinienne et d’accorder à la sélection naturelle un pouvoir créateur, bien que deux des piliers darwiniens fondamentaux doivent être remis en question. Au troisième chapitre, nous verrons dans une perspective postdarwinienne que le pouvoir cumulatif de la sélection naturelle n’est peut-être pas à même d’expliquer l’adaptation sur le plan individuel, ce qui remet lourdement en question le pouvoir créateur de la sélection naturelle. Nous comprendrons alors que le débat, entre partisans d’une vision positive et partisans d’une vision négative de la sélection naturelle, dépend peut-être d’un présupposé métaphysique particulier.
Resumo:
We provide a brief survey of some literature on intertemporal social choice theory in a multi-profile setting. As is well-known, Arrow’s impossibility result hinges on the assumption that the population is finite. For infinite populations, there exist nondictatorial social welfare functions satisfying Arrow’s axioms and they can be described by their corresponding collections of decisive coalitions. We review contributions that explore whether this possibility in the infinite-population context allows for a richer class of social welfare functions in an intergenerational model. Different notions of stationarity formulated for individual and for social preferences are examined. Journal of Economic Literature Classification No.: D71.
Resumo:
Les dirigeants-propriétaires des petites et moyennes entreprises (PME) sont de plus en plus intéressés par la gestion des ressources humaines (GRH); certains y voient un avantage concurrentiel face à la pénurie de main-d’œuvre actuelle. Considérant que la compatibilité entre les caractéristiques des travailleurs et celles de l’organisation peut générer des résultats positifs (Kristof-Brown et Guay, 2011), notre étude s’intéresse aux pratiques de GRH associées aux valeurs au travail de la génération Y ainsi que leur effet sur la capacité des PME à attirer et retenir cette cohorte. Cette étude qualitative s’est réalisée grâce à des données primaires colligées à la suite d’entrevues avec des dirigeants de quatre PME du secteur de la construction et seize employés appartenant à la génération Y œuvrant au sein de ces entreprises. Par nos résultats, nous avons relevé que la qualité des relations, autant avec les collègues que les superviseurs, demeure généralement la principale source d’attraction et de rétention des Y dans les PME. Nos résultats soutiennent aussi que leur attraction et rétention peut être très fortement favorisée grâce à des pratiques de communication bidirectionnelle et illimitée, une communication stratégique et une liberté dans la gestion du temps et des méthodes de travail. La conciliation travail et vie personnelle, les défis variés, les possibilités d’avancement, la gestion des ressources humaines socialement responsable, la reconnaissance des compétences ainsi que la gestion participative sont aussi des pratiques pouvant être fortement liées à l’attraction et la rétention de cette génération. Nos résultats montrent aussi que l’attraction et la rétention des Y dans les PME sont modérément favorisées par le travail d’équipe, les conditions de travail équitables et objectives et la rémunération globale concurrentielle. À l’inverse, la présence de technologies de l’information et des communications et la formation continue sont des sources plus faibles d’attraction et de rétention en comparaison aux autres pratiques abordées dans cette étude. En somme, cette étude contribue à la littérature sur la GRH dans les PME, puisque les spécificités relatives à ces entreprises ont été peu considérées jusqu’à aujourd’hui. Elle permet aussi la recommandation de pratiques utiles aux dirigeants-propriétaires et professionnels en ressources humaines œuvrant avec le défi d’attraction et de rétention de la génération Y au sein de leur entreprise.
Resumo:
Ce mémoire s’intéresse aux campagnes publicitaires de bière diffusées dans divers journaux et magazines dans les années 1920 et 1950 au Québec, deux périodes d’après-guerre marquées par la prospérité économique et le développement de la consommation de masse. Cette étude comparative vise à faire ressortir l’évolution dans les représentations de la bière et les stratégies utilisées par les publicitaires pour la mettre en valeur afin de la rendre plus légitime dans la société. En plus de dégager les différents discours utilisés par les publicitaires pour mieux vendre ce produit, nous montrons que les thèmes et stratégies retenus sont directement influencés par les valeurs, les idées, les normes et le contexte législatif de la société québécoise pour chaque période étudiée. Nous soutenons d’ailleurs l’hypothèse selon laquelle le genre, mais plus particulièrement le discours dominant sur la masculinité, a fortement influencé la construction des campagnes publicitaires lors des deux périodes étudiées; la culture de l’alcool, mais plus particulièrement celle de la bière, est un bastion masculin qui tend à résister à l’intégration des femmes et de la féminité.
Resumo:
La variabilité spatiale et temporelle de l’écoulement en rivière contribue à créer une mosaïque d’habitat dynamique qui soutient la diversité écologique. Une des questions fondamentales en écohydraulique est de déterminer quelles sont les échelles spatiales et temporelles de variation de l’habitat les plus importantes pour les organismes à divers stades de vie. L’objectif général de la thèse consiste à examiner les liens entre la variabilité de l’habitat et le comportement du saumon Atlantique juvénile. Plus spécifiquement, trois thèmes sont abordés : la turbulence en tant que variable d’habitat du poisson, les échelles spatiales et temporelles de sélection de l’habitat et la variabilité individuelle du comportement du poisson. À l’aide de données empiriques détaillées et d’analyses statistiques variées, nos objectifs étaient de 1) quantifier les liens causaux entre les variables d’habitat du poisson « usuelles » et les propriétés turbulentes à échelles multiples; 2) tester l’utilisation d’un chenal portatif pour analyser l’effet des propriétés turbulentes sur les probabilités de capture de proie et du comportement alimentaire des saumons juvéniles; 3) analyser les échelles spatiales et temporelles de sélection de l’habitat dans un tronçon l’été et l’automne; 4) examiner la variation individuelle saisonnière et journalière des patrons d’activité, d’utilisation de l’habitat et de leur interaction; 5) investiguer la variation individuelle du comportement spatial en relation aux fluctuations environnementales. La thèse procure une caractérisation détaillée de la turbulence dans les mouilles et les seuils et montre que la capacité des variables d’habitat du poisson usuelles à expliquer les propriétés turbulentes est relativement basse, surtout dans les petites échelles, mais varie de façon importante entre les unités morphologiques. D’un point de vue pratique, ce niveau de complexité suggère que la turbulence devrait être considérée comme une variable écologique distincte. Dans une deuxième expérience, en utilisant un chenal portatif in situ, nous n’avons pas confirmé de façon concluante, ni écarté l’effet de la turbulence sur la probabilité de capture des proies, mais avons observé une sélection préférentielle de localisations où la turbulence était relativement faible. La sélection d’habitats de faible turbulence a aussi été observée en conditions naturelles dans une étude basée sur des observations pour laquelle 66 poissons ont été marqués à l’aide de transpondeurs passifs et suivis pendant trois mois dans un tronçon de rivière à l’aide d’un réseau d’antennes enfouies dans le lit. La sélection de l’habitat était dépendante de l’échelle d’observation. Les poissons étaient associés aux profondeurs modérées à micro-échelle, mais aussi à des profondeurs plus élevées à l’échelle des patchs. De plus, l’étendue d’habitats utilisés a augmenté de façon asymptotique avec l’échelle temporelle. L’échelle d’une heure a été considérée comme optimale pour décrire l’habitat utilisé dans une journée et l’échelle de trois jours pour décrire l’habitat utilisé dans un mois. Le suivi individuel a révélé une forte variabilité inter-individuelle des patrons d’activité, certains individus étant principalement nocturnes alors que d’autres ont fréquemment changé de patrons d’activité. Les changements de patrons d’activité étaient liés aux variables environnementales, mais aussi à l’utilisation de l’habitat des individus, ce qui pourrait signifier que l’utilisation d’habitats suboptimaux engendre la nécessité d’augmenter l’activité diurne, quand l’apport alimentaire et le risque de prédation sont plus élevés. La variabilité inter-individuelle élevée a aussi été observée dans le comportement spatial. La plupart des poissons ont présenté une faible mobilité la plupart des jours, mais ont occasionnellement effectué des mouvements de forte amplitude. En fait, la variabilité inter-individuelle a compté pour seulement 12-17% de la variabilité totale de la mobilité des poissons. Ces résultats questionnent la prémisse que la population soit composée de fractions d’individus sédentaires et mobiles. La variation individuelle journalière suggère que la mobilité est une réponse à des changements des conditions plutôt qu’à un trait de comportement individuel.
Resumo:
Ce mémoire interroge le rapport développé dans Maîtres anciens de Thomas Bernhard entre l’écriture littéraire, la pensée philosophique et le kitsch. Au-delà de la supposition surprenante que la philosophie puisse être affaire de goût, de séduction et de sentiments, l’analyse de la notion de kitsch philosophique permet d’envisager le discours critique comme une arme à double tranchant qui promet autant l’émancipation que l’autoaliénation du Kitschmensch pensant. C’est à travers la figure de Reger, protagoniste de la comédie orchestrée par Bernhard, que s’incarne cette perspective critique paradoxale qui témoigne de problèmes de légitimation et d’un scepticisme croissant face aux promesses des grands récits émancipateurs. À l’examen de cette mise en scène de la philosophie, apparaît une manière proprement littéraire de « penser la pensée ». Ce mémoire veut rendre compte de ce en quoi la pensée littéraire se distingue de l’essai philosophique mais aussi de tout autre métadiscours. La littérature, car elle montre plus qu’elle n’affirme, conséquemment permet de comprendre les points de contact et de tension entre la philosophie et le kitsch, entre la culture et la barbarie, d’une manière toute particulière. C’est cette particularité qui fait l’objet de cette étude et qui est considérée comme une forme de résistance à la commodification, la vanité, la domestication, bref la kitschification de la pensée critique.
Resumo:
Les études d’imagerie par résonance magnétique fonctionnelle (IRMf) ont pour prémisse générale l’idée que le signal BOLD peut être utilisé comme un succédané direct de l’activation neurale. Les études portant sur le vieillissement cognitif souvent comparent directement l’amplitude et l’étendue du signal BOLD entre des groupes de personnes jeunes et âgés. Ces études comportent donc un a priori additionnel selon lequel la relation entre l’activité neurale et la réponse hémodynamique à laquelle cette activité donne lieu restent inchangée par le vieillissement. Cependant, le signal BOLD provient d’une combinaison ambiguë de changements de métabolisme oxydatif, de flux et de volume sanguin. De plus, certaines études ont démontré que plusieurs des facteurs influençant les propriétés du signal BOLD subissent des changements lors du vieillissement. L’acquisition d’information physiologiquement spécifique comme le flux sanguin cérébral et le métabolisme oxydatif permettrait de mieux comprendre les changements qui sous-tendent le contraste BOLD, ainsi que les altérations physiologiques et cognitives propres au vieillissement. Le travail présenté ici démontre l’application de nouvelles techniques permettant de mesurer le métabolisme oxydatif au repos, ainsi que pendant l’exécution d’une tâche. Ces techniques représentent des extensions de méthodes d’IRMf calibrée existantes. La première méthode présentée est une généralisation des modèles existants pour l’estimation du métabolisme oxydatif évoqué par une tâche, permettant de prendre en compte tant des changements arbitraires en flux sanguin que des changements en concentrations sanguine d’O2. Des améliorations en terme de robustesse et de précisions sont démontrées dans la matière grise et le cortex visuel lorsque cette méthode est combinée à une manipulation respiratoire incluant une composante d’hypercapnie et d’hyperoxie. Le seconde technique présentée ici est une extension de la première et utilise une combinaison de manipulations respiratoires incluant l’hypercapnie, l’hyperoxie et l’administration simultanée des deux afin d’obtenir des valeurs expérimentales de la fraction d’extraction d’oxygène et du métabolisme oxydatif au repos. Dans la deuxième partie de cette thèse, les changements vasculaires et métaboliques liés à l’âge sont explorés dans un groupe de jeunes et aînés, grâce au cadre conceptuel de l’IRMf calibrée, combiné à une manipulation respiratoire d’hypercapnie et une tâche modifiée de Stroop. Des changements de flux sanguin au repos, de réactivité vasculaire au CO2 et de paramètre de calibration M ont été identifiés chez les aînés. Les biais affectant les mesures de signal BOLD obtenues chez les participants âgés découlant de ces changements physiologiques sont de plus discutés. Finalement, la relation entre ces changements cérébraux et la performance dans la tâche de Stroop, la santé vasculaire centrale et la condition cardiovasculaire est explorée. Les résultats présentés ici sont en accord avec l’hypothèse selon laquelle une meilleure condition cardiovasculaire est associée à une meilleure fonction vasculaire centrale, contribuant ainsi à l’amélioration de la santé vasculaire cérébrale et cognitive.
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.