556 resultados para Républicanisme classique
Resumo:
Ce mémoire porte sur la représentation de la fureur dans la tragédie en musique "Roland" de Philippe Quinault et Jean-Baptiste Lully, créée en 1685. Il cherche à préciser, dans une perspective historique et rhétorique, les moyens littéraires, musicaux et scéniques par lesquels sont rendus les excès du personnage furieux sur la scène classique du second XVIIe siècle. Le premier chapitre vise à rassembler les figures mythiques de la fureur dans une perspective d’ordre historique, des origines antiques aux diverses reprises dramatiques du répertoire français, en passant par la célèbre épopée de l’Orlando furioso, rappelant ainsi les bases de la topique de la fureur. Il s’intéresse également au développement d’une esthétique de la fureur propre au genre dramatique, ainsi qu’à son rapport au sublime, idéal d’expression classique. Guidé par la question de la représentation et de ses effets sur le spectateur, le second chapitre propose une analyse rhétorique de la scène de fureur dans Roland. L’étude de cette scène en fonction des différentes parties de la rhétorique – inventio, dispositio, elocutio et actio – démontre qu’une dynamique de contraste et d’alternance entre force et douceur se situe au cœur de la rhétorique du dérèglement qui conduit les représentations de la fureur.
Resumo:
Les dinoflagellés sont des eucaryotes unicellulaires qui composent une grande partie du phytoplancton et qui jouent un rôle important au niveau de la photosynthèse, de la production primaire et de la conservation des écosystèmes marins. Les dinoflagellés se distinguent des autres eucaryotes par leur biologie et leur organisation nucléaire unique. Lors de la mitose, leur membrane nucléaire demeure intacte et la ségrégation des chromosomes se fait à partir de fuseaux mitotiques formés dans le cytoplasme et qui traversent le noyau au travers de canaux spécialisés Aussi, leurs chromosomes sont condensés en permanence et le processus utilisé pour y arriver est encore très mal compris puisque les dinoflagellés ne possèdent aucunes histones détectables. Lingulodinium polyedrum est un dinoflagellé photosynthétique marin utilisé comme organisme modèle en ce qui concerne l’étude des rythmes circadiens (bioluminescence, migration verticale, mitose et photosynthèse). La découverte et l’étude des éléments régulateurs du cycle cellulaire peuvent nous amener à comprendre le mécanisme, l’influence et la portée du contrôle circadien sur le cycle cellulaire. De plus, l’étude du cycle cellulaire pourrait permettre de révéler des indices quant aux caractéristiques singulières des dinoflagellés qui sont pour le moment énigmatiques. Par le passé, une étude chez Lingulodinium polyedrum a permis d’identifier la cycline impliquée dans la mitose, LpCyc1, le premier régulateur du cycle cellulaire a être découvert chez les dinoflagellés. La présente étude s’attarde sur la caractérisation de la LpCyc1, soit son expression, sa localisation, sa phosphorylation. Ces trois éléments concordent de façon à synchroniser l’activité de la LpCyc1 (et ainsi la mitose) de façon circadienne. Cette étude présente aussi la création et le développement d’un outil majeur pour l’étude future de Lingulodinium polyedrum, le transcriptome des ARNm à partir d’un iv séquençage Illumina. C’est d’ailleurs avec cet outil que nous avons découvert la CDK responsable du contrôle de la phase M, LpCdk1. Cette CDK possède tous les domaines d’une CDK classique, un site de liaison des substrats, un site de liaison à l’ATP, une boucle activatrice, et une interface de liaison avec la cycline. Le transcriptome de Lingulodinium polyedrum a aussi permis de recenser toutes les protéines conservées normalement retrouvées dans le contrôle du cycle cellulaire, qui nous a permis de faire une ébauche préliminaire du cycle cellulaire de L. polyedrum. Cette analyse est une première chez Lingulodinium polyedrum et peut s’étendre pour l’étude d’une multitude d’autres processus métaboliques.
Resumo:
Le domaine des systèmes de référence quantiques, dont les dernière avancées sont brièvement présentées au chapitre 1, est extrêmement pertinent à la compréhension de la dégradation des états quantiques et de l’évolution d’instruments de mesures quantiques. Toutefois, pour arriver à comprendre formellement ces avancées et à apporter une contribution originale au domaine, il faut s’approprier un certain nombre de concepts physiques et mathématiques, in- troduits au chapitre 2. La dégradation des états quantiques est très présente dans le contrôle d’états utiles à l’informatique quantique. Étant donné que ce dernier tente de contrôler des sys- tèmes à deux états, le plus souvent des moments cinétiques, l’analyse des systèmes de référence quantiques qui les mesurent s’avère opportune. Puisque, parmi les plus petits moments ciné- tiques, le plus connu est de s = 1 et que son état le plus simple est l’état non polarisé, l’étude 2 du comportement d’un système de référence mesurant successivement ce type de moments ci- nétiques constitue le premier pas à franchir. C’est dans le chapitre 3 qu’est fait ce premier pas et il aborde les questions les plus intéressantes, soit celles concernant l’efficacité du système de référence, sa longévité et leur maximum. La prochaine étape est de considérer des états de moments cinétiques polarisés et généraux, étape qui est abordée dans le chapitre 4. Cette fois, l’analyse de la dégradation du système de référence est un peu plus complexe et nous pouvons l’inspecter approximativement par l’évolution de certains paramètres pour une certaine classe d’états de système de référence. De plus, il existe une interaction entre le système de référence et le moment cinétique qui peut avoir un effet sur le système de référence tout à fait comparable à l’effet de la mesure. C’est cette même interaction qui est étudiée dans le chapitre 5, mais, cette fois, pour des moments cinétiques de s = 1. Après une comparaison avec la mesure, il devient manifeste que les ressemblances entre les deux processus sont beaucoup moins apparentes, voire inexistantes. Ainsi, cette ressemblance ne semble pas générale et semble accidentelle lorsqu’elle apparaît.
Resumo:
L’intérêt principal de cette recherche porte sur la validation d’une méthode statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer les résultats d’une étude précédente réalisée avec un devis cas-témoins niché dans la cohorte utilisé pour tenir compte de l’exposition moyenne au traitement : – aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition variant dans le temps, sans faire d’ajustement pour le temps passé depuis l’exposition ; – aux résultats obtenus en utilisant l’exposition cumulative pondérée par le passé récent ; – aux résultats obtenus selon la méthode bayésienne. Les covariables seront estimées par l’approche classique ainsi qu’en utilisant l’approche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien des modèles sera utilisé pour modéliser l’incertitude face au choix des modèles. La technique utilisée dans l’approche bayésienne a été proposée en 1997 mais selon notre connaissance elle n’a pas été utilisée avec une variable dépendante du temps. Afin de modéliser l’effet cumulatif de l’exposition variant dans le temps, dans l’approche classique la fonction assignant les poids selon le passé récent sera estimée en utilisant des splines de régression. Afin de pouvoir comparer les résultats avec une étude précédemment réalisée, une cohorte de personnes ayant un diagnostique d’hypertension sera construite en utilisant les bases des données de la RAMQ et de Med-Echo. Le modèle de Cox incluant deux variables qui varient dans le temps sera utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont iv la variable dépendante (premier évènement cérébrovasculaire) et une des variables indépendantes, notamment l’exposition
Resumo:
Dans son ouvrage Shell Shock Cinema, publié en 2009, Anton Kaes se distancie fortement du travail fondateur et classique de Siegfried Kracauer, From Caligari to Hitler, publiée en 1947, et portant sur le cinéma pendant la période de Weimar. Réfutant la thèse de Kracauer selon laquelle un inconscient collectif allemand annonce la montée du nazisme dans le cinéma de l’entre-deux-guerres, Kaes affirme au contraire que le shell shock, héritage de la Première Guerre mondiale, est l’un des moteurs du cinéma weimarien. Les travaux de Kaes s’inscrivent dans une historiographie en renouvellement qui, confrontant également la thèse de Kracauer, met désormais l’accent sur la Première Guerre mondiale, et non sur la Seconde Guerre mondiale, pour mieux comprendre et analyser le cinéma weimarien. Ce mémoire, tout en étudiant de façon détaillée l’historiographie du sujet, tend à approfondir et à réévaluer la thèse d’Anton Kaes en l’exposant à davantage de films représentant des traumatismes personnels, des traumatismes sociaux et des chocs post-traumatiques (CPT). Ces maux sont exacerbés par des tensions sociopolitiques – insurrection de janvier 1919, Traité de Versailles, occupation de la Ruhr, l’inflation de 1923-24, etc. – alimentant à la fois des représentations symboliques et concrètes d’expériences traumatisantes qui caractérisent l’ensemble du cinéma weimarien.
Resumo:
Il a été démontré en laboratoire que l’équilibre de Nash n’était pas toujours un bon indicateur du comportement humain. Différentes théories alternatives (aversion à l’inégalité, réciprocité et norme sociale) ont vu le jour pour combler les lacunes de la théorie classique, mais aucune d’elles ne permet d’expliquer la totalité des phénomènes observés en laboratoire. Après avoir identifié les lacunes de ces modèles, ce mémoire développe un modèle qui synthétise dans un tout cohérent les avancées de ceux-ci à l’aide de préférences hétérogènes. Afin d’augmenter la portée du modèle, une nouvelle notion d’équilibre, dite comportementale, est ajoutée au modèle. En appliquant le nouveau modèle à des jeux simples, nous pouvons voir comment il élargit le nombre de comportements pouvant être modélisé par la théorie des jeux.
Resumo:
L’expression faciale de la douleur occupe un rôle central dans la communication de la douleur et dans l’estimation de l’intensité de la douleur vécue par autrui. Les propriétés du visage d’une personne en souffrance ont été investiguées principalement à l’aide de méthodes descriptives (e.g. FACS). L’introduction fait le point sur les connaissances de l’expression faciale de douleur et de la communication de cette expérience sur les plans comportemental et cérébral et souligne que les mécanismes et stratégies visuels utilisés par l’observateur pour parvenir à détecter la douleur dans le visage d’autrui demeurent très peu connus. L’étude des processus impliqués dans la reconnaissance de l’expression de la douleur est essentielle pour comprendre la communication de la douleur et éventuellement expliquer des phénomènes ayant des impacts cliniques considérables, tel que l’effet classique de sous-estimation de la douleur d’autrui. L’article 1 vise à établir à l’aide d’une méthode directe (Bubbles) les informations visuelles utilisées efficacement par l’observateur lorsqu’il doit catégoriser la douleur parmi les émotions de base. Les résultats montrent que parmi l’ensemble des caractéristiques du visage typique de la douleur, peu d’informations sont vraiment efficaces pour parvenir à cette discrimination et que celles qui le sont encodent la partie affective- motivationnelle de l’expérience d’autrui. L’article 2 investigue le pouvoir de ces régions privilégiées du visage de la douleur dans la modulation d’une expérience nociceptive chez l’observateur afin de mieux comprendre les mécanismes impliqués dans une telle modulation. En effet, s’il est connu que des stimuli ayant une valence émotionnelle négative, y compris des expressions faciales de douleur, peuvent augmenter les réponses spinales (réflexes) et supra-spinales (ex.: perceptives) de la douleur, l’information visuelle suffisante pour permettre l’activation des voies modulatrices demeure inconnue. Les résultats montrent qu’en voyant les régions diagnostiques pour la reconnaissance de l’expression faciale de douleur, la douleur perçue par l’observateur suite à une stimulation nociceptive est plus grande que lorsqu’il voit les régions les moins corrélées avec une bonne reconnaissance de la douleur. L’exploration post-expérimentale des caractéristiques de nos stimuli suggère que cette modulation n’est pas explicable par l’induction d’un état émotionnel négatif, appuyant ainsi un rôle prépondérant de la communication de la douleur dans la modulation vicariante de l’expérience douloureuse de l’observateur. Les mesures spinales ne sont toutefois pas modulées par ces manipulations et suggèrent ainsi que ce ne sont pas des voies cérébro-spinale qui sont impliquées dans ce phénomène.
Resumo:
Les dinoflagellés jouent un rôle très important dans l’écologie des océans en y réalisant une grande partie de la production primaire, en formant une association symbiotique avec les coraux et en ayant la capacité de produire des fleurs d’algues potentiellement toxiques pour les communautés côtières humaines et animales. Malgré tout, la biologie moléculaire des dinoflagellés n’a que très peu été étudiée dans les dernières années, les connaissances de processus de base comme la régulation de la transcription y étant fortement limitées. Une tentative pour élucider ce mécanisme a été réalisée chez les dinoflagellés photosynthétiques Lingulodinium polyedrum et Amphidinium carterae. Une expérience d’induction de la transcription du gène de la Peridinin chlorophyll-a binding protein, le complexe majeur de collecte de lumière, a été réalisée par une baisse de l’intensité lumineuse et a montré une faible augmentation (moins de 2 fois) du transcrit à court et long terme. Des expériences de simple-hybride et de retard sur gel (EMSA) ont été faits pour identifier de potentielles interactions protéine-ADN dans la région intergénique du gène PCP organisé en tandem. Ces essais ont été infructueux pour identifier de telles protéines. Une analyse du transcriptome de L. polyedrum a été effectuée, montrant une importante sous-représentation de domaines de liaison à l’ADN classique (comme Heat-shock factor, bZIP ou Myb) et une surreprésentation du domaine d’origine bactérienne Cold shock en comparaison avec d’autres eucaryotes unicellulaires. Ce travail suggère que les mécanismes de régulation transcriptionnelle des dinoflagellés pourraient différer substantiellement de ceux des autres eucaryotes.
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.
Resumo:
Nous exprimons la mesure de Mahler 2-supérieure et 3-supérieure de certaines fonctions rationnelles en terme de valeurs spéciales de la fonction zêta, de fonctions L et de polylogarithmes multiples. Les résultats obtenus sont une généralisation de ceux obtenus dans [10] pour la mesure de Mahler classique. On améliore un de ces résultats en réduisant une combinaison linéaire de polylogarithmes multiples en termes de valeurs spéciales de fonctions L. On termine avec la réduction complète d’un cas particuler.
Resumo:
Le problème d’oscillation de fluides dans un conteneur est un problème classique d’hydrodynamique qui est etudié par des mathématiciens et ingénieurs depuis plus de 150 ans. Le présent travail est lié à l’étude de l’alternance des fonctions propres paires et impaires du problème de Steklov-Neumann pour les domaines à deux dimensions ayant une forme symétrique. On obtient des résultats sur la parité de deuxième et troisième fonctions propres d’un tel problème pour les trois premiers modes, dans le cas de domaines symétriques arbitraires. On étudie aussi la simplicité de deux premières valeurs propres non nulles d’un tel problème. Il existe nombre d’hypothèses voulant que pour le cas des domaines symétriques, toutes les valeurs propres sont simples. Il y a des résultats de Kozlov, Kuznetsov et Motygin [1] sur la simplicité de la première valeur propre non nulle obtenue pour les domaines satisfaisants la condition de John. Dans ce travail, il est montré que pour les domaines symétriques, la deuxième valeur propre non-nulle du problème de Steklov-Neumann est aussi simple.
Resumo:
Les simulations ont été implémentées avec le programme Java.
Resumo:
Les dimères chromosomiques se produisant lors de la réparation de chromosomes circulaires peuvent être dommageables pour les bactéries en bloquant la ségrégation des chromosomes et le bon déroulement de la division cellulaire. Pour remédier à ce problème, les bactéries utilisent le système Xer de monomérisation des chromosomes. Celui-ci est composé de deux tyrosine recombinases, XerC et XerD, qui vont agir au niveau du site dif et procéder à une recombinaison qui aura pour effet de séparer les deux copies de l’ADN. Le site dif est une séquence d’ADN où deux répétitions inversées imparfaites séparées par six paires de bases permettent la liaison de chacune des recombinases. Cette recombinaison est régulée à l’aide de FtsK, une protéine essentielle de l’appareil de division. Ce système a été étudié en profondeur chez Escherichia coli et a aussi été caractérisée dans une multitude d’espèces variées, par exemple Bacillus subtilis. Mais dans certaines espèces du groupe des Streptococcus, des études ont été en mesure d’identifier une seule recombinase, XerS, agissant au niveau d’un site atypique nommée difSL. Peu de temps après, un second système utilisant une seule recombinase a été identifié chez un groupe des epsilon-protéobactéries. La recombinase fut nommée XerH et le site de recombinaison, plus similaire à difSL qu’au site dif classique, difH. Dans cette thèse, des résultats d’expériences in vitro sur les deux systèmes sont présentés, ainsi que certains résultats in vivo. Il est démontré que XerS est en mesure de se lier de façon coopérative à difSL et que cette liaison est asymétrique, puisque XerS est capable de se lier à la moitié gauche du site prise individuellement mais non à la moitié droite. Le clivage par XerS est aussi asymétrique, étant plus efficace au niveau du brin inférieur. Pour ce qui est de XerH, la liaison à difH est beaucoup moins coopérative et n’a pas la même asymétrie. Par contre, le clivage est asymétrique lui aussi. La comparaison de ces deux systèmes montrent qu’ils ne sont pas homologues et que les systèmes Xer à seule recombinase existent sous plusieurs versions. Ces résultats représentent la première découverte d’un espaceur de 11 paires de bases chez les tyrosine recombinases ainsi que la première étude in vitro sur XerH.
Resumo:
Malgré la politique d’ouverture à l’immigration, à la diversité et au multiculturalisme du Québec, les immigrants récents rencontrent de nombreuses barrières sur le marché du travail. Selon la vision néo-classique, le capital humain détermine l’intégration des immigrants et leur degré de déqualification. Bien que l’origine puisse influencer les caractéristiques professionnelles et personnelles des immigrants qualifiés, certains d’entre eux peuvent être de même origine mais avoir des caractéristiques différentes. L’expérience migratoire, définie comme le fait pour un individu d’avoir émigré une 1ère fois de son pays d’origine vers un pays étranger, avant d’émigrer de nouveau de ce pays vers un 3ème, pourrait modifier ces caractéristiques du capital humain et qui influence l’intégration des immigrants ainsi que leur degré de déqualification. Arrivés d’un pays très diversifié, étant instruits, et allophones, les immigrants d’ex-URSS se constituent un groupe représentatif pour cette étude. De surcroît, certains immigrants de ce groupe possèdent une expérience migratoire. Cette recherche a pour but d’examiner le rôle de l’expérience migratoire antérieure dans l’intégration des immigrants russophones sur le marché du travail québécois et de voir son impact sur la présence et le degré de déqualification. L’approche qualitative adoptée pour ce travail permet d’observer pleinement les opinions des immigrants quant à leur intégration professionnelle et d’examiner l’effet de l’expérience migratoire. Nous avons découvert que l’expérience migratoire peut modifier la situation des immigrants sur le marché du travail. D’une part, elle leur permet d’acquérir un diplôme et une expérience de pays économiquement développés, ce qui a plus de valeur au Québec que les diplômes et l’expérience de pays d’ex-URSS. En plus, cette expérience permet aux immigrants d’améliorer leurs compétences linguistiques. D’autre part, l’expérience migratoire peut modifier les caractéristiques comportementales, telles que les méthodes de recherche d’emploi ou l’adoption d’un comportement ouvert et flexible qui peut aider à l’intégration. De surcroît, l’amélioration des caractéristiques professionnelles et personnelles par une expérience migratoire peut avoir un effet de compensation qui diminue l’effet de la stratégie familiale sur la présence et le degré de déqualification. En somme, nous pouvons conclure que l’expérience migratoire antérieure a un effet sur l’intégration des immigrants russophones sur le marché du travail québécois, et particulièrement, sur la présence et le degré de déqualification.
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.