267 resultados para Géométrie stochastique
Resumo:
Cette thèse propose de développer des mécanismes déployables pour applications spatiales ainsi que des modes d’actionnement permettant leur déploiement et le contrôle de l’orientation en orbite de l’engin spatial les supportant. L’objectif étant de permettre le déploiement de surfaces larges pour des panneaux solaires, coupoles de télécommunication ou sections de station spatiale, une géométrie plane simple en triangle est retenue afin de pouvoir être assemblée en différents types de surfaces. Les configurations à membrures rigides proposées dans la littérature pour le déploiement de solides symétriques sont optimisées et adaptées à l’expansion d’une géométrie ouverte, telle une coupole. L’optimisation permet d’atteindre un ratio d’expansion plan pour une seule unité de plus de 5, mais présente des instabilités lors de l’actionnement d’un prototype. Le principe de transmission du mouvement d’un étage à l’autre du mécanisme est revu afin de diminuer la sensibilité des performances du mécanisme à la géométrie de ses membrures internes. Le nouveau modèle, basé sur des courroies crantées, permet d’atteindre des ratios d’expansion plans supérieurs à 20 dans certaines configurations. L’effet des principaux facteurs géométriques de conception est étudié afin d’obtenir une relation simple d’optimisation du mécanisme plan pour adapter ce dernier à différents contextes d’applications. La géométrie identique des faces triangulaires de chaque surface déployée permet aussi l’empilement de ces faces pour augmenter la compacité du mécanisme. Une articulation spécialisée est conçue afin de permettre le dépliage des faces puis leur déploiement successivement. Le déploiement de grandes surfaces ne se fait pas sans influencer lourdement l’orientation et potentiellement la trajectoire de l’engin spatial, aussi, différentes stratégies de contrôle de l’orientation novatrices sont proposées. Afin de tirer profit d’une grande surface, l’actionnement par masses ponctuelles en périphérie du mécanisme est présentée, ses équations dynamiques sont dérivées et simulées pour en observer les performances. Celles-ci démontrent le potentiel de cette stratégie de réorientation, sans obstruction de l’espace central du satellite de base, mais les performances restent en deçà de l’effet d’une roue d’inertie de masse équivalente. Une stratégie d’actionnement redondant par roue d’inertie est alors présentée pour différents niveaux de complexité de mécanismes dont toutes les articulations sont passives, c’est-à-dire non actionnées. Un mécanisme à quatre barres plan est simulé en boucle fermée avec un contrôleur simple pour valider le contrôle d’un mécanisme ciseau commun. Ces résultats sont étendus à la dérivation des équations dynamiques d’un mécanisme sphérique à quatre barres, qui démontre le potentiel de l’actionnement par roue d’inertie pour le contrôle de la configuration et de l’orientation spatiale d’un tel mécanisme. Un prototype à deux corps ayant chacun une roue d’inertie et une seule articulation passive les reliant est réalisé et contrôlé grâce à un suivi par caméra des modules. Le banc d’essai est détaillé, ainsi que les défis que l’élimination des forces externes ont représenté dans sa conception. Les résultats montrent que le système est contrôlable en orientation et en configuration. La thèse se termine par une étude de cas pour l’application des principaux systèmes développés dans cette recherche. La collecte de débris orbitaux de petite et moyenne taille est présentée comme un problème n’ayant pas encore eu de solution adéquate et posant un réel danger aux missions spatiales à venir. L’unité déployable triangulaire entraînée par courroies est dupliquée de manière à former une coupole de plusieurs centaines de mètres de diamètre et est proposée comme solution pour capturer et ralentir ces catégories de débris. Les paramètres d’une mission à cette fin sont détaillés, ainsi que le potentiel de réorientation que les roues d’inertie permettent en plus du contrôle de son déploiement. Près de 2000 débris pourraient être retirés en moins d’un an en orbite basse à 819 km d’altitude.
Resumo:
Les spirales sont des appareils de séparation gravimétrique principalement utilisés dans l’industrie du traitement du minerai de fer. La classification des particules dans la pulpe s’effectue lors de la descente dans les spires en fonction de leur taille et leur densité, des conditions d’opération et de la géométrie de la spirale. L’effet des conditions d’opération (pourcentage solide, débit d’alimentation et débit d’eau de lavage) est évalué sur la performance des spirales en utilisant une spirale WW6E installée à COREM pour traiter un minerai de fer de ArcelorMittal, Québec. Les résultats montrent l’effet dominant du débit de l’eau de lavage et son impact majeur sur les particules grossières. Un circuit fermé de trois spirales parallèles avec 3, 5 et 7 tours est utilisé afin d’évaluer l’influence du nombre de tours. Les résultats préliminaires indiquent que la spirale trois tours fonctionne bien pour le nettoyage tandis que la 7 tour est robuste pour l’ébauchage et l’épuisage.
Resumo:
Le cancer pulmonaire est la principale cause de décès parmi tous les cancers au Canada. Le pronostic est généralement faible, de l'ordre de 15% de taux de survie après 5 ans. Les déplacements internes des structures anatomiques apportent une incertitude sur la précision des traitements en radio-oncologie, ce qui diminue leur efficacité. Dans cette optique, certaines techniques comme la radio-chirurgie et la radiothérapie par modulation de l'intensité (IMRT) visent à améliorer les résultats cliniques en ciblant davantage la tumeur. Ceci permet d'augmenter la dose reçue par les tissus cancéreux et de réduire celle administrée aux tissus sains avoisinants. Ce projet vise à mieux évaluer la dose réelle reçue pendant un traitement considérant une anatomie en mouvement. Pour ce faire, des plans de CyberKnife et d'IMRT sont recalculés en utilisant un algorithme Monte Carlo 4D de transport de particules qui permet d'effectuer de l'accumulation de dose dans une géométrie déformable. Un environnement de simulation a été développé afin de modéliser ces deux modalités pour comparer les distributions de doses standard et 4D. Les déformations dans le patient sont obtenues en utilisant un algorithme de recalage déformable d'image (DIR) entre les différentes phases respiratoire générées par le scan CT 4D. Ceci permet de conserver une correspondance de voxels à voxels entre la géométrie de référence et celles déformées. La DIR est calculée en utilisant la suite ANTs («Advanced Normalization Tools») et est basée sur des difféomorphismes. Une version modifiée de DOSXYZnrc de la suite EGSnrc, defDOSXYZnrc, est utilisée pour le transport de particule en 4D. Les résultats sont comparés à une planification standard afin de valider le modèle actuel qui constitue une approximation par rapport à une vraie accumulation de dose en 4D.
Resumo:
René Descartes publicó en 1637 su famosa Géométrie, un tratado donde aplica el álgebra a la geometría y desarrolla un original sistema de álgebra simbólica. En el tercer libro de la Géométrie enuncia, sin demostración, su célebre regla de los signos de Descartes. Durante dos siglos, el mundo matemático intentó sin éxito una demostración general y satisfactoria a los estándares de la época. Finalmente, Carl Frederick Gauss la demostró de la manera más general en 1828 recurriendo a métodos algebraicos. En este artículo, presentamos el tratamiento que la regla de los signos tiene en los libros de texto de álgebra y proponemos una justificación original alternativa apoyada en la idea de predicción que, hasta donde sabemos, no ha sido reportada en la literatura especializada.
Development of new scenario decomposition techniques for linear and nonlinear stochastic programming
Resumo:
Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.
Resumo:
Les métaheuristiques sont très utilisées dans le domaine de l'optimisation discrète. Elles permettent d’obtenir une solution de bonne qualité en un temps raisonnable, pour des problèmes qui sont de grande taille, complexes, et difficiles à résoudre. Souvent, les métaheuristiques ont beaucoup de paramètres que l’utilisateur doit ajuster manuellement pour un problème donné. L'objectif d'une métaheuristique adaptative est de permettre l'ajustement automatique de certains paramètres par la méthode, en se basant sur l’instance à résoudre. La métaheuristique adaptative, en utilisant les connaissances préalables dans la compréhension du problème, des notions de l'apprentissage machine et des domaines associés, crée une méthode plus générale et automatique pour résoudre des problèmes. L’optimisation globale des complexes miniers vise à établir les mouvements des matériaux dans les mines et les flux de traitement afin de maximiser la valeur économique du système. Souvent, en raison du grand nombre de variables entières dans le modèle, de la présence de contraintes complexes et de contraintes non-linéaires, il devient prohibitif de résoudre ces modèles en utilisant les optimiseurs disponibles dans l’industrie. Par conséquent, les métaheuristiques sont souvent utilisées pour l’optimisation de complexes miniers. Ce mémoire améliore un procédé de recuit simulé développé par Goodfellow & Dimitrakopoulos (2016) pour l’optimisation stochastique des complexes miniers stochastiques. La méthode développée par les auteurs nécessite beaucoup de paramètres pour fonctionner. Un de ceux-ci est de savoir comment la méthode de recuit simulé cherche dans le voisinage local de solutions. Ce mémoire implémente une méthode adaptative de recherche dans le voisinage pour améliorer la qualité d'une solution. Les résultats numériques montrent une augmentation jusqu'à 10% de la valeur de la fonction économique.
Development of new scenario decomposition techniques for linear and nonlinear stochastic programming
Resumo:
Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.
Resumo:
Les métaheuristiques sont très utilisées dans le domaine de l'optimisation discrète. Elles permettent d’obtenir une solution de bonne qualité en un temps raisonnable, pour des problèmes qui sont de grande taille, complexes, et difficiles à résoudre. Souvent, les métaheuristiques ont beaucoup de paramètres que l’utilisateur doit ajuster manuellement pour un problème donné. L'objectif d'une métaheuristique adaptative est de permettre l'ajustement automatique de certains paramètres par la méthode, en se basant sur l’instance à résoudre. La métaheuristique adaptative, en utilisant les connaissances préalables dans la compréhension du problème, des notions de l'apprentissage machine et des domaines associés, crée une méthode plus générale et automatique pour résoudre des problèmes. L’optimisation globale des complexes miniers vise à établir les mouvements des matériaux dans les mines et les flux de traitement afin de maximiser la valeur économique du système. Souvent, en raison du grand nombre de variables entières dans le modèle, de la présence de contraintes complexes et de contraintes non-linéaires, il devient prohibitif de résoudre ces modèles en utilisant les optimiseurs disponibles dans l’industrie. Par conséquent, les métaheuristiques sont souvent utilisées pour l’optimisation de complexes miniers. Ce mémoire améliore un procédé de recuit simulé développé par Goodfellow & Dimitrakopoulos (2016) pour l’optimisation stochastique des complexes miniers stochastiques. La méthode développée par les auteurs nécessite beaucoup de paramètres pour fonctionner. Un de ceux-ci est de savoir comment la méthode de recuit simulé cherche dans le voisinage local de solutions. Ce mémoire implémente une méthode adaptative de recherche dans le voisinage pour améliorer la qualité d'une solution. Les résultats numériques montrent une augmentation jusqu'à 10% de la valeur de la fonction économique.
Resumo:
Résumé : Les transferts d’électrons photo-induits et d’énergie jouent un rôle primordial dans un grand nombre de processus photochimiques et photobiologiques, comme la respiration ou la photosynthèse. Une très grande quantité de systèmes à liaisons covalentes ont été conçus pour copier ces processus de transferts. Cependant, les progrès sont, en grande partie, limités par les difficultés rencontrées dans la synthèse de nouveaux couples de types donneurs-accepteurs. Récemment, des espèces utilisant des liaisons non-covalentes, comme les liaisons hydrogènes, les interactions [pi]-[pi], les liaisons de coordination métal-ligands ou encore les interactions électrostatiques sont le centre d’un nouvel intérêt du fait qu’ils soient plus faciles à synthétiser et à gérer pour obtenir des comportements de transferts d’électrons ou d’énergie plus flexibles et sélectifs. C’est dans cette optique que le travail de cette thèse a été mené, i.e. de concevoir des composés auto-assemblés avec des porphyrines et un cluster de palladium pour l’étude des transferts d’électrons photo-induits et d’énergie. Cette thèse se divise en quatre parties principales. Dans la première section, le chapitre 3, deux colorants porphyriniques, soit le 5-(4-carboxylphényl)-10, 15, 20-tristolyl(porphyrinato)zinc(II) (MCP, avec Na+ comme contre-ion) et 5, 15-bis(4-carboxylphényl)-15, 20-bistolyl(porphyrinato)zinc(II) (DCP, avec Na+ comme contre-ion) ont été utilisés comme donneurs d’électrons, et le [Pd3(dppm)3(CO)]2+ ([Pd32+], dppm = (Ph2P)2CH2, PF6‾ est le contre-ion) a été choisi comme accepteur d’électrons. La structure de l’assemblage [Pd32+]•••porphyrine a été élucidée par l’optimisation des géométries à l’aide de calculs DFT. La spectroscopie d’absorption transitoire (TAS) montre la vitesse de transferts d’électrons la plus rapide (< 85 fs, temps inférieurs à la limite de détection) jamais enregistrée pour ce type de système (porphyrine-accepteur auto-assemblés). Généralement, ces processus sont de l’ordre de l’échelle de la ps-ns. Cette vitesse est comparable aux plus rapides transferts d’électrons rapportés dans le cas de systèmes covalents de type porphyrine-accepteur rapide (< 85 fs, temps inférieurs à la limite de détection). Ce transfert d’électrons ultra-rapide (ket > 1.2 × 1013 s-1) se produit à l’état énergétique S1 des colorants dans une structure liée directement par des interactions ioniques, ce qui indique qu’il n’est pas nécessaire d’avoir de forts liens ou une géométrie courbée entre le donneur et l’accepteur. Dans une deuxième section, au chapitre 4, nous avons étudié en profondeur l’effet de l’utilisation de porphyrines à systèmes π-étendus sur le comportement des transferts d’électrons. Le colorant 9, 18, 27, 36-tétrakis-meso-(4-carboxyphényl)tétrabenzoporphyrinatozinc(II) (TCPBP, avec Na+ comme contre-ion) a été sélectionné comme candidat, et le 5, 10, 15, 20-tétrakis-meso-(4-carboxyphényl)porphyrineatozinc(II) (TCPP, avec Na+ comme contre-ion) a aussi été utilisé à des fins de comparaisons. TCPBP et TCPP ont, tous deux, été utilisés comme donneurs d’électrons pour fabriquer des assemblages supramoléculaires avec le cluster [Pd32+] comme accepteur d’électrons. Les calculs DFT ont été réalisés pour expliquer les structures de ces assemblages. Dans les conditions expérimentales, ces assemblages sont composés principalement d’une porphyrine avec 4 équivalents de clusters. Ces systèmes ont aussi été investigués par des mesures de quenching (perte de luminescence), par électrochimie et par d’autres techniques. Les transferts d’électrons (< 85 fs; temps inférieurs à la limite de détection) étaient aussi observés, de façon similaire aux assemblages MCP•••[Pd32+] et [Pd32+]•••DCP•••[Pd32+]. Les résultats nous indiquent que la modification de la structure de la porphyrine vers la tétrabenzoporphyrine ne semble pas influencer le comportement des cinétiques de transferts d’électrons (aller ou retour). Dans la troisième section, le chapitre 5, nous avons synthétisé la porphyrine hautement [pi]-conjuguée: 9, 18, 27, 36-tétra-(4-carboxyphényléthynyl)tétrabenzoporphyrinatozinc(II) (TCPEBP, avec Na+ comme contre-ion) par des fonctionnalisations en positions meso- et β, β-, qui présente un déplacement vers le rouge de la bande de Soret et des bandes Q. TCPEBP était utilisé comme donneur d’électrons pour fabriquer des motifs supramoléculaires avec le [Pd32+] comme accepteur d’électrons. Des expériences en parallèle ont été menées en utilisant la 5, 10, 15, 20-tétra-(4-carboxyphényl)éthynylporphyrinatozinc(II) (TCPEP, avec Na+ comme contre-ion). Des calculs DFT et TDDFT ont été réalisés pour de nouveau déterminer de façon théorique les structures de ces systèmes. Les constantes d’association pour les assemblages TCPEBP•••[Pd32+]x sont les plus élevées parmi tous les assemblages entre des porphyrines et le cluster de palladium rencontrés dans la littérature. La TAS a montré, encore une fois, des processus de transferts d’électrons dans des échelles de l’ordre de 75-110 fs. Cependant, les transferts de retour d’électrons sont aussi très rapides (< 1 ps), ce qui est un obstacle potentiel pour des applications en cellules solaires à pigment photosensible (DSSCs). Dans la quatrième section, le chapitre 6, les transferts d’énergie triplets (TET) ont été étudiés pour les assemblages MCP•••[Pd32+] et [Pd32+]•••DCP•••[Pd32+]. Les analyses spectrales des états transitoires dans l’échelle de temps de la ns-[mu]s démontrent de façon évidente les TETs; ceux-ci présentent des transferts d’énergie lents et/ou des vitesses moyennes pour des transferts d’énergie T1-T1 (3dye*•••[Pd32+] → dye•••3[Pd32+]*) opérant à travers exclusivement le mécanisme de Förster avec des valeurs de kET autour de ~ 1 × 105 s-1 selon les mesures d’absorption transitoires à 298 K. Des forces motrices non-favorables rendent ces types de processus non-opérants ou très lents dans les états T1. L’état T1 de [Pd32+] (~8190 cm-1) a été qualitativement déterminé par DFT et par la mise en évidence de l’émission S0 ← Tn retardée à 680-700 nm provenant de l’annihilation T1-T1, ce qui fait que ce cluster peut potentiellement agir comme un donneur à partir de ses états Tn, et accepteur à partir de T1 à l’intérieur de ces assemblages. Des pertes d’intensités de types statiques pour la phosphorescence dans le proche-IR sont observées à 785 nm. Ce travail démontre une efficacité modérée des colorants à base de porphyrines pour être impliquée dans des TETs avec des fragments organométalliques, et ce, même attachées grâce à des interactions ioniques. En conclusion, les assemblages ioniques à base de porphyrines et de clusters de palladium présentent des propriétés de transferts d’électrons S1 ultra-rapides, et des transferts d’énergie T1 de vitesses modérées, ce qui est utile pour de possibles applications comme outils optoélectroniques. D’autres études, plus en profondeur, sont présentement en progrès.
Resumo:
Dans un contexte de pression toujours plus grande sur les ressources naturelles, une gestion rationnelle des ressources hydriques s'impose. La principale difficulté de leur gestion provient du caractère aléatoire des apports en eau dans le système. Le sujet de cette recherche consiste à développer des méthodes d'optimisation stochastique capable de bien représenter les processus aléatoires. Le cas de Kemano, située en Colombie-Britannique (Canada), illustre les travaux de recherche. L'importante accumulation de neige sur les bassins versants engendre une hydrologie complexe, rendant la gestion du système délicate. La programmation dynamique stochastique est la méthode la plus utilisée pour déterminer la politique de gestion des réservoirs. Mais, son étude fait ressortir que cette méthode ne peut gérer que des modèles simplifiés des processus stochastiques, ne rendant pas compte des complexes corrélations spatio-temporelles des apports hydriques. Ainsi, la politique obtenue peut être de mauvaise qualité. Cette méthode est comparée avec la recherche directe de politique qui n'utilise pas de modèles pour représenter les processus stochastiques, mais évalue la politique sur des scénarios d'apports. Ainsi la recherche directe de politique se révèle globalement plus performante en prenant bien en considération la complexité des apports, mais est limitée par la forme prédéterminée de la politique. De plus, l'optimisation des paramètres en utilisant un algorithme évolutionnaire s'avère lente. La conception d'un algorithme de descente par gradient, combinée à une architecture "acteur-critique" appropriée, permet de réduire notablement le temps d'optimisation. Combinée à une fonction plus complexe employée pour la paramétrisation de la politique de gestion, la méthode permet d'obtenir une politique de qualité significativement supérieure à celle obtenue avec la programmation dynamique stochastique. Les travaux effectués dans le cadre de cette thèse ouvrent la voie à une application opérationnelle de la méthode de recherche directe de politique. L'évaluation en simulation devrait être appréciée des opérateurs en permettant une bonne représentation du système et des apports.
Resumo:
La synthèse d’un ARNm eucaryotique dépend d’une suite d’étapes qui inclut notamment l’ajout d’une queue poly(A) à son extrémité 3’. Au noyau, la queue poly(A) des ARNms est liée par PABPN1 (poly(A)-binding protein nuclear 1). PABPN1 fut notamment caractérisée, d’après des études in vitro, pour stimuler la réaction de polyadénylation en plus de contrôler la taille ultime des queues poly(A). Cela dit, la ou les fonction(s) biologique(s) de PABPN1 est/sont cependant largement méconnue(s). Chez Schizosaccharomyces pombe (S. pombe), Pab2 est l’orthologue présumé de PABPN1. Or, mes travaux indiquent que Pab2 est fonctionnellement différente de PABPN1 à l’égard de son rôle sur le processus général de polyadénylation. Ainsi, in vivo, l’absence de Pab2 entraîne l’expression et l’accumulation d’un groupe limité d’ARNs hyperadénylés parmi lesquels se trouvent de nombreux petits ARNs nucléolaires non-codants (snoRNAs) lesquels constituent normalement un groupe abondant d’ARN poly(A)-. Mes résultats supportent ainsi un mécanisme par lequel des snoRNAs immatures poly(A)+, sont convertis en une forme mature poly(A)- par le biais de Pab2 et de l’activité 3’-->5’ exoribonucléase de l’exosome à ARN. Ces observations sont inusitées dans la mesure où elles associent une fonction pour une PABP dans la maturation d'ARNs non-codants, contrairement à la notion que les PABPs travaillent exclusivement au niveau des ARNms, en plus de procurer une nouvelle perspective face au mécanisme de recrutement de l'exosome à ARN à des substrats poly(A)+. La formation de l’extrémité 3’ d’un ARN est un processus étroitement lié à la terminaison de sa transcription. Pour les gènes codants, la terminaison transcriptionnelle est initiée par le clivage endonucléolytique du pré-ARNm. Ce clivage génère une extrémité d’ARN 5’ libre laquelle sera ciblée par une exoribonucléase 5'-->3’ afin de mener à bien l’éviction de l’ARNPII de la matrice d’ADN (terminaison transcriptionnelle de type torpedo). Au contraire, chez Saccharomyces cerevisiae (S. cerevisiae), la majorité des gènes non-codants, incluant les snoRNAs, dépendent plutôt du complexe NNS (Nrd1/Nab3/Sen1) pour la terminaison de leur transcription. Cela dit, il est incertain si le complexe NNS est conservé chez d’autres espèces. À cet égard, mes travaux indiquent que S. pombe est dépourvu d’un mécanisme de terminaison de la transcription de type NNS. Seb1, l’orthologue présumé de Nrd1 chez S. pombe, s’associe plutôt à la machinerie de clivage et de polyadénylation et influence la sélection de site de polyadénylation à l’échelle du génome. Mes résultats supportent ainsi l’utilisation de la machinerie de maturation 3’ des ARNms comme principal vecteur de terminaison transcriptionnelle chez S. pombe et identifient Seb1 comme un facteur clé de ce processus. L’évènement transcriptionnel étant hautement complexe, des erreurs peuvent arriver de manière stochastique menant à l’accumulation d’ARNs aberrants potentiellement néfastes pour la cellule. Or, mes travaux ont mis en lumière un mécanisme de surveillance co-transcriptionnel des ARNs impliquant l’exosome à ARN et lié à la terminaison de la transcription. Pour ce faire, l’exosome à ARN promeut la terminaison transcriptionnelle via la dégradation d’une extrémité 3’ libre d’ARN devenue émergente suite au recul de l’ARNPII le long de la matrice d’ADN (phénomène de backtracking). Mes résultats supportent ainsi une terminaison de la transcription de type torpedo inversé (3'-->5’) réévaluant par la même occasion le concept voulant que la terminaison de la transcription s’effectue uniquement selon une orientation 5’-->3’. Somme toute, mes travaux de doctorat auront permis d’identifier et de caractériser plus en détail les facteurs et mécanismes impliqués dans la maturation 3’ et la terminaison de la transcription des gènes codants et non-codants chez l’organisme modèle S. pombe.
Resumo:
Résumé : Cette étude examine l'impact de la taille et de la gradation de particules sur les corrélations théoriques et empiriques existantes les plus connues entre la résistance au cisaillement et le comportement dilatatant des matériaux granulaires en condition de déformation plane et en compression triaxiale drainée. À cette fin, 276 tests de cisaillements symétriques directs et 35 tests de compressions triaxiales drainées ont été menés sur des échantillons composés de billes de basalte (particules rondes), et de sables constitués de particules angulaires (sable de Péribonka et sable d'Eastmain) sur une échelle de 63 µm à 2000 µm afin d'évaluer leur résistance au cisaillement et leur comportement de dilatance sur une vaste échelle de pressions normales et de densités relatives initiales. Premièrement, la fiabilité et l'applicabilité des limites de mesure à l’aide de tests physiques de cisaillements symétriques directs dans l'interprétation de la résistance au cisaillement frictionnel en déformation plane des matériaux granulaires ont été discutées et confirmées par l'usage du code informatique DEM, SiGran. L'accent a été particulièrement mis sur la validation du modèle DEM au moyen de comparaison des résultats des simulations DEM avec leurs équivalents physiques à une échelle macro. Les résultats virtuels DSA sont abordés du point de vue de la coaxialité entre les principales tensions et les principales directions des paliers de pression ainsi que de la déviation de la direction d'extension nulle à partir de la direction horizontale. Les résultats numériques fournissent également des données quantitatives sur les différentes formes d'énergie consommées durant le cisaillement confirmées par d'autres résultats physiques et numériques publiés. Sur la base des postulats précédents, un examen minutieux des résultats des essais de cisaillements directs et de données issues de la littérature a été accompli afin d'évaluer la fiabilité des formules empiriques bien connues de Bolton et Collins et al. avec leurs constantes couramment employées en condition de déformation plane. L'étude montre qu'une application des relations empiriques de force-dilatation de cisaillement avec les constantes proposées par Bolton (1986) et Collins et al. (1992) aux sables ayant une distribution de taille de particules différente peut conduire à surestimer leurs valeurs en terme de force de cisaillement. Dans cette étude, les coefficients des équations de Bolton et Collins et al. ont donc été ajustée afin de prendre en compte les caractéristiques des particules, en particulier le diamètre médian, D50. De manière analogue, les effets microstructuraux imposés par la géométrie interne des particules (par exemple la taille, la forme et la gradation des particules) sur la relation tension-dilatation très connue, celle de Rowe (1962), et son ajustement empirique en condition triaxiale drainée ont été examinés dans cette étude. Une comparaison des prédictions des formules proposées avec les données de force de cisaillement issues de la littérature fournit de nombreuses preuves en faveur des contraintes mises en place au sein des relations existantes de force-dilatation de cisaillement en condition de déformation plane et triaxiale. Ces comparaisons prouvent également que la prise en compte de la taille des grains conduit à des résultats plus tangibles que lorsque la taille de la particule n'est pas considérée. Les formules de force-dilatation ajustées peuvent se révéler avantageuses pour évaluer indépendamment la cohérence des forces de cisaillement déterminées expérimentalement et pour introduire des lois d’écoulement plus précises dans les analyses géotechniques analytiques et numériques.