972 resultados para Informatique mathématique
Resumo:
clRNG et clProbdist sont deux interfaces de programmation (APIs) que nous avons développées pour la génération de nombres aléatoires uniformes et non uniformes sur des dispositifs de calculs parallèles en utilisant l’environnement OpenCL. La première interface permet de créer au niveau d’un ordinateur central (hôte) des objets de type stream considérés comme des générateurs virtuels parallèles qui peuvent être utilisés aussi bien sur l’hôte que sur les dispositifs parallèles (unités de traitement graphique, CPU multinoyaux, etc.) pour la génération de séquences de nombres aléatoires. La seconde interface permet aussi de générer au niveau de ces unités des variables aléatoires selon différentes lois de probabilité continues et discrètes. Dans ce mémoire, nous allons rappeler des notions de base sur les générateurs de nombres aléatoires, décrire les systèmes hétérogènes ainsi que les techniques de génération parallèle de nombres aléatoires. Nous présenterons aussi les différents modèles composant l’architecture de l’environnement OpenCL et détaillerons les structures des APIs développées. Nous distinguons pour clRNG les fonctions qui permettent la création des streams, les fonctions qui génèrent les variables aléatoires uniformes ainsi que celles qui manipulent les états des streams. clProbDist contient les fonctions de génération de variables aléatoires non uniformes selon la technique d’inversion ainsi que les fonctions qui permettent de retourner différentes statistiques des lois de distribution implémentées. Nous évaluerons ces interfaces de programmation avec deux simulations qui implémentent un exemple simplifié d’un modèle d’inventaire et un exemple d’une option financière. Enfin, nous fournirons les résultats d’expérimentation sur les performances des générateurs implémentés.
Resumo:
Les fonctions génératrices des coefficients de Clebsch Gordan pour la superalgèbre de Lie osp(1|2) sont dérivées en utilisant deux approches. Une première approche généralise une méthode proposée par Granovskii et Zhedanov pour l'appliquer dans le cas de osp(1|2), une algèbre dont le coproduit est torsadé. Une seconde approche repose sur la réalisation de osp(1|2) en tant qu'algèbre dynamique d'un oscillateur parabosonique et utilise une équivalence dans cette réalisation entre le changements de coordonnées polaires à cartésiennes et le problème de Clebsch-Gordan. Un chapitre moins formel précède ces dérivations et présente comment le problème de Clebsch-Gordan s'interprète en tant que réalisation d'une algèbre de fusion. La notion abstraite de fusion est introduite, soulignant son importance en physique, pour en venir au cas particulier du problème de Clebsch-Gordan. Un survol du cas de l'algèbre osp(1|2) et de ses utilisations en physique mathématique conclut ce chapitre.
Resumo:
La présente recherche s’inscrit dans la mouvance actuelle orientée vers l’approche par compétences (APC) en Afrique de l’ouest. Née des exigences économiques et professionnelles à l’échelle mondiale, l’APC a connu son essor dans les années 1990. Par conséquent, le mode de recrutement sur le marché de l’emploi est basé sur les compétences des postulants. Il était donc légitime que l’école intègre cette nouvelle donne afin que les finissants puissent remplir les exigences socioprofessionnelles en temps opportun. De Ketele (2001, dans Hirtt 2009, p.6) est de cet avis quand il soutient que : « c’est en effet le monde socio-économique qui a déterminé la notion de compétence parce que les adultes que l’école a formés n’étaient pas suffisamment aptes à entrer dans la vie professionnelle ». L’APC rompt donc le caractère insulaire de l’école en faisant intervenir de nouveaux enjeux au niveau de l’enseignement, de l’apprentissage, des pratiques évaluatives des enseignants et des encadrements légaux dans les pays qui l’ont adoptée. Pour des contraintes socioéconomiques, le Burkina Faso a résolument opté de mettre en oeuvre une approche éclectique qui emprunte à l’APC certaines bases didactiques et pédagogiques. Cette option vise à doter le système éducatif burkinabé de mécanismes efficaces et efficients pour un enseignement de qualité tout en assurant la réussite et l’intégration socioprofessionnelle du plus grand nombre des sortants de l’école. Notre étude se situe dans cette nouvelle donne et vise l’amélioration du processus d’évaluation des élèves en fin du cycle primaire. Pour ce faire, nous avons conçu et validé un guide d’élaboration d’épreuves de mathématique dans une visée certificative pour ledit niveau afin de soutenir prioritairement les agents chargés de l’élaboration des épreuves officielles. En nous basant sur le paradigme de l’apprentissage, le constructivisme et la démarche méthodologique de Loiselle et Harvey (2009), nous avons examiné, dans un premier temps, les épreuves nationales développées au Québec et au Burkina Faso. Cette analyse a permis d’en relever les caractéristiques et d’identifier les éléments devant être retenus dans le cahier des charges au regard du profil des sortants défini dans le programme burkinabé. Dans un deuxième temps, un cahier des charges (version initiale.) a été développé en quatre sections afin de présenter les principes qui le sous-tendent : (1) l’élaboration des situations d’évaluation, (2) l’élaboration des outils d’administration de l’épreuve, (3) l’élaboration des outils de correction et de consignation et (4) les grilles d’évaluation. Dans un troisième temps, un groupe d’experts canadiens et deux groupes d’experts burkinabé se sont exprimés sur le degré de pertinence et de clarté de chaque section à partir de l’une ou l’autre version du Guide. Leurs observations et commentaires nous ont permis de le bonifier. D’une manière générale, les pourcentages des degrés d’accord pour la pertinence et la clarté des contenus développés au niveau de chaque section sont satisfaisants. Cependant, les recommandations des experts ont suscité des ajustements sur : 1) le contenu du guide soit de conserver une seule épreuve en mathématiques et de retirer les énoncés concernant les volets lecture et écriture en français; 2) le contenu de certains tableaux : à compléter ou à fusionner et; 3) la qualité de la langue : certaines phrases ont été reformulées, les erreurs de numérotation de certaines sous-sections ont été corrigées. La version finale serait celle qui est adaptée au contexte burkinabé. Ce guide est destiné aux structures chargées de l’évaluation des apprentissages et des acquis des élèves au Burkina Faso. Il constitue aussi un référentiel pour la formation initiale et continue des enseignants et des encadreurs. Bien que la recherche ait rempli des conditions méthodologiques et éthiques, la mise en oeuvre de ses résultats se limite au contexte burkinabé. Cependant, ils pourront soutenir ou orienter d’autres recherches qui s’inscrivent dans la même dynamique.
Resumo:
Les moteurs de recherche font partie de notre vie quotidienne. Actuellement, plus d’un tiers de la population mondiale utilise l’Internet. Les moteurs de recherche leur permettent de trouver rapidement les informations ou les produits qu'ils veulent. La recherche d'information (IR) est le fondement de moteurs de recherche modernes. Les approches traditionnelles de recherche d'information supposent que les termes d'indexation sont indépendants. Pourtant, les termes qui apparaissent dans le même contexte sont souvent dépendants. L’absence de la prise en compte de ces dépendances est une des causes de l’introduction de bruit dans le résultat (résultat non pertinents). Certaines études ont proposé d’intégrer certains types de dépendance, tels que la proximité, la cooccurrence, la contiguïté et de la dépendance grammaticale. Dans la plupart des cas, les modèles de dépendance sont construits séparément et ensuite combinés avec le modèle traditionnel de mots avec une importance constante. Par conséquent, ils ne peuvent pas capturer correctement la dépendance variable et la force de dépendance. Par exemple, la dépendance entre les mots adjacents "Black Friday" est plus importante que celle entre les mots "road constructions". Dans cette thèse, nous étudions différentes approches pour capturer les relations des termes et de leurs forces de dépendance. Nous avons proposé des méthodes suivantes: ─ Nous réexaminons l'approche de combinaison en utilisant différentes unités d'indexation pour la RI monolingue en chinois et la RI translinguistique entre anglais et chinois. En plus d’utiliser des mots, nous étudions la possibilité d'utiliser bi-gramme et uni-gramme comme unité de traduction pour le chinois. Plusieurs modèles de traduction sont construits pour traduire des mots anglais en uni-grammes, bi-grammes et mots chinois avec un corpus parallèle. Une requête en anglais est ensuite traduite de plusieurs façons, et un score classement est produit avec chaque traduction. Le score final de classement combine tous ces types de traduction. Nous considérons la dépendance entre les termes en utilisant la théorie d’évidence de Dempster-Shafer. Une occurrence d'un fragment de texte (de plusieurs mots) dans un document est considérée comme représentant l'ensemble de tous les termes constituants. La probabilité est assignée à un tel ensemble de termes plutôt qu’a chaque terme individuel. Au moment d’évaluation de requête, cette probabilité est redistribuée aux termes de la requête si ces derniers sont différents. Cette approche nous permet d'intégrer les relations de dépendance entre les termes. Nous proposons un modèle discriminant pour intégrer les différentes types de dépendance selon leur force et leur utilité pour la RI. Notamment, nous considérons la dépendance de contiguïté et de cooccurrence à de différentes distances, c’est-à-dire les bi-grammes et les paires de termes dans une fenêtre de 2, 4, 8 et 16 mots. Le poids d’un bi-gramme ou d’une paire de termes dépendants est déterminé selon un ensemble des caractères, en utilisant la régression SVM. Toutes les méthodes proposées sont évaluées sur plusieurs collections en anglais et/ou chinois, et les résultats expérimentaux montrent que ces méthodes produisent des améliorations substantielles sur l'état de l'art.
Resumo:
Réalisé en cotutelle avec Aix Marseille Université.
Resumo:
Les ARN non codants (ARNnc) sont des transcrits d'ARN qui ne sont pas traduits en protéines et qui pourtant ont des fonctions clés et variées dans la cellule telles que la régulation des gènes, la transcription et la traduction. Parmi les nombreuses catégories d'ARNnc qui ont été découvertes, on trouve des ARN bien connus tels que les ARN ribosomiques (ARNr), les ARN de transfert (ARNt), les snoARN et les microARN (miARN). Les fonctions des ARNnc sont étroitement liées à leurs structures d’où l’importance de développer des outils de prédiction de structure et des méthodes de recherche de nouveaux ARNnc. Les progrès technologiques ont mis à la disposition des chercheurs des informations abondantes sur les séquences d'ARN. Ces informations sont accessibles dans des bases de données telles que Rfam, qui fournit des alignements et des informations structurelles sur de nombreuses familles d'ARNnc. Dans ce travail, nous avons récupéré toutes les séquences des structures secondaires annotées dans Rfam, telles que les boucles en épingle à cheveux, les boucles internes, les renflements « bulge », etc. dans toutes les familles d'ARNnc. Une base de données locale, RNAstem, a été créée pour faciliter la manipulation et la compilation des données sur les motifs de structure secondaire. Nous avons analysé toutes les boucles terminales et internes ainsi que les « bulges » et nous avons calculé un score d’abondance qui nous a permis d’étudier la fréquence de ces motifs. Tout en minimisant le biais de la surreprésentation de certaines classes d’ARN telles que l’ARN ribosomal, l’analyse des scores a permis de caractériser les motifs rares pour chacune des catégories d’ARN en plus de confirmer des motifs communs comme les boucles de type GNRA ou UNCG. Nous avons identifié des motifs abondants qui n’ont pas été étudiés auparavant tels que la « tetraloop » UUUU. En analysant le contenu de ces motifs en nucléotides, nous avons remarqué que ces régions simples brins contiennent beaucoup plus de nucléotides A et U. Enfin, nous avons exploré la possibilité d’utiliser ces scores pour la conception d’un filtre qui permettrait d’accélérer la recherche de nouveaux ARN non-codants. Nous avons développé un système de scores, RNAscore, qui permet d’évaluer un ARN en se basant sur son contenu en motifs et nous avons testé son applicabilité avec différents types de contrôles.
Resumo:
La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.
Resumo:
- Réalisé au centre de recherche de l'hospital du Sacré-Coeur de Montréal. - Programme conjoint entre Université de Montréal et École Polytechnique de Montréal.
Resumo:
Les politiques de confidentialité définissent comment les services en ligne collectent, utilisent et partagent les données des utilisateurs. Bien qu’étant le principal moyen pour informer les usagers de l’utilisation de leurs données privées, les politiques de confidentialité sont en général ignorées par ces derniers. Pour cause, les utilisateurs les trouvent trop longues et trop vagues, elles utilisent un vocabulaire souvent difficile et n’ont pas de format standard. Les politiques de confidentialité confrontent également les utilisateurs à un dilemme : celui d’accepter obligatoirement tout le contenu en vue d’utiliser le service ou refuser le contenu sous peine de ne pas y avoir accès. Aucune autre option n’est accordée à l’utilisateur. Les données collectées des utilisateurs permettent aux services en ligne de leur fournir un service, mais aussi de les exploiter à des fins économiques (publicités ciblées, revente, etc). Selon diverses études, permettre aux utilisateurs de bénéficier de cette économie de la vie privée pourrait restaurer leur confiance et faciliter une continuité des échanges sur Internet. Dans ce mémoire, nous proposons un modèle de politique de confidentialité, inspiré du P3P (une recommandation du W3C, World Wide Web Consortium), en élargissant ses fonctionnalités et en réduisant sa complexité. Ce modèle suit un format bien défini permettant aux utilisateurs et aux services en ligne de définir leurs préférences et besoins. Les utilisateurs ont la possibilité de décider de l’usage spécifique et des conditions de partage de chacune de leurs données privées. Une phase de négociation permettra une analyse des besoins du service en ligne et des préférences de l’utilisateur afin d’établir un contrat de confidentialité. La valeur des données personnelles est un aspect important de notre étude. Alors que les compagnies disposent de moyens leur permettant d’évaluer cette valeur, nous appliquons dans ce mémoire, une méthode hiérarchique multicritères. Cette méthode va permettre également à chaque utilisateur de donner une valeur à ses données personnelles en fonction de l’importance qu’il y accorde. Dans ce modèle, nous intégrons également une autorité de régulation en charge de mener les négociations entre utilisateurs et services en ligne, et de générer des recommandations aux usagers en fonction de leur profil et des tendances.
Resumo:
Les histones sont des protéines nucléaires hautement conservées chez les cellules des eucaryotes. Elles permettent d’organiser et de compacter l’ADN sous la forme de nucléosomes, ceux-ci representant les sous unités de base de la chromatine. Les histones peuvent être modifiées par de nombreuses modifications post-traductionnelles (PTMs) telles que l’acétylation, la méthylation et la phosphorylation. Ces modifications jouent un rôle essentiel dans la réplication de l’ADN, la transcription et l’assemblage de la chromatine. L’abondance de ces modifications peut varier de facon significative lors du developpement des maladies incluant plusieurs types de cancer. Par exemple, la perte totale de la triméthylation sur H4K20 ainsi que l’acétylation sur H4K16 sont des marqueurs tumoraux spécifiques a certains types de cancer chez l’humain. Par conséquent, l’étude de ces modifications et des événements determinant la dynamique des leurs changements d’abondance sont des atouts importants pour mieux comprendre les fonctions cellulaires et moléculaires lors du développement de la maladie. De manière générale, les modifications des histones sont étudiées par des approches biochimiques telles que les immuno-buvardage de type Western ou les méthodes d’immunoprécipitation de la chromatine (ChIP). Cependant, ces approches présentent plusieurs inconvénients telles que le manque de spécificité ou la disponibilité des anticorps, leur coût ou encore la difficulté de les produire et de les valider. Au cours des dernières décennies, la spectrométrie de masse (MS) s’est avérée être une méthode performante pour la caractérisation et la quantification des modifications d’histones. La MS offre de nombreux avantages par rapport aux techniques traditionnelles. Entre autre, elle permet d’effectuer des analyses reproductibles, spécifiques et facilite l’etude d’un large spectre de PTMs en une seule analyse. Dans cette thèse, nous présenterons le développement et l’application de nouveaux outils analytiques pour l’identification et à la quantification des PTMs modifiant les histones. Dans un premier temps, une méthode a été développée pour mesurer les changements d’acétylation spécifiques à certains sites des histones. Cette méthode combine l’analyse des histones intactes et les méthodes de séquençage peptidique afin de déterminer les changements d’acétylation suite à la réaction in vitro par l’histone acétyltransférase (HAT) de levure Rtt109 en présence de ses chaperonnes (Asf1 ou Vps75). Dans un second temps, nous avons développé une méthode d’analyse des peptides isomériques des histones. Cette méthode combine la LC-MS/MS à haute résolution et un nouvel outil informatique appelé Iso-PeptidAce qui permet de déconvoluer les spectres mixtes de peptides isomériques. Nous avons évalué Iso-PeptidAce avec un mélange de peptides synthétiques isomériques. Nous avons également validé les performances de cette approche avec des histones isolées de cellules humaines érythroleucémiques (K562) traitées avec des inhibiteurs d’histones désacétylases (HDACi) utilisés en clinique, et des histones de Saccharomyces cerevisiae liées au facteur d’assemblage de la chromatine (CAF-1) purifiées par chromatographie d’affinité. Enfin, en utilisant la méthode présentée précédemment, nous avons fait une analyse approfondie de la spécificité de plusieurs HATs et HDACs chez Schizosaccharomyces pombe. Nous avons donc déterminé les niveaux d’acétylation d’histones purifiées à partir de cellules contrôles ou de souches mutantes auxquelles il manque une HAT ou HDAC. Notre analyse nous a permis de valider plusieurs cibles connues des HATs et HDACs et d’en identifier de nouvelles. Nos données ont également permis de définir le rôle des différentes HATs et HDACs dans le maintien de l’équilibre d’acétylation des histones. Dans l’ensemble, nous anticipons que les méthodes décrites dans cette thèse permettront de résoudre certains défis rencontrés dans l’étude de la chromatine. De plus, ces données apportent de nouvelles connaissances pour l’élaboration d’études génétiques et biochimiques utilisant S. pombe.
Resumo:
L'activité électrique du coeur est initiée par la génération spontanée de potentiels d'action venant des cellules pacemaker du noeud sinusal (SN). Toute dysfonction au niveau de cette région entraîne une instabilité électrique du coeur. La majorité des patients souffrant d'un noeud sinusal déficient nécessitent l'implantation chirurgicale d'un pacemaker électronique; cependant, les limitations de cette approche incitent à la recherche d'une alternative thérapeutique. La base moléculaire des courants ioniques jouant un rôle crucial dans l'activité du noeud sinusal sont de plus en plus connues. Une composante importante de l'activité des cellules pacemakers semble être le canal HCN, responsable du courant pacemaker If. Le facteur T-box 3 (Tbx3), un facteur de transcription conservé durant le processus de l'évolution, est nécessaire au développement du système de conduction cardiaque. De précédentes études ont démontré que dans différentes lignées cellulaires le Phorbol 12-myristate 13-acetate (PMA) active l'expression du gène codant Tbx3 via des réactions en cascade partant de la protéine kinase C (PKC). L'objectif principal de cette étude est de tester si le PMA peut augmenter la fréquence et la synchronisation de l'activité spontanée du pacemaker biologique en culture. Plus précisément, nous avons étudié les effets de l'exposition chronique au PMA sur l'expression du facteur de transcription Tbx3, sur HCN4 et l'activité spontanée chez des monocouches de culture de myocytes ventriculaires de rats néonataux (MVRN). Nos résultats démontrent que le PMA augmente significativement le facteur transcription de Tbx3 et l'expression ARNm de HCN4, favorisant ainsi l'augmentation du rythme et de la stabilité de l'activité autonome. De plus, une diminution significative de la vitesse de conduction a été relevée et est attribuée à la diminution du couplage intercellulaire. La diminution de la vitesse de conduction pourrait expliquer l'effet négatif du PMA sur la synchronisation de l'activité autonome du pacemaker biologique. Ces résultats ont été confirmés par un modèle mathématique multicellulaire suggérant que des fréquences et résistances intercellulaires plus élevée pourraient induire une activité plus stable et moins synchrone. Cette étude amène de nouvelles connaissances très importantes destinées à la production d'un pacemaker biologique efficient et robuste.
Resumo:
En mécanique statistique, un système physique est représenté par un système mécanique avec un très grand nombre de degrés de liberté. Ce qui est expérimentalement accessible, croit-on, se limite à des moyennes temporelles sur de longues périodes. Or, il est bien connu qu’un système physique tend vers un équilibre thermodynamique. Ainsi, les moyennes temporelles censées représenter les résultats de mesure doivent être indépendantes du temps. C’est pourquoi elles sont associées à des temps infinis. Ces moyennes sont par contre difficilement analysables, et c’est pourquoi la moyenne des phases est utilisée. La justification de l’égalité de la moyenne temporelle infinie et de la moyenne des phases est le problème ergodique. Ce problème, sous une forme ou une autre, a fait l’objet d’études de la part de Boltzmann (1868 ; 1872), les Ehrenfest (1912), Birkhoff (1831), Khinchin (1949), et bien d’autres, jusqu’à devenir une théorie à part entière en mathématique (Mackey 1974). Mais l’introduction de temps infinis pose des problèmes physiques et philosophiques d’importance. En effet, si l’infini a su trouver une nouvelle place dans les mathématiques cantoriennes, sa place en physique n’est pas aussi assurée. Je propose donc de présenter les développements conceptuels entourant la théorie ergodique en mécanique statistique avant de me concentrer sur les problèmes épistémologiques que soulève la notion d’infini dans ces mêmes développements.
Resumo:
We report on an elementary course in ordinary differential equations (odes) for students in engineering sciences. The course is also intended to become a self-study package for odes and is is based on several interactive computer lessons using REDUCE and MATHEMATICA . The aim of the course is not to do Computer Algebra (CA) by example or to use it for doing classroom examples. The aim ist to teach and to learn mathematics by using CA-systems.