189 resultados para Modèles de langue probabilistes
Resumo:
Les maladies autoimmunes sont des affections chroniques, le plus souvent invalidantes, qui touchent plus de 5% de la population dans les pays développés. L’autoimmunité résulte de la rupture des mécanismes de tolérance du système immunitaire vis-à-vis des autoantigènes exprimés par les tissus de l’organisme, entraînant la destruction d’un ou de plusieurs organes-cibles par les lymphocytes T et/ou B. L’hépatite autoimmune et le diabète autoimmun se caractérisent par la destruction sélective des hépatocytes et des cellules beta pancréatiques, respectivement. De plus en plus d’arguments suggèrent une implication des lymphocytes T CD8+ dans le déclenchement, la progression et la régulation des réponses associées à plusieurs maladies autoimmunes. Dans ce projet, nous avons suivi l’évolution de clones de lymphocytes T CD8+ spécifiques à un antigène particulier dont le site d’expression différait. Pour ce faire, nous avons développé deux nouveaux modèles murins double transgéniques par croisement entre une lignée de souris exprimant un TCR transgénique spécifique à la nucléoprotéine (NP) du virus de la chorioméningite lymphocytaire (LCMV), et une souris exprimant cette NP-LCMV : 1) uniquement dans les hépatocytes (modèle d’hépatite autoimmune), ou 2) simultanément dans le thymus et le pancréas (modèle de diabète autoimmun). L’avidité fonctionnelle des lymphocytes T CD8+ spécifiques à la NP chez les souris TCR transgéniques était inversement proportionnelle au niveau d’expression du TCR. Le répertoire lymphocytaire dans le thymus, la rate, les ganglions et le sang périphérique a été caractérisé pour chacune des lignées de souris double transgéniques, de même que la capacité fonctionnelle et le phénotype (marqueurs d’activation/mémoire) des lymphocytes T CD8+ autoréactifs. Chacun des deux nouveaux modèles présentés dans cette étude ont montré que les lymphocytes T CD8+ spécifiques à la NP sont aptes à briser la tolérance centrale et périphérique et à provoquer une réaction d’autoimmunité spontanée. Dans le modèle d’hépatite autoimmune, où l’expression de l’autoantigène était restreinte au foie, la surexpression du TCR transgénique a entraîné une délétion thymique quasi-totale des lymphocytes T CD8+ spécifiques à la NP prévenant le développement d’une hépatite spontanée. alors qu’un niveau de TCR comparable à celui d’une souris de type sauvage a permis une sélection positive des lymphocytes autoréactifs qui se sont accumulés dans le foie où ils se sont activés pour provoquer une hépatite autoimmune spontanée. Dans le modèle de diabète autoimmun, où l’autoantigène était exprimé dans le pancréas et le thymus, les souris des deux lignées double transgéniques ont montré une délétion thymique partielle, peu importe le niveau d’expression du TCR. Seuls les mâles adultes développaient un diabète spontané et une partie de leurs lymphocytes T CD8+ exprimaient une combinaison particulière de marqueurs d’activation/mémoire (CD44, CD122, PD-1). Cette population lymphocytaire était absente chez les souris femelles et les mâles sains. L’étude de la tolérance des lymphocytes T CD8+ autoréactifs dans nos deux nouveaux modèles murins double transgéniques a permis d’identifier des mécanismes alternatifs possiblement impliqués dans la tolérance et l’activation, et de mieux comprendre le rôle des lymphocytes T CD8+ autoréactifs dans le processus autoimmun menant à l’hépatite autoimmune et au diabète autoimmun. Ces découvertes seront utiles pour développer de nouvelles approches thérapeutiques ciblant les lymphocytes T CD8+ autoréactifs.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
Resumo:
L’ingénierie dirigée par les modèles (IDM) est un paradigme d’ingénierie du logiciel bien établi, qui préconise l’utilisation de modèles comme artéfacts de premier ordre dans les activités de développement et de maintenance du logiciel. La manipulation de plusieurs modèles durant le cycle de vie du logiciel motive l’usage de transformations de modèles (TM) afin d’automatiser les opérations de génération et de mise à jour des modèles lorsque cela est possible. L’écriture de transformations de modèles demeure cependant une tâche ardue, qui requiert à la fois beaucoup de connaissances et d’efforts, remettant ainsi en question les avantages apportés par l’IDM. Afin de faire face à cette problématique, de nombreux travaux de recherche se sont intéressés à l’automatisation des TM. L’apprentissage de transformations de modèles par l’exemple (TMPE) constitue, à cet égard, une approche prometteuse. La TMPE a pour objectif d’apprendre des programmes de transformation de modèles à partir d’un ensemble de paires de modèles sources et cibles fournis en guise d’exemples. Dans ce travail, nous proposons un processus d’apprentissage de transformations de modèles par l’exemple. Ce dernier vise à apprendre des transformations de modèles complexes en s’attaquant à trois exigences constatées, à savoir, l’exploration du contexte dans le modèle source, la vérification de valeurs d’attributs sources et la dérivation d’attributs cibles complexes. Nous validons notre approche de manière expérimentale sur 7 cas de transformations de modèles. Trois des sept transformations apprises permettent d’obtenir des modèles cibles parfaits. De plus, une précision et un rappel supérieurs à 90% sont enregistrés au niveau des modèles cibles obtenus par les quatre transformations restantes.
Resumo:
Dans le présent article, nous décrivons les trois façons d’organiser la participation publique à l’échelle municipale au Québec. D’une part, le modèle de participation préconisé par la Loi sur l’aménagement et l’urbanisme (LAU) domine l’ensemble des municipalités du Québec. D’autre part, jusqu’en 2002, les deux plus grandes villes de la province, Montréal et Québec, n’étaient pas soumises aux principes de la LAU. Elles ont ainsi développé des dispositifs participatifs originaux : les audiences publiques et les conseils de quartier. À partir des écrits de Fung (2006 et 2003), nous établissons une grille d’analyse qui définit six facteurs relatifs à l’espace participatif et décrivons par la suite les trois modèles de participation publique municipale au Québec. Nous constatons finalement que les regroupements municipaux ont amené une confrontation entre le modèle dominant de participation publique à l’échelle municipale et les modèles de Québec et de Montréal.
Resumo:
Objectif: L'objectif primaire de cette étude était d'évaluer la validité, la fiabilité et la reproductibilité des mesures dentaires obtenues sur les modèles digitaux iTero (Align Technology, San Jose, Californie) et Unitek TMP Digital (3M, Monrovia, Californie) en comparaison avec celles obtenues sur les modèles de plâtre (gold standard). L'objectif secondaire était de comparer les deux différents matériaux à empreinte (l'alginate et le polyvinylsiloxane-PVS) afin de déterminer si le choix du matériau affectait la précision des mesures. Méthodes: Le premier volet de l'étude impliquait les modèles digitaux Unitek et iTero, obtenus à partir de 25 paires de modèles de plâtre choisis de façon randomisée et provenant de la pratique privée d'un des co-auteurs. Des empreintes d'alginate et de PVS ont été prises sur les modèles de plâtre et numérisées par le scanner Unitek. Les modèles ont ensuite été numérisés avec le scanner iTero. Le deuxième volet de l'étude cherchait à comparer les modèles digitaux iTero (numérisation intra-orale) avec les modèles de plâtre (empreintes d'alginate et de PVS) obtenus à partir de 25 patients de la clinique d'orthodontie de l'Université de Montréal ayant besoin d'un traitement orthodontique. Dans les deux volets de l'étude, deux auteurs ont pris les mesures suivantes sur les différents modèles: largeur mésio-distale de chaque dent de la première molaire à l'autre première molaire, le périmètre d'arcade, les distances intermolaire et intercanine, le surplomb vertical et le surplomb horizontal. Les ratios et excès Bolton 6 et 12, l'espace requis et les différentiels d'espace au maxillaire et à la mandibule, ont été calculés. Résultats: La fiabilité (ICC) entre les modèles digitaux (Unitek et iTero) et les modèles de plâtre était bonne à excellente pour toutes les mesures [ICC=0,762–0,998], et la fiabilité entre les deux matériaux à empreinte était excellente [ICC=0,947–0,996]. Dans les deux volets de l'étude, les mesures faites sur les modèles iTero étaient généralement plus grandes que celles faites sur les modèles de plâtre. Les plus grandes différences moyennes pour la comparaison iTero-plâtre étaient trouvées au niveau de l'espace disponible au maxillaire et à la mandibule (systématiquement plus grande pour cette variable), soit 2,24 mm et 2,02 mm respectivement dans le premier volet, et 1,17 mm et 1,39 mm respectivement dans le deuxième volet. Les différences étaient considérées cliniquement non significatives pour toutes les variables. La reproductibilité intra-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux, à l'exception du différentiel d'espace à la mandibule pour les modèles Unitek [ICC=0,690-0,692]. La reproductibilité inter-examinateur était bonne à excellente pour les modèles de plâtre et les modèles digitaux dans les deux volets de l'étude, mais acceptable à modérée pour les modèles Unitek au niveau des analyses Bolton 6 et 12, et des différentiels d'espace au maxillaire et à la mandibule [ICC=0,362-0,548]. Conclusions: La précision et la fiabilité des mesures dentaires faites sur les modèles digitaux Unitek et iTero étaient cliniquement acceptables et reproductibles en comparaison avec les celles faites sur les modèles de plâtre. Le choix de matériel à empreinte entre l'alginate et le PVS n'affectait pas la précision des mesures. Cette étude semble démontrer que les modèles digitaux Unitek et iTero, utilisés avec leur logiciel respectif, sont une alternative fiable et reproductible aux modèles de plâtre pour le diagnostic et l’analyse des modèles orthodontiques.
Resumo:
Les modèles animaux d’arthrose permettent d’évaluer le potentiel d’agents thérapeutiques en phase préclinique de développement. Le présent ouvrage tient compte du chien comme modèle d’arthrose naturelle (chez l’animal de compagnie) ou expérimentale (par sectionnement chirurgical du ligament croisé crânial). Au sein des expérimentations, la force de réaction au sol verticale maximale, mesurée lors de l’analyse cinétique de la locomotion, est proposée comme témoin d’effets fonctionnels et structuraux sur ces modèles d’arthrose. Sur un modèle canin d’arthrose naturelle, le seuil de changement minimal détectable a été déterminé. Les changements au dysfonctionnement locomoteur peuvent désormais être cernés en s’affranchissant de la marge d’erreur inhérente à la mesure de la force verticale maximale. Il en découle l’identification de répondants lors d’essais cliniques entrepris chez le chien arthrosique. Une analyse rétrospective a, par la suite, déterminé un taux de répondants de 62.8% et d’une taille d’effet de 0.7 pour des approches thérapeutiques actuellement proposées aux chiens arthrosiques. Cette analyse détermina également que la démonstration d’une réponse thérapeutique était favorisée en présence d’un fort dysfonctionnement locomoteur. Sur un modèle canin d’arthrose par sectionnement chirurgical du ligament croisé crânial, la force verticale maximale a démontré une relation inverse avec certains types de lésions arthrosiques évaluées à l’aide d’imagerie par résonance magnétique. Également, la sensibilité de la force verticale maximale a été mise en évidence envers la détection d’effets structuraux, au niveau de l’os sous-chondral, par un agent anti-résorptif (le tiludronate) sur ce même modèle. Les expérimentations en contexte d’arthrose naturelle canine permettent de valider davantage les résultats d’essais cliniques contrôlés utilisant la force verticale maximale comme critère d’efficacité fonctionnelle. Des évidences cliniques probantes nécessaires à la pratique d’une médecine basée sur des faits sont ainsi escomptées. En contexte d’arthrose expérimentale, la pertinence d’enregistrer le dysfonctionnement locomoteur est soulignée, puisque ce dernier est en lien avec l’état des structures. En effectuant l’analyse de la démarche, de pair avec l’évaluation des structures, il est escompté de pouvoir établir la répercussion de bénéfices structurels sur l’inconfort articulaire. Cet ouvrage suggère qu’une plateforme d’investigations précliniques, qui combine le modèle canin d’arthrose par sectionnement chirurgical du ligament croisé crânial à un essai clinique chez le chien arthrosique, soit un moyen de cerner des bénéfices structuraux ayant des impacts fonctionnels. Le potentiel inférentiel de ces modèles canins d’arthrose vers l’Homme serait ainsi favorisé en utilisant la force verticale maximale.
Resumo:
Dans ce mémoire, je considère un modèle de sélection standard avec sélection non aléatoire. D’abord, je discute la validité et la ‘‘sharpness ’’ des bornes sur l’intervalle interquantile de la distribution de la variable aléatoire latente non censurée, dérivées par Blundell et al. (2007). Ensuite, je dérive les bornes ‘‘sharp ’’ sur l’intervalle interquantile lorsque la distribution observée domine stochastiquement au premier ordre celle non observée. Enfin, je discute la ‘‘sharpness’’ des bornes sur la variance de la distribution de la variable latente, dérivées par Stoye (2010). Je montre que les bornes sont valides mais pas nécessairement ‘‘sharp’’. Je propose donc des bornes inférieures ‘‘sharp’’ pour la variance et le coefficient de variation de ladite distribution.
L’enseignement de la distinction entre le passé composé et l’imparfait en français langue seconde
Resumo:
La présente recherche vise à décrire et comprendre l’enseignement de la distinction entre le passé composé et l’imparfait à partir des connaissances et conceptions des enseignants ainsi qu’à partir de leur matériel didactique. La distinction aspectuelle, plus précisément celle qui concerne le perfectif et l’imperfectif, est une difficulté qui concerne plusieurs langues. La recherche antérieure s’est beaucoup intéressée à cette question, permettant de comprendre les raisons de cette difficulté qui se fonde sur l’hypothèse de l’aspect. À partir de cette hypothèse, les difficultés concernant la distinction entre le passé composé et l’imparfait s’éclaircissent, permettant d’ajuster les explications et la transposition didactique. Or, la recherche antérieure considère que les manuels didactiques fournissent aux apprenants et aux enseignants des explications qui ne permettent pas une réelle compréhension de la distinction entre le passé composé et l’imparfait. La présente recherche cherche à vérifier ces hypothèses. À partir d’entrevues réalisées auprès de neuf enseignants de français langue seconde, les résultats montrent qu’effectivement, les enseignants s’inspirent des manuels didactiques pour expliquer et transposer la distinction entre le passé composé et l’imparfait. De plus, à partir du matériel didactique fourni par les mêmes enseignants, les résultats montrent que malgré une connaissance de la difficulté d’emploi du passé composé et de l’imparfait, les exercices ne sont pas adaptés aux difficultés des étudiants. Enfin, la présente recherche démontre la prédominance de l’intrant typique par rapport à l’intrant atypique.
Resumo:
Le présent article poursuit un double objectif. Le premier est de rendre compte de l’importance du concept de bilittératie pour la recherche et la pratique en éducation. Le second est de susciter la réflexion sur les différents enjeux didactiques et pédagogiques liés à la bilittératie chez les jeunes élèves allophones à Montréal. À cet effet, deux modèles complémentaires qui font partie de la matrice théorique de notre projet de recherche seront abordés. Il s’agit du modèle de la compétence sous-jacente commune de Cummins (2008, 1991, 1981, 1979), ainsi que du modèle des continuums de Hornberger (2004, 2003). Le texte illustre la nécessité de reconsidérer la pratique d’enseignement du français – langue de scolarisation au Québec – vu la réalité sociolinguistique dans laquelle évoluent les élèves allophones.
Resumo:
Les moteurs de recherche font partie de notre vie quotidienne. Actuellement, plus d’un tiers de la population mondiale utilise l’Internet. Les moteurs de recherche leur permettent de trouver rapidement les informations ou les produits qu'ils veulent. La recherche d'information (IR) est le fondement de moteurs de recherche modernes. Les approches traditionnelles de recherche d'information supposent que les termes d'indexation sont indépendants. Pourtant, les termes qui apparaissent dans le même contexte sont souvent dépendants. L’absence de la prise en compte de ces dépendances est une des causes de l’introduction de bruit dans le résultat (résultat non pertinents). Certaines études ont proposé d’intégrer certains types de dépendance, tels que la proximité, la cooccurrence, la contiguïté et de la dépendance grammaticale. Dans la plupart des cas, les modèles de dépendance sont construits séparément et ensuite combinés avec le modèle traditionnel de mots avec une importance constante. Par conséquent, ils ne peuvent pas capturer correctement la dépendance variable et la force de dépendance. Par exemple, la dépendance entre les mots adjacents "Black Friday" est plus importante que celle entre les mots "road constructions". Dans cette thèse, nous étudions différentes approches pour capturer les relations des termes et de leurs forces de dépendance. Nous avons proposé des méthodes suivantes: ─ Nous réexaminons l'approche de combinaison en utilisant différentes unités d'indexation pour la RI monolingue en chinois et la RI translinguistique entre anglais et chinois. En plus d’utiliser des mots, nous étudions la possibilité d'utiliser bi-gramme et uni-gramme comme unité de traduction pour le chinois. Plusieurs modèles de traduction sont construits pour traduire des mots anglais en uni-grammes, bi-grammes et mots chinois avec un corpus parallèle. Une requête en anglais est ensuite traduite de plusieurs façons, et un score classement est produit avec chaque traduction. Le score final de classement combine tous ces types de traduction. Nous considérons la dépendance entre les termes en utilisant la théorie d’évidence de Dempster-Shafer. Une occurrence d'un fragment de texte (de plusieurs mots) dans un document est considérée comme représentant l'ensemble de tous les termes constituants. La probabilité est assignée à un tel ensemble de termes plutôt qu’a chaque terme individuel. Au moment d’évaluation de requête, cette probabilité est redistribuée aux termes de la requête si ces derniers sont différents. Cette approche nous permet d'intégrer les relations de dépendance entre les termes. Nous proposons un modèle discriminant pour intégrer les différentes types de dépendance selon leur force et leur utilité pour la RI. Notamment, nous considérons la dépendance de contiguïté et de cooccurrence à de différentes distances, c’est-à-dire les bi-grammes et les paires de termes dans une fenêtre de 2, 4, 8 et 16 mots. Le poids d’un bi-gramme ou d’une paire de termes dépendants est déterminé selon un ensemble des caractères, en utilisant la régression SVM. Toutes les méthodes proposées sont évaluées sur plusieurs collections en anglais et/ou chinois, et les résultats expérimentaux montrent que ces méthodes produisent des améliorations substantielles sur l'état de l'art.
Resumo:
Réalisé en cotutelle avec Aix Marseille Université.
Resumo:
La rumeur publique joue un rôle-clé dès les plus anciens textes français : elle motive les héros à la guerre et assure la renommée du saint auprès du bon peuple. Quand les auteurs vernaculaires délaissent les chansons de geste ou de saints (genres marqués par l’oralité) au profit d’une forme narrative bientôt appelée roman (genre défini d’abord par son rapport à l’écriture), la rumeur – qui fait et défait les héros – se voit concurrencée par l’écrit, auquel est attribuée une valeur de vérité supérieure. Le roman met ainsi en abyme sa propre quête de légitimité. Le statut ambigu de la narration médiévale, au carrefour de l’oralité et de l’écriture, se reflète dans la situation ambivalente de la rumeur, clairement associée au peuple et en position d’infériorité manifeste, mais demeurant néanmoins le véritable moteur de la narration. À ce titre, la rumeur, ou plus exactement la nouvelle « qui court et vole », devient un sujet autonome qui relance le récit, dans un apparent parallèle avec à la voix du narrateur. Au début du XIIIe siècle, l’opposition entre roman et chanson se double d’une séparation entre vers et prose. Le roman en vers prend ses distances avec la rumeur en adoptant des accents parodiques, mais la prose est le lieu où la rumeur est mise en cause de la manière la plus systématique. Le roman en prose élabore ainsi un système complexe où la lettre et la voix se répondent. Par exemple, le grand cycle du Lancelot-Graal se clôt avec un roman, La Mort du roi Arthur, où la vérité vient de la lettre (missives révélatrices, inscriptions funéraires), alors même que la rumeur se révèle mortifère, depuis la rumeur de la fausse mort, qui a poussé Lancelot et Guenièvre au bord du suicide, jusqu’à celle qui condamne injustement la reine du meurtre de Gaheris de Karaheu. Le roman oppose ainsi à la voix de Merlin, le prophète à l’origine de ce royaume déchu, la permanence de la lettre, seule capable d’assurer la pérennité du royaume dans la mémoire et dans les lettres. La rumeur qui traverse les premières entreprises romanesques porte avec elle la question fondamentale du roman : celle de la vérité et du statut de la fiction, dans un monde où la langue vulgaire quitte la sphère de l’oralité et cherche à s’imposer comme langue d’écriture.
Resumo:
Ce projet de recherche a été réalisé avec la collaboration de FPInnovations. Une part des travaux concernant le problème de récolte chilien a été effectuée à l'Instituto Sistemas Complejos de Ingeniería (ISCI) à Santiago (Chili).
Resumo:
Des débats et interventions diverses sur les rapports entre langue et théâtre au Québec, on ne retient souvent que les polémiques ayant entouré, entre 1968 et 1973, la création des premières pièces de Michel Tremblay ainsi que les innombrables prises de position publiques de leur auteur. Dans une perspective sociohistorique, cet article cherche à montrer que — à partir des années 1930, tout particulièrement — une réflexion originale sur la langue au théâtre prend naissance dans un contexte où la critique tente de penser l’autonomie d’un théâtre québécois en émergence. D’où une vive attention à la façon de porter la parole vivante au théâtre (élocution, débit, accent), qu’il s’agit de faire échapper à l’influence de l’art oratoire et de l’éloquence profane ou sacrée. L’importance de la notion centrale de l’époque, le naturel à la scène, se manifeste ensuite sous d’autres formes, notamment à travers la promotion d’un théâtre réaliste, puis social. La dramaturgie et les positions de Marcel Dubé sur la question linguistique, affirmées dès les années 1950, sont exemplaires de cette évolution générale, qui s’inscrit en faux contre une perspective textualiste évacuant de l’oeuvre de théâtre la parole quotidienne, dans toute son imperfection et sa fragilité.