99 resultados para Carte probabiliste


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte. Les attitudes et comportements alimentaires développés pendant la petite enfance influencent grandement la relation future du mangeur à l’égard des aliments. Le parent s’avère en ce sens des plus déterminants. Objectifs. Cette étude vise à connaître les pratiques et attitudes employées par les parents québécois d’enfants d’âge préscolaire pour favoriser le « bien manger » ainsi que le repas familial agréable. Méthodes. La collecte de données a été effectuée à l’aide de cartes postales qui étaient distribuées dans six cent cinquante Centres de la Petite Enfance parmi les mille retrouvés dans la province de Québec pour ensuite être remises aux parents. L’analyse des réponses aux deux questions ouvertes figurant sur la carte postale a été effectuée en se basant sur le modèle des prises alimentaires de Jean-Pierre Poulain. Résultats. Plus de mille (1257) cartes postales ont été retenues aux fins d’analyses. Les données recueillies permettent dans un premier temps de connaître la perception des parents quant à la notion de manger bien. Les notions de qualité et de quantité, diamétralement opposées se démarquent. Dans le cas du repas familial, la discussion, la présence de tous les membres à table ainsi que l’absence de télévision sont abondamment mentionnées. Conclusion. Cette étude permet de constater la variété des stratégies employées par les parents québécois au moment du repas. Ces données d’une grande pertinence pour la santé publique permettront de cibler les messages clés à promouvoir auprès de ces acteurs d’influence dans le développement des habitudes alimentaires des tout petits.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les milieux humides remplissent plusieurs fonctions écologiques d’importance et contribuent à la biodiversité de la faune et de la flore. Même s’il existe une reconnaissance croissante sur l’importante de protéger ces milieux, il n’en demeure pas moins que leur intégrité est encore menacée par la pression des activités humaines. L’inventaire et le suivi systématique des milieux humides constituent une nécessité et la télédétection est le seul moyen réaliste d’atteindre ce but. L’objectif de cette thèse consiste à contribuer et à améliorer la caractérisation des milieux humides en utilisant des données satellites acquises par des radars polarimétriques en bande L (ALOS-PALSAR) et C (RADARSAT-2). Cette thèse se fonde sur deux hypothèses (chap. 1). La première hypothèse stipule que les classes de physionomies végétales, basées sur la structure des végétaux, sont plus appropriées que les classes d’espèces végétales car mieux adaptées au contenu informationnel des images radar polarimétriques. La seconde hypothèse stipule que les algorithmes de décompositions polarimétriques permettent une extraction optimale de l’information polarimétrique comparativement à une approche multipolarisée basée sur les canaux de polarisation HH, HV et VV (chap. 3). En particulier, l’apport de la décomposition incohérente de Touzi pour l’inventaire et le suivi de milieux humides est examiné en détail. Cette décomposition permet de caractériser le type de diffusion, la phase, l’orientation, la symétrie, le degré de polarisation et la puissance rétrodiffusée d’une cible à l’aide d’une série de paramètres extraits d’une analyse des vecteurs et des valeurs propres de la matrice de cohérence. La région du lac Saint-Pierre a été sélectionnée comme site d’étude étant donné la grande diversité de ses milieux humides qui y couvrent plus de 20 000 ha. L’un des défis posés par cette thèse consiste au fait qu’il n’existe pas de système standard énumérant l’ensemble possible des classes physionomiques ni d’indications précises quant à leurs caractéristiques et dimensions. Une grande attention a donc été portée à la création de ces classes par recoupement de sources de données diverses et plus de 50 espèces végétales ont été regroupées en 9 classes physionomiques (chap. 7, 8 et 9). Plusieurs analyses sont proposées pour valider les hypothèses de cette thèse (chap. 9). Des analyses de sensibilité par diffusiogramme sont utilisées pour étudier les caractéristiques et la dispersion des physionomies végétales dans différents espaces constitués de paramètres polarimétriques ou canaux de polarisation (chap. 10 et 12). Des séries temporelles d’images RADARSAT-2 sont utilisées pour approfondir la compréhension de l’évolution saisonnière des physionomies végétales (chap. 12). L’algorithme de la divergence transformée est utilisé pour quantifier la séparabilité entre les classes physionomiques et pour identifier le ou les paramètres ayant le plus contribué(s) à leur séparabilité (chap. 11 et 13). Des classifications sont aussi proposées et les résultats comparés à une carte existante des milieux humide du lac Saint-Pierre (14). Finalement, une analyse du potentiel des paramètres polarimétrique en bande C et L est proposé pour le suivi de l’hydrologie des tourbières (chap. 15 et 16). Les analyses de sensibilité montrent que les paramètres de la 1re composante, relatifs à la portion dominante (polarisée) du signal, sont suffisants pour une caractérisation générale des physionomies végétales. Les paramètres des 2e et 3e composantes sont cependant nécessaires pour obtenir de meilleures séparabilités entre les classes (chap. 11 et 13) et une meilleure discrimination entre milieux humides et milieux secs (chap. 14). Cette thèse montre qu’il est préférable de considérer individuellement les paramètres des 1re, 2e et 3e composantes plutôt que leur somme pondérée par leurs valeurs propres respectives (chap. 10 et 12). Cette thèse examine également la complémentarité entre les paramètres de structure et ceux relatifs à la puissance rétrodiffusée, souvent ignorée et normalisée par la plupart des décompositions polarimétriques. La dimension temporelle (saisonnière) est essentielle pour la caractérisation et la classification des physionomies végétales (chap. 12, 13 et 14). Des images acquises au printemps (avril et mai) sont nécessaires pour discriminer les milieux secs des milieux humides alors que des images acquises en été (juillet et août) sont nécessaires pour raffiner la classification des physionomies végétales. Un arbre hiérarchique de classification développé dans cette thèse constitue une synthèse des connaissances acquises (chap. 14). À l’aide d’un nombre relativement réduit de paramètres polarimétriques et de règles de décisions simples, il est possible d’identifier, entre autres, trois classes de bas marais et de discriminer avec succès les hauts marais herbacés des autres classes physionomiques sans avoir recours à des sources de données auxiliaires. Les résultats obtenus sont comparables à ceux provenant d’une classification supervisée utilisant deux images Landsat-5 avec une exactitude globale de 77.3% et 79.0% respectivement. Diverses classifications utilisant la machine à vecteurs de support (SVM) permettent de reproduire les résultats obtenus avec l’arbre hiérarchique de classification. L’exploitation d’une plus forte dimensionalitée par le SVM, avec une précision globale maximale de 79.1%, ne permet cependant pas d’obtenir des résultats significativement meilleurs. Finalement, la phase de la décomposition de Touzi apparaît être le seul paramètre (en bande L) sensible aux variations du niveau d’eau sous la surface des tourbières ouvertes (chap. 16). Ce paramètre offre donc un grand potentiel pour le suivi de l’hydrologie des tourbières comparativement à la différence de phase entre les canaux HH et VV. Cette thèse démontre que les paramètres de la décomposition de Touzi permettent une meilleure caractérisation, de meilleures séparabilités et de meilleures classifications des physionomies végétales des milieux humides que les canaux de polarisation HH, HV et VV. Le regroupement des espèces végétales en classes physionomiques est un concept valable. Mais certaines espèces végétales partageant une physionomie similaire, mais occupant un milieu différent (haut vs bas marais), ont cependant présenté des différences significatives quant aux propriétés de leur rétrodiffusion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PROBLÉMATIQUE: L’Organisation Mondiale de la Santé (OMS) considère les maladies cardiovasculaires (MCVs) comme l'hypertension, la maladie coronarienne (par exemple, infarctus du myocarde), l'insuffisance cardiaque ainsi que les accidents cérébrovasculaires, parmi les principales causes de mortalité dans le monde. Les MCVs sont des maladies multifactorielles caractérisées par des interactions complexes entre le génome et l'environnement et dont la prévalence augmente rapidement dans toutes les populations du globe, ce qui vient compliquer d'autant l'étude de leurs bases héréditaires. Nos études précédentes sur la population fondatrice des familles Canadiennes-françaises de la région du Saguenay-Lac-Saint-Jean (SLSJ) au Québec ont permis d’obtenir une carte des loci significativement liés à des déterminants qualitatifs et quantitatifs de l’hypertension et ses déterminants métaboliques [1, 2]. HYPOTHÈSE ET OBJECTIF: Puisque nos données préliminaires nous suggèrent que la mort prématurée consécutive aux MCVs possède des composantes génétique et environnementale, notre hypothèse de départ est que les maladies avec occurrences fatales et non fatales (OF et ONF, respectivement) ont des caractéristiques distinctes, surtout lorsqu’en lien avec le système CV. Pour réaliser ce projet, nos objectifs sont d’analyser les causes de morbidité/mortalité d’hypertendus avec ou sans obésité chez des familles de la région du SLSJ. Nous accomplirons ceci en interrogeant les registres des hôpitaux et de l'état civil de même que les données généalogiques de 1950 jusqu'à maintenant. Nous voulons décrire et étudier les OF pour les comparer aux NFO. RÉSULTATS: Nous avons identifié un total de 3,654 diagnostiques appartenant aux OF et ONF chez les 343 sujets étudiés. Pour les OF, nous avons trouvé que: (1) un grand total de 1,103 diagnostiques du système circulatoire ont affecté 299 sujets avec 555 occurrences et 247 premières occurrences; (2) 333 des sujets participants ont reçu 1,536 diagnostiques non-CV avec 195 occurrences et 107 premières occurrences; (3) 62 diagnostiques de toutes autres causes chez 62 des sujets participants avec 81 occurrences et 11 premières occurrences. Pour les ONF: (1) 156 diagnostiques du système circulatoire ont affecté 105 sujets; (2) 60 diagnostiques de causes non-CV chez 53 des sujets; (3) et 718 diagnostiques de toutes autres causes chez 252 des sujets. Pour les OF, 109 des 333 sujets affectés par les maladies non-CV et 58 des 62 par toutes autres maladies étaient atteints simultanément par des MCV. Nous avons décrit les caractéristiques des maladies avec occurrences fatales et non fatales. Les MCVs prédominaient dans les résultats des premières occurrences et occurrences totales tandis que les maladies non-CV étaient les plus élevées pour les diagnostiques. De plus, les OF CV ont affecté 67.1% de notre échantillon de population, incluant les sujets co-affectés par les maladies non-CV ou de toutes autres causes. En fait, nos sujets ont un risque trois fois plus élevé de développer des MCVs (p<0.0001; χ2=1,575.348), tandis qu’il diminue de moitié pour les maladies non-CV comparativement au reste de la population du SLSJ (p=0.0006; χ2=11.834). Enfin, le risque de développer des tumeurs malignes est diminué de moitié dans notre échantillon comparativement à l’incidence régionale. CONCLUSION: Cette étude a apporté une nouvelle perspective sur les OF et ONF chez nos sujets de la région SLSJ du Québec après 11 ans. Quand on observe ces résultats en conjonction avec les MCVs, ce risque double.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La modélisation de l’expérience de l’utilisateur dans les Interactions Homme-Machine est un enjeu important pour la conception et le développement des systèmes adaptatifs intelligents. Dans ce contexte, une attention particulière est portée sur les réactions émotionnelles de l’utilisateur, car elles ont une influence capitale sur ses aptitudes cognitives, comme la perception et la prise de décision. La modélisation des émotions est particulièrement pertinente pour les Systèmes Tutoriels Émotionnellement Intelligents (STEI). Ces systèmes cherchent à identifier les émotions de l’apprenant lors des sessions d’apprentissage, et à optimiser son expérience d’interaction en recourant à diverses stratégies d’interventions. Cette thèse vise à améliorer les méthodes de modélisation des émotions et les stratégies émotionnelles utilisées actuellement par les STEI pour agir sur les émotions de l’apprenant. Plus précisément, notre premier objectif a été de proposer une nouvelle méthode pour détecter l’état émotionnel de l’apprenant, en utilisant différentes sources d’informations qui permettent de mesurer les émotions de façon précise, tout en tenant compte des variables individuelles qui peuvent avoir un impact sur la manifestation des émotions. Pour ce faire, nous avons développé une approche multimodale combinant plusieurs mesures physiologiques (activité cérébrale, réactions galvaniques et rythme cardiaque) avec des variables individuelles, pour détecter une émotion très fréquemment observée lors des sessions d’apprentissage, à savoir l’incertitude. Dans un premier lieu, nous avons identifié les indicateurs physiologiques clés qui sont associés à cet état, ainsi que les caractéristiques individuelles qui contribuent à sa manifestation. Puis, nous avons développé des modèles prédictifs permettant de détecter automatiquement cet état à partir des différentes variables analysées, à travers l’entrainement d’algorithmes d’apprentissage machine. Notre deuxième objectif a été de proposer une approche unifiée pour reconnaître simultanément une combinaison de plusieurs émotions, et évaluer explicitement l’impact de ces émotions sur l’expérience d’interaction de l’apprenant. Pour cela, nous avons développé une plateforme hiérarchique, probabiliste et dynamique permettant de suivre les changements émotionnels de l'apprenant au fil du temps, et d’inférer automatiquement la tendance générale qui caractérise son expérience d’interaction à savoir : l’immersion, le blocage ou le décrochage. L’immersion correspond à une expérience optimale : un état dans lequel l'apprenant est complètement concentré et impliqué dans l’activité d’apprentissage. L’état de blocage correspond à une tendance d’interaction non optimale où l'apprenant a de la difficulté à se concentrer. Finalement, le décrochage correspond à un état extrêmement défavorable où l’apprenant n’est plus du tout impliqué dans l’activité d’apprentissage. La plateforme proposée intègre trois modalités de variables diagnostiques permettant d’évaluer l’expérience de l’apprenant à savoir : des variables physiologiques, des variables comportementales, et des mesures de performance, en combinaison avec des variables prédictives qui représentent le contexte courant de l’interaction et les caractéristiques personnelles de l'apprenant. Une étude a été réalisée pour valider notre approche à travers un protocole expérimental permettant de provoquer délibérément les trois tendances ciblées durant l’interaction des apprenants avec différents environnements d’apprentissage. Enfin, notre troisième objectif a été de proposer de nouvelles stratégies pour influencer positivement l’état émotionnel de l’apprenant, sans interrompre la dynamique de la session d’apprentissage. Nous avons à cette fin introduit le concept de stratégies émotionnelles implicites : une nouvelle approche pour agir subtilement sur les émotions de l’apprenant, dans le but d’améliorer son expérience d’apprentissage. Ces stratégies utilisent la perception subliminale, et plus précisément une technique connue sous le nom d’amorçage affectif. Cette technique permet de solliciter inconsciemment les émotions de l’apprenant, à travers la projection d’amorces comportant certaines connotations affectives. Nous avons mis en œuvre une stratégie émotionnelle implicite utilisant une forme particulière d’amorçage affectif à savoir : le conditionnement évaluatif, qui est destiné à améliorer de façon inconsciente l’estime de soi. Une étude expérimentale a été réalisée afin d’évaluer l’impact de cette stratégie sur les réactions émotionnelles et les performances des apprenants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les facteurs de transcription sont des protéines spécialisées qui jouent un rôle important dans différents processus biologiques tel que la différenciation, le cycle cellulaire et la tumorigenèse. Ils régulent la transcription des gènes en se fixant sur des séquences d’ADN spécifiques (éléments cis-régulateurs). L’identification de ces éléments est une étape cruciale dans la compréhension des réseaux de régulation des gènes. Avec l’avènement des technologies de séquençage à haut débit, l’identification de tout les éléments fonctionnels dans les génomes, incluant gènes et éléments cis-régulateurs a connu une avancée considérable. Alors qu’on est arrivé à estimer le nombre de gènes chez différentes espèces, l’information sur les éléments qui contrôlent et orchestrent la régulation de ces gènes est encore mal définie. Grace aux techniques de ChIP-chip et de ChIP-séquençage il est possible d’identifier toutes les régions du génome qui sont liées par un facteur de transcription d’intérêt. Plusieurs approches computationnelles ont été développées pour prédire les sites fixés par les facteurs de transcription. Ces approches sont classées en deux catégories principales: les algorithmes énumératifs et probabilistes. Toutefois, plusieurs études ont montré que ces approches génèrent des taux élevés de faux négatifs et de faux positifs ce qui rend difficile l’interprétation des résultats et par conséquent leur validation expérimentale. Dans cette thèse, nous avons ciblé deux objectifs. Le premier objectif a été de développer une nouvelle approche pour la découverte des sites de fixation des facteurs de transcription à l’ADN (SAMD-ChIP) adaptée aux données de ChIP-chip et de ChIP-séquençage. Notre approche implémente un algorithme hybride qui combine les deux stratégies énumérative et probabiliste, afin d’exploiter les performances de chacune d’entre elles. Notre approche a montré ses performances, comparée aux outils de découvertes de motifs existants sur des jeux de données simulées et des jeux de données de ChIP-chip et de ChIP-séquençage. SAMD-ChIP présente aussi l’avantage d’exploiter les propriétés de distributions des sites liés par les facteurs de transcription autour du centre des régions liées afin de limiter la prédiction aux motifs qui sont enrichis dans une fenêtre de longueur fixe autour du centre de ces régions. Les facteurs de transcription agissent rarement seuls. Ils forment souvent des complexes pour interagir avec l’ADN pour réguler leurs gènes cibles. Ces interactions impliquent des facteurs de transcription dont les sites de fixation à l’ADN sont localisés proches les uns des autres ou bien médier par des boucles de chromatine. Notre deuxième objectif a été d’exploiter la proximité spatiale des sites liés par les facteurs de transcription dans les régions de ChIP-chip et de ChIP-séquençage pour développer une approche pour la prédiction des motifs composites (motifs composés par deux sites et séparés par un espacement de taille fixe). Nous avons testé ce module pour prédire la co-localisation entre les deux demi-sites ERE qui forment le site ERE, lié par le récepteur des œstrogènes ERα. Ce module a été incorporé à notre outil de découverte de motifs SAMD-ChIP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Cette thèse est constituée de trois articles liés les uns aux autres. Le premier s’attache à clarifier les perspectives théoriques et problèmes conceptuels entourant la notion de capacité/incapacité au travail, sa définition et son évolution au fil du temps. Les deuxième et troisième articles visent à évaluer les effets différentiels selon le genre de déterminants du retour au travail (RAT) et de la durée d’indemnisation ainsi que les coûts associés, dans une population de travailleurs indemnisés à long terme pour troubles musculosquelettiques (TMS). Méthodes : Dans le premier article, une revue systématique des définitions de l’(in)capacité au travail et une analyse comparative basée sur la théorisation ancrée débouchent sur une carte conceptuelle intégrative. Dans le second article, une cohorte de 455 adultes en incapacité à long terme pour TMS au dos/cou/membres supérieurs est suivie cinq ans au travers d’entretiens structurés et de données d’indemnisation. Des modèles de Cox stratifiés par genre ont été utilisés pour évaluer la durée jusqu’au premier RAT. Dans le troisième article, une cohorte populationnelle de 13,073 hommes et 9032 femmes en incapacité prolongée pour TMS au dos/cou/membres supérieurs a été suivie pendant trois ans à l’aide de données administratives. Des modèles de Cox stratifiés par genre ont été utilisés pour étudier la durée d’indemnisation et détecter les effets dépendants du temps. Les coûts ont également été examinés. Résultats : Les définitions analysées dans la première étude ne reflètent pas une vision intégrée et partagée de l’(in)capacité au travail. Cependant, un consensus relatif semble émerger qu’il s’agit d’un concept relationnel, résultant de l’interaction de multiples dimensions aux niveaux individuel, organisationnel et sociétal. La seconde étude montre que malgré des courbes de survie jusqu’au RAT similaires entre hommes et femmes (p =0.920), plusieurs déterminants diffèrent selon le genre. Les femmes plus âgées (HR=0.734, par tranches de 10 ans), d’un statut économique perçu comme pauvre (HR=0.625), travaillant ≥40 heures/semaine en ayant des personnes à charge (HR=0.508) et ne connaissant pas l’existence d’un programme de santé et sécurité sur leur lieu de travail (HR=0.598) retournent moins vite au travail, tandis qu’un revenu brut annuel plus élevé (par $10,000) est un facteur facilitant (HR=1.225). Les hommes de plus de 55 ans (HR=0.458), au statut économique perçu comme pauvre (HR=0.653), travaillant ≥40 heures/semaine avec une charge de travail physique perçue élevée (HR=0.720) et une plus grande précarité d’emploi (HR=0.825) retournent moins rapidement au travail. La troisième étude a révélé que trois ans après la lésion, 12.3% des hommes et 7.3% des femmes étaient encore indemnisés, avec un ratio de coûts homme-femme pour l’ensemble des réclamations de 2.1 :1. L’effet de certain prédicteurs (e.g. revenu, siège de lésion, industrie) varie selon le genre. De plus, l’effet de l’âge chez les hommes et l’effet de l’historique d’indemnisation chez les femmes varient dans le temps. Conclusion : La façon de définir l’(in)capacité au travail a des implications importantes pour la recherche, l’indemnisation et la réadaptation. Les résultats confirment également la pertinence d’investiguer les déterminants du RAT et de l’indemnisation selon le genre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dégradation protéolytique du collagène de type II est considérée comme étant un facteur majeur dans le processus irréversible de dégradation de la matrice cartilagineuse lors d’ostéoarthrose. Outre les collagénases de la famille des métaloprotéinases de la matrice (MMP-1, -8, -13), la cathepsine K est parmi les seules enzymes susceptibles de dégrader la triple hélice intacte du collagène de type II, devenant ainsi un élément pertinent pour les recherches sur l’ostéoarthrose. L’objectif à court terme de notre étude consiste en l’identification et la caractérisation de sites de clivage spécifiques de la cathepsine K sur le collagène de type II équin. La technique d’électrophorèse SDS-PAGE 1D permet la visualisation des produits de digestion et la validation des résultats de la caractérisation moléculaire des fragments protéolytiques. La caractérisation est réalisée en combinant la digestion trypsique précédant l’analyse HPLC-ESI/MS. Les résultats ont permis d’établir les sites, présents sur la carte peptidique de la molécule de collagène de type II équin, des 48 résidus prolines (P) et 5 résidus lysines (K) supportant une modification post-traductionnelle. De plus, 6 fragments majeurs, différents de ceux produits par les MMPs, sont observés par SDS-PAGE 1D puis confirmés par HPLC-ESI/MS, correspondant aux sites suivants : F1 [G189-K190], F2 [G252-P253], F3 [P326-G327], F4 [P428-G429], F5 [P563-G564] et F6 [P824-G825]. Le fragment F1 nouvellement identifié suggère un site de clivage différent de l’étude antérieure sur le collagène de type II bovin et humain. L’objectif à long terme serait le développement d’anticorps spécifiques au site identifié, permettant de suivre l’activité protéolytique de la cathepsine K par immunohistochimie et ÉLISA, dans le cadre du diagnostic de l’ostéoarthrose.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La littérature contient une abondance d’information sur les approches de design impliquant les utilisateurs. Bien que les chercheurs soulèvent de nombreux avantages concernant ces approches, on en sait peu sur ce que les concepteurs des entreprises en pensent. Ce projet a pour but de connaître les perceptions des concepteurs de produits quant aux outils de design participatif puis, d’identifier les opportunités et limites qu’ils évoquent à ce sujet, et finalement, de faire des suggestions d’outils qui faciliteraient l’introduction du design participatif dans un processus de design existant. Après avoir fait un survol du domaine du design participatif et de ses outils, six cas sont étudiés au moyen d’entrevues semi-dirigées conduites auprès de concepteurs de produits. Les données sont analysées à l’aide de cartes cognitives. En ce qui concerne les outils de design participatif, les participants rencontrés perçoivent un accès direct aux besoins des utilisateurs et la possibilité de minimiser les erreurs en début de processus donc, d’éviter les modifications coûteuses qu’elles auraient entraînées. Les obstacles perçus par les concepteurs sont principalement liés à la résistance au changement, à la crainte de laisser créer ou décider les utilisateurs, ainsi qu’au manque de temps et de ressources de l’équipe. Finalement, sur la base des informations collectées, nous suggérons quatre outils de design participatif qui semblent plus intéressants : l’enquête contextuelle, les sondes, les tests de prototypes et l’approche « lead user ». Pour faire suite à ce travail, il serait intéressant d’élaborer un protocole de recherche plus exhaustif pour augmenter la portée des résultats, ou encore, d’appliquer le design participatif, dans une entreprise, afin d’explorer la satisfaction des gens quant aux produits conçus, les effets collatéraux sur les équipes impliquées, l’évolution des prototypes ou le déroulement des ateliers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Initiée par Wolfgang J. Mommsen (1930-2004), la réception dominante de la pensée politique de Max Weber (1864-1920) conclut qu’il aura été un penseur précurseur au fascisme allemand. Ce mémoire revient aux textes politiques de Weber, écrits entre 1895 et 1919, afin de dégager le sens qu’il voulait leur conférer, indépendamment du rôle historique qu’ils purent jouer après sa mort. Il s’agit donc de reconstituer la pensée politique wébérienne dans le contexte social qui l’a vu naître et de saisir l’origine politique de la sociologie wébérienne de l’action. Pour y parvenir, un détour par l’histoire s’impose. Ce n’est que par la mise en relation, proposée dès le chapitre I, entre les écrits politiques et la configuration historique particulière de l’Allemagne wilhelmienne qu’il est possible de concilier deux dimensions dont l’une ou l’autre est souvent écartée des études wébériennes : l’étude d’acteurs historiques précis (Max Weber et ses contemporains) et la pensée wébérienne à proprement parler (les écrits). Nous verrons que Weber craint le processus de bureaucratisation inhérent à la sphère politique moderne de peur qu’il n’en vienne à pétrifier l’existence humaine. Le chapitre II examine l’opposition de Weber à cette « possibilité objective » afin de préserver les conditions d’une liberté individuelle authentique. C’est par la figure du chef charismatique, initialement développée dans le cadre de ses travaux scientifiques et présentée au chapitre III, que Weber croit pouvoir prévenir les pires conséquences du processus de bureaucratisation. Il s’agira alors de produire un édifice institutionnel propice à l’émergence de tels hommes politiques. Le dernier chapitre (IV) du mémoire cherche à démontrer comment Weber tente d’instrumentaliser la césarisation, second processus constitutif de la sphère politique moderne, pour l’opposer à la bureaucratisation. Sous le régime monarchiste, c’est par un renforcement des pouvoirs parlementaires qu’il compte y parvenir, mais la proclamation de la République de Weimar l’oblige à adapter son projet constitutionnel ; il propose alors la démocratie plébiscitaire de chef (Führerdemokratie). Si la conception wébérienne de la démocratie surprend, notamment par l’importance qu’elle accorde au chef, il n’en demeure pas moins que Weber met de l’avant un système politique démocratique. Loin de l’abandon de son projet politique auquel certains critiques ont conclu, la Führerdemokratie se révèle plutôt – c’est la thèse de ce mémoire — le fruit de la fidélité de Weber à ses idéaux politiques, et ce malgré les importants changements sociaux qui marquent la fin de sa vie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cartographie peptidique est une technique de grande importance utilisée lors de l’identification des protéines et la caractérisation des modifications post-traductionnelles des protéines. Deux méthodes sont utilisées afin de couper les protéines en peptides pour la cartographie : les méthodes chimiques et les méthodes enzymatiques. Dans ce projet, l’enzyme chymotrypsine a été utilisée pour l’hydrolyse (la digestion) des liens peptidiques. Cependant, l’autoprotéolyse des enzymes peut augmenter la complexité des échantillons, rendant ainsi ardue l’obtention de pics résolus suite à l’apparition de pics non-désirés dans la carte peptidique. Par conséquent, nous avons utilisé la réticulation des enzymes protéolytiques par réaction avec le glutaraldéhyde (GA) donnant une enzyme insoluble afin de réduire l’autoprotéolyse. L’immobilisation de la chymotrypsine par GA a été effectuée selon une méthode rapportée précédemment par le groupe Waldron. L’électrophorèse capillaire (CE) couplée à l’absorption UV-visible a été utilisée pour la séparation et la détection de peptides et pour obtenir ainsi une cartographie peptidique. Deux tampons différents ont été évalués afin d’obtenir les meilleures conditions pour la digestion de substrats protéiques par la chymotrypsine libre (soluble) ou la GAchymotrypsine et l’analyse par CE. Les cartes des peptides autoprotéolytiques ont été comparées entre les deux formats de chymotrypsine. Afin d’améliorer la cartographie peptidique, nous avons évalué trois méthodes de conditionnement du capillaire CE et deux méthodes pour stopper la digestion. Le bicarbonate d’ammonium s’est avéré être le tampon optimal pour la digestion en solution et l’utilisation d’un bain d’acétone et de glace sèche s’est avérée être la méthode optimale pour stopper la digestion. Une solution de SDS, 25 mM, dans l’étape de rinçage a été utilisée après chaque analyse CE et a permis d’améliorer la résolution des cartes peptidiques. La comparaison entre l’autoprotéolyse de la chymotrypsine libre et de celle immobilisé par GA a été effectuée par des tests utilisant une gamme de six différentes combinaisons de conditions afin d’évaluer le temps (30 et 240 min) et la température de digestion (4, 24 et 37°C). Dans ces conditions, nos résultats ont confirmé que le GA-chymotrypsine réduit l’autoprotéolyse par rapport à l’enzyme libre. La digestion (à 37°C/240 min) de deux substrats modèles par la chymotrypsine libre et immobilisée en fonction de la température de dénaturation du substrat a été étudiée. iii Avant la digestion, les substrats (l’albumine de sérum bovine, BSA, et la myoglobine) ont été dénaturés par chauffage pendant 45 min à trois températures différentes (60, 75 et 90°C). Les résultats ont démontré que la dénaturation par chauffage du BSA et de la myoglobine n’a pas amélioré la cartographie peptidique pour la GA-chymotrypsine, tandis que la digestion de ceux-ci en présence de la chymotrypsine libre a amélioré de façon quantifiable à des températures élevées. Ainsi, le chauffage du substrat à 90°C avec l’enzyme soluble facilite le dépliement partiel du substrat et sa digestion limitée, ce qui a été mieux pour la myoglobine que pour la BSA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur la reconstruction active de modèles 3D à l’aide d’une caméra et d’un projecteur. Les méthodes de reconstruction standards utilisent des motifs de lumière codée qui ont leurs forces et leurs faiblesses. Nous introduisons de nouveaux motifs basés sur la lumière non structurée afin de pallier aux manques des méthodes existantes. Les travaux présentés s’articulent autour de trois axes : la robustesse, la précision et finalement la comparaison des patrons de lumière non structurée aux autres méthodes. Les patrons de lumière non structurée se différencient en premier lieu par leur robustesse aux interréflexions et aux discontinuités de profondeur. Ils sont conçus de sorte à homogénéiser la quantité d’illumination indirecte causée par la projection sur des surfaces difficiles. En contrepartie, la mise en correspondance des images projetées et capturées est plus complexe qu’avec les méthodes dites structurées. Une méthode d’appariement probabiliste et efficace est proposée afin de résoudre ce problème. Un autre aspect important des reconstructions basées sur la lumière non structurée est la capacité de retrouver des correspondances sous-pixels, c’est-à-dire à un niveau de précision plus fin que le pixel. Nous présentons une méthode de génération de code de très grande longueur à partir des motifs de lumière non structurée. Ces codes ont l’avantage double de permettre l’extraction de correspondances plus précises tout en requérant l’utilisation de moins d’images. Cette contribution place notre méthode parmi les meilleures au niveau de la précision tout en garantissant une très bonne robustesse. Finalement, la dernière partie de cette thèse s’intéresse à la comparaison des méthodes existantes, en particulier sur la relation entre la quantité d’images projetées et la qualité de la reconstruction. Bien que certaines méthodes nécessitent un nombre constant d’images, d’autres, comme la nôtre, peuvent se contenter d’en utiliser moins aux dépens d’une qualité moindre. Nous proposons une méthode simple pour établir une correspondance optimale pouvant servir de référence à des fins de comparaison. Enfin, nous présentons des méthodes hybrides qui donnent de très bons résultats avec peu d’images.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.