977 resultados para Donné biométrique
Resumo:
De nombreux problèmes pratiques qui se posent dans dans le domaine de la logistique, peuvent être modélisés comme des problèmes de tournées de véhicules. De façon générale, cette famille de problèmes implique la conception de routes, débutant et se terminant à un dépôt, qui sont utilisées pour distribuer des biens à un nombre de clients géographiquement dispersé dans un contexte où les coûts associés aux routes sont minimisés. Selon le type de problème, un ou plusieurs dépôts peuvent-être présents. Les problèmes de tournées de véhicules sont parmi les problèmes combinatoires les plus difficiles à résoudre. Dans cette thèse, nous étudions un problème d’optimisation combinatoire, appartenant aux classes des problèmes de tournées de véhicules, qui est liée au contexte des réseaux de transport. Nous introduisons un nouveau problème qui est principalement inspiré des activités de collecte de lait des fermes de production, et de la redistribution du produit collecté aux usines de transformation, pour la province de Québec. Deux variantes de ce problème sont considérées. La première, vise la conception d’un plan tactique de routage pour le problème de la collecte-redistribution de lait sur un horizon donné, en supposant que le niveau de la production au cours de l’horizon est fixé. La deuxième variante, vise à fournir un plan plus précis en tenant compte de la variation potentielle de niveau de production pouvant survenir au cours de l’horizon considéré. Dans la première partie de cette thèse, nous décrivons un algorithme exact pour la première variante du problème qui se caractérise par la présence de fenêtres de temps, plusieurs dépôts, et une flotte hétérogène de véhicules, et dont l’objectif est de minimiser le coût de routage. À cette fin, le problème est modélisé comme un problème multi-attributs de tournées de véhicules. L’algorithme exact est basé sur la génération de colonnes impliquant un algorithme de plus court chemin élémentaire avec contraintes de ressources. Dans la deuxième partie, nous concevons un algorithme exact pour résoudre la deuxième variante du problème. À cette fin, le problème est modélisé comme un problème de tournées de véhicules multi-périodes prenant en compte explicitement les variations potentielles du niveau de production sur un horizon donné. De nouvelles stratégies sont proposées pour résoudre le problème de plus court chemin élémentaire avec contraintes de ressources, impliquant dans ce cas une structure particulière étant donné la caractéristique multi-périodes du problème général. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. La troisième partie propose un algorithme de recherche adaptative à grands voisinages où de nombreuses nouvelles stratégies d’exploration et d’exploitation sont proposées pour améliorer la performances de l’algorithme proposé en termes de la qualité de la solution obtenue et du temps de calcul nécessaire.
Resumo:
Il y a quelques décennies, l’émergence du discours de la promotion de la santé infléchissait un nouveau tournant à la santé publique, orientant sa pratique vers l’action communautaire, participative et intersectorielle. Parallèlement, au Québec, la réforme du système de santé de 2004 réorganisait le niveau de gouverne locale à travers la création des centres de santé et de services sociaux (CSSS). Ceux-ci doivent articuler les secteurs des soins et de la santé publique à travers un continuum de services qui va de la promotion de la santé aux soins palliatifs. Ces changements ont des implications majeures pour les acteurs de la santé et de la santé publique, qui doivent composer avec de nouveaux rôles professionnels et de nouvelles stratégies d’action. Le développement professionnel est considéré comme un levier potentiel pour soutenir ces changements. En 2009, une équipe de la Direction de la santé publique de l’Agence de santé et des services sociaux de Montréal concevait un programme de développement professionnel appelé le Laboratoire de promotion de la santé. Ce programme mise sur une approche d’apprentissage de groupe pour permettre aux professionnels des CSSS de développer de nouvelles compétences, une pratique réflexive ainsi que de nouvelles pratiques de promotion de la santé. Basée sur une méthodologie générale qualitative et une approche d’évaluation collaborative, cette thèse utilise plusieurs stratégies d’investigation afin d’évaluer le Laboratoire de promotion de la santé sous trois angles, qui renvoient à sa conceptualisation, à son implantation et à ses effets. Plus spécifiquement, elle vise à : (1) examiner la plausibilité de la théorie d’intervention du programme; (2) décrire et comprendre les processus d’apprentissage d’équipe ainsi que les facteurs qui les influencent; et (3) explorer, du point de vue des participants, les effets réflexifs du Laboratoire. Afin de répondre à ces objectifs, la thèse mobilise diverses perspectives théoriques liées à l’apprentissage individuel, d’équipe et organisationnel. Les résultats des analyses démontrent que : (1) malgré quelques améliorations possibles, le modèle du programme est généralement bien conçu pour parvenir aux résultats visés; (2) l’implantation de ce modèle dans deux sites a donné lieu à des processus d’apprentissage d’équipe différents, bien que conditionnés par des facteurs communs liés aux participants, à l’équipe, au contexte organisationnel et à l’implantation du programme; (3) tel que visé, les participants des deux sites ont développé de la réflexivité vis-à-vis leur pratique et leur rôle professionnel – cette réflexivité adoptant une fonction formative ou critique en regard de l’expérience professionnelle. Ces résultats soulignent le potentiel que représente l’évaluation de la théorie d’intervention pour améliorer la conceptualisation d’un programme de développement professionnel, ainsi que l’intérêt et la pertinence d’évaluer les processus d’apprentissage au niveau de l’équipe dans le cadre d’une approche collective de développement professionnel. De plus, ils appuient l’importance de l’apprentissage réflexif pour l’amélioration des pratiques et l’engagement social des professionnels. En ce sens, ils proposent différentes avenues qui ont le potentiel de consolider les capacités de la main-d’œuvre de santé publique et d’influer conséquemment sur son efficacité à améliorer la santé des collectivités dans le prochain siècle.
Resumo:
Cette recherche propose une analyse qualitative du contenu de signalements retenus à la protection de la jeunesse et leur évaluation pour des enfants de minorités visibles. Les premiers objectifs de cette recherche sont de décrire les deux premières étapes de l’intervention en protection de la jeunesse, soit la réception du signalement et l’évaluation du besoin de protection. Par la suite, elle vise l’élaboration d’une typologie de familles de minorités visibles signalées à la protection de la jeunesse. Une analyse qualitative de contenu est conduite en utilisant une grille d’analyse des dossiers de 48 situations d’enfants signalés à la protection de la jeunesse. Il s’agit d’une analyse secondaire de données d’une étude plus large portant sur l’intervention en protection de la jeunesse auprès de familles de minorités visibles. Les résultats de la présente étude montrent que les informations consignées aux dossiers par les intervenants respectent les dimensions légales du jugement sur la compromission du développement ou de la sécurité d’un enfant. Toutefois, l’absence d’éléments ethnoculturels dans la majorité des dossiers, ou leur traitement superficiel, sont surprenants. La typologie découlant de cette analyse décrit quatre profils présentant des dynamiques familiales distinctes : les familles traversant une crise, les familles qui abdiquent leur rôle parental, les familles isolées et les familles éclatées. Ces résultats rendent compte de la diversité des dynamiques familiales et par conséquent, des besoins de ces familles quant aux interventions des services de protection. Enfin, étant donné l’importance de l’évaluation et de ses conclusions dans la trajectoire de ces familles à l’égard de la DPJ, l’intégration des éléments ethnoculturels devrait être systématique afin de leur offrir une réponse adaptée et culturellement sensible.
Resumo:
Dans de nombreuses sociétés industrialisées, une grande valeur est attribuée au jeu des enfants, principalement parce que le jeu est considéré comme étant une composante essentielle de leur développement et qu’il contribue à leur bonheur et à leur bien-être. Toutefois, des inquiétudes ont récemment été exprimées au regard des transformations qui s’opèrent dans le jeu des enfants, notamment en ce qui a trait à la réduction du temps de jeu en plein air. Ces transformations ont été attribuées, en grande partie, à une perception de risques accrus associés au jeu en plein air et à des changements sociaux qui favorisent des activités de loisirs plus structurées et organisées. L’inquiétude concernant la diminution de l’espace-temps accordé au jeu des enfants est d’ailleurs clairement exprimée dans le discours de la santé publique qui, de plus, témoigne d’un redoublement de préoccupations vis-à-vis du mode de vie sédentaire des enfants et d’une volonté affirmée de prévention de l'obésité infantile. Ainsi, les organisations de santé publique sont désormais engagées dans la promotion du jeu actif pour accroître l'activité physique des enfants. Nous assistons à l’émergence d’un discours de santé publique portant sur le jeu des enfants. À travers quatre articles, cette thèse explore le discours émergeant en santé publique sur le jeu des enfants et analyse certains de ses effets potentiels. L'article 1 présente une prise de position sur le sujet du jeu en santé publique. J’y définis le cadre d'analyse de cette thèse en présentant l'argument central de la recherche, les positions que les organisations de santé publique adoptent vis-à-vis le jeu des enfants et les répercussions potentielles que ces positions peuvent avoir sur les enfants et leurs jeux. La thèse permet ensuite d’examiner comment la notion de jeu est abordée par le discours de santé publique. L'article 2 présente ainsi une analyse de discours de santé publique à travers 150 documents portant sur la santé, l'activité physique, l'obésité, les loisirs et le jeu des enfants. Cette étude considère les valeurs et les postulats qui sous-tendent la promotion du jeu comme moyen d’améliorer la santé physique des enfants et permet de discerner comment le jeu est façonné, discipliné et normalisé dans le discours de santé publique. Notre propos révèle que le discours de santé publique représente le jeu des enfants comme une activité pouvant améliorer leur santé; que le plaisir sert de véhicule à la promotion de l’activité physique ; et que les enfants seraient encouragés à organiser leur temps libre de manière à optimiser leur santé. Étant donné l’influence potentielle du discours de santé publique sur la signification et l’expérience vécue du jeu parmi les enfants, cette thèse présente ensuite une analyse des représentations qu’ont 25 enfants âgés de 7 à 11 ans au regard du jeu. L’article 3 suggère que le jeu est une fin en soi pour les enfants de cette étude; qu'il revêt une importance au niveau émotionnel; et qu'il s’avère intrinsèquement motivé, sans but particulier. De plus, l’amusement que procure le jeu relève autant d’activités engagées que d’activités sédentaires. Enfin, certains enfants expriment un sentiment d'ambivalence concernant les jeux organisés; tandis que d’autres considèrent parfois le risque comme une composante particulièrement agréable du jeu. De tels résultats signalent une dissonance entre les formes de jeux promues en santé publique et le sens attribué au jeu par les enfants. Prenant appui sur le concept de « biopédagogies » inspiré des écrits de Michel Foucault, le quatrième article de cette thèse propose un croisement des deux volets de cette étude, soit le discours de santé publique sur le jeu et les constructions du jeu par les enfants. Bien que le discours de la santé publique exhortant au «jeu actif» soit reproduit par certains enfants, d'autres soulignent que le jeu sédentaire est important pour leur bien-être social et affectif. D’autre part, tandis que le « jeu actif » apparait, dans le discours de santé publique, comme une solution permettant de limiter le risque d'obésité, il comporte néanmoins des contradictions concernant la notion de risque, dans la mesure où les enfants ont à négocier avec les risques inhérents à l’activité accrue. À terme, cet article suggère que le discours de santé publique met de l’avant certaines représentations du jeu (actifs) tandis qu’il en néglige d’autres (sédentaires). Cette situation pourrait donner lieu à des conséquences inattendues, dans la mesure où les enfants pourraient éventuellement reconfigurer leurs pratiques de jeu et les significations qu’ils y accordent. Cette thèse n'a pas pour but de fournir des recommandations particulières pour la santé publique au regard du jeu des enfants. Prenant appui sur la perspective théorique de Michel Foucault, nous présentons plutôt une analyse d’un discours émergeant en santé publique ainsi que des pistes pour la poursuite de recherches sur le jeu dans le domaine de l’enfance. Enfin, compte tenu des effets potentiels du discours de la santé publique sur le jeu des enfants, et les perspectives contemporaines sur le jeu et les enfants, la conclusion offre des pistes de réflexion critique.
Resumo:
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.
Resumo:
Ce projet analyse le rôle des images – photographies, films, dessins – produites dans le cadre des recherches ethnographiques « interdisciplinaires » menées par l’anthropologue italien Ernesto De Martino en Italie méridionale dans les années 1950. Ces expéditions ont donné lieu à des documents multiformes puisqu’elles regroupent des chercheurs de formations différentes : historien des religions, ethnomusicologue, psychiatre, photographe, et occasionnellement cinéaste. Plus spécifiquement, il s’agit d’étudier le rôle des matériaux visuels dans la recherche sur le tarentisme, rituel de possession observé dans les Pouilles en 1959 par De Martino et son équipe, matériaux dont une partie constitue l’annexe photographique de son œuvre célèbre La terra del rimorso (1961). Nous portons également attention à l’atlas iconographique de son ouvrage sur la lamentation funèbre, Morte e pianto rituale nel mondo antico. Dal lamento pagano al pianto di Maria (1958), fruit d’une étude de terrain dans la région sud italienne de la Lucania (Basilicata). Tout en considérant les relations intermédiales entre les images, le texte, le son et le corps, ce mémoire identifie les rapports dialectiques entre les techniques d’enregistrement et les logiques répétitives, rythmiques et performatives des rituels en question. Chez De Martino, l’image est point de tension en matière de temporalité et de ressemblance : elle suggère une anthropologie de la « survivance » nous permettant de relever plusieurs correspondances avec l'oeuvre de l’historien de l’art Aby Warburg.
Resumo:
Les centres d’appels sont des éléments clés de presque n’importe quelle grande organisation. Le problème de gestion du travail a reçu beaucoup d’attention dans la littérature. Une formulation typique se base sur des mesures de performance sur un horizon infini, et le problème d’affectation d’agents est habituellement résolu en combinant des méthodes d’optimisation et de simulation. Dans cette thèse, nous considérons un problème d’affection d’agents pour des centres d’appels soumis a des contraintes en probabilité. Nous introduisons une formulation qui exige que les contraintes de qualité de service (QoS) soient satisfaites avec une forte probabilité, et définissons une approximation de ce problème par moyenne échantillonnale dans un cadre de compétences multiples. Nous établissons la convergence de la solution du problème approximatif vers celle du problème initial quand la taille de l’échantillon croit. Pour le cas particulier où tous les agents ont toutes les compétences (un seul groupe d’agents), nous concevons trois méthodes d’optimisation basées sur la simulation pour le problème de moyenne échantillonnale. Étant donné un niveau initial de personnel, nous augmentons le nombre d’agents pour les périodes où les contraintes sont violées, et nous diminuons le nombre d’agents pour les périodes telles que les contraintes soient toujours satisfaites après cette réduction. Des expériences numériques sont menées sur plusieurs modèles de centre d’appels à faible occupation, au cours desquelles les algorithmes donnent de bonnes solutions, i.e. la plupart des contraintes en probabilité sont satisfaites, et nous ne pouvons pas réduire le personnel dans une période donnée sont introduire de violation de contraintes. Un avantage de ces algorithmes, par rapport à d’autres méthodes, est la facilité d’implémentation.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.
Resumo:
Parmi l’ensemble des désordres métaboliques retrouvés en insuffisance rénale chronique (IRC), la résistance à l’insuline demeure l’un des plus importantes à considérer en raison des risques de morbidité et de mortalité qu’elle engendre via les complications cardiovasculaires. Peu d’études ont considéré la modulation de transporteurs de glucose comme mécanisme sous-jacent à l’apparition et à la progression de la résistance à l’insuline en IRC. Nous avons exploré cette hypothèse en étudiant l’expression de transporteurs de glucose issus d’organes impliqués dans son homéostasie (muscles, tissus adipeux, foie et reins) via l’utilisation d’un modèle animal d’IRC (néphrectomie 5/6e). La sensibilité à l’insuline a été déterminée par un test de tolérance au glucose (GTT), où les résultats reflètent une intolérance au glucose et une hyperinsulinémie, et par les études de transport au niveau musculaire qui témoignent d’une diminution du métabolisme du glucose en IRC (~31%; p<0,05). La diminution significative du GLUT4 dans les tissus périphériques (~40%; p<0,001) peut être à l’origine de la résistance à l’insuline en IRC. De plus, l’augmentation de l’expression protéique de la majorité des transporteurs de glucose (SGLT1, SGLT2, GLUT1; p<0,05) au niveau rénal en IRC engendre une plus grande réabsorption de glucose dont l’hyperglycémie subséquente favorise une diminution du GLUT4 exacerbant ainsi la résistance à l’insuline. L’élévation des niveaux protéiques de GLUT1 et GLUT2 au niveau hépatique témoigne d’un défaut homéostatique du glucose en IRC. Les résultats jusqu’ici démontrent que la modulation de l’expression des transporteurs de glucose peut être à l’origine de la résistance à l’insuline en IRC. L’impact de la parathyroïdectomie (PTX) sur l’expression du GLUT4 a été étudié étant donné que la PTX pourrait corriger l’intolérance au glucose en IRC. Nos résultats démontrent une amélioration de l’intolérance au glucose pouvant être attribuable à la moins grande réduction de l’expression protéique du GLUT4 dans les tissus périphériques et ce malgré la présence d’IRC. L’excès de PTH, secondaire à l’hyperparathyroïdie, pourrait alors être à l’origine de la résistance à l’insuline en IRC en affectant l’expression du GLUT4. L’IRC partage de nombreuses similitudes avec le prédiabète quant aux défaillances du métabolisme du glucose tout comme l’hyperinsulinémie et l’intolérance au glucose. Aucune étude n’a tenté d’évaluer si l’IRC pouvait ultimement mener au diabète. Nos résultats ont par ailleurs démontré que l’induction d’une IRC sur un modèle animal prédisposé (rats Zucker) engendrait une accentuation de leur intolérance au glucose tel que constaté par les plus hautes glycémies atteintes lors du GTT. De plus, certains d’entre eux avaient des glycémies à jeun dont les valeurs surpassent les 25 mmol/L. Il est alors possible que l’IRC puisse mener au diabète via l’évolution de la résistance à l’insuline par l’aggravation de l’intolérance au glucose.
Resumo:
L’existence d’un sous-type dissociatif de schizophrénie a été suggérée par plusieurs auteurs pour rendre compte des présentations symptomatologiques d’un groupe de personnes dont le diagnostic principal est dans le spectre de la schizophrénie mais qui présentent aussi des symptômes dissociatifs (Ross, 2004; Şar et al., 2010; Van der Hart, Witztum, & Friedman, 1993). D’origine traumatique, ce type de portrait clinique où symptômes psychotiques et dissociatifs s’entremêlent aurait été décrit il y a déjà plus d’un siècle (Janet & Raymond, 1898) mais serait disparu dans les années ’30, assimilé au concept de « schizophrénie » (Rosenbaum, 1980). C’est dans un nouveau contexte nosographique que le concept de schizophrénie dissociative refait surface. En effet, la nosographie psychiatrique a pris un tournant en 1980 lorsque l’approche préconisée par le DSM est devenue descriptive plutôt que basée sur des conceptualisations psychanalytiques. Du coup, les affections d’alors ont été divisées en troubles dont les symptômes ont tendance à se manifester ensemble (Cooper, 2004) et la comorbidité entre les troubles a augmenté. Étant donné la comorbidité fréquemment rapportée entre les troubles psychotiques et dissociatifs, la similarité phénoménologique de leurs symptômes, ainsi que leur possible étiologie traumatique, Ross (2004) a proposé une série de critères permettant de diagnostiquer une schizophrénie dissociative. L’objectif principal de cette thèse est donc d’établir si la schizophrénie dissociative, telle que définie par Ross (2004), existe. Le premier article porte sur la problématique et le contexte théorique ayant mené à la question de recherche. Il vise à faire un survol des enjeux entourant la question de la schizophrénie dissociative et rend compte des écrits scientifiques sur la symptomatologie similaire entre les troubles psychotiques et dissociatifs, sur leur étiologie traumatique et sur les études sur la dissociation et la schizophrénie. Le deuxième article est quant à lui un article empirique rendant compte de la méthodologie utilisée pour répondre à la question de recherche. En effet, aucune étude jusqu’ici n’a testé systématiquement les critères de la schizophrénie dissociative. Nos résultats démontrent que 24% de notre échantillon (N=50) pourrait recevoir le diagnostic de schizophrénie dissociative avec les critères proposés par Ross (2004). Toutefois, ces critères posant problème, une modification a été proposée et une prévalence de 14% a alors été trouvée. Des vignettes cliniques sont présentées afin de comparer nos participants avec ceux rapportés ailleurs. Les liens entre symptômes psychotiques et dissociatifs sont discutés en essayant de conceptualiser la schizophrénie dissociative de différentes manières, soit comme une nouvelle entité clinique, comme un trouble comorbide ou dans un contexte nosographique psychodynamique.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Dans la sémantique des cadres de Fillmore, les mots prennent leur sens par rapport au contexte événementiel ou situationnel dans lequel ils s’inscrivent. FrameNet, une ressource lexicale pour l’anglais, définit environ 1000 cadres conceptuels, couvrant l’essentiel des contextes possibles. Dans un cadre conceptuel, un prédicat appelle des arguments pour remplir les différents rôles sémantiques associés au cadre (par exemple : Victime, Manière, Receveur, Locuteur). Nous cherchons à annoter automatiquement ces rôles sémantiques, étant donné le cadre sémantique et le prédicat. Pour cela, nous entrainons un algorithme d’apprentissage machine sur des arguments dont le rôle est connu, pour généraliser aux arguments dont le rôle est inconnu. On utilisera notamment des propriétés lexicales de proximité sémantique des mots les plus représentatifs des arguments, en particulier en utilisant des représentations vectorielles des mots du lexique.
Resumo:
La situation de la forêt tropicale dans les pays en développement en général, et en République Démocratique du Congo (RDC) en particulier, est inquiétante. Les émissions de dioxyde de carbone dues au déboisement sont de l’ordre de 1,6 GtCO2e/an, soit 17% des émissions mondiales de « gaz à effet de serre ». Sous l’égide de la Convention-cadre des Nations Unies sur les changements climatiques, le REDD+ a été institué pour lutter contre cette déforestation et la dégradation des forêts. Cette étude examine les différentes opportunités qu’offre ce programme pour l’aménagement écosystémique du couvert forestier de la RDC et les obstacles contextuels à sa mise en oeuvre. Pour la RDC, le REDD+ présente un certain nombre d’opportunités : réduction des émissions liées au déboisement et à la dégradation des forêts; amorce des travaux d’afforestation et de reforestation par une gestion durable des ressources conduisant à la création des emplois et favorisant la croissance des PIB et des exports; accroissement du rendement et maintien d’une plus grande couverture des besoins alimentaires. Le REDD+ peut favoriser la croissance du Produit intérieur brut agricole. Il peut contribuer à l’électrification des ménages et réduire de moitié les dépenses des ménages dépendant de l’exploitation minière et des hydrocarbures et, ainsi, générer des milliers d’emplois en infrastructures. Pour les populations locales et autochtones, il peut contribuer aussi à protéger et à valoriser les cultures liées à la forêt. Mais, face aux pesanteurs d’ordre juridique, politique, social, économique, technologique et culturel caractéristiques de ce pays, ces opportunités risquent d’être amenuisées, sinon annihilées. Étant donné que l’essentiel du déploiement du dispositif du REDD+ se réalisera dans les zones rurales congolaises, l’obstacle majeur reste le droit coutumier. La solution serait d’harmoniser les exigences et finalités du REDD+ non seulement avec le Code forestier de 2002 et ses mesures d’exécution mais aussi avec le droit coutumier auquel les communautés locales et autochtones s’identifient.
Resumo:
Selenoproteins are proteins containing selenium in the form of the 21st amino acid, selenocysteine. Selenocysteine (Sec) is directly synthesized onto its cognate tRNA (tRNA[Ser]Sec or tRNASec) and inserted into selenoproteins co-translationally with the help of various cis- and trans-acting factors. Among those factors, SecP43 has been reported to possibly play an essential role in the methylation at the 2’-hydroxylribosyl moiety in the wobble position (Um34) of Sec-tRNA[Ser]Sec and consequently reduce the expression of glutathione peroxidase 1. SecP43 also called tRNASec-associated protein has also been reported to interact in with SepSecS and tRNASec in vivo and the targeted removal of one of these proteins affected the binding of the other to the Sec-tRNASec. The initial aim of the project was to solve the structure of SecP43 by means of x-ray crystallography. Secondly, we were interested in characterizing the interaction of the latter with some of the components of the selenocysteine insertion machinery. These factors are SepSecS and tRNASec. We were able to optimize the expression and the purification of soluble form of the human homologue of SecP43 and of SepSecS by using an adapted auto-induction protocol. This was a major challenge considering that full length SecP43 has not been expressed and purify to date. We did not succeed in crystallizing SecP43. Our failure to crystallize SecP43 is probably due to the fact that it is a partially folded protein as we were able to demonstrate by SAXS (Small Angle X-ray Scattering). The SecP43 envelope calculated by SAXS displayed a rod-shape like structure. In order to enhance the stability of SecP43 required for crystallization, binding affinity studies were conducted to characterize the interaction between SecP43, tRNASec and SepSecS. We did not detect an interaction between SecP43 and tRNASec by using EMSA (Electrophoretic Mobility Shift Assay) and gel filtration. We also could not detect an interaction between SecP43 and SepSecS using a cross-linking assay. In contrast, the tRNASec/SepSecS interaction was demonstrated by EMSA and the addition of SecP43 seemed to reduce the binding affinity. Therefore, SecP43 might induce a conformational change in SepSecS in the presence of tRNASec.