984 resultados para proportional mixer
Resumo:
Résumé: La Scoliose Idiopathique de l’Adolescent (SIA) est une condition débilitante qui peut avoir comme résultat une douleur importante, une altération du fonctionnement quotidien et une détérioration de la qualité de vie. Pour les patients qui ne répondent pas au traitement conservateur, la fusion vertébrale, en utilisant des greffes osseuses, est devenue un traitement de choix pour stabiliser la colonne. Des connaissances plus pointues à propos des facteurs impliqués dans l’ostéogénèse et la formation de l’os peuvent raccourcir le processus de guérison et permettre aux patients de réintégrer leurs activités dans un laps de temps plus court. Les plaquettes peuvent jouer un rôle important dans la première étape de la guérison des fractures car elles sont une source autologue de plusieurs facteurs de croissance qui soutiennent la prolifération et la différenciation des ostéoblastes in vivo et in vitro. Au cours des dernières années, plusieurs tentatives ont été réalisées afin de trouver des traitements additionnels pour : 1) Raccourcir le temps de guérison des fractures relativement long ; 2) Obtenir une plus courte période de convalescence pour les patients qui ont besoin de prothèses ; 3) Corriger plus facilement plusieurs maladies congénitales; 4) Améliorer le processus de fusion vertébrale et 5) Développer de nouvelles approches thérapeutiques, notamment au niveau des processus régularisant le remodelage osseux et la régénération des tissus osseux. Dans le cadre de la présente étude, j’ai étudié la contribution possible du facteur de croissance de l’insuline (IGF) et du facteur vasculaire endothélial de croissance (VEGF) sur la maturation de l’ostéoblaste scoliotique dans des cultures cellulaires in vitro et j’ai comparé les résultats avec celles obtenues dans les mêmes conditions mais en stimulant les ostéoblastes avec de la mélatonine. Cette étude préliminaire a été réalisée sur des échantillons d’os récoltés de quatre patients atteints par la Scoliose Idiopathique de l‘Adolescent (SIA), ainsi que sur des échantillons d’os issus de quatre sujets témoins (cas traumatiques). Les résultats montrent que l’IGFs et le VEGFs possèdent une action d’inhibition sur la prolifération d’ostéoblastes scoliotiques et non scoliotiques, et que cette action est proportionnelle à la concentration de ces facteurs. Les ostéoblastes scoliotiques tendent à avoir une prolifération cellulaire plus rapide et plus élevée que les témoins non scoliotiques. De façon générale les ostéoblastes provenant de patients scoliotiques ont une ostéogénèse in vitro plus accélérée que le sujet non scoliotique. De plus, il semble que la mélatonine joue un rôle physiologique dans la différenciation de l’ostéoblaste scoliotique et elle semble aider à avoir une différenciation plus précoce que chez les non traités. Les ostéoblastes scoliotiques expriment un défaut d’expression de l’IGF 1 et d’IGF 1R en présence de la mélatonine. En conclusion, le VEGF A et l’IGF 1 peuvent également promouvoir la différenciation et la prolifération des ostéoblastes humains scoliotiques en culture primaire.
Resumo:
Cette étude vise à estimer l’apport en glutamine (Gln) alimentaire chez des athlètes soumis à un protocole de supplémentation en glutamine ainsi qu’à clarifier les informations diffusées au grand public en ce qui concerne les sources alimentaires de glutamine. Des études cliniques ont démontré que la supplémentation en glutamine pouvait réduire la morbidité et la mortalité chez des sujets en phase critique (grands brulés, chirurgie…). Le mécanisme en cause semble impliquer le système immunitaire. Cependant, les études chez les sportifs, dont le système immunitaire a de fortes chances d’être affaibli lors de périodes d’entraînement prolongées impliquant des efforts longs et intenses, n’ont pas été concluantes. Or, ces études négligent systématiquement l’apport alimentaire en glutamine, si bien qu’il est probable que les résultats contradictoires observés puissent en partie être expliqués par les choix alimentaires des sujets. Puisque la méthode conventionnelle de dosage des acides aminés dans les protéines alimentaires transforme la glutamine en glutamate, les tables de composition des aliments présentent la glutamine et le glutamate ensemble sous la dénomination « glutamate » ou « Glu », ce qui a comme conséquence de créer de l’ambiguïté. La dénomination « Glx » devrait être utilisée. Partant de la probabilité qu’un apport en Glx élevé soit un bon indicateur de l’apport en glutamine, nous avons créé un calculateur de Glx et avons évalué l’alimentation de 12 athlètes faisant partie d’une étude de supplémentation en glutamine. Nous avons alors constaté que l’apport en Glx était directement proportionnel à l’apport en protéines, avec 20,64 % ± 1,13 % de l’apport protéique sous forme de Glx. Grâce à quelques données sur la séquence primaire des acides aminés, nous avons pu constater que le rapport Gln/Glx pouvait être très variable d’un type de protéine à l’autre. Alors que le ratio molaire Gln/Glx est de ~95 % pour les α et β-gliadines, il n’est que de ~43 % pour la caséine, de ~36 % pour la β-lactoglobuline, de ~31 % pour l’ovalbumine et de ~28 % pour l’actine. Il est donc possible que certaines protéines puissent présenter des avantages par rapport à d’autres, à quantité égale de Glx.
Resumo:
La phagocytose est un processus par lequel des cellules spécialisées du système immunitaire comme les macrophages ingèrent des microorganismes envahisseurs afin de les détruire. Les microbes phagocytés se retrouvent dans un compartiment intracellulaire nommé le phagosome, qui acquiert graduellement de nombreuses molécules lui permettant de se transformer en phagolysosome possédant la capacité de tuer et dégrader son contenu. L’utilisation de la protéomique a permis de mettre en évidence la présence de microdomaines (aussi nommés radeaux lipidiques ou radeaux membranaires) sur les phagosomes des macrophages. Notre équipe a démontré que ces radeaux exercent des fonctions cruciales au niveau de la membrane du phagosome. D’abord nous avons observé que la survie du parasite intracellulaire L. donovani est possible dans un phagosome dépourvu de radeaux lipidiques. Parallèlement nous avons constaté qu’un mutant de L. donovani n’exprimant pas de LPG à sa surface(LPG-) est rapidement tué dans un phagosome arborant des radeaux membranaires. Pour comprendre le mécanisme de perturbation des microdomaines du phagosome par la molécule LPG, nous avons provoqué la phagocytose de mutants LPG- du parasite et comparé par microscopie les différences avec le parasite de type sauvage. Nous avons ainsi démontré que le LPG de L. donovani est nécessaire et suffisant au parasite pour empêcher la maturation normale du phagosome. Nous avons également découvert que la molécule LPG permet d’empêcher la formation des radeaux lipidiques sur le phagosome et peut aussi désorganiser les radeaux lipidiques préexistants. Enfin, nous avons montré que l’action de LPG est proportionnelle au nombre d’unités répétitives de sucres (Gal(β1,4)-Manα1-PO4) qui composent cette molécule. Nos travaux ont démontré pour la première fois le rôle important de ces sous-domaines membranaires dans la maturation du phagosome. De plus, nos conclusions seront des pistes à suivre au cours des études cliniques ayant pour but d’enrayer la leishmaniose. Le second objectif de ce travail consistait à effectuer la caractérisation des radeaux lipidiques par une analyse protéomique et lipidomique à l’aide de la spectrométrie de masse. Nous avons ainsi entrepris l’identification systématique des protéines présentes dans les radeaux membranaires des phagosomes et ce, à trois moments clés de leurmaturation. Le traitement des phagosomes purifiés avec un détergent nous a permis d’isoler les «Detergent Resistent Membranes» (DRMs) des phagosomes, qui sont l’équivalent biochimique des radeaux membranaires. Nous avons ainsi établi une liste de 921 protéines associées au phagosome, dont 352 sont présentes dans les DRMs. Les protéines du phagosome sont partagées presque également entre trois tendances cinétiques (augmentation, diminution et présence transitoire). Cependant, une analyse plus spécifique des protéines des DRMs démontre qu’une majorité d’entre elles augmentent en fonction de la maturation. Cette observation ainsi que certains de nos résultats montrent que les radeaux lipidiques des phagosomes précoces sont soit très peu nombreux, soit pauvres en protéines, et qu’ils sont recrutés au cours de la maturation du phagosome. Nous avons aussi analysé les phospholipides du phagosome et constaté que la proportion entre chaque classe varie lors de la maturation. De plus, en regardant spécifiquement les différentes espèces de phospholipides nous avons constaté que ce ne sont pas uniquement les espèces majoritaires de la cellule qui dominent la composition de la membrane du phagosome. L’ensemble de nos résultats a permis de mettre en évidence plusieurs fonctions potentielles des radeaux lipidiques, lesquelles sont essentielles à la biogenèse des phagolysosomes (signalisation, fusion membranaire, action microbicide, transport transmembranaire, remodelage de l’actine). De plus, la cinétique d’acquisition des protéines de radeaux lipidiques indique que ceux-ci exerceraient leurs fonctions principalement au niveau des phagosomes ayant atteint un certain niveau de maturation. L’augmentation du nombre de protéines des radeaux membranaires qui s’effectue durant la maturation du phagosome s’accompagne d’une modulation des phospholipides, ce qui laisse penser que les radeaux membranaires se forment graduellement sur le phagosome et que ce ne sont pas seulement les protéines qui sont importées.
Resumo:
Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.
Resumo:
Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées.
Resumo:
Cette thèse examine les effets des imperfections des marchés financiers sur la macroéconomie. Plus particulièrement, elle se penche sur les conséquences de la faillite dans les contrats financiers dans une perspective d'équilibre général dynamique. Le premier papier construit un modèle qui utilise l'avantage comparatif des banques dans la gestion des situations de détresse financière pour expliquer le choix des firmes entre les prêts bancaires et les prêts du marché financier. Le modèle réussit à expliquer pourquoi les firmes plus petites préfèrent le financement bancaire et pourquoi les prêts bancaires sont plus répandus en Europe. Le premier fait est expliqué par le lien négatif entre la valeur nette de l'entreprise et la probabilité de faire faillite. Le deuxième fait s'explique par le coût fixe d'émission de bons plus élevé en Europe. Le deuxième papier examine l'interaction entre les contraintes de financement affectant les ménages et les firmes. Une interaction positive pourrait amplifier et augmenter la persistance de l'effet d'un choc agrégé sur l'économie. Je construis un nouveau modèle qui contient des primes de financement externes pour les firmes et les ménages. Dans le modèle de base avec prix et salaires flexibles, j'obtiens une faible interaction négative entre les coûts de financement des firmes et des ménages. Le facteur clé qui explique ce résultat est l'effet du changement contre cyclique du coût de financement des ménages sur leur offre de travail et leur demande de prêts. Dans une période d'expansion, cet effet augmente les taux d'intérêt, réduit l'investissement et augmente le coût de financement des entreprises. Le troisième papier ajoute les contraintes de financement des banques dans un modèle macroéconomiques avec des prêts hypothécaires et des fluctuations dans les prix de l'immobilier. Les banques dans le modèle ne peuvent pas complètement diversifier leurs prêts, ce qui génère un lien entre les risques de faillite des ménages et des banques. Il y a deux effets contraires des cycles économiques qui affectent la prime de financement externe de la banque. Premièrement, il y a un lien positif entre le risque de faillite des banques et des emprunteurs qui contribue à rendre le coût de financement externe des banques contre cyclique. Deuxiément, le lissage de la consommation par les ménages rend la proportion de financement externe des banques pro cyclique, ce qui tend à rendre le coût de financement bancaire pro cyclique. En combinant ces deux effets, le modèle peut reproduire des profits bancaires et des ratios d'endettement bancaires pro cycliques comme dans les données, mais pour des chocs non-financiers les frictions de financement bancaire dans le modèle n'ont pas un effet quantitativement significatif sur les principales variables agrégées comme la consommation ou l'investissement.
Resumo:
La grossesse induit de profonds changements hémodynamiques et métaboliques de l’organisme maternel qui ont des conséquences sur le cœur. L’adaptation du cœur à cette condition physiologique nécessite un remodelage de sa structure et par conséquent des ajustements de sa fonction. Les mécanismes responsables de ces adaptations sont en grande partie inconnus. Cependant, ces connaissances sont essentielles pour la compréhension des complications cardiovasculaires, telle que l’hypertension gestationnelle (HG), qui constituent un risque pour la santé de la mère et du fœtus. Afin de caractériser les adaptations du cœur lors de la grossesse, l’originalité de notre approche expérimentale consistait à étudier le remodelage à l’échelle des cardiomyocytes du ventricule gauche. Ainsi, notre premier objectif était de déterminer les modifications structurales et fonctionnelles des cardiomyocytes chez la rate en vue d’identifier les altérations lors de l’HG. Chez les rates gestantes, le remodelage structural des cardiomyocytes se caractérise par une hypertrophie cellulaire avec une augmentation proportionnelle des dimensions. L’HG a été induite par un supplément sodique (0.9% NaCl) dans la diète. L’inadaptation structurale lors de l’HG se traduit par une diminution du volume cellulaire. L’étude des modifications fonctionnelles a révélé que lors de la gestation le fonctionnement contractile des cellules est dépendant de l’adaptation du métabolisme maternel. En effet, les substrats énergétiques, lactate et pyruvate, induisent une augmentation de la contractilité des cardiomyocytes. Cet effet est plus faible dans les cellules des rates hypertendues, ce qui suggère des anomalies du couplage excitation-contraction, dans lequel les courants calciques de type L (ICa-L) jouent un rôle important. Paradoxalement, le lactate et le pyruvate ont induit une augmentation de la densité des courants ICa-L seulement chez les rates hypertendues. Le récepteur aux minéralocorticoïdes (RM) est connu pour son implication dans le remodelage structuro-fonctionnel du cœur dans les conditions pathologiques mais pas dans celui induit par la grossesse. Notre deuxième objectif était donc de déterminer le rôle du RM dans l’adaptation de la morphologie et de la contractilité des cardiomyocytes. Des rates gestantes ont été traitées avec le canrénoate de potassium (20 mg/kg/jr), un antagoniste des RM. L’inhibition des RM pendant la gestation empêche l’hypertrophie cellulaire. De plus, l’inhibition des RM bloque l’effet du lactate et du pyruvate sur la contractilité. Chez la femme, la grossesse est associée à des changements des propriétés électriques du cœur. Sur l’électrocardiogramme, l’intervalle QTc est plus long, témoignant de la prolongation de la repolarisation. Les mécanismes régulant cette adaptation restent encore inconnus. Ainsi, notre troisième objectif était de déterminer le rôle du RM dans l’adaptation de la repolarisation. Chez la rate gestante, l’intervalle QTc est prolongé ce qui est corroboré par la diminution des courants potassiques Ito et IK1. L’inhibition des RM pendant la gestation empêche la prolongation de l’intervalle QTc et la diminution des courants Ito. Les travaux exposés dans cette thèse apportent une vision plus précise du remodelage cardiaque induit par la grossesse, qui est permise par l’étude à l’échelle cellulaire. Nos résultats montrent que lors de la gestation et de l’HG les cardiomyocytes subissent des remodelages morphologiques contrastés. Notre étude a aussi révélé que lors de la gestation, la fonction contractile est tributaire des adaptations métaboliques et que cette relation est altérée lors de l’HG. Nos travaux montrent que la régulation de ces adaptations gestationnelles fait intervenir le RM au niveau de la morphologie, de la relation métabolisme/fonctionnement contractile et de la repolarisation. En faisant avancer les connaissances sur l’hypertrophie de la grossesse, ces travaux vont permettre d’améliorer la compréhension des complications cardiovasculaires gestationnelles.
Resumo:
Introduction: La démence peut être causée par la maladie d’Alzheimer (MA), la maladie cérébrovasculaire (MCEREV), ou une combinaison des deux. Lorsque la maladie cérébrovasculaire est associée à la démence, les chances de survie sont considérées réduites. Il reste à démontrer si le traitement avec des inhibiteurs de la cholinestérase (ChEIs), qui améliore les symptômes cognitifs et la fonction globale chez les patients atteints de la MA, agit aussi sur les formes vasculaires de démence. Objectifs: La présente étude a été conçue pour déterminer si la coexistence d’une MCEREV était associée avec les chances de survie ou la durée de la période jusqu’au placement en hebergement chez les patients atteints de la MA et traités avec des ChEIs. Des études montrant de moins bons résultats chez les patients souffrant de MCEREV que chez ceux n’en souffrant pas pourrait militer contre l’utilisation des ChEIs chez les patients atteints à la fois de la MA et la MCEREV. L'objectif d'une seconde analyse était d'évaluer pour la première fois chez les patients atteints de la MA l'impact potentiel du biais de « temps-immortel » (et de suivi) sur ces résultats (mort ou placement en hebergement). Méthodes: Une étude de cohorte rétrospective a été conduite en utilisant les bases de données de la Régie de l’Assurance Maladie du Québec (RAMQ) pour examiner la durée de la période jusqu’au placement en hebergement ou jusqu’au v décès des patients atteints de la MA, âgés de 66 ans et plus, avec ou sans MCEREV, et traités avec des ChEIs entre le 1er Juillet 2000 et le 30 Juin 2003. Puisque les ChEIs sont uniquement indiquées pour la MA au Canada, chaque prescription de ChEIs a été considérée comme un diagnostic de la MA. La MCEREV concomitante a été identifié sur la base d'un diagnostic à vie d’un accident vasculaire cérébral (AVC) ou d’une endartériectomie, ou d’un diagnostic d'un accident ischémique transitoire au cours des six mois précédant la date d’entrée. Des analyses séparées ont été conduites pour les patients utilisant les ChEIs de façon persistante et pour ceux ayant interrompu la thérapie. Sept modèles de régression à risque proportionnel de Cox qui ont varié par rapport à la définition de la date d’entrée (début du suivi) et à la durée du suivi ont été utilisés pour évaluer l'impact du biais de temps-immortel. Résultats: 4,428 patients ont répondu aux critères d’inclusion pour la MA avec MCEREV; le groupe de patients souffrant seulement de la MA comptait 13,512 individus. Pour le critère d’évaluation composite considérant la durée de la période jusqu’au placement en hebergement ou jusqu’au décès, les taux de survie à 1,000 jours étaient plus faibles parmi les patients atteints de la MA avec MCEREV que parmi ceux atteints seulement de la MA (p<0.01), mais les différences absolues étaient très faibles (84% vs. 86% pour l’utilisation continue de ChEIs ; 77% vs. 78% pour la thérapie avec ChEIs interrompue). Pour les critères d’évaluation secondaires, la période jusqu’au décès était plus courte chez les patients avec la MCEREV que sans la MCEREV, mais la période jusqu’au vi placement en hebergement n’était pas différente entre les deux groupes. Dans l'analyse primaire (non-biaisée), aucune association a été trouvée entre le type de ChEI et la mort ou le placement en maison d'hébergement. Cependant, après l'introduction du biais de temps-immortel, on a observé un fort effet différentiel. Limitations: Les résultats peuvent avoir été affectés par le biais de sélection (classification impropre), par les différences entre les groupes en termes de consommation de tabac et d’indice de masse corporelle (ces informations n’étaient pas disponibles dans les bases de données de la RAMQ) et de durée de la thérapie avec les ChEIs. Conclusions: Les associations entre la coexistence d’une MCEREV et la durée de la période jusqu’au placement en hebergement ou au décès apparaissent peu pertinentes cliniquement parmi les patients atteints de la MA traités avec des ChEIs. L’absence de différence entre les patients atteints de la MA souffrant ou non de la MCEREV suggère que la coexistence d’une MCEREV ne devrait pas être une raison de refuser aux patients atteints de la MA l’accès au traitement avec des ChEIs. Le calcul des « personne-temps » non exposés dans l'analyse élimine les estimations biaisées de l'efficacité des médicaments.
Resumo:
Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.
Évaluation de l'impact clinique et économique du développement d'un traitement pour la schizophrénie
Resumo:
Contexte : Les stratégies pharmacologiques pour traiter la schizophrénie reçoivent une attention croissante due au développement de nouvelles pharmacothérapies plus efficaces, mieux tolérées mais plus coûteuses. La schizophrénie est une maladie chronique présentant différents états spécifiques et définis par leur sévérité. Objectifs : Ce programme de recherche vise à: 1) Évaluer les facteurs associés au risque d'être dans un état spécifique de la schizophrénie, afin de construire les fonctions de risque de la modélisation du cours naturel de la schizophrénie; 2) Développer et valider un modèle de Markov avec microsimulations de Monte-Carlo, afin de simuler l'évolution naturelle des patients qui sont nouvellement diagnostiqués pour la schizophrénie, en fonction du profil individuel des facteurs de risque; 3) Estimer le coût direct de la schizophrénie (pour les soins de santé et autres non reliés aux soins de santé) dans la perspective gouvernementale et simuler l’impact clinique et économique du développement d’un traitement dans une cohorte de patients nouvellement diagnostiqués avec la schizophrénie, suivis pendant les cinq premières années post-diagnostic. Méthode : Pour le premier objectif de ce programme de recherche, un total de 14 320 patients nouvellement diagnostiqués avec la schizophrénie ont été identifiés dans les bases de données de la RAMQ et de Med-Echo. Les six états spécifiques de la schizophrénie ont été définis : le premier épisode (FE), l'état de dépendance faible (LDS), l’état de dépendance élevée (HDS), l’état stable (Stable), l’état de bien-être (Well) et l'état de décès (Death). Pour évaluer les facteurs associés au risque de se trouver dans chacun des états spécifiques de la schizophrénie, nous avons construit 4 fonctions de risque en se basant sur l'analyse de risque proportionnel de Cox pour des risques compétitifs. Pour le deuxième objectif, nous avons élaboré et validé un modèle de Markov avec microsimulations de Monte-Carlo intégrant les six états spécifiques de la schizophrénie. Dans le modèle, chaque sujet avait ses propres probabilités de transition entre les états spécifiques de la schizophrénie. Ces probabilités ont été estimées en utilisant la méthode de la fonction d'incidence cumulée. Pour le troisième objectif, nous avons utilisé le modèle de Markov développé précédemment. Ce modèle inclut les coûts directs de soins de santé, estimés en utilisant les bases de données de la Régie de l'assurance maladie du Québec et Med-Echo, et les coûts directs autres que pour les soins de santé, estimés à partir des enquêtes et publications de Statistique Canada. Résultats : Un total de 14 320 personnes nouvellement diagnostiquées avec la schizophrénie ont été identifiées dans la cohorte à l'étude. Le suivi moyen des sujets était de 4,4 (± 2,6) ans. Parmi les facteurs associés à l’évolution de la schizophrénie, on peut énumérer l’âge, le sexe, le traitement pour la schizophrénie et les comorbidités. Après une période de cinq ans, nos résultats montrent que 41% des patients seront considérés guéris, 13% seront dans un état stable et 3,4% seront décédés. Au cours des 5 premières années après le diagnostic de schizophrénie, le coût direct moyen de soins de santé et autres que les soins de santé a été estimé à 36 701 $ canadiens (CAN) (95% CI: 36 264-37 138). Le coût des soins de santé a représenté 56,2% du coût direct, le coût de l'aide sociale 34,6% et le coût associé à l’institutionnalisation dans les établissements de soins de longue durée 9,2%. Si un nouveau traitement était disponible et offrait une augmentation de 20% de l'efficacité thérapeutique, le coût direct des soins de santé et autres que les soins de santé pourrait être réduit jusqu’à 14,2%. Conclusion : Nous avons identifié des facteurs associés à l’évolution de la schizophrénie. Le modèle de Markov que nous avons développé est le premier modèle canadien intégrant des probabilités de transition ajustées pour le profil individuel des facteurs de risque, en utilisant des données réelles. Le modèle montre une bonne validité interne et externe. Nos résultats indiquent qu’un nouveau traitement pourrait éventuellement réduire les hospitalisations et le coût associé aux établissements de soins de longue durée, augmenter les chances des patients de retourner sur le marché du travail et ainsi contribuer à la réduction du coût de l'aide sociale.
Resumo:
Le nœud auriculoventriculaire (AV) joue un rôle vital dans le cœur normal et pathologique. Il connecte les oreillettes aux ventricules et, grâce à sa conduction lente, génère un délai entre les contractions auriculaire et ventriculaire permettant d’optimiser le pompage sanguin. Sa conduction lente et sa longue période réfractaire font du nœud AV un filtre d’impulsions auriculaires lors de tachyarythmies assurant ainsi une fréquence ventriculaire plus lente favorable au débit cardiaque. L’optimisation de ce filtrage est une cible dans le traitement de ces arythmies. Malgré ce rôle vital et de nombreuses études, le nœud AV demeure l’objet de plusieurs controverses qui en rendent la compréhension laborieuse. Nos études expérimentales sur des préparations isolées de cœurs de lapin visent à apporter des solutions à certains des problèmes qui limitent la compréhension des propriétés fréquentielles du nœud AV. Le premier problème concerne la définition de la propriété de récupération nodale. On s’accorde généralement sur la dépendance du temps de conduction nodale (intervalle auriculo-Hissien, AH) du temps de récupération qui le précède mais un débat presque centenaire persiste sur la façon de mesurer ce temps de récupération. Selon que l’on utilise à cette fin la longueur du cycle auriculaire (AA) ou l’intervalle His-auriculaire précédent (HA), la même réponse nodale montre des caractéristiques différentes, un paradoxe à ce jour inexpliqué. Le temps de conduction nodale augmente aussi avec le degré et la durée d'une fréquence rapide, un phénomène appelé fatigue. Or, les caractéristiques de la fatigue mesurée varient avec l’indice de récupération utilisé (AA vs. HA). De plus, une troisième propriété appelée facilitation qui entraîne un raccourcissement du temps de conduction diffère aussi avec l’indice de récupération utilisé. Pour établir l’origine de ce problème, nous avons déterminé les différences entre les courbes de récupération (AH compilé en fonction du AA ou HA) pour 30 états fonctionnels nodaux différents. Ces conditions étaient obtenues à l’aide de protocoles permettant la variation du cycle de base (BCL) et du cycle prétest (PTCL), deux paramètres connus pour altérer la fonction nodale. Nous avons pu établir que pour chaque état fonctionnel, la forme de la courbe de récupération et le niveau de fatigue étaient les mêmes pour les deux indices de récupération. Ceci s’applique aussi aux données obtenues à des BCL et PTCL égaux comme dans les protocoles de stimulation prématurée conventionnels couramment utilisés. Nos résultats ont établi pour la première fois que les propriétés nodales de récupération et de fatigue sont indépendantes de l’indice de récupération utilisé. Nos données montrent aussi que les différences entre les courbes de récupération en fonction de l’indice utilisé proviennent d’effets associés aux variations du PTCL. Notre deuxième étude établit à partir des mêmes données pourquoi les variations du PTCL altèrent différemment les courbes de récupération selon l’indice utilisé. Nous avons démontré que ces différences augmentaient en proportion directe avec l’augmentation du temps de conduction au battement prétest. Cette augmentation cause un déplacement systématique de la courbe construite avec l’intervalle AA vers la droite et de celle construite avec l’intervalle HA vers la gauche. Ce résultat met en évidence l’importance de tenir compte des changements du temps de conduction prétest dans l’évaluation de la fonction nodale, un paramètre négligé dans la plupart des études. Ce résultat montre aussi que chacun des deux indices a des limites dans sa capacité d’évaluer le temps de récupération nodale réel lorsque le temps de conduction prétest varie. Lorsque ces limites sont ignorées, comme c’est habituellement le cas, elles entraînent un biais dans l’évaluation des effets de fatigue et de facilitation. Une autre grande difficulté dans l’évaluation des propriétés fréquentielles du nœud AV concerne son état réfractaire. Deux indices sont utilisés pour évaluer la durée de la période réfractaire nodale. Le premier est la période réfractaire efficace (ERPN) définie comme l’intervalle AA le plus long qui n’est pas conduit par le nœud. Le deuxième est la période réfractaire fonctionnelle (FRPN) qui correspond à l’intervalle minimum entre deux activations mesurées à la sortie du nœud. Paradoxalement et pour des raisons obscures, l’ERPN augmente alors que la FRPN diminue avec l’augmentation de la fréquence cardiaque. De plus, ces effets varient grandement avec les sujets, les espèces et l’âge. À partir des mêmes données que pour les deux autres études, nous avons cherché dans la troisième étude l’origine des variations fréquentielles de l’ERPN et de la FRPN. Le raccourcissement du BCL prolonge l’ERPN mais n’affecte pas la FRPN. L’allongement de l’ERPN provient principalement d’un allongement du temps de conduction prétest. Un PTCL court en comparaison avec un BCL court allonge encore plus substantiellement le temps de conduction prétest mais raccourcit en même temps l’intervalle His-auriculaire, ces deux effets opposés s’additionnent pour produire un allongement net de l’ERPN. Le raccourcissement de l’intervalle His-auriculaire par le PTCL court est aussi entièrement responsable pour le raccourcissement de la FRPN. Nous avons aussi établi que, lorsque la composante du temps de conduction prétest est retirée de l’ERPN, un lien linéaire existe entre la FRPN et l’ERPN à cause de leur dépendance commune de l’intervalle His-auriculaire. Le raccourcissement combiné du BCL et du PTCL produit des effets nets prévisibles à partir de leurs effets individuels. Ces effets reproduisent ceux obtenus lors de protocoles prématurés conventionnels. Ces observations supportent un nouveau schème fonctionnel des variations fréquentielles de l’ERPN et de la FRPN à partir des effets distincts du BCL et du PTCL. Elles établissent aussi un nouveau lien entre les variations fréquentielles de l’ERPN et de la FRPN. En conclusion, la modulation fréquentielle de la fonction du nœud AV provient de la combinaison d’effets concurrents cumulatifs liés au cycle de base et non-cumulatifs liés au cycle prétest. Ces effets peuvent être interprétés de façon consistante indépendamment de l’indice de récupération en tenant compte des changements du temps de conduction au battement prétest. Les effets fréquentiels disparates sur l’ERPN et la FRPN sont aussi grandement liés aux changements du temps de conduction prétest. Lorsque l’analyse tient compte de ce facteur, l’ERPN et la FRPN montrent des variations parallèles fortement liées à celles de l’intervalle His-auriculaire. Le nouveau schème fonctionnel des propriétés fréquentielles du nœud AV supporté par nos données aidera à mieux cibler les études sur les mécanismes cellulaires contrôlant la modulation fréquentielle nodale. Nos données pourraient aider à l’interprétation et au contrôle des réponses nodales diverses associées aux tachyarythmies supraventriculaires et à leur traitement pharmacologique. En bref, nos travaux supportent une compréhension factuelle améliorée du comportement fréquentiel du nœud AV, un domaine aux applications multiples en rythmologie cardiaque.
Resumo:
Les reliques sont des objets associés aux saints, ou au Christ. Une relique est porteuse d’une puissance spirituelle, une virtus, source de miracles. Depuis l’Antiquité et surtout le Moyen Âge, les reliques ont joué un rôle essentiel dans la vie des sociétés chrétiennes. Il n’en reste pas moins que les théologiens semblent n’avoir réservé au culte des reliques qu’une faible part de leurs écrits, au point d’être considéré par l’historiographie actuelle comme ayant eu « une élaboration théorique inversement proportionnelle à son importance ». Le présent mémoire se propose d’étudier, à travers les différents témoignages laissés sur le culte des reliques, durant l’Antiquité et le Moyen Âge, quelles ont pu être les conceptions, croyances et controverses autour du culte des reliques. L’hypothèse par conséquent proposée est celle d’un « problème des reliques », intimement lié aux évolutions du culte des saints et aux conceptions sur l’eucharistie tout au long du Moyen Âge. Un glissement se produit au cours du Moyen Âge, d’une critique jugée hérétique du culte en lui-même, à un refus des abus et du flou entourant ce culte au nom de l’orthodoxie. Ces paroles persistantes, à défaut d’un débat, sur la validité, les mécanismes mystiques et les abus d’un tel culte se sont ainsi cristallisées au XIIe siècle chez plusieurs auteurs contemporains, tels Thiofrid d’Echternach et surtout Guibert de Nogent, soulignant le besoin d’une élaboration théorique et d’une codification de ces pratiques.
Resumo:
But : Ce projet de recherche a comme objectif principal de mieux comprendre diverses facettes de la relation entraîneur-entrainée. Cette relation entre un entraîneur masculin et une athlète féminine en volleyball sera observée selon trois niveaux de compétition des athlètes – secondaire, collégial et universitaire. Trois aspects seront étudiés à travers les questions posées dans cette recherche : (1) Est-ce que la perception que les athlètes ont de la relation entraîneur-entraîné est différente selon le niveau de compétition de l’athlète? (2) Existe-il des différences dans la nature de la relation à l’intérieur d’un même niveau? (3) Est-ce que le nombre d’années qu’une athlète a passé avec le même entraîneur affecte la qualité de la relation?. Méthodologie : Évoluant sur le circuit québécois, les six équipes de volleyball et leur entraîneur respectif représentent l’échantillon de la présente étude. Les tests utilisés afin de réaliser les analyses univariées et bivariées de cette étude sont : le Test de Welch, les corrélations de Pearson ainsi que les tests post-hoc de Games-Howell. Résultats : (1) Les athlètes du secondaire partagent une relation de meilleure qualité avec leur entraîneur que celles du cégep et de l’université. (2) Dans un même niveau de compétition, ce qui différencie la qualité de la relation est : le rôle de la joueuse dans son équipe ainsi que le nombre de sports organisés dans lesquels elle participe (relations proportionnelles). (3) Une relation inverse existe entre le nombre d’années vécues par la dyade entraîneur-athlète et la qualité de la relation.
Resumo:
Neuf maladies neurodégénératives sont le produit de l’expression de gènes mutés, dans lesquels le codon CAG est répété au-delà d’un seuil pathologique. Ceci produit des protéines mutantes dans lesquelles sont insérés des segments de polyglutamines (polyGln), qui perdent leur activité et acquièrent une nouvelle fonction, ce qui est toxique pour le neurone. Ces altérations sont attribuables aux propriétés particulières de la polyGln. En effet, ces dernières possèdent la capacité de s’assembler pour former des corps d’inclusion intracellulaires. Cette propension à l’agrégation de la polyGln rend difficile l’étude de ces pathologies. C’est ainsi que l’utilisation de peptides peut s’avérer une approche avantageuse. Toutefois, la synthèse de polyGln est associée à de nombreuses délétions et nécessite l’ajout de groupements chargés afin de permettre leur purification. Cependant, ce prérequis donne lieu à des interactions électrostatiques qui biaisent la structure et la cinétique d’agrégation de ces peptides, en plus d’interférer avec l’évaluation d’éventuels agents thérapeutiques. L’objectif du projet est de développer un système permettant l’étude de la polyGln en s’affranchissant des effets de charges. Pour ce faire, deux approches ont été explorées, la première utilise la polyGln non chargée et la seconde utilise une structure polyGln-morpholine ayant des charges labiles en fonction du pH. Ces peptides ont été produits en utilisant une approche linéaire de synthèse peptidique sur support solide avec protection maximale des chaînes latérales. La purification a été effectuée par chromatographie de haute performance en phase inverse en milieu acide. Ces stratégies ont permis de produire des peptides de polyGln de grande pureté avec des rendements acceptables. Une procédure de solubilisation des peptides alliant sonication et lyophilisation a été développée afin d’étudier chacun de ces peptides à l’aide de diverses techniques physicochimiques, telles que la diffusion de la lumière, la spectroscopie de résonance magnétique nucléaire, Raman et UV-visible, le dichroïsme circulaire et la microscopie optique polarisée. La polyGln non chargée solubilisée dans le trifluoroéthanol-eau a montré que la taille des particules et la vitesse d’agrégation sont proportionnelles à la fraction volumique en eau. De plus, la structure secondaire en solution est à prédominance alpha et semble être peu sensible à la fraction d’eau jusqu’à un certain seuil (25%) après lequel la structure aléatoire prédomine. L’analyse des agrégats à l’état solide montre des structures hélicoïdales > aléatoires et ont les caractéristiques des fibrilles amyloïdes. Le peptide de polyGln-morpholines a un pKa de 7,3 en milieu aqueux. Il demeure en solution lorsque le pH < pKa et à faible force ionique, alors qu’il s’autoassemble lorsque ces conditions ne sont pas respectées. Ceci suggère que la répulsion électrostatique est responsable de la stabilisation du peptide en solution. La dimension fractale nous indique que le peptide forme des agrégats compacts dont les constituants ont une taille de 2,5 nm, compatibles avec une conformation aléatoire compacte, en coude bêta ou hélicoïdale. Ceci est en accord avec l’étude structurale des peptides en solution qui a montré des espèces aléatoires > bêta > alpha. De plus, en RMN, l’élargissement des signaux du 1Hγ en cours d’agrégation suggère une interaction via les chaînes latérales. Les analyses en phase solide ont plutôt montré une prédominance de structures bêta et alpha. L’inhibition de l’agrégation à pH 8 varie selon rouge de Congo > tréhalose, alors que le peptide liant la polyGln 1 et la thioflavine T ne semble pas avoir d’effet. Ces approches ont donc permis pour la première fois de s’affranchir des effets de charges auparavant inhérents à l’étude de la polyGln en solution et par conséquent d’obtenir des informations inédites quant à la solubilité, la structure et la cinétique d’agrégation. Enfin, le dispositif à charges labiles permet d’évaluer l’efficacité d’éventuels agents thérapeutiques à pH quasi physiologique.
Resumo:
Dans le cadre de ce mémoire, les relations entre morphologie, locomotion et croissance chez les hominoïdes sont analysées sous l'angle des proportions métaphysaires et de leur acquisition. Plusieurs niveaux d'analyse — intermembre, supérieur et inférieur — sont abordés dans une perspective ontogénique. La masse corporelle et la direction des charges influencent la morphologie des surfaces articulaires et métaphysaires mais aussi leur développement. Les charges étant dépendantes du mode locomoteur et celui-ci se modifiant en fonction de l'âge, on tente de voir à quel(s) moment(s) les changements proportionnels ont lieu et pourquoi ils apparaissent. Des mesures linéaires ont été recueillies sur l'humérus, le radius, le fémur et le tibia sur un échantillon squelettique des espèces H. sapiens, P. troglodytes, G. gorilla et P. pygmaeus. À partir de ces mesures et du calcul de certains ratios, des comparaisons intra et interspécifiques ont été réalisées. Les différences les plus significatives entre les espèces se dévoilent au niveau intermembre et sont relatives aux différents pourcentages d'utilisation des membres supérieurs ou inférieurs. Au sein des espèces, les résultats révèlent une similarité dans les réactions des surfaces métaphysaires au niveau intermembre, supérieur et inférieur. Les changements proportionnels ont lieu entre les stades 0 et 1 pour H. sapiens (première marché indépendante), entre les stades 2 et 4 pour P. troglodytes (majorité du poids corporel soutenue par les membres inférieurs) et entre les stades 3 et 5 pour G. gorilla (taille adulte et quadrupédie très majoritaire). Pour P. pygmaeus aucun stade en particulier n'a été ciblé par les analyses et cela concorde avec l'homogénéité de ses modes de locomotion employés au cours de la vie. Les différences proportionnelles répondent à des changements locomoteurs majeurs. Australopithecus afarensis est intermédiaire entre H. sapiens et les grands singes pour de nombreuses comparaisons. Au niveau du genou, les plus jeunes individus A. afarensis ne montrent pas de morphologie bipède, similaire aux humains.