997 resultados para Modèles adaptatifs


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le travail d’équipe et la collaboration interprofessionnelle aux soins intensifs sont essentiels pour prodiguer des soins de qualité aux patients et pour leur sécurité. Cependant, les multiples interactions que nécessite une collaboration dans un contexte de soins aigus sont susceptibles de causer des tensions, des conflits et un travail inefficace dans l’équipe. Les déterminants de cette collaboration en soins intensifs ne sont pas encore bien identifiés. L'objectif de cette recherche est d'identifier et d'évaluer l’importance relative des déterminants susceptibles d’influencer la collaboration interprofessionnelle dans une équipe de soins intensifs. Un questionnaire évaluant ces déterminants a été élaboré et rempli par des professionnels de la santé travaillant dans quatre unités de soins intensifs d’un hôpital universitaire de Montréal. Un total de 312 professionnels, dont 46 médecins, 187 infirmières et 62 inhalothérapeutes, ont rempli le questionnaire. Des modèles d'analyses de régression multiple par hiérarchisation ont permis de déterminer que la « clarté du travail et des processus » , la « confiance et le respect » , mais tout particulièrement la « participation aux décisions » sont des déterminants statistiquement significatifs pour prédire la collaboration dans une équipe de soins intensifs. Une analyse de sous-groupe suggère des différences entre les médecins et les infirmières sur la perception de ces déterminants. Ces résultats apportent de nouveaux éléments dans la compréhension de la pratique de la collaboration et du travail d’équipe dans une équipe de soins intensifs, en précisant mieux ses déterminants. Sur le plan pratique, cela implique qu'il faille : i) favoriser un développement de la compétence de « collaboration » des professionnels travaillant dans le milieu des soins intensifs ; ii) cibler l’apprentissage auprès de ces professionnels en tenant compte des déterminants de la collaboration identifiés dans la présente étude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse de doctorat effectuée en cotutelle au Département d’histoire de l’art et d’études cinématographiques, Faculté des arts et des sciences, Université de Montréal et à l’Institut de recherche sur le cinéma et l'audiovisuel (IRCAV), Arts et Médias, ED 267, Université Sorbonne Nouvelle – Paris 3

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si les principes d’utilisabilité guident la conception de solutions de design interactif pour s’assurer que celles-ci soient « utilisables », quels principes guident la conception d’objets interactifs pour s’assurer que l’expérience subjective de l’usager (UX) soit adéquate et mémorable? Que manque-t-il au cadre de l‘UX pour expliquer, comprendre, et anticiper en tant que designer une expérience mémorable (‘an experience’; Dewey, 1934)? La question centrale est issue d’une double problématique : (1) le cadre théorique de l’UX est incomplet, et (2) les processus et capacités des designers ne sont pas considérés et utilisés à leur pleine capacité en conception UX. Pour répondre à cette question, nous proposons de compléter les modèles de l’UX avec la notion d’expérience autotélique qui appartient principalement à deux cadres théoriques ayant bien cerné l’expérience subjective, soit l’expérience optimale (ou Flow) de Csikszentmihalyi (1988) et l’expérience esthétique selon Schaeffer (2001). L’autotélie est une dimension interne du Flow alors qu’elle couvre toute l’expérience esthétique. L’autotélie est une expérience d’éveil au moment même de l’interaction. Cette prise de conscience est accompagnée d’une imperceptible tension de vouloir faire durer ce moment pour faire durer le plaisir qu’il génère. Trois études exploratoires ont été faites, s’appuyant sur une analyse faite à partir d’un cadre théorique en trois parties : le Flow, les signes d’activité non verbale (les gestes physiques) et verbale (le discours) ont été évalués pour voir comment ceux-ci s’associent. Nos résultats tendent à prouver que les processus spatiaux jouent un rôle de premier plan dans l’expérience autotélique et par conséquent dans une UX optimale. De plus, ils suggèrent que les expériences pragmatique et autotélique sont ancrées dans un seul et même contenu, et que leur différence tient au type d’attention que le participant porte sur l’interaction, l’attention ordinaire ou de type autotélique. Ces résultats nous ont menés à proposer un modèle pour la conception UX. L’élément nouveau, resté jusqu’alors inaperçu, consiste à s’assurer que l’interface (au sens large) appelle une attitude réceptive à l’inattendu, pour qu’une information puisse déclencher les processus spatiaux, offrant une opportunité de passer de l’attention ordinaire à l’attention autotélique. Le nouveau modèle ouvre la porte à une meilleure valorisation des habiletés et processus du designer au sein de l’équipe multidisciplinaire en conception UX.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les proliférations nuisibles de la cyanobactérie filamenteuse benthique Lyngbya wollei qui forme des tapis déposés sur les sédiments ont augmenté en fréquence au cours des 30 dernières années dans les rivières, lacs et sources de l'Amérique du Nord. Lyngbya wollei produit des neurotoxines et des composés organiques volatils (géosmin, 2-méthylisobornéol) qui ont des répercussions sur la santé publique de même que des impacts d'ordre socioéconomiques. Cette cyanobactérie est considérée comme un habitat et une source de nourriture de piètre qualité pour les invertébrés en raison de sa gaine robuste et de sa production de toxines. Les proliférations de L. wollei ont été observées pour la première fois en 2005 dans le fleuve Saint-Laurent (SLR; Québec, Canada). Nous avons jugé important de déterminer sa distribution sur un tronçon de 250 km afin d'élaborer des modèles prédictifs de sa présence et biomasse en se basant sur les caractéristiques chimiques et physiques de l'eau. Lyngbya wollei était généralement observé en aval de la confluence de petits tributaires qui irriguent des terres agricoles. L’écoulement d’eaux enrichies à travers la végétation submergée se traduisait par une diminution de la concentration d’azote inorganique dissous (DIN), alors que les concentrations de carbone organique dissous (DOC) et de phosphore total dissous (TDP) demeuraient élevées, produisant un faible rapport DIN :TDP. Selon nos modèles, DOC (effet positif), TP (effet négatif) et DIN :TDP (effet négatif) sont les variables les plus importantes pour expliquer la répartition de cette cyanobactérie. La probabilité que L. wollei soit présent dans le SLR a été prédite avec exactitude dans 72 % à 92 % des cas pour un ensemble de données indépendantes. Nous avons ensuite examiné si les conditions hydrodynamiques, c'est-à-dire le courant généré par les vagues et l'écoulement du fleuve, contrôlent les variations spatiales et temporelles de biomasse de L. wollei dans un grand système fluvial. Nous avons mesuré la biomasse de L. wollei ainsi que les variables chimiques, physiques et météorologiques durant trois ans à 10 sites le long d'un gradient d'exposition au courant et au vent dans un grand (148 km2) lac fluvial du SLR. L'exposition aux vagues et la vitesse du courant contrôlaient les variations de biomasses spatiales et temporelles. La biomasse augmentait de mai à novembre et persistait durant l'hiver. Les variations interannuelles étaient contrôlées par l'écoulement de la rivière (niveau d'eau) avec la crue printanière qui délogeait les tapis de l'année précédente. Les baisses du niveau d'eau et l'augmentation de l'intensité des tempêtes anticipées par les scénarios de changements climatiques pourraient accroître la superficie colonisée par L. wollei de même que son accumulation sur les berges. Par la suite, nous avons évalué l'importance relative de L. wollei par rapport aux macrophytes et aux épiphytes. Nous avons examiné l'influence structurante de l'échelle spatiale sur les variables environnementales et la biomasse de ces producteurs primaires (PP) benthiques. Nous avons testé si leur biomasse reflétait la nature des agrégats d'habitat basées sur l'écogéomorphologie ou plutôt le continuum fluvial. Pour répondre à ces deux questions, nous avons utilisé un design à 3 échelles spatiales dans le SLR: 1) le long d'un tronçon de 250 km, 2) entre les lacs fluviaux localisés dans ce tronçon, 3) à l'intérieur de chaque lac fluvial. Les facteurs environnementaux (conductivité et TP) et la structure spatiale expliquent 59% de la variation de biomasse des trois PP benthiques. Spécifiquement, les variations de biomasses étaient le mieux expliquées par la conductivité (+) pour les macrophytes, par le ratio DIN:TDP (+) et le coefficient d'extinction lumineuse (+) pour les épiphytes et par le DOC (+) et le NH4+ (-) pour L. wollei. La structure spatiale à l'intérieur des lacs fluviaux était la plus importante composante spatiale pour tous les PP benthiques, suggérant que les effets locaux tels que l'enrichissement par les tributaire plutôt que les gradients amont-aval déterminent la biomasse de PP benthiques. Donc, la dynamique des agrégats d'habitat représente un cadre général adéquat pour expliquer les variations spatiales et la grande variété de conditions environnementales supportant des organismes aquatiques dans les grands fleuves. Enfin, nous avons étudié le rôle écologique des tapis de L. wollei dans les écosystèmes aquatiques, en particulier comme source de nourriture et refuge pour l'amphipode Gammarus fasciatus. Nous avons offert aux amphipodes un choix entre des tapis de L. wollei et soit des chlorophytes filamenteuses ou un tapis artificiel de laine acrylique lors d'expériences en laboratoire. Nous avons aussi reconstitué la diète in situ des amphipodes à l'aide du mixing model (d13C et δ15N). Gammarus fasciatus choisissait le substrat offrant le meilleur refuge face à la lumière (Acrylique>Lyngbya=Rhizoclonium>Spirogyra). La présence de saxitoxines, la composition élémentaire des tissus et l'abondance des épiphytes n'ont eu aucun effet sur le choix de substrat. Lyngbya wollei et ses épiphytes constituaient 36 et 24 % de l'alimentation in situ de G. fasciatus alors que les chlorophytes, les macrophytes et les épiphytes associées représentaient une fraction moins importante de son alimentation. Les tapis de cyanobactéries benthiques devraient être considérés comme un bon refuge et une source de nourriture pour les petits invertébrés omnivores tels que les amphipodes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire propose une hypothèse alternative pour expliquer les facteurs à l’origine du boom du soja brésilien. En utilisant une approche combinant la théorie de l’organisation et l’économie politique institutionnelle, ce mémoire propose de comparer les modèles d’organisation de la chaîne de valeur soja des États du Mato Grosso et du Paraná. Dans un premier temps, cette recherche est guidée par un souci de documenter les rouages propres à chaque mode d’organisation et de catégoriser ces derniers comme des systèmes à part entière et cohérents. Ainsi, le mode de coordination du Mato Grosso (intégration de la chaîne de valeur) peut être qualifié de modèle hybride se rapprochant davantage du pôle hiérarchie tandis que le mode d’organisation du Paraná (coopérative agroindustrielle) peut être qualifié de mode hybride gravitant davantage vers le pôle marché. La nature des risques est identifiée comme principal déterminant du degré de centralisation de la gouvernance au sein de ces modèles. L’argument soutient que chaque mode de coordination est performant car il est adapté aux conditions locales de production et permet de mitiger les risques propres à chaque région de façon à encourager les échanges économiques. Dans un deuxième temps, cette recherche serait incomplète sans une analyse des facteurs politiques et historiques ayant influencé la trajectoire de développement de chaque région. Ainsi, chaque étude de cas présente un récit détaillé de l’évolution des politiques agraires et des institutions depuis les années 1960, soit le moment où la culture commerciale du soja a commencé à gagner en importance au Brésil. Analyser le changement institutionnel depuis 1960 est primordial pour comprendre comment se sont consolidées les règles du jeu qui sous-tendent aujourd’hui chaque mode de coordination.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les simulations et figures ont été réalisées avec le logiciel R.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La recherche des facteurs de longévité gagne en intérêt dans le contexte actuel du vieillissement de la population. De la littérature portant sur la longévité et la mortalité aux grands âges, un constat émerge : bien que les déterminants associés à la survie humaine soient multiples, l'environnement familial aurait un rôle déterminant sur la mortalité et sur l'atteinte des âges avancés. Dès lors, l'objectif de cette thèse est d'évaluer les déterminants de la survie exceptionnelle et d'examiner le rôle des aspects familiaux, en début de vie et à l'âge adulte, dans les différentiels de durée de vie. Plus spécifiquement, elle vise à : (1) examiner la similarité des âges au décès entre frères, soeurs et conjoints afin d'apprécier l'ampleur de la composante familiale de la longévité; (2) explorer, d'un point de vue intrafamilial, les conséquences à long terme sur la survie des variables non partagées issues de la petite enfance tels l'âge maternel à la reproduction, le rang de naissance et la saison de naissance; et (3) s'interroger sur le rôle protecteur ou délétère de l’environnement et du milieu familial d'origine dans l’enfance sur l'atteinte des grands âges et dans quelle mesure le statut socioéconomique parvient à médiatiser la relation. Cette analyse s'appuie sur le jumelage des recensements canadiens et des actes de décès de l’état civil québécois et emploie des données québécoises du 20e siècle issues de deux échantillons distincts : un échantillon aléatoire représentatif de la population provenant du recensement canadien de 1901 ainsi qu’un échantillon de frères et soeurs de centenaires québécois appartenant à la même cohorte. Les résultats, présentés sous forme d'articles scientifiques, ont montré, en outre, que les frères et soeurs de centenaires vivent plus longtemps que les individus appartenant aux mêmes cohortes de naissance, reflétant la contribution d'une robustesse commune, mais également celle de l'environnement partagé durant la petite enfance. Ces analyses ont également témoigné d'un avantage de survie des conjoints des centenaires, soulignant l'importance d'un même environnement à l'âge adulte (1er article). De plus, nos travaux ont mis de l'avant la contribution aux inégalités de longévité des variables biodémographiques issues de l'environnement non partagé telles que l'âge maternel à la reproduction, le rang de naissance et la saison de naissance, qui agissent et interagissent entre elles pour créer des vulnérabilités et influer sur l'atteinte des âges exceptionnels (2e article). Enfin, une approche longitudinale a permis de souligner la contribution du milieu social d'origine sur la longévité, alors que les individus issus d’un milieu socioéconomique défavorisé pour l'époque (milieu urbain, père ouvrier) vivent moins longtemps que ceux ayant vécu dans un environnement socioéconomique favorable (milieu rural, fermier), résultat d'une potentielle accumulation des avantages liée à la reproduction du statut social ou d'une programmation précoce des trajectoires de santé. L’influence est toutefois moindre pour les femmes et pour les frères de centenaires et s'exprime, dans ce cas, en partie par l'effet de la profession à l'âge adulte (3e article).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Latex a été utilisé pour la redaction de cette thèse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire a pour but d’explorer la littérature sur le sujet de la justice scolaire. L’étude sera divisée sous trois axes. Il sera question d’abord de l’accessibilité à l’éducation. Il y a au moins quatre grands principes au libéralisme : (1) les individus sont libres et égaux ; (2) les individus ont tous droit à des chances égales de mener à terme leur projet de vie ; (3) les individus sont détenteurs d’un ensemble de droits garantis par la société ; (4) l’État adopte une posture de neutralité. Partant de ces valeurs, nous établissons des liens avec la nécessité d’une accessibilité à l’éducation. En second lieu, ce mémoire étudiera trois modèles d’école : l’école parentale, l’école étatique, et l’école orientée vers l’autonomie. Nous argumenterons, avec Harry Brighouse, à l’effet que l’éducation orientée vers l’autonomie constitue l’objectif qui respecte le plus les valeurs du libéralisme, dont l’impératif de neutralité, et les intérêts des jeunes. Dans la dernière partie de cette étude, nous étudierons trois conceptions de l’égalité : égalité des ressources (Jean-Fabien Spitz), égalité des opportunités (Richard Arneson) de bien-être et le suffisantisme (Debra Satz). Afin de juger de leurs qualités respectives, nous tenterons de les appliquer au système éducatif afin d’en faire ressortir les forces et les faiblesses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique : L’édentement et les troubles du sommeil sont des affections chroniques fréquentes chez les personnes âgées et qui peuvent avoir des conséquences défavorables sur le bien-être de ces personnes, ainsi que sur leur qualité de vie. L’édentement pourrait perturber le sommeil par la modification de la structure crânio-faciale et des tissus mous environnants. Cependant, cette relation n'est pas suffisamment documenté. Objectifs : Le but de cette étude pilote était de préparer la mise en œuvre d’une étude clinique randomisée contrôlée concernant l’effet du port nocturne des prothèses complètes sur la qualité du sommeil. Méthodologie : Treize aînés édentés ont participé à cette étude clinique randomisée contrôlée de type croisé. L’intervention consistait à dormir avec ou sans les prothèses durant la nuit. Les participants à l'étude ont été assignés à porter et ne pas porter leurs prothèses dans des ordres alternatifs pour des périodes de 30 jours. La qualité du sommeil a été évaluée par la polysomnographie portable et le questionnaire Pittburgh Sleep Quality Index (PSQI). Les données supplémentaires incluent la somnolence diurne, évaluée par le questionnaire Epworth Sleepiness Scale (ESS), et la qualité de vie liée à la santé buccodentaire, évaluée par le questionnaire Oral Health Impact Profile 20 (OHIP-20). De plus, à travers les examens cliniques et radiologiques, les données des caractéristiques sociodémographiques, de la morphologie oropharyngée, des caractéristiques buccodentaires et des prothèses ont été recueillies. Les modèles de régression linéaire pour les mesures répétées ont été utilisés pour analyser les résultats. Résultats : L’étude de faisabilité a atteint un taux de recrutement à l’étude de 59,1% et un taux de suivi de 100%. Le port nocturne des prothèses dentaires augmentait l’index d'apnée-hypopnée (IAH) et le score PSQI par rapport au non port nocturne des prothèses : (IAH : Médiane = 20,9 (1,3 - 84,7) versus 11,2 (1,9 - 69,6), p = 0,237; le score PSQI : Médiane = 6,0 (3,0 - 11,0) versus 5,0 (1,0 - 11,0), p = 0,248). Cependant, ces différences n'étaient pas statistiquement significatives, sauf que pour le temps moyen d’apnée (plus long avec des prothèses) (p < 0,005) et le temps de ronflement relatif (moins élevé avec des prothèses) (p < 0,05). La somnolence diurne excessive et la qualité de vie liée à la santé buccodentaire étaient semblables pour les deux interventions (le score ESS : Médiane = 4,0 (3,0-10,0) versus 5,0 (2,0-10,0), p = 0,746; le score OHIP-20: Médiane = 31,0 (20,0-64,0) versus 27,0 (20,0-49,0), p = 0,670). L’impact néfaste du port nocturne des prothèses complètes sur le sommeil a été statistiquement significatif chez les personnes souffrant de l’apnée-hypopnée moyenne à sévère (p < 0,005). Conclusion : L’essai clinique pilote a montré que le port nocturne des prothèses complètes a un impact négatif sur la qualité du sommeil des gens âgés édentés, surtout chez les personnes avec l’apnée obstructive du sommeil modérée à sévère. Les résultats doivent être confirmés par l’étude clinique randomisée contrôlée de phase II.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur la simulation d'intervalles de crédibilité simultanés dans un contexte bayésien. Dans un premier temps, nous nous intéresserons à des données de précipitations et des fonctions basées sur ces données : la fonction de répartition empirique et la période de retour, une fonction non linéaire de la fonction de répartition. Nous exposerons différentes méthodes déjà connues pour obtenir des intervalles de confiance simultanés sur ces fonctions à l'aide d'une base polynomiale et nous présenterons une méthode de simulation d'intervalles de crédibilité simultanés. Nous nous placerons ensuite dans un contexte bayésien en explorant différents modèles de densité a priori. Pour le modèle le plus complexe, nous aurons besoin d'utiliser la simulation Monte-Carlo pour obtenir les intervalles de crédibilité simultanés a posteriori. Finalement, nous utiliserons une base non linéaire faisant appel à la transformation angulaire et aux splines monotones pour obtenir un intervalle de crédibilité simultané valide pour la période de retour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif principal de cette thèse est d’identifier les étoiles de faible masse et naines brunes membres d’associations cinématiques jeunes du voisinage solaire. Ces associations sont typiquement âgées de moins de 200 millions d’années et regroupent chacune un ensemble d’étoiles s’étant formées au même moment et dans un même environnement. La majorité de leurs membres d'environ plus de 0.3 fois la masse du Soleil sont déjà connus, cependant les membres moins massifs (et moins brillants) nous échappent encore. Leur identification permettra de lever le voile sur plusieurs questions fondamentales en astrophysique. En particulier, le fait de cibler des objets jeunes, encore chauds et lumineux par leur formation récente, permettra d’atteindre un régime de masses encore peu exploré, jusqu'à seulement quelques fois la masse de Jupiter. Elles nous permettront entre autres de contraindre la fonction de masse initiale et d'explorer la connection entre naines brunes et exoplanètes, étant donné que les moins massives des naines brunes jeunes auront des propriétés physiques très semblables aux exoplanètes géantes gazeuses. Pour mener à bien ce projet, nous avons adapté l'outil statistique BANYAN I pour qu'il soit applicable aux objets de très faibles masses en plus de lui apporter plusieurs améliorations. Nous avons entre autres inclus l'utilisation de deux diagrammes couleur-magnitude permettant de différencier les étoiles de faible masse et naines brunes jeunes à celles plus vieilles, ajouté l'utilisation de probabilités a priori pour rendre les résultats plus réalistes, adapté les modèles spatiaux et cinématiques des associations jeunes en utilisant des ellipsoïdes gaussiennes tridimensionnelles dont l'alignement des axes est libre, effectué une analyse Monte Carlo pour caractériser le taux de faux-positifs et faux-négatifs, puis revu la structure du code informatique pour le rendre plus efficace. Dans un premier temps, nous avons utilisé ce nouvel algorithme, BANYAN II, pour identifier 25 nouvelles candidates membres d'associations jeunes parmi un échantillon de 158 étoiles de faible masse (de types spectraux > M4) et naines brunes jeunes déjà connues. Nous avons ensuite effectué la corrélation croisée de deux catalogues couvrant tout le ciel en lumière proche-infrarouge et contenant ~ 500 millions d’objets célestes pour identifier environ 100 000 candidates naines brunes et étoiles de faible masse du voisinage solaire. À l'aide de l'outil BANYAN II, nous avons alors identifié quelques centaines d'objets appartenant fort probablement à une association jeune parmi cet échantillon et effectué un suivi spectroscopique en lumière proche-infrarouge pour les caractériser. Les travaux présentés ici ont mené à l'identification de 79 candidates naines brunes jeunes ainsi que 150 candidates étoiles de faible masse jeunes, puis un suivi spectroscopique nous a permis de confirmer le jeune âge de 49 de ces naines brunes et 62 de ces étoiles de faible masse. Nous avons ainsi approximativement doublé le nombre de naines brunes jeunes connues, ce qui a ouvert la porte à une caractérisation statistique de leur population. Ces nouvelles naines brunes jeunes représentent un laboratoire idéal pour mieux comprendre l'atmosphère des exoplanètes géantes gazeuses. Nous avons identifié les premiers signes d’une remontée dans la fonction de masse initiale des naines brunes aux très faibles masses dans l'association jeune Tucana-Horologium, ce qui pourrait indiquer que l’éjection d’exoplanètes joue un rôle important dans la composition de leur population. Les résultats du suivi spectroscopique nous ont permis de construire une séquence empirique complète pour les types spectraux M5-L5 à l'âge du champ, à faible (β) et très faible (γ) gravité de surface. Nous avons effectué une comparaison de ces données aux modèles d'évolution et d'atmosphère, puis nous avons construit un ensemble de séquences empiriques de couleur-magnitude et types spectraux-magnitude pour les naines brunes jeunes. Finalement, nous avons découvert deux nouvelles exoplanètes par un suivi en imagerie directe des étoiles jeunes de faible masse identifiées dans ce projet. La future mission GAIA et le suivi spectroscopique complet des candidates présentées dans cette thèse permettront de confirmer leur appartenance aux associations jeunes et de contraindre la fonction de masse initiale dans le régime sous-stellaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sclérose latérale amyothrophique (SLA) est une maladie neurodégénérative charactérisée par la perte des neurones moteurs menant à la paralysie et à la mort. Environ 20% des cas familiaux de la SLA sont causés par des mutations de la superoxyde dismutase 1 (SOD1), conduisant vers un mauvais repliement de la protéine SOD1, ce qui a comme conséquence un gain de fonction toxique. Plusieurs anticorps spécifiques pour la forme mal repliée de la protéine ont été générés et utilisés comme agent thérapeutique dans des modèles précliniques. Comment le mauvais repliement de SOD1 provoque la perte sélective des neurones moteurs demeure non résolu. La morphologie, le bilan énergétique et le transport mitochondrial sont tous documentés dans les modèles de la SLA basés sur SOD1, la détérioration des mitochondries joue un rôle clé dans la dégénération des neurones moteurs. De plus, la protéine SOD1 mal repliée s’associe sélectivement sur la surface des mitochondries de la moelle épinière chez les modèles de rongeurs de la SLA. Notre hypothèse est que l’accumulation de la protéine SOD1 mal repliée sur les mitochondries pourrait nuire aux fonctions mitochondriales. À cette fin, nous avons développé un nouvel essai par cytométrie de flux afin d’isoler les mitochondries immunomarquées avec des anticorps spécifiques à la forme malrepliée de SOD1 tout en évaluant des aspects de la fonction mitochondriale. Cette méthode permettra de comparer les mitochondries portant la protéine SOD1 mal repliée à celles qui ne la portent pas. Nous avons utilisé un anticorps à conformation spécifique de SOD1, B8H10, pour démontrer que la protéine mal repliée SOD1 s’associe avec les mitochondries de la moelle épinière des rat SOD1G93A d’une manière dépendante du temps. Les mitochondries avec la protéine mal repliée SOD1 B8H10 associée à leur surface (B8H10+) ont un volume et une production excessive de superoxyde significativement plus grand, mais possèdent un potentiel transmembranaire comparable aux mitochondries B8H10-. En outre, la présence de la protéine mal repliée SOD1 reconnue par B8H10 coïncide avec des niveaux plus élevés de la forme pro-apoptotique de Bcl-2. L’immunofluorescence de sections de moelle épinière du niveau lombaire avec l’anticorps spécifique à la conformation B8H10 et AMF7-63, un autre anticorps conformationnel spécifique de SOD1, démontre des motifs de localisations distincts. B8H10 a été trouvé principalement dans les neurones moteurs et dans plusieurs points lacrymaux dans tout le neuropile. Inversement, AMF7-63 a marqué les neurones moteurs ainsi qu’un réseau fibrillaire distinctif concentré dans la corne antérieure. Au niveau subcellulaire, SOD1 possèdant la conformation reconnu par AMF7-63 est aussi localisée sur la surface des mitochondries de la moelle épinière d’une manière dépendante du temps. Les mitochondries AMF7-63+ ont une augmentation du volume comparé aux mitochondries B8H10+ et à la sous-population non marquée. Cependant, elles produisent une quantité similaire de superoxyde. Ensemble, ces données suggèrent qu’il y a plusieurs types de protéines SOD1 mal repliées qui convergent vers les mitochondries et causent des dommages. De plus, différentes conformations de SOD1 apportent une toxicité variable vers les mitochondries. Les protéines SOD1 mal repliées réagissant à B8H10 et AMF7-63 sont présentes en agrégats dans les fractions mitochondriales, nous ne pouvons donc pas prendre en compte leurs différents effets sur le volume mitochondrial. Les anticorps conformationnels sont des outils précieux pour identifier et caractériser le continuum du mauvais repliement de SOD1 en ce qui concerne les caractéristiques biochimiques et la toxicité. Les informations présentes dans cette thèse seront utilisées pour déterminer le potentiel thérapeutique de ces anticorps.