792 resultados para Modèles de prédiction
Resumo:
L’insécurité routière chez les conducteurs âgés est attribuable en partie, aux effets délétères du vieillissement normal sur le fonctionnement cognitif. Les méthodes d’évaluation neuropsychologique par les tests ayant montré une certaine efficacité dans le cas du dépistage des habiletés de conduite chez les conducteurs âgés atteints d’affections neurologiques pathologiques, la présente thèse vise à évaluer la pertinence de cette approche chez les conducteurs vieillissants de la population générale. Le principal objectif de cette thèse est ainsi d’obtenir une vue d’ensemble sur le rôle et la sensibilité des mesures neuropsychologiques dans la prédiction des habiletés et habitudes de conduite automobile sécuritaire chez les conducteurs âgés. Dans la même perspective, la thèse explore d’autre part le rôle de variables sociodémographiques et psychologiques. L’article 1 évalue la validité prédictive de sept tests des fonctions visuo-attentionnelles et de la mémoire de travail en regard des habiletés de détection périphérique chez 50 conducteurs âgés de 62 à 83 ans. L’étude sur simulateur de conduite comprend une condition de conduite simple et une condition plus soutenue incluant une distraction téléphonique de type « mains-libres ». Selon les résultats, certains tests cognitifs prédisent bien les temps de détection. En outre, la validité prédictive des tests est plus importante dans la situation de conduite plus exigeante. Cela dit, les résultats de l’article 2 révèlent que le recours aux stratégies d’évitement des situations exigeantes est plus prononcé chez les individus qui présentent des faiblesses à certains des tests neuropsychologiques proposés. Les résultats indiquent en outre que l’utilisation des stratégies d’évitement routier est plus fréquente chez les conducteurs ayant tendance à déprécier leurs habiletés de conduite générales, à exprimer une moindre perception de contrôle ainsi qu’une attitude défavorable à l’endroit des situations de conduite complexes ou risquées. Les stratégies d’évitement se révèlent donc comme des réponses autorégulatrices proportionnelles aux limitations cognitives et aux perceptions individuelles. Dans les deux études, l’âge ne permet pas d’expliquer les différences individuelles, ceci ni en termes d’habiletés de détection périphérique ni de tendances autorégulatrices. Le rôle du genre est cependant plus nuancé. Ainsi, le principal apport de la présente thèse réside dans la constatation que si d’une part, certaines limitations neuropsychologiques sont associées à une réduction des habiletés de détection périphérique, ces mêmes limitations s’accompagnent aussi de mesures autorégulatrices qui peuvent contribuer à réduire le risque routier. Il appert conséquemment que les méthodes de dépistage de l’insécurité routière chez les conducteurs âgés se basant sur l’évaluation des limitations cognitives et attentionnelles doivent également rechercher et évaluer la teneur de leurs comportements routiers autorégulateurs. Dans le contexte de vieillissement de la population, des interventions pourront également miser sur le renforcement de ces comportements.
Resumo:
La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.
Resumo:
Les modèles pharmacocinétiques à base physiologique (PBPK) permettent de simuler la dose interne de substances chimiques sur la base de paramètres spécifiques à l’espèce et à la substance. Les modèles de relation quantitative structure-propriété (QSPR) existants permettent d’estimer les paramètres spécifiques au produit (coefficients de partage (PC) et constantes de métabolisme) mais leur domaine d’application est limité par leur manque de considération de la variabilité de leurs paramètres d’entrée ainsi que par leur domaine d’application restreint (c. à d., substances contenant CH3, CH2, CH, C, C=C, H, Cl, F, Br, cycle benzénique et H sur le cycle benzénique). L’objectif de cette étude est de développer de nouvelles connaissances et des outils afin d’élargir le domaine d’application des modèles QSPR-PBPK pour prédire la toxicocinétique de substances organiques inhalées chez l’humain. D’abord, un algorithme mécaniste unifié a été développé à partir de modèles existants pour prédire les PC de 142 médicaments et polluants environnementaux aux niveaux macro (tissu et sang) et micro (cellule et fluides biologiques) à partir de la composition du tissu et du sang et de propriétés physicochimiques. L’algorithme résultant a été appliqué pour prédire les PC tissu:sang, tissu:plasma et tissu:air du muscle (n = 174), du foie (n = 139) et du tissu adipeux (n = 141) du rat pour des médicaments acides, basiques et neutres ainsi que pour des cétones, esters d’acétate, éthers, alcools, hydrocarbures aliphatiques et aromatiques. Un modèle de relation quantitative propriété-propriété (QPPR) a été développé pour la clairance intrinsèque (CLint) in vivo (calculée comme le ratio du Vmax (μmol/h/kg poids de rat) sur le Km (μM)), de substrats du CYP2E1 (n = 26) en fonction du PC n octanol:eau, du PC sang:eau et du potentiel d’ionisation). Les prédictions du QPPR, représentées par les limites inférieures et supérieures de l’intervalle de confiance à 95% à la moyenne, furent ensuite intégrées dans un modèle PBPK humain. Subséquemment, l’algorithme de PC et le QPPR pour la CLint furent intégrés avec des modèles QSPR pour les PC hémoglobine:eau et huile:air pour simuler la pharmacocinétique et la dosimétrie cellulaire d’inhalation de composés organiques volatiles (COV) (benzène, 1,2-dichloroéthane, dichlorométhane, m-xylène, toluène, styrène, 1,1,1 trichloroéthane et 1,2,4 trimethylbenzène) avec un modèle PBPK chez le rat. Finalement, la variabilité de paramètres de composition des tissus et du sang de l’algorithme pour les PC tissu:air chez le rat et sang:air chez l’humain a été caractérisée par des simulations Monte Carlo par chaîne de Markov (MCMC). Les distributions résultantes ont été utilisées pour conduire des simulations Monte Carlo pour prédire des PC tissu:sang et sang:air. Les distributions de PC, avec celles des paramètres physiologiques et du contenu en cytochrome P450 CYP2E1, ont été incorporées dans un modèle PBPK pour caractériser la variabilité de la toxicocinétique sanguine de quatre COV (benzène, chloroforme, styrène et trichloroéthylène) par simulation Monte Carlo. Globalement, les approches quantitatives mises en œuvre pour les PC et la CLint dans cette étude ont permis l’utilisation de descripteurs moléculaires génériques plutôt que de fragments moléculaires spécifiques pour prédire la pharmacocinétique de substances organiques chez l’humain. La présente étude a, pour la première fois, caractérisé la variabilité des paramètres biologiques des algorithmes de PC pour étendre l’aptitude des modèles PBPK à prédire les distributions, pour la population, de doses internes de substances organiques avant de faire des tests chez l’animal ou l’humain.
Resumo:
Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.
Resumo:
En rivière à lit de graviers, le transport des sédiments en charge de fond est un processus intermittent qui dépend de plusieurs variables du système fluvial dont la prédiction est encore aujourd’hui inexacte. Les modèles disponibles pour prédire le transport par charriage utilisent des variables d’écoulement moyen et la turbulence n’est généralement pas considérée malgré que les tourbillons contenus dans les écoulements possèdent une quantité d’énergie importante. L’utilisation de nouvelles approches pour étudier la problématique du transport par charriage pourrait nous permettre d’améliorer notre connaissance de ce processus déterminant en rivière alluviale. Dans ce mémoire, nous documentons ces composantes de la dynamique fluviale dans un cours d’eau graveleux en période de crue. Les objectifs du projet de recherche sont : 1) d’examiner l’effet du débit sur les variables turbulentes et les caractéristiques des structures turbulentes cohérentes, 2) d’investiguer l’effet du débit sur les caractéristiques des événements de transport de sédiments individuels détectés à l’aide d’un nouvel algorithme développé et testé et 3) de relier les caractéristiques de l’écoulement turbulent aux événements de transport de sédiments individuels. Les données de turbulence montrent qu’à haut niveau d’eau, l’écoulement décéléré est peu cohérent et a une turbulence plus isotrope où les structures turbulentes cohérentes sont de courte durée. Ces observations se distinguent de celles faites à faible niveau d’eau, en écoulement accéléré, où la plus grande cohérence de l’écoulement correspond à ce qui est généralement observé dans les écoulements uniformes en rivières graveleuses. Les distributions de fréquence des variables associées aux événements de transport individuel (intensité de transport moyenne, durée d’événement et intervalle entre événements successifs) ont des formes différentes pour chaque intensité de crue. À haut niveau d’eau, le transport est moins intermittent qu’à faible débit où les événements rares caractérisent davantage les distributions. L’accélération de l’écoulement à petite échelle de temps joue un rôle positif sur le transport, mais surtout lorsque la magnitude de la crue mobilisatrice est en dessous du niveau plein bord. Les résultats de l’étude montrent que les caractéristiques de la turbulence ainsi que les liens complexes entre l’écoulement et le transport par charriage sont fonction du débit.
Resumo:
Les données comptées (count data) possèdent des distributions ayant des caractéristiques particulières comme la non-normalité, l’hétérogénéité des variances ainsi qu’un nombre important de zéros. Il est donc nécessaire d’utiliser les modèles appropriés afin d’obtenir des résultats non biaisés. Ce mémoire compare quatre modèles d’analyse pouvant être utilisés pour les données comptées : le modèle de Poisson, le modèle binomial négatif, le modèle de Poisson avec inflation du zéro et le modèle binomial négatif avec inflation du zéro. À des fins de comparaisons, la prédiction de la proportion du zéro, la confirmation ou l’infirmation des différentes hypothèses ainsi que la prédiction des moyennes furent utilisées afin de déterminer l’adéquation des différents modèles. Pour ce faire, le nombre d’arrestations des membres de gangs de rue sur le territoire de Montréal fut utilisé pour la période de 2005 à 2007. L’échantillon est composé de 470 hommes, âgés de 18 à 59 ans. Au terme des analyses, le modèle le plus adéquat est le modèle binomial négatif puisque celui-ci produit des résultats significatifs, s’adapte bien aux données observées et produit une proportion de zéro très similaire à celle observée.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
La compréhension des objets dans les programmes orientés objet est une tâche impor- tante à la compréhension du code. JavaScript (JS) est un langage orienté-objet dyna- mique, et son dynamisme rend la compréhension du code source très difficile. Dans ce mémoire, nous nous intéressons à l’analyse des objets pour les programmes JS. Notre approche construit de façon automatique un graphe d’objets inspiré du diagramme de classes d’UML à partir d’une exécution concrète d’un programme JS. Le graphe résul- tant montre la structure des objets ainsi que les interactions entre eux. Notre approche utilise une transformation du code source afin de produire cette in- formation au cours de l’exécution. Cette transformation permet de recueillir de l’infor- mation complète au sujet des objets crées ainsi que d’intercepter toutes les modifications de ces objets. À partir de cette information, nous appliquons plusieurs abstractions qui visent à produire une représentation des objets plus compacte et intuitive. Cette approche est implémentée dans l’outil JSTI. Afin d’évaluer l’utilité de l’approche, nous avons mesuré sa performance ainsi que le degré de réduction dû aux abstractions. Nous avons utilisé les dix programmes de réfé- rence de V8 pour cette comparaison. Les résultats montrent que JSTI est assez efficace pour être utilisé en pratique, avec un ralentissement moyen de 14x. De plus, pour 9 des 10 programmes, les graphes sont suffisamment compacts pour être visualisés. Nous avons aussi validé l’approche de façon qualitative en inspectant manuellement les graphes gé- nérés. Ces graphes correspondent généralement très bien au résultat attendu. Mots clés: Analyse de programmes, analyse dynamique, JavaScript, profilage.
Resumo:
La liste des domaines touchés par l’apprentissage machine s’allonge rapidement. Au fur et à mesure que la quantité de données disponibles augmente, le développement d’algorithmes d’apprentissage de plus en plus puissants est crucial. Ce mémoire est constitué de trois parties: d’abord un survol des concepts de bases de l’apprentissage automatique et les détails nécessaires pour l’entraînement de réseaux de neurones, modèles qui se livrent bien à des architectures profondes. Ensuite, le premier article présente une application de l’apprentissage machine aux jeux vidéos, puis une méthode de mesure performance pour ceux-ci en tant que politique de décision. Finalement, le deuxième article présente des résultats théoriques concernant l’entraînement d’architectures profondes nonsupervisées. Les jeux vidéos sont un domaine particulièrement fertile pour l’apprentissage automatique: il estf facile d’accumuler d’importantes quantités de données, et les applications ne manquent pas. La formation d’équipes selon un critère donné est une tˆache commune pour les jeux en lignes. Le premier article compare différents algorithmes d’apprentissage à des réseaux de neurones profonds appliqués à la prédiction de la balance d’un match. Ensuite nous présentons une méthode par simulation pour évaluer les modèles ainsi obtenus utilisés dans le cadre d’une politique de décision en ligne. Dans un deuxième temps nous présentons une nouvelleméthode pour entraîner des modèles génératifs. Des résultats théoriques nous indiquent qu’il est possible d’entraîner par rétropropagation des modèles non-supervisés pouvant générer des échantillons qui suivent la distribution des données. Ceci est un résultat pertinent dans le cadre de la récente littérature scientifique investiguant les propriétés des autoencodeurs comme modèles génératifs. Ces résultats sont supportés avec des expériences qualitatives préliminaires ainsi que quelques résultats quantitatifs.
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
La vie des femmes du continent africain et de leurs enfants continue d’être mise en danger lors de chaque accouchement car les risques de décès maternels et infantiles sont encore très élevés. Il est estimé chaque année à environ le quart du million le nombre de décès maternel et de près de quatre millions celui des enfants de moins de cinq ans. La comparaison de la situation sanitaire avec d’autres contextes permet de mieux cerner l’ampleur du problème : en Afrique sub-Saharienne, le risque de décès lié à la grossesse est de l’ordre de 1 pour 31, alors qu’il n’est que de 1 pour 4300 dans les pays industrialisés. Cette situation est évitable et, le plus souvent, résulte de la sous ou non-utilisation des services de santé maternelle, du manque de structures adéquates de soins ou de personnel de santé qualifié. Notre thèse cherche à comprendre la manière dont les inégalités de genre au sein du ménage et dans la communauté renforcent les inégalités quant à l’utilisation des services de santé maternelle, ainsi qu’aux relations empiriques qui lient les différents recours aux soins. Concrètement, elle vise à 1) proposer une mesure des normes de genre favorables à la violence contre les femmes et à analyser son influence sur leur prise de décision au sein du ménage, 2) analyser simultanément l’influence de ces normes et de l’autonomie des femmes sur le recours aux soins prénatals et à l’accouchement assisté et finalement, 3) cerner l’influence des soins prénatals sur le recours à l’accouchement assisté. Chacun de ces objectifs se heurte à un problème méthodologique substantiel, soit de mesure ou de biais de sélection, auxquels l’approche par modèles d’équations structurelles que nous avons adoptée permet de remédier. Les résultats de nos analyses, présentés sous forme d’articles scientifiques, s’appuient sur les données issues des Enquêtes Démographiques et de Santé (EDS) du Ghana, du Kenya, de l’Ouganda et de la Tanzanie et concernent les femmes vivant en milieu rural. Notre premier article propose une mesure des normes de genre et, plus exactement, celles liées à la violence contre les femmes en recourant à l’approche des variables latentes. Les cinq questions des EDS relatives à l’attitude des femmes sur la légitimation de la violence ont permis de saisir cette mesure au niveau contextuel. Les résultats suggèrent d’une part que cette mesure a de bons critères de validité puisque l’Alpha de Cronbach varie de 0.85 pour le Kenya à 0.94 pour le Ghana; les chi-deux sont non significatifs partout; le RMSEA est en dessous de 0.05; le CFI supérieur à 0.96 et les saturations sont pour la plupart supérieures à 0.7 dans tous les pays. D’autre part, à l’aide du modèle d’équations structurelles multiniveaux, nous avons trouvé qu’au-delà de leur propre attitude envers la violence contre les femmes, celles qui vivent dans un milieu où les normes de genres sont plus favorables à la violence ont plus de chances d’être de faible autonomie ou sans autonomie (comparativement à forte autonomie) dans l’ensemble des pays étudiés. Le second article documente l’influence des inégalités de genre, cernées au niveau contextuel par les normes favorables à la violence contre les femmes et au niveau individuel par l’autonomie de prise de décision au sein du ménage, sur la survenue des soins prénatals au cours du premier trimestre et sur les recours à au moins 4 consultations prénatales et à l’accouchement assisté. En utilisant également les modèles d’équations structurelles multiniveaux sur les mêmes données du premier article, nous constatons que chacune de ces variables dépendantes est fortement influencée par la grappe dans laquelle la femme vit. En d’autres mots, son lieu de résidence détermine le comportement de santé maternelle que l’on adopte. De même, en contrôlant pour les autres variables explicatives, nos résultats montrent que les femmes qui vivent dans un milieu où les normes de genre liées à la violence contre les femmes sont élevées ont, en moyenne, une plus grande chance de ne pas accoucher auprès d’un personnel qualifié au Ghana et en Ouganda, de ne pas débuter leurs soins prénatals dans le premier trimestre dans les mêmes pays, et de ne pas recourir à au moins quatre consultations prénatales en Tanzanie. Par contre, cette variable contextuelle n’influence pas significativement le recours aux soins de santé maternelle au Kenya. Enfin, les résultats montrent que les normes de genre favorables à la violence contre les femmes sont plus déterminantes pour comprendre le recours aux soins de santé maternelle dans les pays étudiés que l’autonomie de prise de décision de la femme. Dans le cadre du troisième et dernier article empirique de la thèse, nous nous sommes intéressés à l’importance des soins prénatals dans le processus de recours à l’accouchement assisté et à la place du contenu des soins reçus avant l’accouchement dans cette relation. Cet article met en exergue l’existence de biais d’endogénéité au Kenya et en Tanzanie, où sans sa prise en compte, l’effet des soins prénatals sur le recours à l’accouchement auprès d’un personnel qualifié serait fortement biaisé. De plus, il ressort qu’à l’exception du Ghana et dans une moindre mesure de la Tanzanie, cet effet est totalement médiatisé par le contenu des soins prénatals que les femmes reçoivent. L’article met ainsi en relief le rôle des prestataires de soins qui pour atteindre plus efficacement les populations doivent agir en tant que leaders au sein de leur communauté.
Resumo:
Ce mémoire rapporte l’optimisation et l’évaluation d’une nouvelle version du test PAMPA (Parallel Artificial Membrane Permeability Assay) appelée Néo-PAMPA. Ce test qui permet la prédiction de l’absorption intestinale de médicaments consiste en l’utilisation d’une membrane modèle de la paroi intestinale composée d’une bicouche lipidique déposée sur un coussin de polydopamine recouvrant un filtre poreux. En effet, nous nous sommes intéressés lors de ce projet à la mise en place d’une membrane artificielle qui serait plus représentative de la paroi intestinale humaine. Nous avons pu déterminer, suite à une étude comparative des propriétés de huit médicaments ainsi que les coefficients de perméabilité obtenus, que les filtres en polycarbonate présentaient le meilleur choix de support solide pour la membrane. Nous avons également vérifié la déposition du coussin de polydopamine qui apporte le caractère fluide à la bicouche lipidique. Les résultats des tests de perméabilité ont démontré que le coussin de polymère n’obstrue pas les pores du filtre après un dépôt de 4h. Nous avons par la suite étudié la déposition de la bicouche lipidique sur le filtre recouvert de polydopamine. Pour ce faire, deux méthodes de préparation de liposomes ainsi que plusieurs tailles de liposomes ont été testées. Aussi, la composition en phospholipides a été sujette à plusieurs changements. Tous ces travaux d’optimisation ont permis d’aboutir à des liposomes préparés selon la méthode du « film lipidique » à partir d’un mélange de dioléoylphosphatidylcholine (DOPC) et de cholestérol. Une dernière étape d’optimisation de la déposition de la bicouche reste à améliorer. Enfin, le test standard Caco-2, qui consiste à évaluer la perméabilité des médicaments à travers une monocouche de cellules cancéreuses du colon humain, a été implémenté avec succès dans le but de comparer des données de perméabilité avec un test de référence.
Resumo:
La thèse qui suit est organisée en deux volets: un premier volet portant sur les modèles de masse de galaxies et un second volet sur la conception de revêtements optiques et le contrôle de leurs propriétés mécaniques. Les modèles de masse présentés dans cette thèse ont été réalisés sur un sous-échantillon de dix galaxies de l'étude SINGS comprenant neuf galaxies normales et une galaxie naine. Ce travail visait à fixer le rapport masse-luminosité du disque à tout rayon en utilisant les résultats de modèles d'évolution galactique chimio-spectrophotométriques ajustés spécifiquement à chaque galaxie grâce à son profil de photométrie multi-bandes. Les résultats montrent que les disques stellaires tels que normalisés par les rapports masse-luminosité issus des modèles ont des masses cohérentes dans toutes les bandes étudiées de l'ultra-violet, du visible ainsi que du proche infrarouge (bandes FUV à IRAC2). Ces disques peuvent être considérés comme maximaux par rapport aux données cinématiques des galaxies étudiées. Ceci est dû au fait que le rapport M/L est plus élevé au centre que sur les bords. Les disques étant maximaux et physiquement justifiés, on ne peut dès lors ignorer les effets de composants tels que les bulbes ou les barres et les corrections nécessaires doivent être apportées aux profils de luminosité et de vitesses de rotation de la galaxie. Dans les travaux de la seconde partie, le logiciel en développement libre OpenFilters a été modifié afin de tenir compte des contraintes mécaniques dans la conception numérique de revêtements optiques. Les contraintes mécaniques dans les couches minces ont un effet délétère sur leurs performances optiques. Un revêtement destiné à rendre réflectives les lames d'un étalon Fabry-Perot utilisé en astronomie a été conçu et fabriqué afin d'évaluer les performances réelles de la méthode. Ce cas a été choisi à cause de la diminution de la finesse d'un étalon Fabry-Perot apporté par la courbure des lames sous l'effet des contraintes. Les résultats montrent que les mesures concordent avec les modèles numériques et qu'il est donc possible à l'aide de ce logiciel d'optimiser les revêtements pour leur comportement mécanique autant que pour leurs propriétés optiques.
Resumo:
Thèse réalisée en co-tutelle avec l'Université Claude Bernard de Lyon 1, en France.
Resumo:
La scoliose idiopathique de l’adolescent est une déformation 3D du rachis. La littérature comporte une multitude d’études sur la prédiction de l’évolution et l’identification de facteurs de risque de progression. Pour l’instant les facteurs de risque établis sont l’amplitude de la déformation, la maturité squelettique et le type de courbure. Plusieurs autres champs ont été explorés comme les aspects génétiques, biochimiques, mécaniques, posturaux et topographiques, sans vraiment apporter beaucoup de précision à la prédiction de l’évolution. L’avancement de la technologie permet maintenant de générer des reconstructions 3D du rachis à l’aide des radiographies standard et d’obtenir des mesures de paramètres 3D. L’intégration de ces paramètres 3D dans un modèle prédictif représente une avenue encore inexplorée qui est tout à fait logique dans le contexte de cette déformation 3D du rachis. L’objectif général de cette thèse est de développer un modèle de prédiction de l’angle de Cobb à maturité squelettique à partir de l’information disponible au moment de la première visite, soit l’angle de Cobb initial, le type de courbure, l’âge osseux et des paramètres 3D du rachis. Dans une première étude, un indice d’âge osseux a été développé basé sur l’ossification de l’apophyse iliaque et sur le statut du cartilage triradié. Cet indice comporte 3 stades et le second stade, qui est défini par un cartilage triradié fermé avec maximum 1/3 d’ossification de l’apophyse iliaque, représente le moment pendant lequel la progression de la scoliose idiopathique de l’adolescent est la plus rapide. Une seconde étude rétrospective a permis de mettre en évidence le potentiel des paramètres 3D pour améliorer la prédiction de l’évolution. Il a été démontré qu’à la première visite il existe des différences pour 5 paramètres 3D du rachis entre un groupe de patients qui sera éventuellement opéré et un groupe qui ne progressera pas. Ces paramètres sont : la moyenne da la cunéiformisation 3D des disques apicaux, la rotation intervertébrale à la jonction inférieure de la courbure, la torsion, le ratio hauteur/largeur du corps vertébral de T6 et de la colonne complète. Les deux dernières études sont basées sur une cohorte prospective de 133 patients avec une scoliose idiopathique de l’adolescent suivi dès leur première visite à l’hôpital jusqu’à maturité squelettique. Une première étude a permis de mettre en évidence les différences morphologiques à la première visite entre les patients ayant progresser de plus ou moins de 6°. Des différences ont été mise en évidence pour la cyphose, l’angle de plan de déformation maximal, la rotation ntervertébrale l’apex, la torsion et plusieurs paramètres de «slenderness». Ensuite une seconde étude a permis de développer un modèle prédictif basé sur un modèle linéaire général en incluant l’indice d’âge osseux développé dans la première étude, le type de courbure, l’amplitude de l’angle de Cobb à la première visite, l’angle de déformation du plan maximale, la cunéiformisation 3D des disques T3-T4, T8-T9, T11-T12 et la somme des cunéiformisation 3D de tous les disques thoraciques et lombaires. Le coefficient de détermination multiple pour cette modélisation est de 0.715. Le modèle prédictif développé renforce l’importance de considérer la scoliose idiopathique dans les trois dimensions et il permettra d’optimiser la prédiction de l’évolution au moment de la première visite.