992 resultados para Finanza matematica, Probabilità e statistica, Approssimazioni saddlepoint
Resumo:
Nous considérons des processus de diffusion, définis par des équations différentielles stochastiques, et puis nous nous intéressons à des problèmes de premier passage pour les chaînes de Markov en temps discret correspon- dant à ces processus de diffusion. Comme il est connu dans la littérature, ces chaînes convergent en loi vers la solution des équations différentielles stochas- tiques considérées. Notre contribution consiste à trouver des formules expli- cites pour la probabilité de premier passage et la durée de la partie pour ces chaînes de Markov à temps discret. Nous montrons aussi que les résultats ob- tenus convergent selon la métrique euclidienne (i.e topologie euclidienne) vers les quantités correspondantes pour les processus de diffusion. En dernier lieu, nous étudions un problème de commande optimale pour des chaînes de Markov en temps discret. L’objectif est de trouver la valeur qui mi- nimise l’espérance mathématique d’une certaine fonction de coût. Contraire- ment au cas continu, il n’existe pas de formule explicite pour cette valeur op- timale dans le cas discret. Ainsi, nous avons étudié dans cette thèse quelques cas particuliers pour lesquels nous avons trouvé cette valeur optimale.
Resumo:
Devenir parent en accueillant un enfant en vue de l’adopter en contexte de protection de la jeunesse, dans le cadre du programme Banque-mixte, est une expérience particulière, puisque l’enfant arrive dans la famille sans aucune garantie qu’il pourra être adopté. Également, les parents Banque-mixte, en tant que famille d’accueil, ont l’obligation d’amener l’enfant à des visites avec ses parents d’origine et doivent composer avec la présence d’intervenants dans leur vie privée. À l’aide d’une démarche de théorisation enracinée, la présente étude vise à comprendre comment le parent Banque-mixte développe son sentiment de filiation, c’est-à-dire le sentiment d’être le parent de l’enfant qu’il accueille, alors qu’il n’est ni le parent légal, ni le parent biologique. Des entrevues semi-dirigées ont été réalisées avec 25 parents afin d’aborder des thèmes tels que les motivations sous-jacentes à leur projet parental, l’expérience du processus pour devenir une famille Banque-mixte et la relation avec l’enfant. Les résultats permettent de jeter les bases d’une nouvelle théorie, selon laquelle le sentiment de filiation précède la filiation légale dans ces circonstances. Ainsi, le parent Banque-mixte ne devient pas un parent au moment du jugement d’adoption; il le devient bien avant, à partir du moment où il atteint un point de non-retour, c’est-à-dire où il constate de manière rationnelle ou émotionnelle que cet enfant est le sien. En l’absence d’un lien de sang et d’un lien légal, le parent Banque-mixte construit son sentiment de filiation sur la base de son profond désir d’enfant et de trois piliers qui lui permettent de justifier son sentiment d’être le parent, soit l’exercice du rôle parental, la construction d’une relation significative avec l’enfant, ainsi que la reconnaissance par autrui de son rôle de parent. Lorsque le parent Banque-mixte n’est pas confronté à l’incertitude de voir l’enfant retourner dans son milieu d’origine, il doit patienter en attendant la concrétisation de l’adoption, mais l’absence de filiation légale ne remet pas en question son sentiment d’être le parent. Par contre, le fait de se sentir le parent avant de le devenir légalement peut générer des tensions dans l’expérience du parent Banque-mixte, puisque le statut de famille d’accueil est en dissonance avec le sentiment de filiation. Afin de minimiser les effets indésirables de l’incertitude, les intervenants de l’adoption et de l’enfant développent différentes stratégies pour rassurer et protéger les parents Banque-mixte, en plus de minimiser l’inquiétude quant à la probabilité du retour de l’enfant dans son milieu familial d’origine. Finalement, guidés par leur besoin de vivre leur filiation de manière exclusive, les parents Banque-mixte font l’effort de mettre à distance les parents d’origine, tout en conservant une certaine ouverture uniquement dans le but de permettre à l’enfant d’intégrer sainement ses origines. En conclusion, les retombées pour l’avancement des connaissances, l’amélioration des pratiques et l’élaboration de nouvelles législations sont discutées.
Resumo:
"Dans la littérature des sciences sociales, les difficultés que connaît le marché du commerce électronique sont souvent attribuées à un manque de confiance; le manque de confiance serait un frein à l’échange. Qu’est au juste la confiance? La confiance permet de se dispenser de certaines précautions qu’on prendrait autrement dans le but d’éviter ou de réduire le risque de se faire avoir dans une opération. Le discours sur la confiance porte essentiellement sur la disponibilité d’informations touchant les différents aspects des opérations projetées dans le marché électronique et qui permettent aux acteurs d’évaluer à la baisse la probabilité de se faire avoir dans ces opérations, et donc la nécessité de précautions pour l’éviter. La disponibilité des informations est de nature à abaisser les coûts dits de transaction dans l’analyse économique du droit, et partant à faire augmenter le nombre d'opérations commerciales effectivement conclues. Cet article fait le point sur les sources de la confiance et sur leur rôle dans la réduction des coûts de transaction. Il recense les mécanismes de transmission d’informations dans les marchés traditionnels et s’en inspire pour ordonner et dégager les moyens correspondants pouvant favoriser les opérations dans les marchés électroniques, compte tenu des particularités propres de ces marchés."
Resumo:
Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés.
Resumo:
Un modèle de croissance et de réponse à la radiothérapie pour le glioblastome multiforme (GBM) basé le formalisme du modèle de prolifération-invasion (PI) et du modèle linéaire-quadratique a été développé et implémenté. La géométrie spécifique au patient est considérée en modélisant, d'une part, les voies d'invasion possibles des GBM avec l'imagerie du tenseur de diffusion (DTI) et, d'autre part, les barrières à la propagation à partir des images anatomiques disponibles. La distribution de dose réelle reçue par un patient donné est appliquée telle quelle dans les simulations, en respectant l'horaire de traitement. Les paramètres libres du modèle (taux de prolifération, coefficient de diffusion, paramètres radiobiologiques) sont choisis aléatoirement à partir de distributions de valeurs plausibles. Un total de 400 ensembles de valeurs pour les paramètres libres sont ainsi choisis pour tous les patients, et une simulation de la croissance et de la réponse au traitement est effectuée pour chaque patient et chaque ensemble de paramètres. Un critère de récidive est appliqué sur les résultats de chaque simulation pour identifier un lieu probable de récidive (SPR). La superposition de tous les SPR obtenus pour un patient donné permet de définir la probabilité d'occurrence (OP). Il est démontré qu'il existe des valeurs de OP élevées pour tous les patients, impliquant que les résultats du modèle PI ne sont pas très sensibles aux valeurs des paramètres utilisés. Il est également démontré comment le formalisme développé dans cet ouvrage pourrait permettre de définir un volume cible personnalisé pour les traitements de radiothérapie du GBM.
Resumo:
Ce mémoire porte sur l’étude des maxima de champs gaussiens. Plus précisément, l’étude portera sur la convergence en loi, la convergence du premier ordre et la convergence du deuxième ordre du maximum d’une collection de variables aléatoires gaussiennes. Les modèles de champs gaussiens présentés sont le modèle i.i.d., le modèle hiérarchique et le champ libre gaussien. Ces champs gaussiens diffèrent par le degré de corrélation entre les variables aléatoires. Le résultat principal de ce mémoire sera que la convergence en probabilité du premier ordre du maximum est la même pour les trois modèles. Quelques résultats de simulations seront présentés afin de corroborer les résultats théoriques obtenus.
Resumo:
Contexte : Pour les patients atteints d’une polyarthrite rhumatoïde débutante (PARD), l’utilisation de médicaments antirhumatismaux à longue durée d’action améliore les résultats pour les patients de manière significative. Les patients traités par un rhumatologue ont une plus grande probabilité de recevoir des traitements et donc d’avoir de meilleurs résultats de santé. Toutefois, les délais observés entre le début des symptômes et une première visite avec un rhumatologue sont souvent supérieurs à la recommandation de trois mois énoncée par les guides de pratiques. Au Québec, le temps d’attente pour voir un rhumatologue à la suite d’une demande de consultation est généralement long et contribue aux délais totaux. Objectifs : Nous avons évalué la capacité d’un programme d’accès rapide avec un triage effectué par une infirmière à correctement identifier les patients avec PARD et à réduire leur temps d’attente, dans le but d’améliorer le processus de soin. Méthodes : Une infirmière a évalué tous les nouveaux patients référés en 2009 et 2010 dans une clinique de rhumatologie située en banlieue de Montréal. Un niveau de priorité leur a été attribué sur la base du contenu de la demande de consultation, de l’information obtenue à la suite d’une entrevue téléphonique avec le patient et, si requis, d’un examen partiel des articulations. Les patients avec PARD, avec une arthrite inflammatoire non différentiée, ou atteints d’une autre pathologie rhumatologique aiguë étaient priorisés et obtenaient un rendez-vous le plus rapidement possible. Les principales mesures de résultat étudiées étaient la validité (sensibilité et spécificité) du triage pour les patients atteints de PARD ainsi que les délais entre la demande de consultation et la première visite avec un rhumatologue. Résultats : Parmi les 701 patients nouvellement référés, 65 ont eu un diagnostic final de PARD. Le triage a correctement identifié 85,9% de ces patients et a correctement identifié 87,2% des patients avec l’une des pathologies prioritaires. Le délai médian entre la demande de consultation et la première visite était de 22 jours pour les patients atteints de PARD et de 115 pour tous les autres. Discussion et conclusion : Ce programme d’accès rapide avec triage effectué par une infirmière a correctement identifié la plupart des patients atteints de PARD, lesquels ont pu être vus rapidement en consultation par le rhumatologue. Considérant qu’il s’agit d’un programme qui requiert beaucoup d’investissement de temps et de personnel, des enjeux de faisabilités doivent être résolus avant de pouvoir implanter un tel type de programme dans un système de soins de santé ayant des ressources très limitées.
Resumo:
Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.
Resumo:
Contexte De nombreuses études, utilisant des indicateurs de qualité variés, ont démontré que la qualité des soins pour la dépression n’est pas optimale en première ligne. Peu de ces études ont examiné les facteurs associés à la réception d’un traitement adéquat, en particulier en tenant compte simultanément des caractéristiques individuelles et organisationnelles. L'association entre un traitement adéquat pour un épisode dépressif majeur (EDM) et une amélioration des symptômes dépressifs n'est pas bien établie dans des conditions non-expérimentales. Les objectifs de cette étude étaient de : 1) réaliser une revue systématique des indicateurs mesurant la qualité du traitement de la dépression en première ligne ; 2) estimer la proportion de patients souffrant d’EDM qui reçoivent un traitement adéquat (selon les guides de pratique clinique) en première ligne ; 3) examiner les caractéristiques individuelles et organisationnelles associées à l’adéquation du traitement pour la dépression ; 4) examiner l'association entre un traitement minimalement adéquat au cours des 12 mois précédents et l'évolution des symptômes dépressifs à 6 et 12 mois. Méthodes La littérature sur la qualité du traitement de la dépression a été examinée en utilisant un ensemble de mots-clés (« depression », « depressive disorder », « quality », « treatment », « indicator », « adequacy », « adherence », « concordance », « clinical guideline » et « guideline ») et « 360search », un moteur de recherche fédérée. Les données proviennent d'une étude de cohorte incluant 915 adultes consultant un médecin généraliste, quel que soit le motif de consultation, répondant aux critères du DSM-IV pour l’EDM dans la dernière année, nichés dans 65 cliniques de première ligne au Québec, Canada. Des analyses multiniveaux ont été réalisées. Résultats Bien que majoritairement développés à partir de guides de pratique clinique, une grande variété d'indicateurs a été observée dans la revue systématique de littérature. La plupart des études retenues ont utilisé des indicateurs de qualité rudimentaires, surtout pour la psychothérapie. Les méthodes utilisées étaient très variées, limitant la comparabilité des résultats. Toutefois, quelque soit la méthode choisie, la plupart des études ont révélé qu’une grande proportion des personnes souffrant de dépression n’ont pas reçu de traitement minimalement adéquat en première ligne. Dans notre échantillon, l’adéquation était élevée (> 75 %) pour un tiers des indicateurs de qualité mesurés, mais était faible (< 60 %) pour près de la moitié des mesures. Un peu plus de la moitié de l'échantillon (52,2 %) a reçu au moins un traitement minimalement adéquat pour la dépression. Au niveau individuel, les jeunes adultes (18-24 ans) et les personnes de plus de 65 ans avaient une probabilité moins élevée de recevoir un traitement minimalement adéquat. Cette probabilité était plus élevée pour ceux qui ont un médecin de famille, une assurance complémentaire, un trouble anxieux comorbide et une dépression plus sévère. Au niveau des cliniques, la disponibilité de la psychothérapie sur place, l'utilisation d'algorithmes de traitement, et le mode de rémunération perçu comme adéquat étaient associés à plus de traitement adéquat. Les résultats ont également montré que 1) la réception d'au moins un traitement minimalement adéquat pour la dépression était associée à une plus grande amélioration des symptômes dépressifs à 6 et à 12 mois; 2) la pharmacothérapie adéquate et la psychothérapie adéquate étaient toutes deux associées à de plus grandes améliorations dans les symptômes dépressifs, et 3) l'association entre un traitement adéquat et l'amélioration des symptômes dépressifs varie en fonction de la sévérité des symptômes au moment de l'inclusion dans la cohorte, un niveau de symptômes plus élevé étant associé à une amélioration plus importante à 6 et à 12 mois. Conclusions Nos résultats suggèrent que des interventions sont nécessaires pour améliorer la qualité du traitement de la dépression en première ligne. Ces interventions devraient cibler des populations spécifiques (les jeunes adultes et les personnes âgées), améliorer l'accessibilité à la psychothérapie et à un médecin de famille, et soutenir les médecins de première ligne dans leur pratique clinique avec des patients souffrant de dépression de différentes façons, telles que le développement des connaissances pour traiter la dépression et l'adaptation du mode de rémunération. Cette étude montre également que le traitement adéquat de la dépression en première ligne est associé à une amélioration des symptômes dépressifs dans des conditions non-expérimentales.
Resumo:
Les biphényles polychlorés (BPC) sont des contaminants de l’environnement, omniprésents dans la chaîne alimentaire, qui ont une propension à la bioaccumulation dans le corps humain. Ils traversent la barrière placentaire et sont suspectés d’induire des altérations du développement mental ou moteur chez des enfants exposés aux BPC pendant la vie intrautérine. Ces effets s’expliqueraient notamment par la capacité des BPC à perturber l’homéostasie de la fonction thyroïdienne chez la femme enceinte ou le nouveau-né. Malgré le nombre considérable d’études épidémiologiques réalisées, la relation entre l’exposition prénatale aux BPC et les altérations du développement mental et moteur ou de la fonction thyroïdienne n’a pas encore été clairement établie ; d’une part, différents bioindicateurs de l’exposition ont été employés (différents congénères de BPC mesurés et différentes matrices biologiques ou unités de mesure) limitant la comparaison directe entre les études et, d’autre part, le lien de causalité entre les BPC et les effets ciblés n’a pas été vérifié avec des critères épidémiologiques reconnus. Cette étude a été réalisée afin d’analyser la relation « concentration biologique de BPC – effet » entre l'exposition aux BPC de la mère pendant la grossesse et le développement mental et moteur de l’enfant ainsi que les paramètres de la fonction thyroïdienne chez la femme enceinte et le nouveau-né à partir d’une analyse systématique des études épidémiologiques disponibles en standardisant les données biologiques entre les études. Sur la base de considérations toxicocinétiques et en appliquant des facteurs de conversion établis à partir de la littérature épidémiologique publiée, les concentrations des BPC rapportées dans les différentes études revues ont été standardisées en termes d’équivalent de BPC totaux par kilogramme de lipides dans le plasma maternel (µg PCBMPEQ/kg de lipides). Afin d’analyser la possibilité d’une association causale entre l’exposition aux BPC et les effets d’intérêt, les critères de Hill ont été appliqués systématiquement à l’ensemble des associations « concentrations biologiques standardisées – effet ciblés ». En appliquant cette approche aux données publiées de 20 études épidémiologiques sur la relation entre les BPC et le poids à la naissance, l’exposition prénatale aux BPC, aux niveaux décrits (moyenne < 1920 µg PCBMPEQ/kg de lipides), n’apparaît pas associée de manière significative à un poids à la naissance inférieur à 2500 g dans les populations étudiées. Par ailleurs, en considérant des études menées sur le suivi de neuf cohortes d’enfants, la probabilité qu’une altération cognitive ou motrice cliniquement significative, qui persiste entre la naissance et l’âge scolaire, soit observée à des concentrations de BPC totaux inférieures à 1000 µg PCBMPEQ/kg de lipides semble faible. Aussi, à partir de l’analyse systématique des données de 17 études épidémiologiques, l’exposition aux BPC aux niveaux standardisés décrits (moyenne < 1000 µg PCBMPEQ/kg de lipides) ne semble pas induire de variation des hormones thyroïdiennes ou de TSH en dehors des intervalles physiologiques reconnus chez la femme enceinte et le nouveau-né. Ainsi, la valeur biologique de référence établie à 1000 µg PCBMPEQ/kg de lipides pour prévenir les effets sur le développement devrait aussi prévenir les effets sur le poids à la naissance et la fonction thyroïdienne chez la femme enceinte ou le nouveau-né. Les résultats présentés dans cette thèse fournissent aux autorités de santé publique responsables de l’établissement de directives et des normes de l’information utile à la révision des critères sanitaires visant à protéger des effets des BPC sur le développement de l’enfant et la fonction thyroïdienne chez la femme enceinte et le nouveau-né.
Resumo:
La fibrillation auriculaire (FA) est la forme d’arythmie la plus fréquente et représente environ un tiers des hospitalisations attribuables aux troubles du rythme cardiaque. Les mécanismes d’initiation et de maintenance de la FA sont complexes et multiples. Parmi ceux-ci, une contribution du système nerveux autonome a été identifiée mais son rôle exact demeure mal compris. Ce travail cible l’étude de la modulation induite par l’acétylcholine (ACh) sur l’initiation et le maintien de la FA, en utilisant un modèle de tissu bidimensionnel. La propagation de l’influx électrique sur ce tissu est décrite par une équation réaction-diffusion non-linéaire résolue sur un maillage rectangulaire avec une méthode de différences finies, et la cinétique d'ACh suit une évolution temporelle prédéfinie qui correspond à l’activation du système parasympathique. Plus de 4400 simulations ont été réalisées sur la base de 4 épisodes d’arythmies, 5 tailles différentes de région modulée par l’ACh, 10 concentrations d’ACh et 22 constantes de temps de libération et de dégradation d’ACh. La complexité de la dynamique des réentrées est décrite en fonction de la constante de temps qui représente le taux de variation d’ACh. Les résultats obtenus suggèrent que la stimulation vagale peut mener soit à une dynamique plus complexe des réentrées soit à l’arrêt de la FA en fonction des quatre paramètres étudiés. Ils démontrent qu’une décharge vagale rapide, représentée par des constantes de temps faibles combinées à une quantité suffisamment grande d’ACh, a une forte probabilité de briser la réentrée primaire provoquant une activité fibrillatoire. Cette activité est caractérisée par la création de plusieurs ondelettes à partir d’un rotor primaire sous l’effet de l’hétérogénéité du gradient de repolarisation causé par l’activité autonomique.
Resumo:
La migration internationale d’étudiants est un investissement couteux pour les familles dans beaucoup de pays en voie de développement. Cependant, cet investissement est susceptible de générer des bénéfices financiers et sociaux relativement importants aux investisseurs, tout autant que des externalités pour d’autres membres de la famille. Cette thèse s’intéresse à deux aspects importants de la migration des étudiants internationaux : (i) Qui part? Quels sont les déterminants de la probabilité de migration? (ii) Qui paie? Comment la famille s’organise-t-elle pour couvrir les frais de la migration? (iii) Qui y gagne? Ce flux migratoire est-il au bénéfice du pays d’origine? Entreprendre une telle étude met le chercheur en face de défis importants, notamment, l’absence de données complètes et fiables; la dispersion géographique des étudiants migrants en étant la cause première. La première contribution importante de ce travail est le développement d’une méthode de sondage en « boule de neige » pour des populations difficiles à atteindre, ainsi que d’estimateurs corrigeant les possibles biais de sélection. A partir de cette méthodologie, j’ai collecté des données incluant simultanément des étudiants migrants et non-migrants du Cameroun en utilisant une plateforme internet. Un second défi relativement bien documenté est la présence d’endogénéité du choix d’éducation. Nous tirons avantage des récents développements théoriques dans le traitement des problèmes d’identification dans les modèles de choix discrets pour résoudre cette difficulté, tout en conservant la simplicité des hypothèses nécessaires. Ce travail constitue l’une des premières applications de cette méthodologie à des questions de développement. Le premier chapitre de la thèse étudie la décision prise par la famille d’investir dans la migration étudiante. Il propose un modèle structurel empirique de choix discret qui reflète à la fois le rendement brut de la migration et la contrainte budgétaire liée au problème de choix des agents. Nos résultats démontrent que le choix du niveau final d’éducation, les résultats académiques et l’aide de la famille sont des déterminants importants de la probabilité d’émigrer, au contraire du genre qui ne semble pas affecter très significativement la décision familiale. Le second chapitre s’efforce de comprendre comment les agents décident de leur participation à la décision de migration et comment la famille partage les profits et décourage le phénomène de « passagers clandestins ». D’autres résultats dans la littérature sur l’identification partielle nous permettent de considérer des comportements stratégiques au sein de l’unité familiale. Les premières estimations suggèrent que le modèle « unitaire », où un agent représentatif maximise l’utilité familiale ne convient qu’aux familles composées des parents et de l’enfant. Les aidants extérieurs subissent un cout strictement positif pour leur participation, ce qui décourage leur implication. Les obligations familiales et sociales semblent expliquer les cas de participation d’un aidant, mieux qu’un possible altruisme de ces derniers. Finalement, le troisième chapitre présente le cadre théorique plus général dans lequel s’imbriquent les modèles développés dans les précédents chapitres. Les méthodes d’identification et d’inférence présentées sont spécialisées aux jeux finis avec information complète. Avec mes co-auteurs, nous proposons notamment une procédure combinatoire pour une implémentation efficace du bootstrap aux fins d’inférences dans les modèles cités ci-dessus. Nous en faisons une application sur les déterminants du choix familial de soins à long terme pour des parents âgés.
Resumo:
Cette thèse a pour but de mieux comprendre le recours aux médicaments psychotropes chez les enfants hébergés en Centre jeunesse, une population qui compte parmi les plus médicalisées. Afin d’y parvenir, les caractéristiques sociodémographiques, anamnestiques et psychopathologiques des enfants placés qui reçoivent des psychopharmacoprescriptions ont été analysées. L’échantillon se compose de 101 enfants de 6 à 12 ans placés en foyer de groupe ou centre de réadaptation, dont 71 recevant des médicaments psychotropes. Les données ont été obtenues par le biais de questionnaires remplis par les éducateurs, par une entrevue semi-structurée réalisée auprès des enfants et une analyse du dossier. Sur le plan de la structure, cet ouvrage comprend une introduction, quatre articles et une conclusion. Le premier article comporte une recension des écrits sur l’usage de la psychopharmacothérapie chez les jeunes placés dans les services de la protection de la jeunesse. Il a été constaté que les taux de prescriptions peuvent varier entre 13% et 77%, selon le type de placement et les régions à l’étude. La symptomatologie des enfants placés qui reçoivent des médicaments psychotropes est caractérisée par des problèmes extériorisés et des troubles psychotiques. Les corrélats du recours à la prescription concernent à la fois la sévérité du tableau clinique, mais aussi le type et l’instabilité du placement, l’âge et le sexe de l’enfant ainsi que la formation des intervenants. Enfin, les écrits recensés font état de l’influence des neurosciences dans les milieux médicaux sur les décisions de prescrire. Le deuxième article présente la prévalence des psychopharmacoprescriptions chez les enfants de 6 à 12 ans placés hors d’un milieu familial. Les résultats indiquent que 70,3% des jeunes reçoivent au moins une prescription, le plus souvent signées par des médecins spécialistes. La plupart se composent de psychostimulants et d’antipsychotiques atypiques, prescrits pour des troubles de l’attention avec hyperactivité. Le troisième article cherche à préciser les caractéristiques sociodémographiques et anamnestiques des enfants placés qui prennent des médicaments psychotropes. Les résultats indiquent que les sujets médicamentés et non médicamentés ont vécu des stresseurs psychosociaux similaires. Par contre, les enfants placés qui reçoivent une psychopharmacothérapie ont été retirés de leur milieu familial à un plus jeune âge. Le quatrième article consiste à cibler leur portrait psychopathologique et à connaître leur niveau de fonctionnement global. Il s’intéresse également aux connaissances et aux perceptions des éducateurs sur la psychopharmacothérapie. Les résultats révèlent que les enfants médicamentés ont plus souvent un diagnostic de trouble mental inscrit à leur dossier. Selon les éducateurs, ils présentent davantage de problèmes extériorisés et intériorisés. À partir de données autorévélées, aucune distinction ne peut être établie entre les sujets, puisque les uns et les autres rapportent un niveau comparable de symptômes et de signes diagnostiques. Enfin, les symptômes de stress post-traumatique et l’opinion favorable des éducateurs sur la psychopharmacothérapie constituent des prédicteurs significatifs de la probabilité de recourir à un traitement médicamenteux. En conclusion, l’apport des résultats de cette recherche est analysé à la lumière des études antérieures. Les retombées cliniques sont discutées et des pistes de recherche futures sont suggérées. .
Resumo:
Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.
Resumo:
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.