522 resultados para partage de coûts
Resumo:
L’intégration des soins et des services de santé est vue autant, par les décideurs, par les professionnels que par les usagers, comme une nécessité pour assurer une meilleure accessibilité, pour favoriser la continuité et la coordination et pour améliorer la qualité des soins et services tout en contrôlant les coûts. Depuis près de deux décennies, des réseaux intégrés de soins et de services de santé se développent dans les pays de l’OCDE. Ce phénomène a généré une littérature plutôt abondante sur les conditions organisationnelles supportant l’intégration des soins et plus récemment, sur l’importance du rôle et de la place des professionnels dans ces structures. Les données empiriques et les écrits mettent en évidence que les infirmières ont joué un rôle important dans la mise en place des réseaux intégrés de services depuis leurs débuts. Cette étude vise à identifier les pratiques stratégiques des infirmières qui sont impliquées dans des réseaux intégrés de services de santé et de comprendre comment ces pratiques favorisent des apprentissages organisationnels permettant l’ajustement des pratiques de l’ensemble des intervenants dans le sens de l’intégration clinique. Elle vise aussi à mettre en évidence les facteurs individuels et organisationnels impliqués dans le développement de ces pratiques et dans le processus d’apprentissage organisationnel. Une revue des écrits sur les réseaux de services intégrés et sur l’intégration clinique, ainsi que sur l’apprentissage organisationnel et sur l’analyse stratégique a confirmé que ces écrits, tout en étant complémentaires, soutenaient les objectifs de cette étude. En effet, les écrits sur l’intégration présentent des déterminants de l’intégration sans aborder les pratiques stratégiques et sont discrets sur l’apprentissage organisationnel. Les écrits sur l’apprentissage organisationnel abordent le processus d’apprentissage, mais ne décrivent pas les pratiques favorisant l’apprentissage organisationnel et sont peu loquaces sur les facteurs influençant l’apprentissage organisationnel. Enfin, les écrits sur l’analyse stratégique discutent des systèmes et des processus dynamiques en incluant les conditions individuelles et organisationnelles, mais ne font pas allusion à l’apprentissage organisationnel. Afin de découvrir les pratiques stratégiques ainsi que les apprentissages organisationnels, et de comprendre le processus d’apprentissage et les facteurs impliqués dans celui-ci, nous avons eu recours à un devis d’étude de cas multiples où nous nous sommes attardés à étudier les pratiques d’infirmières évoluant dans quatre situations visant l’intégration clinique. Ces situations faisaient partie de trois réseaux intégrés de services de santé impliquant des professionnels de différentes disciplines rattachés soit, à un centre hospitalier ou à un centre local de services communautaires. Trois études de cas ont été rédigées à partir des informations émanant des différentes sources de données. Dans le cadre de cette étude, quatre sources de données ont été utilisées soit : des entrevues individuelles avec des infirmières, d’autres professionnels et des gestionnaires (n=60), des entrevues de groupe (n=3), des séances d’observations (n=12) et l’étude de documents d’archives (n=96). À l’aide des données empiriques recueillies, il a été possible de découvrir quinze pratiques stratégiques et de préciser la nature des apprentissages qu'elles généraient. L’analyse des cas a également permis de mieux comprendre le rapport entre les pratiques stratégiques et les apprentissages organisationnels et d’apporter des précisions sur le processus d’apprentissage organisationnel. Cette étude contribue à la pratique et à la recherche, car en plus d’offrir un modèle d’apprentissage organisationnel intégré, elle précise que le processus d’apprentissage organisationnel est propulsé grâce à des boucles d’apprentissages stimulées par des pratiques stratégiques, que ces pratiques stratégiques s’actualisent grâce aux ressources individuelles des infirmières et aux facteurs organisationnels et enfin, que ces apprentissages organisationnels favorisent des changements de pratiques soutenant l’intégration clinique.
Resumo:
L’interleukine 6 (IL-6) est une cytokine qui joue un rôle essentiel dans l’inflammation. Son récepteur (IL-6R) est composé de la chaîne non signalétique IL-6Rα et de la chaîne transductrice du signal gp130, commune aux cytokines de la famille IL-6. La liaison de l’IL-6 à son récepteur permet l’activation de plusieurs voies de signalisation, notamment des voies Jak/STAT1 et préférentiellement Jak/STAT3. De façon complémentaire, nous avons démontré que l’IL-6 est capable d’activer la voie Jak/STAT5 dans les lymphocytes T CD4. L’activation de cette voie de signalisation pourrait être impliquée dans le rétrocontrôle des effets pro-inflammatoires de l’IL-6 sur les cellules T CD4. Le facteur neurotrophique ciliaire (CNTF) et la « cardiotrophin-like cytokine/cytokine-like factor 1 » (CLC/CLF) sont deux cytokines de la famille de l’IL-6 qui signalent à travers un récepteur commun, le récepteur au CNTF (CNTFR), composé du CNTFRα, « leukaemia inhibitory factor receptor β » (LIFRβ) et gp130. Toutes deux exercent des actions au niveau du système immunitaire, or la chaîne CNTFRα de leur récepteur n’y est pas exprimée. Il a été montré que le CNTFR humain peut également activer un récepteur formé des sous-unités IL-6Rα, LIFRβ et gp130. Nous avons comparé les effets du CNTF et du CLC/CLF de souris sur des transfectants exprimant LIFRβ et gp130 et les chaines α connues de la famille IL-6 (IL-6Rα, IL-11Rβ et CNTFRα). Nos résultats indiquent que le CNTF de souris, comme le CNTF humain est capable d’activer un récepteur formé de l’IL-6Rα, LIFRβ et gp130. Toutefois cette propriété n’est pas partagée par CLC/CLF et le récepteur impliqué dans les effets de cette cytokine sur le système immunitaire reste donc à identifier. L’IL-27 appartient à la famille de l’IL-6 composée d’une sous-unité cytokinique, p28, associée à un récepteur soluble « l’Epstein-Barr virus-induced gene 3» (EBI3). La sous-unité p28 peut s’associer avec le récepteur soluble CLF pour former une cytokine capable d’activer les lymphocytes T. Dans le but de caractériser cette cytokine, nous avons montré que p28/CLF agit aussi sur les lymphocytes B et permet leur différenciation en plasmocytes. Le partage de l’IL-6R par l’IL-6 et p28/CLF semble être à l’origine de la similarité des effets de ces deux cytokines. De plus, nous avons observé des effets semblables à ceux de l’IL-6 suite à l’association de la sous-unité p28 seule avec la chaîne IL-6Rα. En effet, afin de mieux caractériser la cytokine p28/CLF, nous avons étudié les effets dus au recrutement de la chaîne IL-6Rα par la sous-unité p28. Les cytokines de la famille de l’IL-6 sont composées de quatre hélices α disposées de façon anti-parallèle deux à deux. La sous-unité p28 possède, au niveau d’une boucle reliant deux hélices α, un motif de plusieurs acides glutamiques consécutifs (motif polyE) qui n’est retrouvé dans aucune autre cytokine de cette famille. Nous avons démontré que ce motif est impliqué dans la liaison de cette sous-unité avec l’hydroxyapatite et l’os. Cette caractéristique de p28 pourrait permettre un ciblage de l’IL-27 (p28/EBI3) et de p28/CLF préférentiellement vers la niche endostéale des cellules souches et des cellules immunitaires.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Nous envisageons le cas d'une ressource naturelle renouvelable exploitée en commun par des firmes qui se concurrencent à la fois dans le marché du produit et dans l'exploitation de la ressource. Nous montrons que l'introduction de la moindre différence de coûts entre les firmes peut avoir un effet drastique sur la nature de l' équilibre, à comparer avec le cas de coûts identiques. Pour ce faire, nous prenons comme point de référence un équilibre de Nash markovien parfait qui existe dans le cas de firmes identiques et qui a la propriété que les firmes jouent une stratégie linéaire jusqu'à une borne supérieure endogène du stock et la stratégie correspondant à l' équilibre de Cournot statique au-delà de cette borne. Après avoir montré qu'un équilibre de cette nature n'est pas soutenable avec des coûts asymétriques, nous proposons une caractérisation complète d'un équilibre de Nash markovien parfait au jeu différentiel correspondant à ce cas.
Resumo:
Introduction: Les professionnels de la réadaptation de l’accident vasculaire cérébral (AVC) ont la responsabilité d’offrir des services de qualité ancrés dans les données probantes. Cette responsabilité relève du rôle d’érudit selon le cadre de compétences CanMEDS. Quelle place occupe par ce rôle en clinique? Objectifs : 1) Documenter les perceptions, expériences et vécus en lien avec le rôle d’érudit chez les professionnels de la réadaptation de l’AVC. 2) Identifier les facteurs perçus comme facilitant ou entravant ce rôle clinique. Méthodologie : Étude qualitative exploratoire d’orientation phénoménologique par entrevue individuelle de professionnels travaillant en réadaptation de l’AVC depuis au moins deux ans. Codification des verbatim avec le logiciel QDA-Miner. Résultats : Les participants (âge moyen 40,7 ans ± 11,2) sont majoritairement des femmes (9/11) et leur expérience de travail en AVC varie de 3 à 23 ans. Les principaux thèmes identifiés sont: 1) Les savoirs tacites sont perçus comme synonyme du rôle d’érudit; 2) L’expérience de travail et l’intuition clinique amènent confiance et confort dans les pratiques; 3) L’insatisfaction quant au manque de partage des connaissances; 4) L’importance de la diversification dans les tâches cliniques et 5) La pratique réflexive est peu développée. Les quatre facteurs influençant le rôle d’érudit sont: la motivation; l’incident critique, les stagiaires et le manque de temps. Conclusion : Le rôle d’érudit apparaît peu valorisé par les participants. Il existe un écart entre le rôle d’érudit tel que décrit dans les cadres de compétences et la façon dont il est actualisé en pratique clinique.
Resumo:
La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.
Resumo:
Questionnant avec J.-C. Breton les situations anthropologiques nouvelles qui interpellent la vie spirituelle, cette étude en propose une approche sous l’angle de la symbolisation. Une lecture de la symbolisation à partir de la structure même du symbole précède l’analyse de son usage psychanalytique selon Winnicott, avec ses notions d’espace potentiel et de phénomènes transitionnels. Suit l’exposé de points clés du témoignage de Marcel Légaut sur la vie spirituelle. La partie synthèse détaille trois éléments clés de la symbolisation : la brisure-faille, la créativité-accueil et le passage à un autre niveau. Deux niveaux de symbolisation, primaire et secondaire, complètent la trame partagée par la lecture de la psychanalyse et de la vie spirituelle. L’étude démontre que la symbolisation permet un passage en l’humain vers son propre mystère et celui de Dieu en lui. L’humain se présente alors comme être de symbolisation en devenir.
Resumo:
Les modèles pharmacocinétiques à base physiologique (PBPK) permettent de simuler la dose interne de substances chimiques sur la base de paramètres spécifiques à l’espèce et à la substance. Les modèles de relation quantitative structure-propriété (QSPR) existants permettent d’estimer les paramètres spécifiques au produit (coefficients de partage (PC) et constantes de métabolisme) mais leur domaine d’application est limité par leur manque de considération de la variabilité de leurs paramètres d’entrée ainsi que par leur domaine d’application restreint (c. à d., substances contenant CH3, CH2, CH, C, C=C, H, Cl, F, Br, cycle benzénique et H sur le cycle benzénique). L’objectif de cette étude est de développer de nouvelles connaissances et des outils afin d’élargir le domaine d’application des modèles QSPR-PBPK pour prédire la toxicocinétique de substances organiques inhalées chez l’humain. D’abord, un algorithme mécaniste unifié a été développé à partir de modèles existants pour prédire les PC de 142 médicaments et polluants environnementaux aux niveaux macro (tissu et sang) et micro (cellule et fluides biologiques) à partir de la composition du tissu et du sang et de propriétés physicochimiques. L’algorithme résultant a été appliqué pour prédire les PC tissu:sang, tissu:plasma et tissu:air du muscle (n = 174), du foie (n = 139) et du tissu adipeux (n = 141) du rat pour des médicaments acides, basiques et neutres ainsi que pour des cétones, esters d’acétate, éthers, alcools, hydrocarbures aliphatiques et aromatiques. Un modèle de relation quantitative propriété-propriété (QPPR) a été développé pour la clairance intrinsèque (CLint) in vivo (calculée comme le ratio du Vmax (μmol/h/kg poids de rat) sur le Km (μM)), de substrats du CYP2E1 (n = 26) en fonction du PC n octanol:eau, du PC sang:eau et du potentiel d’ionisation). Les prédictions du QPPR, représentées par les limites inférieures et supérieures de l’intervalle de confiance à 95% à la moyenne, furent ensuite intégrées dans un modèle PBPK humain. Subséquemment, l’algorithme de PC et le QPPR pour la CLint furent intégrés avec des modèles QSPR pour les PC hémoglobine:eau et huile:air pour simuler la pharmacocinétique et la dosimétrie cellulaire d’inhalation de composés organiques volatiles (COV) (benzène, 1,2-dichloroéthane, dichlorométhane, m-xylène, toluène, styrène, 1,1,1 trichloroéthane et 1,2,4 trimethylbenzène) avec un modèle PBPK chez le rat. Finalement, la variabilité de paramètres de composition des tissus et du sang de l’algorithme pour les PC tissu:air chez le rat et sang:air chez l’humain a été caractérisée par des simulations Monte Carlo par chaîne de Markov (MCMC). Les distributions résultantes ont été utilisées pour conduire des simulations Monte Carlo pour prédire des PC tissu:sang et sang:air. Les distributions de PC, avec celles des paramètres physiologiques et du contenu en cytochrome P450 CYP2E1, ont été incorporées dans un modèle PBPK pour caractériser la variabilité de la toxicocinétique sanguine de quatre COV (benzène, chloroforme, styrène et trichloroéthylène) par simulation Monte Carlo. Globalement, les approches quantitatives mises en œuvre pour les PC et la CLint dans cette étude ont permis l’utilisation de descripteurs moléculaires génériques plutôt que de fragments moléculaires spécifiques pour prédire la pharmacocinétique de substances organiques chez l’humain. La présente étude a, pour la première fois, caractérisé la variabilité des paramètres biologiques des algorithmes de PC pour étendre l’aptitude des modèles PBPK à prédire les distributions, pour la population, de doses internes de substances organiques avant de faire des tests chez l’animal ou l’humain.
Resumo:
Dans certaines circonstances, des actions de groupes sont plus performantes que des actions individuelles. Dans ces situations, il est préférable de former des coalitions. Ces coalitions peuvent être disjointes ou imbriquées. La littérature économique met un fort accent sur la modélisation des accords où les coalitions d’agents économiques sont des ensembles disjoints. Cependant on observe dans la vie de tous les jours que les coalitions politiques, environnementales, de libre-échange et d’assurance informelles sont la plupart du temps imbriquées. Aussi, devient-il impératif de comprendre le fonctionnement économique des coalitions imbriquées. Ma thèse développe un cadre d’analyse qui permet de comprendre la formation et la performance des coalitions même si elles sont imbriquées. Dans le premier chapitre je développe un jeu de négociation qui permet la formation de coalitions imbriquées. Je montre que ce jeu admet un équilibre et je développe un algorithme pour calculer les allocations d’équilibre pour les jeux symétriques. Je montre que toute structure de réseau peut se décomposer de manière unique en une structure de coalitions imbriquées. Sous certaines conditions, je montre que cette structure correspond à une structure d’équilibre d’un jeu sous-jacent. Dans le deuxième chapitre j’introduis une nouvelle notion de noyau dans le cas où les coalitions imbriquées sont permises. Je montre que cette notion de noyau est une généralisation naturelle de la notion de noyau de structure de coalitions. Je vais plus loin en introduisant des agents plus raffinés. J’obtiens alors le noyau de structure de coalitions imbriquées que je montre être un affinement de la première notion. Dans la suite de la thèse, j’applique les théories développées dans les deux premiers chapitres à des cas concrets. Le troisième chapitre est une application de la relation biunivoque établie dans le premier chapitre entre la formation des coalitions et la formation de réseaux. Je propose une modélisation réaliste et effective des assurances informelles. J’introduis ainsi dans la littérature économique sur les assurances informelles, quatre innovations majeures : une fusion entre l’approche par les groupes et l’approche par les réseaux sociaux, la possibilité d’avoir des organisations imbriquées d’assurance informelle, un schéma de punition endogène et enfin les externalités. Je caractérise les accords d’assurances informelles stables et j’isole les conditions qui poussent les agents à dévier. Il est admis dans la littérature que seuls les individus ayant un revenu élevé peuvent se permettre de violer les accords d’assurances informelles. Je donne ici les conditions dans lesquelles cette hypothèse tient. Cependant, je montre aussi qu’il est possible de violer cette hypothèse sous d’autres conditions réalistes. Finalement je dérive des résultats de statiques comparées sous deux normes de partage différents. Dans le quatrième et dernier chapitre, je propose un modèle d’assurance informelle où les groupes homogènes sont construits sur la base de relations de confiance préexistantes. Ces groupes sont imbriqués et représentent des ensembles de partage de risque. Cette approche est plus générale que les approches traditionnelles de groupe ou de réseau. Je caractérise les accords stables sans faire d’hypothèses sur le taux d’escompte. J’identifie les caractéristiques des réseaux stables qui correspondent aux taux d’escomptes les plus faibles. Bien que l’objectif des assurances informelles soit de lisser la consommation, je montre que des effets externes liés notamment à la valorisation des liens interpersonnels renforcent la stabilité. Je développe un algorithme à pas finis qui égalise la consommation pour tous les individus liés. Le fait que le nombre de pas soit fini (contrairement aux algorithmes à pas infinis existants) fait que mon algorithme peut inspirer de manière réaliste des politiques économiques. Enfin, je donne des résultats de statique comparée pour certaines valeurs exogènes du modèle.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
Réalisé en cotutelle avec l'Université Paris 1 Panthéon-Sorbonne.
Resumo:
L’insomnie, commune auprès de la population gériatrique, est typiquement traitée avec des benzodiazépines qui peuvent augmenter le risque des chutes. La thérapie cognitive-comportementale (TCC) est une intervention non-pharmacologique ayant une efficacité équivalente et aucun effet secondaire. Dans la présente thèse, le coût des benzodiazépines (BZD) sera comparé à celui de la TCC dans le traitement de l’insomnie auprès d’une population âgée, avec et sans considération du coût additionnel engendré par les chutes reliées à la prise des BZD. Un modèle d’arbre décisionnel a été conçu et appliqué selon la perspective du système de santé sur une période d’un an. Les probabilités de chutes, de visites à l’urgence, d’hospitalisation avec et sans fracture de la hanche, les données sur les coûts et sur les utilités ont été recueillies à partir d’une revue de la littérature. Des analyses sur le coût des conséquences, sur le coût-utilité et sur les économies potentielles ont été faites. Des analyses de sensibilité probabilistes et déterministes ont permis de prendre en considération les estimations des données. Le traitement par BZD coûte 30% fois moins cher que TCC si les coûts reliés aux chutes ne sont pas considérés (231$ CAN vs 335$ CAN/personne/année). Lorsque le coût relié aux chutes est pris en compte, la TCC s’avère être l’option la moins chère (177$ CAN d’économie absolue/ personne/année, 1,357$ CAN avec les BZD vs 1,180$ pour la TCC). La TCC a dominé l’utilisation des BZD avec une économie moyenne de 25, 743$ CAN par QALY à cause des chutes moins nombreuses observées avec la TCC. Les résultats des analyses d’économies d’argent suggèrent que si la TCC remplaçait le traitement par BZD, l’économie annuelle directe pour le traitement de l’insomnie serait de 441 millions de dollars CAN avec une économie cumulative de 112 billions de dollars canadiens sur une période de cinq ans. D’après le rapport sensibilité, le traitement par BZD coûte en moyenne 1,305$ CAN, écart type 598$ (étendue : 245-2,625)/personne/année alors qu’il en coûte moyenne 1,129$ CAN, écart type 514$ (étendue : 342-2,526)/personne/année avec la TCC. Les options actuelles de remboursement de traitements pharmacologiques au lieu des traitements non-pharmacologiques pour l’insomnie chez les personnes âgées ne permettent pas d’économie de coûts et ne sont pas recommandables éthiquement dans une perspective du système de santé.
Resumo:
Étude de cas / Case study
Resumo:
Étude de cas / Case study