28 resultados para hazard
Resumo:
La notion d’aléa moral est le gold standard de la politique de la demande en santé et justifie les politiques de partage des coûts visant à faire payer le patient. Sous l’effet des critiques théoriques dont elle a fait l’objet, la notion d’aléa moral a été progressivement vidée de son ambition originelle pour en appeler à la moralisation du comportement du patient. Elle a débouché sur une segmentation des patients distinguant ceux qui doivent être mis à contribution financière au non de la responsabilité individuelle et ceux qui doivent être protégés de cette responsabilisation. Ce texte montre que la constitution d’ordres de priorité en matière de santé est peu compatible avec l’approche en termes d’aléa moral. Les ordres de priorité ne répondent pas à une conception instrumentale. Ils reposent sur des valeurs sociétales partagées et des préférences éthiques qui sont en opposition avec la conception standard de la responsabilité et la promotion de l’individualisme.
Resumo:
L'objectif principal de ce travail est d’étudier en profondeur certaines techniques biostatistiques avancées en recherche évaluative en chirurgie cardiaque adulte. Les études ont été conçues pour intégrer les concepts d'analyse de survie, analyse de régression avec “propensity score”, et analyse de coûts. Le premier manuscrit évalue la survie après la réparation chirurgicale de la dissection aigüe de l’aorte ascendante. Les analyses statistiques utilisées comprennent : analyses de survie avec régression paramétrique des phases de risque et d'autres méthodes paramétriques (exponentielle, Weibull), semi-paramétriques (Cox) ou non-paramétriques (Kaplan-Meier) ; survie comparée à une cohorte appariée pour l’âge, le sexe et la race utilisant des tables de statistiques de survie gouvernementales ; modèles de régression avec “bootstrapping” et “multinomial logit model”. L'étude a démontrée que la survie s'est améliorée sur 25 ans en lien avec des changements dans les techniques chirurgicales et d’imagerie diagnostique. Le second manuscrit est axé sur les résultats des pontages coronariens isolés chez des patients ayant des antécédents d'intervention coronarienne percutanée. Les analyses statistiques utilisées comprennent : modèles de régression avec “propensity score” ; algorithme complexe d'appariement (1:3) ; analyses statistiques appropriées pour les groupes appariés (différences standardisées, “generalized estimating equations”, modèle de Cox stratifié). L'étude a démontrée que l’intervention coronarienne percutanée subie 14 jours ou plus avant la chirurgie de pontages coronariens n'est pas associée à des résultats négatifs à court ou long terme. Le troisième manuscrit évalue les conséquences financières et les changements démographiques survenant pour un centre hospitalier universitaire suite à la mise en place d'un programme de chirurgie cardiaque satellite. Les analyses statistiques utilisées comprennent : modèles de régression multivariée “two-way” ANOVA (logistique, linéaire ou ordinale) ; “propensity score” ; analyses de coûts avec modèles paramétriques Log-Normal. Des modèles d’analyse de « survie » ont également été explorés, utilisant les «coûts» au lieu du « temps » comme variable dépendante, et ont menés à des conclusions similaires. L'étude a démontrée que, après la mise en place du programme satellite, moins de patients de faible complexité étaient référés de la région du programme satellite au centre hospitalier universitaire, avec une augmentation de la charge de travail infirmier et des coûts.
Resumo:
Nous nous intéresserons dans ce présent mémoire à l’« idiotie » du réel à partir de deux œuvres, celle du philosophe français Clément Rosset et celle du cinéaste sud-coréen, Hong Sangsoo. Nous poserons comme hypothèse que ces deux auteurs, à travers leurs théorie du réel, qu’elle soit philosophique ou esthétique, arrivent à un constat commun : le réel est « idiot », non pas au sens d’imbécile, mais en son sens premier c’est-à-dire « singulier, sans reflets ni doubles » (Rosset). Pour vérifier cette hypothèse nous procéderons d’abord par la construction d’un cadre théorique réalisé à partir de la définition rossetienne du réel. Ce cadre nous permettra de problématiser à la fois l’utilisation du zoom, la construction narrative, ainsi que les jeux temporels propres aux films de Hong, et ce, à partir de trois films du cinéaste : « Le pouvoir de la province de Kangwon » (1998), « Night and Day » (2007) et « Matins calmes à Séoul » (2011). Enfin il sera question, dans la dernière partie de ce mémoire, d’observer quelles peuvent être les conséquences engendrées par le fait de reconnaître ou non l’idiotie de toute réalité, à la fois dans des termes philosophiques mais également au plan de la prise d’images photographiques ou cinématographiques.
Resumo:
Le virus de l'immunodéficience humaine (VIH) est à l’origine d’une infection chronique, elle-même responsable du développement du syndrome d'immunodéficience acquise (SIDA), un état de grande vulnérabilité où le corps humain est à la merci d’infections opportunistes pouvant s’avérer fatales. Aujourd’hui, 30 ans après la découverte du virus, même si aucun vaccin n’a réussi à contrôler la pandémie, la situation s’est grandement améliorée. Conséquemment à l’arrivée de traitements antirétroviraux hautement actifs (HAART) à la fin des années 1990, la mortalité associée au VIH/SIDA a diminué et un plus grand nombre de personnes vivent maintenant avec l'infection. La présente thèse avait pour objectif d’aborder trois situations problématiques, en dépit de l’efficacité reconnue des HAART, plus particulièrement la faible charge virale persistante (LLV) et sa relation avec l’échec virologique, ainsi que les effets de certains antirétroviraux (ARV) sur les fonctions rénale et hépatique. Les objectifs précis étaient donc les suivants : 1) étudier le risque d’échec virologique à long terme chez les patients sous HAART dont la charge virale est indétectable comparativement aux patients affichant une LLV persistante; 2) évaluer sur le long terme la perte de fonction rénale associée à la prise de ténofovir (TDF) 3) étudier sur le long terme l'hyperbilirubinémie associée à la prise d’atazanavir (ATV) et ses autres déterminants possibles. Afin d’atteindre les trois objectifs susmentionnés, une cohorte de 2 416 patients atteints du VIH/SIDA, suivis depuis juillet 1977 et résidant à Montréal, a été utilisée. Pour le premier objectif, les résultats obtenus ont montré un risque accru d’échec virologique établi à >1000 copies/ml d’ARN VIH chez tous les patients qui présentaient une LLV persistante de différentes catégories durant aussi peu que 6 mois. En effet, on a observé qu’une LLV de 50-199 copies/ml persistant pendant six mois doublait le risque d’échec virologique (Hazard ratio (HR)=2,22, Intervalle de confiance (CI) 95 %:1,60–3,09). Ces résultats pourraient modifier la façon dont on aborde actuellement la gestion des patients affichant une LLV, et plus particulièrement une LLV de 50-199 copies/ml, pour laquelle aucune recommandation clinique n’a encore été formulée en raison du manque de données. Pour le deuxième objectif, on a observé une augmentation du risque de perte de fonction rénale de l’ordre de 63 % (HR=1,63; 95% CI:1,26–2,10) chez les patients sous TDF comparativement aux patients traités avec d’autres ARV. La perte de fonction rénale directement attribuable à la prise de TDF, indique que cette perte est survenue au cours des premières années de l’exposition du patient au médicament. D’une perspective à long terme, cette perte est considérée comme modérée. Enfin, pour ce qui est du troisième objectif, on a constaté que l’incidence cumulative d’hyperbilirubinémie était très élevée chez les patients sous ATV, mais que cette dernière pouvait régresser lorsque l’on mettait fin au traitement. L’hyperbilirubinémie à long terme observée avec la prise d’ATV n’a été associée à aucun effet néfaste pour la santé. Dans l’ensemble, la présente thèse a permis de mieux comprendre les trois situations problématiques susmentionnées, qui font actuellement l’objet de débats au sein de la communauté scientifique, et d’éclairer sous un jour nouveau la gestion des patients séropositifs sous traitement médicamenteux.
Resumo:
Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.
Resumo:
Un modèle pharmacocinétique à base physiologique (PBPK) d’exposition par inhalation à l’éthanol a antérieurement été développé en se basant sur des données provenant d’une étude chez des volontaires exposés par inhalation à plus de 5000 ppm. Cependant, une incertitude persiste sur la capacité du modèle PBPK à prédire les niveaux d’éthanolémie pour des expositions à de faibles concentrations. Ces niveaux sont fréquemment rencontrés par une large partie de la population et des travailleurs suite à l’utilisation de produits tels que les vernis et les solutions hydroalcooliques (SHA). Il est ainsi nécessaire de vérifier la validité du modèle existant et de déterminer l’exposition interne à l’éthanol dans de telles conditions. Les objectifs du mémoire sont donc 1) de documenter les niveaux d’éthanolémie résultant de l’exposition par inhalation à de faibles concentrations d’éthanol (i.e., ≤ 1000 ppm) et de valider/raffiner le modèle PBPK existant pour ces concentrations ; et 2) de déterminer les concentrations d’éthanol atmosphérique provenant d’utilisation de SHA et de vernis et de prédire les niveaux d’éthanolémie découlant de leur utilisation. Les données toxicocinétiques récoltées chez des volontaires nous suggèrent qu’il est insuffisant de limiter au foie la clairance métabolique de l’éthanol lors d’exposition à de faibles niveaux d’éthanol, contrairement aux expositions à de plus forts niveaux. De plus, il a clairement été démontré qu’un effort physique léger (50 W) influençait à la hausse (2-3 fois) l’éthanolémie des volontaires exposés à 750 ppm. L’ajout au modèle PBPK d’une clairance métabolique de haute affinité et de faible capacité associée aux tissus richement perfusés a permis de simuler plus adéquatement la cinétique de l’éthanolémie pour des expositions à des concentrations inférieures à 1000 ppm. Des mesures de concentrations d’éthanol dans l’air inhalé générées lors d’utilisation de SHA et de vernis ont permis de simuler des expositions lors de l’utilisation de ces produits. Pour l’utilisation de 1,5 g et 3 g de SHA dans un local peu ventilé, des concentrations sanguines maximales (Cmax) de 0.383 et 0.366 mg.L-1 ont été respectivement simulées. Dans un local bien ventilé, les Cmax simulées étaient de 0.264 et 0.414 mg.L-1. Selon les simulations, une application de vernis résulterait en une Cmax respectivement de 0.719 mg.L-1 et de 0.729 mg.L-1, chez les hommes et femmes. Les Cmax sanguines d’éthanol estimées suites aux différentes simulations sont inférieures à la concentration toxique pour les humains (100 mg.L-1). Ainsi, de telles expositions ne semblent pas être un danger pour la santé. Les résultats de cette étude ont permis de mieux décrire et comprendre les processus d’élimination de l’éthanol à faibles doses et permettront de raffiner l’évaluation du risque associé à l’inhalation chronique de faibles niveaux d’éthanol pour la population, particulièrement chez les travailleurs.
Resumo:
Les EHEC de sérotype O157:H7 sont des agents zoonotiques d’origine alimentaire ou hydrique. Ce sont des pathogènes émergeants qui causent chez l’humain des épidémies de gastro-entérite aiguë et parfois un syndrome hémolytique-urémique. Les EHEC réussissent leur transmission à l’humain à partir de leur portage commensal chez l’animal en passant par l’étape de survie dans l’environnement. L’endosymbiose microbienne est une des stratégies utilisées par les bactéries pathogènes pour survivre dans les environnements aquatiques. Les amibes sont des protozoaires vivants dans divers écosystèmes et connus pour abriter plusieurs agents pathogènes. Ainsi, les amibes contribueraient à transmettre les EHEC à l'humain. La première partie de mon projet de thèse est centrée sur l'interaction de l’amibe Acanthamoeba castellanii avec les EHEC. Les résultats montrent que la présence de cette amibe prolonge la persistance des EHEC, et ces dernières survivent à leur phagocytose par les amibes. Ces résultats démontrent le potentiel réel des amibes à héberger les EHEC et à contribuer à leur transmission. Cependant, l’absence de Shiga toxines améliore leur taux de survie intra-amibe. Par ailleurs, les Shiga toxines sont partiellement responsables de l’intoxication des amibes par les EHEC. Cette implication des Shiga toxines dans le taux de survie intracellulaire et dans la mortalité des amibes démontre l’intérêt d’utiliser les amibes comme modèle d'interaction hôte/pathogène pour étudier la pathogénicité des EHEC. Durant leur cycle de transmission, les EHEC rencontrent des carences en phosphate inorganique (Pi) dans l’environnement. En utilisant conjointement le système à deux composantes (TCS) PhoB-R et le système Pst (transport spécifique de Pi), les EHEC détectent et répondent à cette variation en Pi en activant le régulon Pho. La relation entre la virulence des EHEC, le PhoB-R-Pst et/ou le Pi environnemental demeure inconnue. La seconde partie de mon projet explore le rôle du régulon Pho (répondant à un stress nutritif de limitation en Pi) dans la virulence des EHEC. L’analyse transcriptomique montre que les EHEC répondent à la carence de Pi par une réaction complexe impliquant non seulement un remodelage du métabolisme général, qui est critique pour sa survie, mais aussi en coordonnant sa réponse de virulence. Dans ces conditions le régulateur PhoB contrôle directement l’expression des gènes du LEE et de l’opéron stx2AB. Ceci est confirmé par l’augmentation de la sécrétion de l’effecteur EspB et de la production et sécrétion de Stx2 en carence en Pi. Par ailleurs, l’activation du régulon Pho augmente la formation de biofilm et réduit la motilité chez les EHEC. Ceci corrèle avec l’induction des gènes régulant la production de curli et la répression de la voie de production d’indole et de biosynthèse du flagelle et du PGA (Polymère β-1,6-N-acétyle-D-glucosamine).
Resumo:
L’objectif de ce mémoire est de réaliser une étude descriptive et évaluative de la vulnérabilité du wilayat Bawshar (district du gouvernorat Mascate, capitale du Sultanat d’Oman), face au risque cyclonique et ce, dans le but de promouvoir la prévention et l’adaptation. À partir des diverses méthodes d’analyse de la vulnérabilité, présentées dans le cadre théorique, nous souhaitons développer une méthode basée sur la prémisse que la vulnérabilité est un système composé de plusieurs facteurs. Cette méthode sera ensuite adaptée au contexte du wilayat Bawshar en lien avec le risque cyclonique. Cette approche est réalisée autour de trois dimensions de la vulnérabilité : physique, sociale et institutionnelle. À la suite de l’application à notre cas d'étude des différentes théories et méthodes analytiques, réalisée grâce à une analyse qualitative et quantitative, générée par une recherche documentaire, des entrevues semi-dirigées, des données statistiques et géomatiques, une observation directe du terrain d’étude ainsi qu’un sondage, voici les importants résultats que nous avons obtenus : les cyclones affectant le gouvernorat de Mascate génèrent d’importants dommages tels que les pertes de vies humaines, la destruction des maisons et des principaux réseaux de transport, ainsi que d’autres perturbations, ceci dû principalement aux inondations émanant des cyclones. Cet endommagement s’explique par la combinaison et l’interaction de plusieurs facteurs tels que les changements océanographiques et atmosphériques affectant le pays ainsi que la topographie et l’hydrologie du site. Les facteurs tels que l’étalement urbain, l’urbanisation de zones à risques, l’explosion démographique, la non diversification de l’économie ainsi que les conditions socio-économiques amplifient la vulnérabilité face au risque cyclonique. Toutefois d’autres facteurs et changements réalisés par le Sultanat d’Oman dans les dernières années diminuent la vulnérabilité de sa population et réduisent l’endommagement à la suite de tels aléas. Parmi eux, nous retrouvons le développement que le pays a soutenu depuis 1970 dans plusieurs secteurs tels que la santé, l’éducation, les infrastructures et l’instauration de politiques de développement durable visant à diversifier l’économie. Depuis le passage des cyclones Gonu et Phet au Sultanat d’Oman, la gestion des risques est au centre même des priorités gouvernementales.
Resumo:
L'Enquête rétrospective sur les travailleurs sélectionnés au Québec a permis d’analyser la relation formation-emploi des immigrantes — arrivées comme requérantes principales — et de jeter un regard sur le parcours en emploi de ces femmes, en comparaison avec leurs homologues masculins. Une attention particulière est mise sur l'effet de genre et de la région de provenance, ainsi que l'interaction entre ces deux variables. Des modèles semi-paramétriques de Cox mettent en exergue comment les caractéristiques individuelles, mais aussi les activités de formation dans la société d’accueil, affectent au fil du temps les risques relatifs d’obtenir un premier emploi correspondant à ses qualifications scolaires prémigratoires. Puis, des régressions linéaires font état des déterminants du salaire après deux ans sur le territoire. Les résultats montrent que l'accès à l'emploi qualifié n'est pas affecté différemment selon que l'immigrant soit un homme ou une femme. Des différences intragroupes apparaissent toutefois en fonction de la région de provenance, avec un net avantage pour les immigrants de l'Europe de l'Ouest et des États-Unis. L'accès au premier emploi (sans distinction pour les qualifications) et le salaire révèlent, quant à eux, des différences sur la base du genre, avec un désavantage pour les femmes. Chez ces dernières, l'insertion en emploi se fait de façon similaire entre les groupes régionaux, alors que les groupes d'hommes sont plus hétérogènes. D'ailleurs, certaines caractéristiques individuelles, comme la connaissance du français et la catégorie d'admission, affectent différemment les immigrants et les immigrantes dans l'accès au premier emploi.
Resumo:
Objectif : La néphrectomie partielle est reconnue actuellement comme le traitement de choix des tumeurs de moins de 7 cm. Le but de notre étude est de comparer le taux de mortalité lié au cancer du rein suite au traitement par néphrectomie partielle ou radicale chez les patients de stade T1b, de présenter la tendance temporelle du taux d'intervention par néphrectomie partielle pour les tumeurs de stade T1b et d’identifier les facteurs sociodémographiques et tumoraux qui influencent le choix thérapeutique entre les deux types de traitement chirurgical. Méthode : Il s’agit d’une étude épidémiologique de type rétrospective. La population de patients provient de la base de donnée SEER (Surveillance, Epidemiology, and End Results) qui regroupe une grande proportion de la population nord-américaine. Dans notre étude, nous avons utilisé l’analyse par régression logistique pour identifier les facteurs sociodémographiques associés à l'intervention par néphrectomie partielle. Dans un deuxième temps, nous avons comparé la mortalité liée au cancer entre les deux options chirurgicales, après association par score de tendance pour diminuer les différences de base entre les deux populations. Nos critères étaient l’âge, la race, le sexe, l’état civil, le niveau socioéconomique, la taille tumorale, le grade nucléaire, l’histologie et la localité du centre hospitalier. L’analyse des données a été faite par le logiciel SPSS. Résultats : Le taux d'interventions par néphrectomie partielle a augmenté de 1,2% en 1988 à 15,9% en 2008 (p <0,001). Les jeunes patients, les tumeurs de petite taille, les patients de race noire, ainsi que les hommes sont plus susceptibles d'être traités par néphrectomie partielle (tous les p < 0,002). Parmi le groupe ciblé, le taux de mortalité lié au cancer à 5 ans et à 10 ans est de 4,4 et de 6,1% pour les néphrectomies partielles et de 6,0 et 10,4% pour les néphrectomies radicales (p = 0,03). Après ajustement de toutes les autres variables, les analyses de régression montrent que le choix entre les deux types de néphrectomie n’est pas associé à la mortalité lié au cancer (hazard ratio: 0,89, p = 0,5). Conclusion : Malgré un contrôle oncologique équivalent, le taux d'intervention par néphrectomie partielle chez les patients ayant un cancer du rein T1b est faible en comparaison à la néphrectomie radicale.
Resumo:
Empirical evidence suggests that ambiguity is prevalent in insurance pricing and underwriting, and that often insurers tend to exhibit more ambiguity than the insured individuals (e.g., [23]). Motivated by these findings, we consider a problem of demand for insurance indemnity schedules, where the insurer has ambiguous beliefs about the realizations of the insurable loss, whereas the insured is an expected-utility maximizer. We show that if the ambiguous beliefs of the insurer satisfy a property of compatibility with the non-ambiguous beliefs of the insured, then there exist optimal monotonic indemnity schedules. By virtue of monotonicity, no ex-post moral hazard issues arise at our solutions (e.g., [25]). In addition, in the case where the insurer is either ambiguity-seeking or ambiguity-averse, we show that the problem of determining the optimal indemnity schedule reduces to that of solving an auxiliary problem that is simpler than the original one in that it does not involve ambiguity. Finally, under additional assumptions, we give an explicit characterization of the optimal indemnity schedule for the insured, and we show how our results naturally extend the classical result of Arrow [5] on the optimality of the deductible indemnity schedule.
Resumo:
Les réclamations pour dommages punitifs en vertu de la Charte des droits et libertés de la personne se multiplient depuis plusieurs années devant les tribunaux. Pour être accueillie, cette réclamation implique la démonstration d’une atteinte illicite et intentionnelle à un droit ou une liberté protégé par cette charte. Les recours en responsabilité peuvent faire l’objet d’une couverture d’assurance. Or, le Code civil du Québec prévoit spécifiquement que l’assureur n’est pas tenu de couvrir la faute intentionnelle de l’assuré. Est-ce à dire que l’assureur n’a pas d’obligation envers son assuré lorsque des dommages punitifs sont réclamés? Il s’agit donc de déterminer si le concept de faute intentionnelle et celui d’atteinte illicite et intentionnelle sont des concepts qui s’équivalent ou qu’il est nécessaire de distinguer. Pour cette analyse, ces deux concepts seront abordés en profondeur. Il sera question de l’origine de ces deux notions, de leurs fondements et de leur interprétation pour finalement définir ces termes le plus précisément possible. Ces définitions permettront d’opposer ces deux notions et de déterminer au final qu’il existe plusieurs éléments qui différencient ces concepts, notamment à l’égard de l’intention requise, faisant en sorte qu’ils ne peuvent être assimilés. Cette conclusion aura un impact certain sur les obligations de l’assureur de défendre l’assuré et d’indemniser la victime pour ses dommages compensatoires lorsqu’il existe une réclamation en dommages punitifs et, par conséquent, l’assureur ne pourra faire reposer son refus de défendre ou d’indemniser sur la seule base de la preuve d’une atteinte illicite et intentionnelle.
Resumo:
Empirical evidence suggests that ambiguity is prevalent in insurance pricing and underwriting, and that often insurers tend to exhibit more ambiguity than the insured individuals (e.g., [23]). Motivated by these findings, we consider a problem of demand for insurance indemnity schedules, where the insurer has ambiguous beliefs about the realizations of the insurable loss, whereas the insured is an expected-utility maximizer. We show that if the ambiguous beliefs of the insurer satisfy a property of compatibility with the non-ambiguous beliefs of the insured, then there exist optimal monotonic indemnity schedules. By virtue of monotonicity, no ex-post moral hazard issues arise at our solutions (e.g., [25]). In addition, in the case where the insurer is either ambiguity-seeking or ambiguity-averse, we show that the problem of determining the optimal indemnity schedule reduces to that of solving an auxiliary problem that is simpler than the original one in that it does not involve ambiguity. Finally, under additional assumptions, we give an explicit characterization of the optimal indemnity schedule for the insured, and we show how our results naturally extend the classical result of Arrow [5] on the optimality of the deductible indemnity schedule.