998 resultados para partage de coûts
Resumo:
Cette thèse se propose de réévaluer l’œuvre de Guy Debord en privilégiant la lecture de ses autoportraits littéraires et cinématographiques. Cette recherche favorise une réception de Debord mettant en lumière l’importance de l’écriture de soi dans l’ensemble de sa production. L’inscription de soi, chez Debord, passe en effet par la création d’une légende. L’introduction démontre comment la trajectoire singulière de Debord témoigne d’un brouillage entre les frontières traditionnelles séparant l’esthétique et le politique. Elle explore les moyens pris par Debord afin de redéfinir le statut de l’artiste et la fonction de l’écriture dans le cadre d’une transformation d’une vie quotidienne. Dans ce cadre, la production artistique se subordonne entièrement au caractère de Debord, une personnalité qui se manifeste d’abord à travers la création d’un Grand style qui lui est propre. En célébrant le primat du vécu sur l’œuvre, la manœuvre de Debord s’inscrit dans la tradition moderniste de l’art. Le chapitre II montre comment Debord souhaita participer à l’entreprise de politisation de l’esthétique qui définit l’action des avant-gardes historiques. On y explique notamment comment l’œuvre de Debord s’est construite à partir des ruines du surréalisme. Pour se distinguer de ses ancêtres, le mouvement situationniste rejeta cependant l’esthétique surréaliste du rêve au profit d’une nouvelle poétique de l’ivresse se basant sur la dérive et sur l’intensification du moi. La dernière section de ce chapitre se consacre à la question de la création d’un mythe moderne, volonté partagée par les deux groupes. La troisième partie de cette thèse traite spécifiquement de la construction mythologique de Debord. Ce chapitre situe le projet mémorialiste de Debord dans la tradition littéraire française de l’écriture du moi. Il explore ensuite l’économie des sources classiques de Debord, en soulignant l’importance chez lui d’une éthique aristocratique issue du Grand siècle, éthique qui met de l’avant la distinction individuelle. Enfin, l’importance de la mentalité baroque est abordée conjointement à la question primordiale de la stratégie et de la manipulation. Le quatrième chapitre aborde la question de l’identification. Quand Debord décide de parler de sa vie, il le fait toujours en employant des éléments qui lui sont extérieurs : des « détournements ». Son « mode d’emploi » des détournements est défini dans la perspective d’un dévoilement de soi. On explore par la suite la question de l’imaginaire politique de Debord, imaginaire qui convoque sans cesse des représentations issues du XIXe siècle (classes dangereuses, conspirateur, bohème). Ce dernier chapitre se termine sur un essai d’interprétation approfondissant l’utilisation répétée de certaines figures criminelles, notamment Lacenaire. On mettra de l’avant la fonction centrale qu’occupent le crime et la transgression dans la sensibilité de Debord.
Resumo:
Le modèle de la bibliothèque, très ancien, s’est adapté aux évolutions des sociétés démontrant sa souplesse et sa robustesse. Il s’appuie sur un écosystème fondé sur le partage et comprend deux moments, celui de la constitution d’une collection et celui de sa mise en accès et définit un écosystème autonome. Récemment les bibliothécaires ont développé des études pour mesurer le retour sur investissement de leurs services. Malgré l’intérêt de ces calculs, la valeur ajoutée originale de la bibliothèque est difficile à appréhender précisément. Elle s’appuie selon les contextes sur la mutualisation ou sur la capacité à trouver rapidement des informations inattendues et celle de conserver des informations potentiellement importantes. Le modèle et sa valeur peuvent s’interpréter comme mémoire additionnelle d’un individu, capital informationnel d’une organisation, ou empreinte d’une civilisation. Le numérique ébranle la bibliothèque, mais chaque média émergent a obligé celle-ci à se repositionner. Inversement, la bibliothèque a été une des premières sources d’inspiration pour le web dont certains acteurs ont réussi, aujourd’hui, à faire de l’exploitation son modèle une activité très profitable.
Resumo:
Le développement fulgurant noté dans le domaine des biotechnologies peut être attribué, sinon essentiellement du moins partiellement, à l’utilisation des ressources génétiques (RG) et des savoirs traditionnels (ST) acquis sur ces ressources. Ces ressources et ces savoirs sont, notamment, utilisés dans le cadre d’inventions biotechnologiques qui peuvent s’avérer concluantes et faire l’objet de demande de protection par brevet. Ce développement ne s’est tout de même pas réalisé sans heurts majeurs, il l’a été au prix de tumultueuses oppositions. En effet, la découverte progressive de la valeur commerciale et scientifique de telles ressources et de tels savoirs a fait naître des intérêts et attisé des rivalités qui ont fini par opposer fournisseurs et utilisateurs de ces matériels. Force est de constater que parmi leurs divergences, celle qui se rapporte au partage des avantages fait l’objet de discussions des plus âpres qui soient dans le domaine. Une solution qui a été, aussi, envisagée a porté sur les régimes d’accès et de partage des avantages. Ce partage des avantages, les pays fournisseurs espèrent le réaliser par le biais de l’obligation de divulguer l’origine des RG et des ST dans les demandes de brevets. L’application d’une telle exigence connaît des limites en ce sens qu’elle est d’application territoriale. C’est sur la base d’un tel constat que les pays fournisseurs envisagent d’en faire une obligation reconnue et applicable à un niveau international. Dans le cadre de cette étude, nous essaierons de démontrer que l’obligation de divulguer l’origine des RG et des ST dans les demandes de brevets, telle qu’elle est actuellement appliquée, ne constitue pas un moyen pertinent qui permettrait d’en arriver à un partage juste et équitable des avantages.
Resumo:
Contexte : En République de Guinée, depuis 1984, l’ensemble des structures de soins ont intégré le programme de Soins de santé primaires et Médicaments Essentiels (PEV/SSP/ME). Pour la réalisation de ce programme, d’importants efforts et des sommes des millions de dollars ont été investis, mais les indicateurs de santé du pays sont toujours des plus alarmants du monde (EDS- 2005). Objectif : Evaluer la performance des structures de soins de santé primaires (SSP) d’un district sanitaire guinéen à partir des documents administratifs suivi d’une enquête sur la satisfaction des prestataires et des bénéficiaires et des parties prenantes du district. Méthodologie : Il s’agit d’une étude descriptive de cas touchant 10 des 18 structures de soins de santé primaires du district sanitaire de Labé. Elle porte sur une analyse quantitative de résultats de 10 contrôles semestriels (2004-2009) et sur une analyse qualitative composée d’entretiens menés auprès de 308 bénéficiaires et de quelques membres des Comités de gestion des structures pour apprécier le niveau de performance des structures ciblées. Résultats : Toutes les structures publiques du district sanitaire sous étude étaient intégrées1. Malgré cela, la tendance moyenne des consultations affiche une allure sinusoïdale (fluctuante). Bien que la disponibilité, l’accessibilité, l’utilisation et la couverture adéquate et effective des services de Consultation Primaire Curative (CPC) et de Planification Familiale (PF) n’ont pas connu d’amélioration durant la période de 2004 à 2009. La tendance moyenne de la Consultation prénatale (CPN) et celle de la Vaccination (VA) se sont améliorées au cours de la période d’étude. Les prestataires de services SSP déclarent être assez satisfaits de leur formation mais ne le sont pas pour leur condition de travail surtout ceux du milieu rural (faible rémunération, environnement difficile), qualité moindre de la supervision et ruptures fréquentes de stock en médicaments essentiels. Pour les bénéficiaires, leur satisfaction se limite au respect de leurs valeurs culturelles et de leur interaction avec les prestataires de soins. Cependant, ils déplorent le long temps d’attente, la mauvaise qualité de l’accueil, les coûts élevés des prestations et le manque d’équité qui sont des facteurs qualifiés comme des éléments de contreperformance des structures. Pour les autorités et des parties prenantes, la rupture des stocks en médicaments essentiels, le manque d’équipements et la faible motivation des prestataires sont les facteurs majeurs qui entravent la performance des structures sanitaires, surtout en milieu rural. Conclusion : Malgré l’intégration du programme des SSP dans les structures de SSP du district sanitaire de Labé, on note encore une insuffisance de leur utilisation, la faiblesse de la couverture, le manque de suivi et supervision des structures Une étude actualisée et plus étendue pourrait mieux cerner le sujet.
Resumo:
Huit instruments d’évaluation du risque ont été appliqués sur 580 délinquants sexuels. Il s’agit du VRAG, du SORAG, du RRASOR, de la Statique-99, de la Statique-2002, du RM-2000, du MnSORT-R et du SVR-20. De plus, les sujets ont été cotés sur la PCL-R, qui vise la mesure de la psychopathie, mais qui a fait ses preuves en matière de prédiction de la récidive (Gendreau, Little, et Goggin, 1996). En vue de mesurer l’efficacité de ces instruments et de la PCL-R, une période de suivi de 25 ans a été observée. Aussi, une division de l’échantillon a été faite par rapport à l’âge au moment de la libération, afin de mesurer les différences entre les délinquants âgés de 34 ans et moins et ceux de 35 ans et plus. Le présent travail vise à répondre à trois objectifs de recherche, soit 1) Décrire l’évolution du risque en fonction de l’âge, 2) Étudier le lien entre l’âge, le type de délinquant et la récidive et 3) Comparer l’efficacité de neuf instruments structurés à prédire quatre types de récidive en fonction de l’âge. Les résultats de l’étude suggèrent que l’âge influence le niveau de risque représenté par les délinquants. Par ailleurs, les analyses des différents types de récidive indiquent que le type de victime privilégié par les délinquants influence également ce niveau de risque. Les implications théoriques et pratiques seront discutées.
Resumo:
Contexte - La variation interindividuelle de la réponse aux corticostéroïdes (CS) est un problème important chez les patients atteints de maladies inflammatoires d’intestin. Ce problème est bien plus accentué chez les enfants avec la prévalence de la corticodépendance extrêmement (~40 %) élevée. La maladie réfractaire au CS a des répercussions sur le développement et le bien-être physique et psychologique des patients et impose des coûts médicaux élevés, particulièrement avec la maladie active comparativement à la maladie en rémission, le coût étant 2-3 fois plus élevé en ambulatoire et 20 fois plus élevé en hôpital. Il est ainsi primordial de déterminer les marqueurs prédictifs de la réponse aux CS. Les efforts précédents de découvrir les marqueurs cliniques et démographiques ont été équivoques, ce qui souligne davantage le besoin de marqueurs moléculaires. L'action des CS se base sur des processus complexes déterminés génétiquement. Deux gènes, le ABCB1, appartenant à la famille des transporteurs transmembraneaux, et le NR3C1, encodant le récepteur glucocorticoïde, sont des éléments importants des voies métaboliques. Nous avons postulé que les variations dans ces gènes ont un rôle dans la variabilité observée de la réponse aux CS et pourraient servir en tant que les marqueurs prédictifs. Objectifs - Nous avons visé à: (1) examiner le fardeau de la maladie réfractaire aux CS chez les enfants avec la maladie de Crohn (MC) et le rôle des caractéristiques cliniques et démographiques potentiellement liés à la réponse; (2) étudier l'association entre les variantes d'ADN de gène ABCB1 et la réponse aux CS; (3) étudier les associations entre les variantes d'ADN de gène NR3C1 et la réponse aux CS. Méthodes - Afin d’atteindre ces objectifs, nous avons mené une étude de cohorte des patients recrutés dans deux cliniques pédiatriques tertiaires de gastroentérologie à l’Ottawa (CHEO) et à Montréal (HSJ). Les patients avec la MC ont été diagnostiqués avant l'âge de 18 ans selon les critères standard radiologiques, endoscopiques et histopathologiques. La corticorésistance et la corticodépendance ont été définies en adaptant les critères reconnus. L’ADN, acquise soit du sang ou de la salive, était génotypée pour des variations à travers de gènes ABCB1 et NR3C1 sélectionnées à l’aide de la méthodologie de tag-SNP. La fréquence de la corticorésistance et la corticodépendance a été estimée assumant une distribution binomiale. Les associations entre les variables cliniques/démographiques et la réponse aux CS ont été examinées en utilisant la régression logistique en ajustant pour des variables potentielles de confusion. Les associations entre variantes génétiques de ABCB1 et NR3C1 et la réponse aux CS ont été examinées en utilisant la régression logistique assumant différents modèles de la transmission. Les associations multimarqueurs ont été examinées en utilisant l'analyse de haplotypes. Les variantes nongénotypées ont été imputées en utilisant les données de HAPMAP et les associations avec SNPs imputés ont été examinées en utilisant des méthodes standard. Résultats - Parmi 645 patients avec la MC, 364 (56.2%) ont reçu CS. La majorité de patients étaient des hommes (54.9 %); présentaient la maladie de l’iléocôlon (51.7%) ou la maladie inflammatoire (84.6%) au diagnostic et étaient les Caucasiens (95.6 %). Huit pourcents de patients étaient corticorésistants et 40.9% - corticodépendants. Le plus bas âge au diagnostic (OR=1.34, 95% CI: 1.03-3.01, p=0.040), la maladie cœxistante de la région digestive supérieure (OR=1.35, 95% CI: 95% CI: 1.06-3.07, p=0.031) et l’usage simultané des immunomodulateurs (OR=0.35, 95% CI: 0.16-0.75, p=0.007) ont été associés avec la corticodépendance. Un total de 27 marqueurs génotypés à travers de ABCB1 (n=14) et NR3C1 (n=13) ont été en l'Équilibre de Hardy-Weinberg, à l’exception d’un dans le gène NR3C1 (rs258751, exclu). Dans ABCB1, l'allèle rare de rs2032583 (OR=0.56, 95% CI: 0.34-0.95, p=0.029) et génotype hétérozygote (OR=0.52, 95% CI: 0.28-0.95 p=0.035) ont été négativement associes avec la dépendance de CS. Un haplotype à 3 marqueurs, comprenant le SNP fonctionnel rs1045642 a été associé avec la dépendance de CS (p empirique=0.004). 24 SNPs imputés introniques et six haplotypes ont été significativement associés avec la dépendance de CS. Aucune de ces associations n'a cependant maintenu la signification après des corrections pour des comparaisons multiples. Dans NR3C1, trois SNPs: rs10482682 (OR=1.43, 95% CI: 0.99-2.08, p=0.047), rs6196 (OR=0.55, 95% CI: 0.31-0.95, p=0.024), et rs2963155 (OR=0.64, 95% CI: 0.42-0.98, p=0.039), ont été associés sous un modèle additif, tandis que rs4912911 (OR=0.37, 95% CI: 0.13-1.00, p=0.03) et rs2963156 (OR=0.32, 95% CI: 0.07-1.12, p=0.047) - sous un modèle récessif. Deux haplotypes incluant ces 5 SNPs (AAACA et GGGCG) ont été significativement (p=0.006 et 0.01 empiriques) associés avec la corticodépendance. 19 SNPs imputés ont été associés avec la dépendance de CS. Deux haplotypes multimarqueurs (p=0.001), incluant les SNPs génotypés et imputés, ont été associés avec la dépendance de CS. Conclusion - Nos études suggèrent que le fardeau de la corticodépendance est élevé parmi les enfants avec le CD. Les enfants plus jeunes au diagnostic et ceux avec la maladie coexistante de la région supérieure ainsi que ceux avec des variations dans les gènes ABCB1 et NR3C1 étaient plus susceptibles de devenir corticodépendants.
Resumo:
Un des mouvements socio-économiques contemporains les plus anciens sur la scène internationale, le commerce équitable contribue à une meilleure prise en compte des conditions sociales des producteurs des pays en développement dans le commerce international. Au moment où la notion d’équité tend à devenir omniprésente dans nos sociétés, ce mouvement initié par la société civile semble méconnaître le principe de « partage juste et équitable » des ressources génétiques inclus dans la Convention sur la Diversité Biologique (CDB). Cet article étudie l’application différenciée des principes de la CDB par des acteurs du secteur privé, entreprises et labels, et du commerce équitable. Il conclus ainsi à l’opportunité d’une mise à jour des approches développées par le mouvement du commerce équitable qui prenne en compte les enjeux de la valorisation de la biodiversité et des savoirs traditionnels associés.
Resumo:
Le sujet de l’avortement provoqué demeure encore tabou au Togo et la compréhension du phénomène reste incomplète. La présente étude vise à dresser un portrait complet de ses divers aspects dans la capitale togolaise, qui a connu une baisse importante de la fécondité au cours des dernières années. À partir des données des Enquêtes démographiques et de santé (EDS) de 1988 et 1998, et de celles de l’Enquête sur la planification familiale et l’avortement provoqué (EPAP) de 2002, l’étude montre que le recours à l’avortement est à la hausse à Lomé, bien que l’estimation de son ampleur dépende de la méthode utilisée. Plus de 32 % des femmes ayant déjà été enceintes ont déclaré avoir avorté au moins une fois. Toutefois, l’avortement est plus fréquent chez les jeunes, qui y ont recours de manière plus précoce et plus rapprochée que leurs aînées. En contribuant ainsi à la régulation des naissances, l’avortement réduit la fécondité de 10 à 12 %. En utilisant les données de l’EPAP, réalisée auprès de 4755 femmes âgées de 15-49 ans, nous avons aussi étudié le recours à l’avortement comme une séquence d’étapes débutant par l’exposition au risque de grossesse jusqu’au recours à l’avortement, en passant par une absence de pratique contraceptive et le fait qu’une grossesse qui survient soit déclarée « non désirée ». L’ethnie et la génération sont associées à certaines étapes de la séquence alors que la religion, la parité, le statut matrimonial et le niveau d’instruction sont associés aux quatre étapes. Ainsi, le risque élevé d’avorter chez les femmes instruites découle en fait de leur risque élevé à toutes les étapes. En étant moins à risque de grossesse, les femmes qui ont au moins deux enfants sont plus susceptibles que les nullipares, d’utiliser une contraception moderne, de déclarer une grossesse comme non désirée et d’avorter. Si plusieurs grossesses non désirées surviennent aux âges jeunes, c’est surtout le caractère « hors union » de la grossesse qui fait qu’elle est considérée comme « non désirée » et interrompue. En outre, les femmes qui ont déjà avorté ou utilisé une contraception sont plus enclines à recourir à un avortement. Les résultats montrent également que le partenaire soutient souvent la femme dans la décision d’avorter et s’acquitte des coûts dans la majorité des cas. Malgré le fait qu’ils soient illégaux, plus de 40 % des avortements sont pratiqués à Lomé dans des centres de santé, par un membre du personnel médical, et à l’aide du curetage ou de l’aspiration. Mais, la moitié de ces avortements (22 %) avait été tentée au préalable par des méthodes non médicales. Plusieurs avortements ont aussi lieu soit à domicile (36 %), soit chez des tradi-thérapeutes (24 %), grâce à des méthodes non médicales. Par ailleurs, près de 60 % des avortements ont entraîné des complications sanitaires, conduisant la majorité des femmes à une hospitalisation. Sur le plan psychologique et relationnel, nous avons montré que la plupart des avortements ont entraîné des regrets et remords, de même que des problèmes entre les femmes et leurs parents. Les parents soutiennent en fait peu les femmes dans la décision d’avorter et interviennent rarement dans le paiement des coûts. L’étude a enfin révélé que la loi sur l’avortement est peu connue. Cependant, être âgée de 25 ans ou plus, en union ou très instruite, connaître des méthodes contraceptives, le recours d’une parente ou amie à l’avortement sont associés, toutes choses égales par ailleurs, à une plus grande chance de connaître la loi. L’analyse, en appuyant des déclarations des professionnels de la santé et des femmes, montre que malgré sa forte prévalence à Lomé, le recours à l’avortement demeure largement stigmatisé. Les quelques professionnels et femmes qui se sont prononcés en faveur de sa légalisation pensent que celle-ci permettrait de « réduire les avortements clandestins et risqués ». En fait, ce sont les femmes les plus instruites, âgées de 25 ans ou plus, utilisant la contraception, ayant déjà avorté ou connaissant quelqu’un l’ayant fait, qui sont plus aptes à approuver la légalisation de l’avortement. Celles qui appartiennent aux églises de type « pentecôtiste », plus sévères quant aux relations sexuelles hors mariage, sont par contre moins susceptibles que les catholiques d’avoir une telle attitude positive.
Resumo:
Les recherches en relations industrielles portent rarement sur les politiques publiques du marché du travail. Lorsqu’elles existent, ces recherches s’intéressent généralement à l’efficacité de ces politiques. Or, cette thèse illustre l’importance de comprendre comment se forment les lois et les règlements. Afin de mieux comprendre le processus d’élaboration des politiques publiques, une étude de cas a été réalisée dans le domaine des retraites au Québec et au Canada entre 2003 et 2008. Les retraites ont été ciblées en raison des bouleversements socio-économiques que connaissait le Canada à l’époque, notamment le vieillissement de la population et les fluctuations des rendements des fonds de retraite. Ce sujet a également été retenu car il s’agit d’une compétence partagée entre les paliers gouvernementaux fédéral et provinciaux ainsi que partagée entre le secteur public et privé.Afin d’étudier la question, des théories en relations industrielles et en sciences économiques ont été considérées. C’est toutefois la théorie des courants multiples du politologue américain John Kingdon qui a été retenu comme fondement théorique de cette thèse. Cette théorie, qui postulait que les acteurs voulant influencer les politiques publiques devaient attirer l’attention sur des problèmes, contrôler le débat sur les politiques considérées et se faire des appuis, a été confirmée. La contribution majeure de cette thèse a été d’identifier les différents types d’acteurs impliqués dans le processus d’élaboration de politiques publiques de retraite, les stratégies qu’ils ont employées pour y parvenir et les résultats de leurs efforts.
Resumo:
Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.
Resumo:
Cette thèse comporte trois essais en macroéconomie en économie ouverte et commerce international. Je considère tour à tour les questions suivantes: sous quelles conditions est-il optimal pour un pays de former une union économique? (essai 1); l'augmentation de la dispersion transversale des avoirs extérieurs nets des pays est-elle compatible avec une dispersion relativement stable des taux d'investissement? (essai 2); le risque de perte de marché à l'exportation du fait de l'existence des zones de commerce préférentiel joue t-il un rôle dans la décision des pays exclus de négocier des accords commerciaux à leur tour? (essai 3). Le premier essai examine les conditions d'optimalité d'une union économique. Il s'intéresse à une motivation particulière: le partage du risque lié aux fluctuations du revenu. Dans la situation initiale, les pays ont très peu d'opportunités pour partager le risque à cause des frictions: les marchés financiers internationaux sont incomplets et il n'y pas de mécanisme pour faire respecter les contrats de crédit entre pays. Dans ce contexte, une union économique apparait comme un arrangement qui pallie à ces frictions entre les pays membres seulement. Cependant, l'union dans son ensemble continue de faire face à ces frictions lorsqu'elle échange avec le reste du monde. L'arbitrage clé dans le modèle est le suivant. D'un coté, l'intégration économique permet un meilleur partage du risque entre pays membres et la possibilité pour le partenaire pauvre d'utiliser la ligne de crédit du partenaire riche en cas de besoin. De l'autre coté, l'union peut faire face à une limite de crédit plus restrictive parce que résilier la dette extérieure est moins coûteux pour les membres l'union. De plus, le fait que le partenaire pauvre peut utiliser la limite de crédit du partenaire riche génère une externalité négative pour ce dernier qui se retrouve plus fréquemment contraint au niveau des marchés internationaux des capitaux. En conformité avec les faits observés sur l'intégration économique, le modèle prédit que les unions économiques sont relativement peu fréquentes, sont plus susceptibles d'être créées parmi des pays homogènes, et généralement riches. Le deuxième essai porte sur la dispersion des avoirs extérieurs nets et la relation avec la dispersion des taux d'investissement. Au cours des récentes décennies, la dispersion croissante des déséquilibres extérieurs et les niveaux record atteints par certaines grandes économies ont reçu une attention considérable. On pourrait attribuer ce phénomène à une réduction des barrières aux mouvements internationaux des capitaux. Mais dans ce cas, il est légitime de s'attendre à une augmentation de la dispersion au niveau des taux d'investissement; ceci, parce que le financement des besoins en investissements constitue une raison fondamentale pour laquelle les pays échangent les capitaux. Les données indiquent cependant que la dispersion des taux d'investissement est restée relativement stable au cours des récentes décennies. Pour réconcilier ces faits, je construis un modèle d'équilibre général dynamique et stochastique où les pays sont hétérogènes en raison des chocs idiosyncratiques à leurs niveaux de productivité totale des facteurs. Au niveau des marchés internationaux des capitaux, le menu des actifs disponibles est restreint à une obligation sans risque et il n'y a pas de mécanisme pour faire respecter les contrats de crédit entre pays. A tout moment, un pays peut choisir de résilier sa dette extérieure sous peine d'exclusion financière et d'un coût direct. Ce coût direct reflète les canaux autres que l'exclusion financière à travers lesquels les pays en défaut sont pénalisés. Lorsque le modèle est calibré pour reproduire l'évolution de la dispersion transversale des avoirs extérieurs nets, il produit une dispersion relativement stable des taux d'investissement. La raison principale est que les incitations que les pays ont à investir sont liées à la productivité. Avec l'intégration financière, même si les opportunités d'emprunt se sont multipliées, les incitations à investir n'ont pas beaucoup changé. Ce qui permet de générer une dispersion accrue de la position des avoirs extérieurs nets des pays avec une dispersion relativement stable des taux d'investissement. Le troisième essai analyse un aspect de l'interdépendance dans la formation des accords commerciaux préférentiels: j'examine empiriquement si le risque de diversion des exportations en faveur des pays membres des zones de commerce préférentiel est un facteur déterminant dans la décision des pays exclus de ces accords de négocier un accord à leur tour. Je construis un indicateur qui mesure le potentiel de diversion des exportations auquel font face les pays et estime un modèle probit de formation des zones de commerce préférentiel créées entre 1961 et 2005. Les résultats confirment que les pays confrontés à un plus grand potentiel de détournement des échanges sont plus susceptibles de former une zone de commerce préférentiel à leur tour.
Resumo:
L’objet de ce travail de recherche est de mettre en dialogue les œuvres de Hans-Georg Gadamer et de Paul Ricœur afin de mettre au jour ce qui caractérise en propre la conception herméneutique du langage et d’en souligner la pertinence. Notre thèse principale est que, pour ce faire, il est impératif de dépasser les lectures dichotomiques des deux œuvres par une interprétation plus dialectique, puisque seule une telle démarche paraît susceptible de saisir l’étendue, la richesse et l’importance de l’intelligence herméneutique du phénomène langagier. Ainsi, dans ce travail, nous défendrons l’idée que, par-delà leurs différences incontestables, précieuses en elles-mêmes car sans elles il n’est pas de dialogue, les herméneutiques de Gadamer et Ricœur se distinguent par une réflexion philosophique incessante sur notre appartenance fondamentale au langage, qui constitue le cœur de la conception herméneutique du langage. Nous proposerons une confrontation des philosophies de Gadamer et Ricœur s’effectuant principalement autour d’une dialectique entre appartenance et distanciation, dans laquelle des approches plus objectivantes du langage pourront s’articuler à une description de notre expérience vécue. Avant de décrire cette dialectique pour elle-même, il nous est apparu indiqué de tenir compte de l’héritage phénoménologique incontournable à partir duquel Gadamer et Ricœur ont développé leurs approches respectives du langage. Cette base nous permettra de faire ressortir l’existence d’un accord de fond entre les deux herméneutiques sur la reconnaissance de notre irréductible appartenance au langage. Cette thèse n’exclut pas la possibilité, voire la nécessité d’intégrer dialectiquement un moment de distanciation au sein de cette appartenance primordiale. Nous montrerons en effet que c’est en s’appuyant sur cette distanciation que, par un mouvement réflexif, la pensée herméneutique peut revenir sur notre expérience langagière pour la thématiser et l’expliciter. Cette réflexion sur le langage s’effectue à partir de trois principaux modèles : ceux du dialogue, du texte et de la traduction. Nous exposerons comment chacun de ces modèles contribue à une meilleure compréhension de la vie du langage et de notre rapport au sens. Ceci nous conduira à examiner les efforts de Gadamer et Ricœur visant à mettre en lumière la puissance créatrice qui anime le langage, telle qu’elle ressort de leurs nombreux travaux sur la métaphore, le dire poétique et le récit. Nous défendrons alors la thèse qu’une conception originale de l’imagination s’élabore à travers la réflexion herméneutique sur l’innovation sémantique et la métaphoricité essentielle du langage. Cette recherche se terminera par une analyse des conceptions gadamérienne et ricœurienne des rapports entre langage et expérience, ainsi que de la portée ontologique du langage. Il y aura ici lieu d’insister sur la thèse partagée par les deux herméneutes selon laquelle il importe de résister à toute hypostase ou absolutisation du langage et de constamment penser le langage comme offrant une ouverture sur l’être et la possibilité de dire ce qui est.
Resumo:
Dans ce mémoire, je démontre que la distribution de probabilités de l'état quantique Greenberger-Horne-Zeilinger (GHZ) sous l'action locale de mesures de von Neumann indépendantes sur chaque qubit suit une distribution qui est une combinaison convexe de deux distributions. Les coefficients de la combinaison sont reliés aux parties équatoriales des mesures et les distributions associées à ces coefficients sont reliées aux parties réelles des mesures. Une application possible du résultat est qu'il permet de scinder en deux la simulation de l'état GHZ. Simuler, en pire cas ou en moyenne, un état quantique comme GHZ avec des ressources aléatoires, partagées ou privées, et des ressources classiques de communication, ou même des ressources fantaisistes comme les boîtes non locales, est un problème important en complexité de la communication quantique. On peut penser à ce problème de simulation comme un problème où plusieurs personnes obtiennent chacune une mesure de von Neumann à appliquer sur le sous-système de l'état GHZ qu'il partage avec les autres personnes. Chaque personne ne connaît que les données décrivant sa mesure et d'aucune façon une personne ne connaît les données décrivant la mesure d'une autre personne. Chaque personne obtient un résultat aléatoire classique. La distribution conjointe de ces résultats aléatoires classiques suit la distribution de probabilités trouvée dans ce mémoire. Le but est de simuler classiquement la distribution de probabilités de l'état GHZ. Mon résultat indique une marche à suivre qui consiste d'abord à simuler les parties équatoriales des mesures pour pouvoir ensuite savoir laquelle des distributions associées aux parties réelles des mesures il faut simuler. D'autres chercheurs ont trouvé comment simuler les parties équatoriales des mesures de von Neumann avec de la communication classique dans le cas de 3 personnes, mais la simulation des parties réelles résiste encore et toujours.
Resumo:
Ce mémoire a pour objectif de comprendre l’impact de la satisfaction envers les régimes de rémunération variable sur l’engagement organisationnel des travailleurs. Pour étudier cette question, nous avons utilisé trois hypothèses basées sur la théorie des attentes ainsi que sur la théorie de l’agence. La première hypothèse stipule que la satisfaction envers les régimes de bonis fait augmenter le niveau d’engagement organisationnel des travailleurs. La deuxième hypothèse est que la satisfaction envers les régimes de partage des bénéfices fait augmenter le niveau d’engagement organisationnel des travailleurs. La troisième hypothèse stipule que la satisfaction envers les régimes d’actionnariat fait augmenter le niveau d’engagement organisationnel des travailleurs. Nous avons utilisé une base de données provenant d’une enquête plus large portant sur « les liens entre la rémunération, la formation et le développement des compétences et l’attraction et la rétention d’employés clés ». L’entreprise où les données ont été collectées œuvre dans le secteur des technologies de l’information et des communications (TIC). Les nouveaux employés embauchés dans cette entreprise établie à Montréal ont été interrogés. Nos résultats nous permettent de confirmer deux de nos hypothèses, soit celle qui concerne les régimes de bonis et celle qui concerne les régimes d’actionnariat. Nos résultats indiquent que les individus satisfaits à l’égard des régimes de rémunération variable, plus précisément envers les régimes de bonis et les régimes d’actionnariat, présentent de plus hauts niveaux d’engagement organisationnel. Le soutien organisationnel perçu est également un facteur important dans le développement de l’engagement organisationnel. Finalement, nous concluons ce mémoire avec l’implication de nos résultats pour les différents acteurs en relations industrielles.
Resumo:
La recherche sur les questions touchant aux leaders de groupes sectaires et à la violence sectaire a mené à l’étude du rôle joué par l’autorité charismatique, tel que défini par Weber (1922) et repris par Dawson (2010). À ce sujet, d’éminents spécialistes des études sur les sectes sont d’avis qu’un vide important dans la recherche sur l’autorité charismatique dans le contexte de groupes sectaires et de nouveaux mouvements religieux reste à combler (ajouter les références ‘d’éminents spécialistes’). Ce mémoire vise à contribuer à l’étude cet aspect négligé, le rôle de l’autorité charismatique dans le recours è la violence dans les groupes sectaires, par une étude de cas historique d’un groupe de la Réformation protestante du XVIe siècle, le Royaume anabaptiste de Münster (AKA), sous l’influence d’un leader charismatique, Jan van Leiden. Cette recherche s’intéresse plus spécifiquement aux divers moyens utilisés par Jan van Leiden, pour asseoir son autorité charismatique et à ceux qui ont exercé une influence sur le recours à des actes de violence. L’étude de cas est basé sur le matériel provenant de deux comptes-rendus des faits relatés par des participants aux événements qui se sont déroulés à pendant le règne de Leiden à la tête du AKA. L’analyse du matériel recueilli a été réalisé à la lumière de trois concepts théoriques actuels concernant le comportement cultuel et le recours à la violence.. L’application de ces concepts théoriques a mené à l’identification de quatre principales stratégies utilisées par Jan van Leiden pour établir son autorité charismatique auprès de ses disciples, soit : 1) la menace du millénarisme, 2) l’exploitation d’une relation bilatérale parasitique avec ses disciples, 3) l’utilisation de l’extase religieuse et de la prophétie, 4) l’utilisation du désir de voir survenir des changements sociaux et religieux. En plus de ces quatre stratégies, trois autres dimensions ont été retenues comme signes que le recours à la violence dans le Royaume anabaptiste de Münster résultait de l’établissement de l’autorité charismatique de son leader, soit : 1) la violence liée au millénarisme, 2) la notion d’identité et de violence partagée, 3) des facteurs systémiques, physiques et culturels menant à la violence.