991 resultados para partage de coûts
Resumo:
Cette thèse examine les effets des imperfections des marchés financiers sur la macroéconomie. Plus particulièrement, elle se penche sur les conséquences de la faillite dans les contrats financiers dans une perspective d'équilibre général dynamique. Le premier papier construit un modèle qui utilise l'avantage comparatif des banques dans la gestion des situations de détresse financière pour expliquer le choix des firmes entre les prêts bancaires et les prêts du marché financier. Le modèle réussit à expliquer pourquoi les firmes plus petites préfèrent le financement bancaire et pourquoi les prêts bancaires sont plus répandus en Europe. Le premier fait est expliqué par le lien négatif entre la valeur nette de l'entreprise et la probabilité de faire faillite. Le deuxième fait s'explique par le coût fixe d'émission de bons plus élevé en Europe. Le deuxième papier examine l'interaction entre les contraintes de financement affectant les ménages et les firmes. Une interaction positive pourrait amplifier et augmenter la persistance de l'effet d'un choc agrégé sur l'économie. Je construis un nouveau modèle qui contient des primes de financement externes pour les firmes et les ménages. Dans le modèle de base avec prix et salaires flexibles, j'obtiens une faible interaction négative entre les coûts de financement des firmes et des ménages. Le facteur clé qui explique ce résultat est l'effet du changement contre cyclique du coût de financement des ménages sur leur offre de travail et leur demande de prêts. Dans une période d'expansion, cet effet augmente les taux d'intérêt, réduit l'investissement et augmente le coût de financement des entreprises. Le troisième papier ajoute les contraintes de financement des banques dans un modèle macroéconomiques avec des prêts hypothécaires et des fluctuations dans les prix de l'immobilier. Les banques dans le modèle ne peuvent pas complètement diversifier leurs prêts, ce qui génère un lien entre les risques de faillite des ménages et des banques. Il y a deux effets contraires des cycles économiques qui affectent la prime de financement externe de la banque. Premièrement, il y a un lien positif entre le risque de faillite des banques et des emprunteurs qui contribue à rendre le coût de financement externe des banques contre cyclique. Deuxiément, le lissage de la consommation par les ménages rend la proportion de financement externe des banques pro cyclique, ce qui tend à rendre le coût de financement bancaire pro cyclique. En combinant ces deux effets, le modèle peut reproduire des profits bancaires et des ratios d'endettement bancaires pro cycliques comme dans les données, mais pour des chocs non-financiers les frictions de financement bancaire dans le modèle n'ont pas un effet quantitativement significatif sur les principales variables agrégées comme la consommation ou l'investissement.
Resumo:
Malgré l’acceptation théorique et pratique que l’astrologie médiévale rencontre au 13e siècle latin, son statut philosophique ambigu tient, au moins en partie, à son double partage en art mécanique et en science libérale. Plus mystérieux encore reste le fait qu’elle apparaisse en Occident sans devoir violenter les cadres philosophiques où elle s’inscrit, aussi chrétiens soient-ils. Du point de vue de l’histoire de la philosophie, ce que cette arrivée en douceur passe sous silence, c’est l’enracinement conceptuel toujours déjà préétabli du projet astrologique à l’intérieur d’un contexte philosophique plus global, dans et par lequel l’idée d’influence astrale valide sa raison d’être. En passant par la philosophie naturelle et la métaphysique de Thomas d’Aquin, ce travail veut montrer comment l’astrologie médiévale survient en terres chrétiennes à partir de la rencontre de la hiérarchie causale de l’être propre à l’arabo-aristotélisme néo-platonisant avec une théologie de la providence divine. D’aporie en aporie, la déconstruction de ce que toute astrologie présuppose prend place, de sorte qu’il devient possible de comprendre l’aspect rationnel et proprement philosophique de l’entreprise astrologique au Moyen Âge.
Resumo:
Les séquences protéiques naturelles sont le résultat net de l’interaction entre les mécanismes de mutation, de sélection naturelle et de dérive stochastique au cours des temps évolutifs. Les modèles probabilistes d’évolution moléculaire qui tiennent compte de ces différents facteurs ont été substantiellement améliorés au cours des dernières années. En particulier, ont été proposés des modèles incorporant explicitement la structure des protéines et les interdépendances entre sites, ainsi que les outils statistiques pour évaluer la performance de ces modèles. Toutefois, en dépit des avancées significatives dans cette direction, seules des représentations très simplifiées de la structure protéique ont été utilisées jusqu’à présent. Dans ce contexte, le sujet général de cette thèse est la modélisation de la structure tridimensionnelle des protéines, en tenant compte des limitations pratiques imposées par l’utilisation de méthodes phylogénétiques très gourmandes en temps de calcul. Dans un premier temps, une méthode statistique générale est présentée, visant à optimiser les paramètres d’un potentiel statistique (qui est une pseudo-énergie mesurant la compatibilité séquence-structure). La forme fonctionnelle du potentiel est par la suite raffinée, en augmentant le niveau de détails dans la description structurale sans alourdir les coûts computationnels. Plusieurs éléments structuraux sont explorés : interactions entre pairs de résidus, accessibilité au solvant, conformation de la chaîne principale et flexibilité. Les potentiels sont ensuite inclus dans un modèle d’évolution et leur performance est évaluée en termes d’ajustement statistique à des données réelles, et contrastée avec des modèles d’évolution standards. Finalement, le nouveau modèle structurellement contraint ainsi obtenu est utilisé pour mieux comprendre les relations entre niveau d’expression des gènes et sélection et conservation de leur séquence protéique.
Resumo:
La présente recherche a comme premier objectif d’étudier l’effet de la formation des ressources humaines sur la performance organisationnelle. Le concept de formation des ressources humaines, tel que considérée ici, comporte deux dimensions : l’intensité et l’incidence de la formation mesurées respectivement par la proportion des coûts investis et par la proportion d’employés formés. Les dimensions de la performance organisationnelle retenues sont la productivité et la rentabilité financière. Le second objectif de cette recherche est d’étudier l’effet modérateur du roulement du personnel dans la relation entre la formation et la performance organisationnelle. Les données de la présente recherche sont de nature secondaire. Il s’agit des données colligées par Jalette (1998) auprès de la Fédération des Caisses Desjardins de Montréal et de l’Ouest-du-Québec pour sa thèse de doctorat. Au total, 288 caisses ont été considérées pour la présente étude. Les analyses de régression multiple ont été effectuées dans le but de vérifier l’effet de chaque dimension de la formation sur chaque dimension de la performance organisationnelle. Quatre analyses de régression hiérarchiques nous ont permis de tester l’effet modérateur du roulement du personnel dans la relation entre la formation des ressources humaines et la performance organisationnelle. Les résultats de cette recherche indiquent que les relations examinées sont plus complexes qu’il n’y paraissait à première vue. Tout d’abord, l’effet de la formation sur la performance organisationnelle n’était pas significatif ou allait dans le sens contraire de nos attentes. Par contre, un effet modérateur significatif du roulement du personnel a été identifié dans trois régressions. Ainsi, la relation négative entre l’intensité de la formation et la rentabilité financière est moins prononcée dans un milieu où le roulement est élevé que dans un milieu où il est faible. Aussi, dans un milieu où le roulement est élevé, la relation entre l’incidence de la formation et la productivité est positive tandis qu’elle est négative dans un contexte où le roulement est bas. Ces deux effets modérateurs vont cependant dans le sens contraire à celui attendu. Cependant, l’hypothèse huit a été vérifiée : ainsi, dans un contexte où le roulement du personnel est élevé, la relation entre l’incidence de la formation et la rentabilité financière est négative tandis qu’elle est positive dans un contexte où le roulement est bas.
Resumo:
Dans ce mémoire, les contes de trois conteurs contemporains du Québec – Jos Gallant d’André Lemelin, Ti Pinge de Joujou Turenne et L’entrain à vapeur, de Fred Pellerin – font avant tout l’objet d’une lecture pragmatique afin de mieux comprendre comment le conteur, qui emploie le canevas en spectacle, transmet une fiction à un auditoire ou à un lectorat. L’étude présente d’abord une analyse comparative de chacune des prestations avec la version publiée d’un même récit et met ainsi en relief leurs points de convergence et de divergence. Selon l’hypothèse avancée, l’analyse de la prestation des conteurs qui suivent un canevas révèlerait comment s’y manifestent les dimensions performatives et les articulations du discours fictionnel. Corrélativement, l’examen des rapports entre le conteur et son public permet ensuite de s’interroger sur le statut du narrateur et de voir en quoi et comment, durant la performance, la fiction est partagée avec l’auditoire. L’analyse des énoncés performatifs, inspirés des travaux de Kerbrat-Orechionni et la dynamique de vectorisation proposée par Pavis pour l’étude de la gestuelle, des mimiques et de la voix, sont mises à contribution et visent également à dégager les outils pouvant servir à l’analyse des spectacles de contes. Au terme de cette recherche, l’auteure démontre les avantages liés au canevas, notamment en ce qui concerne les interactions qu’il favorise avec le public et dans la liberté qu’il procure, en permettant de modifier ou d’adapter le discours et les ressources expressives du conteur à chacune de ses représentations.
Resumo:
L’argument central de notre thèse est qu’une structure internationale unipolaire non hégémonique favorise la sécurité collective. Après avoir montré que telle est la structure actuelle et avoir justifié notre positionnement théorique néolibéral, nous avons eu recours au modèle d’interaction du « leader-suiveur de Stackelberg », pour démontrer qu’une coopération conflictuelle entre États rationnels est possible, ce qui leur permet de surmonter leur dilemme de l’action collective. Une coopération possible en raison de l’existence d’un intérêt mutuel et d’un leader favorisant la coopération entre ces États, ainsi que de conditions leur permettant de mettre en place une ‘stratégie de la réciprocité’. Ils forment alors ce qu’on appelle le « groupe de Stackelberg ». Le suiveur de la périphérie, ou ‘défecteur’ doit, pour sa part, non seulement s’ajuster à l’intérêt mutuel ainsi défini, mais aussi coopérer et négocier avec le groupe, et ce, sous la pression de sanctions, voire d’un usage ultime de la force si besoin est. Après l’éventuel succès de ces négociations, un équilibre de Stackelberg favorisé par le leader, soit la puissance unipolaire et non hégémonique, est alors atteint et la coopération permet, alors, à chacun de retirer un bénéfice de cet intérêt mutuel. Dans notre cas, le groupe de Stackelberg est constitué des membres du G5 + 1, soit les cinq membres permanents du Conseil de Sécurité de l’ONU et de l’Allemagne, agissant sous le leadership américain; l’Iran est un suiveur de la périphérie, soupçonné de défection, et l’intérêt mutuel est celui de la lutte contre la prolifération des ADM. Notre évaluation empirique montre que les conditions de la réciprocité des membres de ce groupe sont réunies et que celles de l’Iran sont en cours de négociation.
Resumo:
Le phénomène du commerce parallèle repose sur un constat de base à la fois simple et évident: le niveau des prix d’un même produit « créé et fabriqué » par le même titulaire peut souvent varier de manière importante d’un pays à l’autre, en raison notamment des disparités dans le revenu moyen des consommateurs, des règlementations nationales entravant les échanges, ou encore du niveau de concurrence qui peut être affecté par des restrictions d’ordre privé, telles que des conventions de partage de marchés ou des contrats de distribution. Les commerçants que l’on appelle « importateurs parallèles » achèteront le produit là où il est le moins cher, qu’il provienne directement du titulaire ou non, en vue de le revendre là où ils pourront faire le meilleur profit. Dans ce contexte, des problèmes apparaîtront dans le pays d’importation dans la mesure où les commerçants parallèles vendront, bien évidemment, moins cher que les distributeurs désignés par le titulaire. Le titulaire en sa qualité de « créateur » de produits, est souvent titulaire de droits de propriété intellectuelle qu’il désirera, non sans une certaine légitimité, « monnayer », tentant ainsi de cloisonner les marchés en vue d’obtenir le prix le plus élevé qu’un consommateur serait prêt à payer pour un produit « x » sur un marché « y ». Cet essai a pour mérite de mettre en tension, d'une part, la liberté des échanges et de la concurrence qui favorisent, notamment, l’obtention des produits au meilleur prix pour les acheteurs et les consommateurs et, d’autre part, la nécessité de protéger les efforts de création dans l’industrie afin que celle-ci continue à investir dans la recherche et le développement de nouveaux produits.
Resumo:
C’est principalement par le cinéma que nous connaissons et partageons le réel des villes, même celles dans lesquelles nous vivons. Par le cinéma, nous découvrons plus de villes que nous n’en visiterons jamais. Nous connaissons des villes que nous n'avons jamais vues. Nous apprenons à découvrir des villes que nous connaissons déjà. Nous avons en mémoire des villes qui n'existent pas. Que nous soyons spectateur ou créateur, les villes existent d'abord dans notre imaginaire. Percevoir, représenter et créer sont des actes complémentaires qui mobilisent des fonctions communes. Toute perception est conditionnée par le savoir et la mémoire, elle dépend de la culture. Toute représentation, si elle veut communiquer, doit connaître les mécanismes et les codes mémoriels et culturels du public auquel elle s’adresse. Le cinéma ne fait pas que reproduire, il crée et il a appris à utiliser ces codes et ces mécanismes, notamment pour représenter la ville. L’étude du cinéma peut ouvrir aux urbanistes et aux professionnels de l’aménagement, de nouveaux champs de scientificité sur le plan de la représentation et de la perception comme partage du réel de la ville. La ville et le cinéma doivent alors être vus comme un spectacle dans son acception herméneutique, et de ce spectacle il devient possible d’en faire émerger un paradigme; ou dit autrement, the basic belief system or worldview that guides the investigator, not only in choices of methods but in ontologically and episemologically fundamental ways. (Guba & Lincoln, 1994) Ce paradigme, que nous proposons de décrire, de modéliser et dont nous montrons les fonctions conceptuelles; nous le désignons comme la Ville idéelle.
Resumo:
Cet article évalue, du point de vue moral, les justifications possibles pour le recours à la taxation en vue de promouvoir des comportements « sains ». L’objectif est de démontrer qu’un tel instrument recevrait une meilleure justification, c’est-à-dire plus en accord avec des principes égalitariens respectueux de la liberté individuelle, s’ils s’inscrivaient dans une logique de mutualisation. Pour ce faire, les arguments du bien-être individuel et de l’efficience sociale sont discutés afin d’en pointer les fécondités et limites. Au travers de leurs limites, ces arguments introduisent naturellement à une troisième manière d’appréhender le problème, sous l’angle de la mutualisation. Ce principe représente moins une remise en cause radicale des arguments précédents qu’une reformulation du recours à l’efficience sociale et une limitation du champ d’application des appels au bien-être individuel. Il repose sur deux idées. La première est que la référence à une notion de responsabilité, même affadie, est nécessaire. De plus, celle-ci doit être conçue comme partagée entre producteurs et consommateurs ainsi que limitée au domaine financier. La seconde est que la mutualisation ne peut être déconnectée d’intuitions égalitariennes formulées de manière générale.
Resumo:
Les milieux de travail canadiens présentent des visages diversifiés et en pleine mutation. En raison de facteurs tels que les nouvelles technologies, la mondialisation, l’économie du savoir ou encore l’évolution démographique, la transformation des entreprises canadiennes passe par une main-d’œuvre qualifiée, adaptable et de qualité. Notre recherche s’inscrit dans le cadre des études s’intéressant aux comportements des entreprises en matière d’investissement en capital humain au Canada. Nous avons retenu un cadre théorique qui est constitué principalement de la théorie du capital humain, de celle des ressources internes et de l’approche des coûts et des bénéfices. Pour les fins de notre recherche, nous retenons une approche quantitative longitudinale, en utilisant des données secondaires issues du questionnaire des employeurs de l’Enquête sur le milieu de travail et les employés pour les années 1999 à 2005 inclusivement. La nature longitudinale de l’EMTE permet de corriger pour les biais liés à l’hétérogénéité non observée des firmes et à l’endogénéité possible de la variable de formation. Notre étude se divise globalement en trois articles. Dans les deux premiers cas, les dépenses en formation sont considérées comme une variable explicative de la productivité et du taux de roulement des employés. Dans le troisième cas, les dépenses de formation constituent la variable dépendante à l’étude. Le premier article examine l’effet des investissements en formation sur la productivité des entreprises canadiennes. La littérature scientifique traitant de l’impact de la formation sur la performance des entreprises continue de s’accroître dû aux nouvelles techniques d’estimations, à la disponibilité des données, et à l’intérêt grandissant pour le capital humain. Les résultats partiels des études antérieures montrent la possibilité que les retours des investissements réalisés en formation puissent avoir des effets au-delà de l’année courante. Sur le plan théorique, cette hypothèse a du sens, mais au niveau empirique il semble que les liens formels entre la formation et la productivité des entreprises ne sont pas clairement identifiés. Nos résultats montrent que les investissements en formation réalisés avec trois années de retard engendrent des effets positifs et significatifs sur la productivité à court et à moyen termes. L’interaction entre les différents types d’investissements permet de vérifier l’hypothèse à l’effet que les investissements en capital physique et en capital humain soient complémentaires et se supportent mutuellement. Après avoir procédé à l’estimation de l’effet des dépenses en formation structurée sur la productivité des entreprises, nous nous demandons pour quelles raisons les employeurs demeurent réticents quant aux retours des investissements en formation ? Dans le cadre de cette seconde réflexion, nous nous intéressons à deux dimensions de l’estimation du roulement, à savoir le roulement de nature volontaire et une mesure de l’optimum. Les résultats obtenus quant à l’effet des dépenses en formation structurée par employé sur les taux de roulement volontaire et optimal montrent que la relation est positive dans les deux cas. Cet article vise également à vérifier si différents outils organisationnels associés aux relations industrielles peuvent avoir un effet sur la réduction du taux de roulement volontaire des employés. Nos résultats montrent aussi que la présence syndicale et la perception d’un bon climat de travail traduisent dans un sens, un environnement dans lequel l’employeur et les employés ont des intérêts communs pour la poursuite de mêmes objectifs. Dans le cadre du troisième article, nous examinons certains déterminants des investissements en formation structurée au sein des milieux de travail. Nos résultats montrent qu’une entreprise de grande taille, qui investit davantage en capital physique par employé par rapport à la moyenne, au sein de laquelle un grand pourcentage de travailleurs utilisent un ordinateur, où il y a une proportion élevée de nouvelles embauches et pour laquelle l’employeur introduit un système cohérent de pratiques dépense davantage en formation structurée qu’une entreprise qui ne possède pas ces caractéristiques, toutes choses égales par ailleurs. Ces résultats permettent de discuter également de la complémentarité des facteurs faisant partie d’un cercle vertueux de croissance des entreprises pouvant déterminer les investissements en formation.
Resumo:
La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.
Évaluation de l'impact clinique et économique du développement d'un traitement pour la schizophrénie
Resumo:
Contexte : Les stratégies pharmacologiques pour traiter la schizophrénie reçoivent une attention croissante due au développement de nouvelles pharmacothérapies plus efficaces, mieux tolérées mais plus coûteuses. La schizophrénie est une maladie chronique présentant différents états spécifiques et définis par leur sévérité. Objectifs : Ce programme de recherche vise à: 1) Évaluer les facteurs associés au risque d'être dans un état spécifique de la schizophrénie, afin de construire les fonctions de risque de la modélisation du cours naturel de la schizophrénie; 2) Développer et valider un modèle de Markov avec microsimulations de Monte-Carlo, afin de simuler l'évolution naturelle des patients qui sont nouvellement diagnostiqués pour la schizophrénie, en fonction du profil individuel des facteurs de risque; 3) Estimer le coût direct de la schizophrénie (pour les soins de santé et autres non reliés aux soins de santé) dans la perspective gouvernementale et simuler l’impact clinique et économique du développement d’un traitement dans une cohorte de patients nouvellement diagnostiqués avec la schizophrénie, suivis pendant les cinq premières années post-diagnostic. Méthode : Pour le premier objectif de ce programme de recherche, un total de 14 320 patients nouvellement diagnostiqués avec la schizophrénie ont été identifiés dans les bases de données de la RAMQ et de Med-Echo. Les six états spécifiques de la schizophrénie ont été définis : le premier épisode (FE), l'état de dépendance faible (LDS), l’état de dépendance élevée (HDS), l’état stable (Stable), l’état de bien-être (Well) et l'état de décès (Death). Pour évaluer les facteurs associés au risque de se trouver dans chacun des états spécifiques de la schizophrénie, nous avons construit 4 fonctions de risque en se basant sur l'analyse de risque proportionnel de Cox pour des risques compétitifs. Pour le deuxième objectif, nous avons élaboré et validé un modèle de Markov avec microsimulations de Monte-Carlo intégrant les six états spécifiques de la schizophrénie. Dans le modèle, chaque sujet avait ses propres probabilités de transition entre les états spécifiques de la schizophrénie. Ces probabilités ont été estimées en utilisant la méthode de la fonction d'incidence cumulée. Pour le troisième objectif, nous avons utilisé le modèle de Markov développé précédemment. Ce modèle inclut les coûts directs de soins de santé, estimés en utilisant les bases de données de la Régie de l'assurance maladie du Québec et Med-Echo, et les coûts directs autres que pour les soins de santé, estimés à partir des enquêtes et publications de Statistique Canada. Résultats : Un total de 14 320 personnes nouvellement diagnostiquées avec la schizophrénie ont été identifiées dans la cohorte à l'étude. Le suivi moyen des sujets était de 4,4 (± 2,6) ans. Parmi les facteurs associés à l’évolution de la schizophrénie, on peut énumérer l’âge, le sexe, le traitement pour la schizophrénie et les comorbidités. Après une période de cinq ans, nos résultats montrent que 41% des patients seront considérés guéris, 13% seront dans un état stable et 3,4% seront décédés. Au cours des 5 premières années après le diagnostic de schizophrénie, le coût direct moyen de soins de santé et autres que les soins de santé a été estimé à 36 701 $ canadiens (CAN) (95% CI: 36 264-37 138). Le coût des soins de santé a représenté 56,2% du coût direct, le coût de l'aide sociale 34,6% et le coût associé à l’institutionnalisation dans les établissements de soins de longue durée 9,2%. Si un nouveau traitement était disponible et offrait une augmentation de 20% de l'efficacité thérapeutique, le coût direct des soins de santé et autres que les soins de santé pourrait être réduit jusqu’à 14,2%. Conclusion : Nous avons identifié des facteurs associés à l’évolution de la schizophrénie. Le modèle de Markov que nous avons développé est le premier modèle canadien intégrant des probabilités de transition ajustées pour le profil individuel des facteurs de risque, en utilisant des données réelles. Le modèle montre une bonne validité interne et externe. Nos résultats indiquent qu’un nouveau traitement pourrait éventuellement réduire les hospitalisations et le coût associé aux établissements de soins de longue durée, augmenter les chances des patients de retourner sur le marché du travail et ainsi contribuer à la réduction du coût de l'aide sociale.
Resumo:
Cette thèse porte sur les problèmes de tournées de véhicules avec fenêtres de temps où un gain est associé à chaque client et où l'objectif est de maximiser la somme des gains recueillis moins les coûts de transport. De plus, un même véhicule peut effectuer plusieurs tournées durant l'horizon de planification. Ce problème a été relativement peu étudié en dépit de son importance en pratique. Par exemple, dans le domaine de la livraison de denrées périssables, plusieurs tournées de courte durée doivent être combinées afin de former des journées complètes de travail. Nous croyons que ce type de problème aura une importance de plus en plus grande dans le futur avec l'avènement du commerce électronique, comme les épiceries électroniques, où les clients peuvent commander des produits par internet pour la livraison à domicile. Dans le premier chapitre de cette thèse, nous présentons d'abord une revue de la littérature consacrée aux problèmes de tournées de véhicules avec gains ainsi qu'aux problèmes permettant une réutilisation des véhicules. Nous présentons les méthodologies générales adoptées pour les résoudre, soit les méthodes exactes, les méthodes heuristiques et les méta-heuristiques. Nous discutons enfin des problèmes de tournées dynamiques où certaines données sur le problème ne sont pas connues à l'avance. Dans le second chapitre, nous décrivons un algorithme exact pour résoudre un problème de tournées avec fenêtres de temps et réutilisation de véhicules où l'objectif premier est de maximiser le nombre de clients desservis. Pour ce faire, le problème est modélisé comme un problème de tournées avec gains. L'algorithme exact est basé sur une méthode de génération de colonnes couplée avec un algorithme de plus court chemin élémentaire avec contraintes de ressources. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. Le troisième chapitre propose donc une méthode de recherche adaptative à grand voisinage qui exploite les différents niveaux hiérarchiques du problème (soit les journées complètes de travail des véhicules, les routes qui composent ces journées et les clients qui composent les routes). Dans le quatrième chapitre, qui traite du cas dynamique, une stratégie d'acceptation et de refus des nouvelles requêtes de service est proposée, basée sur une anticipation des requêtes à venir. L'approche repose sur la génération de scénarios pour différentes réalisations possibles des requêtes futures. Le coût d'opportunité de servir une nouvelle requête est basé sur une évaluation des scénarios avec et sans cette nouvelle requête. Enfin, le dernier chapitre résume les contributions de cette thèse et propose quelques avenues de recherche future.
Resumo:
Les maladies cardiovasculaires (MCV) sont les principales causes de mortalité et de morbidité à travers le monde. En Amérique du Nord, on estime à 90 millions le nombre d’individus ayant une ou plusieurs MCV, à près de 1 million le nombre de décès reliés par année et à 525 milliards de dollars les coûts directs et indirects en 2010. En collaboration avec l’équipe du Dre. Boileau, notre laboratoire a récemment identifié, le troisième locus impliqué dans l’hypercholestérolémie familiale. Une étude publiée dans le New Engl J Med a révélé que l’absence de la convertase PCSK9 réduit de 88% le risque de MCV, corrélé à une forte réduction du taux de cholestérol plasmatique (LDL-C). Il fut démontré que PCSK9 lie directement le récepteur aux lipoprotéines de faible densité (LDLR) et, par un mécanisme méconnu, favorise sa dégradation dans les endosomes/lysosomes provoquant ainsi une accumulation des particules LDL-C dans le plasma. Dans cet ouvrage, nous nous sommes intéressés à trois aspects bien distincts : [1] Quels sont les cibles de PCSK9 ? [2] Quelle voie du trafic cellulaire est impliquée dans la dégradation du LDLR par PCSK9 ? [3] Comment peut-on inhiber la fonction de PCSK9 ? [1] Nous avons démontré que PCSK9 induit la dégradation du LDLR de même que les récepteurs ApoER2 et VLDLR. Ces deux membres de la famille du LDLR (fortes homologies) sont impliqués notamment dans le métabolisme des lipides et de la mise en place de structures neuronales. De plus, nous avons remarqué que la présence de ces récepteurs favorise l’attachement cellulaire de PCSK9 et ce, indépendamment de la présence du LDLR. Cette étude a ouvert pour la première fois le spectre d’action de PCSK9 sur d’autres protéines membranaires. [2] PCSK9 étant une protéine de la voie sécrétoire, nous avons ensuite évalué l’apport des différentes voies du trafic cellulaire, soit extra- ou intracellulaire, impliquées dans la dégradation du LDLR. À l’aide de milieux conditionnées dérivés d’hépatocytes primaires, nous avons d’abord démontré que le niveau extracellulaire de PCSK9 endogène n’a pas une grande influence sur la dégradation intracellulaire du LDLR, lorsqu’incubés sur des hépatocytes provenant de souris déficientes en PCSK9 (Pcsk9-/-). Par analyses de tri cellulaire (FACS), nous avons ensuite remarqué que la surexpression de PCSK9 diminue localement les niveaux de LDLR avec peu d’effet sur les cellules voisines. Lorsque nous avons bloqué l’endocytose du LDLR dans les cellules HepG2 (lignée de cellules hépatiques pour l’étude endogène de PCSK9), nous n’avons dénoté aucun changement des niveaux protéiques du récepteur. Par contre, nous avons pu démontrer que PCSK9 favorise la dégradation du LDLR par l’intermédiaire d’une voie intracellulaire. En effet l’interruption du trafic vésiculaire entre le réseau trans-Golgien (RTG) et les endosomes (interférence à l’ARN contre les chaînes légères de clathrine ; siCLCs) prévient la dégradation du LDLR de manière PCSK9-dépendante. [3] Par immunobuvardage d’affinité, nous avons identifié que la protéine Annexine A2 (AnxA2) interagit spécifiquement avec le domaine C-terminal de PCSK9, important pour son action sur le LDLR. Plus spécifiquement, nous avons cartographié le domaine R1 (acides aminés 34 à 108) comme étant responsable de l’interaction PCSK9AnxA2 qui, jusqu’à présent, n’avait aucune fonction propre. Finalement, nous avons démontré que l’ajout d’AnxA2 prévient la dégradation du LDLR induite par PCSK9. En somme, nos travaux ont pu identifier que d’autres membres de la famille du LDLR, soit ApoER2 et VLDLR, sont sensibles à la présence de PCSK9. De plus, nous avons mis en évidence que l’intégrité du trafic intracellulaire est critique à l’action de PCSK9 sur le LDLR et ce, de manière endogène. Finalement, nous avons identifié l’Annexine A2 comme unique inhibiteur naturel pouvant interférer avec la dégradation du LDLR par PCSK9. Il est indéniable que PCSK9 soit une cible de premier choix pour contrer l’hypercholestérolémie afin de prévenir le développement de MCV. Cet ouvrage apporte donc des apports considérables dans notre compréhension des voies cellulaires impliquées, des cibles affectées et ouvre directement la porte à une approche thérapeutique à fort potentiel.
Resumo:
L’athérosclérose est une maladie qui cause, par l’accumulation de plaques lipidiques, le durcissement de la paroi des artères et le rétrécissement de la lumière. Ces lésions sont généralement localisées sur les segments artériels coronariens, carotidiens, aortiques, rénaux, digestifs et périphériques. En ce qui concerne l’atteinte périphérique, celle des membres inférieurs est particulièrement fréquente. En effet, la sévérité de ces lésions artérielles est souvent évaluée par le degré d’une sténose (réduction >50 % du diamètre de la lumière) en angiographie, imagerie par résonnance magnétique (IRM), tomodensitométrie ou échographie. Cependant, pour planifier une intervention chirurgicale, une représentation géométrique artérielle 3D est notamment préférable. Les méthodes d’imagerie par coupe (IRM et tomodensitométrie) sont très performantes pour générer une imagerie tridimensionnelle de bonne qualité mais leurs utilisations sont dispendieuses et invasives pour les patients. L’échographie 3D peut constituer une avenue très prometteuse en imagerie pour la localisation et la quantification des sténoses. Cette modalité d’imagerie offre des avantages distincts tels la commodité, des coûts peu élevés pour un diagnostic non invasif (sans irradiation ni agent de contraste néphrotoxique) et aussi l’option d’analyse en Doppler pour quantifier le flux sanguin. Étant donné que les robots médicaux ont déjà été utilisés avec succès en chirurgie et en orthopédie, notre équipe a conçu un nouveau système robotique d’échographie 3D pour détecter et quantifier les sténoses des membres inférieurs. Avec cette nouvelle technologie, un radiologue fait l’apprentissage manuel au robot d’un balayage échographique du vaisseau concerné. Par la suite, le robot répète à très haute précision la trajectoire apprise, contrôle simultanément le processus d’acquisition d’images échographiques à un pas d’échantillonnage constant et conserve de façon sécuritaire la force appliquée par la sonde sur la peau du patient. Par conséquent, la reconstruction d’une géométrie artérielle 3D des membres inférieurs à partir de ce système pourrait permettre une localisation et une quantification des sténoses à très grande fiabilité. L’objectif de ce projet de recherche consistait donc à valider et optimiser ce système robotisé d’imagerie échographique 3D. La fiabilité d’une géométrie reconstruite en 3D à partir d’un système référentiel robotique dépend beaucoup de la précision du positionnement et de la procédure de calibration. De ce fait, la précision pour le positionnement du bras robotique fut évaluée à travers son espace de travail avec un fantôme spécialement conçu pour simuler la configuration des artères des membres inférieurs (article 1 - chapitre 3). De plus, un fantôme de fils croisés en forme de Z a été conçu pour assurer une calibration précise du système robotique (article 2 - chapitre 4). Ces méthodes optimales ont été utilisées pour valider le système pour l’application clinique et trouver la transformation qui convertit les coordonnées de l’image échographique 2D dans le référentiel cartésien du bras robotisé. À partir de ces résultats, tout objet balayé par le système robotique peut être caractérisé pour une reconstruction 3D adéquate. Des fantômes vasculaires compatibles avec plusieurs modalités d’imagerie ont été utilisés pour simuler différentes représentations artérielles des membres inférieurs (article 2 - chapitre 4, article 3 - chapitre 5). La validation des géométries reconstruites a été effectuée à l`aide d`analyses comparatives. La précision pour localiser et quantifier les sténoses avec ce système robotisé d’imagerie échographique 3D a aussi été déterminée. Ces évaluations ont été réalisées in vivo pour percevoir le potentiel de l’utilisation d’un tel système en clinique (article 3- chapitre 5).