1000 resultados para Modèle numérique


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le modèle de la bibliothèque, très ancien, s’est adapté aux évolutions des sociétés démontrant sa souplesse et sa robustesse. Il s’appuie sur un écosystème fondé sur le partage et comprend deux moments, celui de la constitution d’une collection et celui de sa mise en accès et définit un écosystème autonome. Récemment les bibliothécaires ont développé des études pour mesurer le retour sur investissement de leurs services. Malgré l’intérêt de ces calculs, la valeur ajoutée originale de la bibliothèque est difficile à appréhender précisément. Elle s’appuie selon les contextes sur la mutualisation ou sur la capacité à trouver rapidement des informations inattendues et celle de conserver des informations potentiellement importantes. Le modèle et sa valeur peuvent s’interpréter comme mémoire additionnelle d’un individu, capital informationnel d’une organisation, ou empreinte d’une civilisation. Le numérique ébranle la bibliothèque, mais chaque média émergent a obligé celle-ci à se repositionner. Inversement, la bibliothèque a été une des premières sources d’inspiration pour le web dont certains acteurs ont réussi, aujourd’hui, à faire de l’exploitation son modèle une activité très profitable.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Confronté à un projet de traduction de manuels d’histoire du français à l’anglais, destinés aux écoles publiques anglophones au Québec, Michael Varga définit une méthode qui ne s’appuie pas sur les théories de traduction classiques reliées aux structures binaires, mais qui s’inspire plutôt du modèle de la narratologie (narrative theory) prôné par Mona Baker. Varga reconnaît la légitimité d’une pluralité de narrations en compétition entre elles qui se manifestent parmi les différents groupes socioculturels faisant partie d’une même société (le Québec). Il identifie des passages en provenance du texte d’origine qui mettent en relief des conflits reliés à l’accommodation culturelle. Il traite la façon dont ces conflits échouent à communiquer adéquatement des réalités culturelles appropriées, lesquelles seront en concert avec les normes et valeurs propres à la société québécoise. Il propose des traductions, apte au domaine pédagogique, qui désamorceront ces conflits et les accommoderont tout en respectant la pluralité des réalités culturelles en évidence dans la société québécoise.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les fichiers video (d'animation) sont dans un format Windows Media (.wmv)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La guérison des plaies cutanées appendiculaires chez le cheval, à la différence de celle des plaies corporelles, se complique régulièrement. Un retard de cicatrisation s’y observe et un tissu de granulation exubérant tend à s’y développer, le tout menant à une cicatrice pathologique hypertrophiée. La pathogénie exacte du tissu de granulation exubérant chez le cheval demeure inconnue à ce jour. Une hypoxie tissulaire pourrait favoriser son développement tout comme elle semble contribuer au développement de cicatrices cutanées pathologiques similaires observées chez l’Homme. L’objectif de cette étude était d’évaluer la perfusion vasculaire et la disponibilité locale en oxygène de plaies cutanées appendiculaires et corporelles en cours de cicatrisation normale et pathologique chez le cheval, à l’aide de la thermographie infrarouge et de la spectroscopie par réflectance dans le proche infrarouge. Six juments âgées de 3 à 4 ans ont été utilisées. Trois plaies cutanées ont été créées à l’aspect dorso-latéral du canon des membres thoraciques (plaies appendiculaires), et sur la paroi costale de l’un des hémithorax (plaies corporelles). Chez chaque jument, un canon a été aléatoirement bandé dans le but d’induire la formation de tissu de granulation exubérant dans les plaies s’y trouvant, tel que rapporté. La perfusion vasculaire et la disponibilité locale en oxygène ont été évaluées séquentiellement par thermographie infrarouge et spectroscopie par réflectance dans le proche infrarouge pour chaque plaie de chaque site (thorax; membre bandé; membre non bandé) au cours du processus de cicatrisation cutanée. Un modèle linéaire à doubles mesures répétées associé à une correction séquentielle de Bonferroni a révélé des différences significatives de perfusion vasculaire et de disponibilité locale en oxygène entre les plaies appendiculaires et corporelles. Ainsi la perfusion vasculaire et la disponibilité locale en oxygène étaient significativement plus élevées dans les plaies corporelles (P<0.05) et la perfusion vasculaire était significativement plus élevée dans les plaies appendiculaires non bandées que dans celles bandées (P<0.05). Nous avons récemment rapporté une plus grande occlusion de la micro-vascularisation au niveau des plaies appendiculaires chez le cheval. Nous rapportons maintenant que la perfusion vasculaire et la disponibilité locale en oxygène sont significativement inférieures dans les plaies appendiculaires, en particulier lorsqu’un tissu de granulation exubérant s’y développe. Compilés, ces résultats sous-tendent l’hypothèse que les plaies appendiculaires souffrent d’une altération de la perfusion vasculaire à l’origine possible d’une hypoxie tissulaire qui pourrait favoriser une cicatrisation cutanée anormale, telle la formation d’un tissu de granulation exubérant.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’utilisation des mesures d’isolement et de contentions en milieu psychiatrique intrahospitalier se produit fréquemment en réponse à des comportements agressifs et continue de soulever la controverse. À cet égard, de plus en plus d’études tendent à démontrer que le personnel soignant travaillant sur ces unités est influencé par plusieurs facteurs de nature différente, notamment la perception de l’agressivité, quand vient le temps de prendre une décision quant à l’utilisation (ou non) de ces mesures coercitives. Méthodologie : Plus de trois cents membres du personnel soignant travaillant en milieu psychiatrique intrahospitalier ont été recrutés dans huit établissements psychiatriques du Québec. Dans un premier temps, un questionnaire leur a été distribué afin de mettre en relief les différents facteurs (individuels et organisationnels) ayant un impact sur l’utilisation des mesures coercitives. Simultanément, l’analyse factorielle de la version française de deux échelles permettant de mesurer la perception de l’agressivité en milieu hospitalier (le MOAS et le POAS) a été faite. Résultats : Un modèle final multivarié a démontré que le type d’unité psychiatrique, l’expression de la colère et de l’agressivité parmi les membres de l’équipe de soins, la perception de la fréquence de gestes autoagressifs et la perception de mesures de sécurité insuffisantes dans le milieu de travail étaient des prédicteurs indépendants de l’utilisation de procédures d’isolement et de contentions. L’analyse factorielle a pour sa part mis en évidence une structure à 4 facteurs pour le MOAS et à 3 facteurs pour le POAS, conformément à ce que l’on retrouvait dans la littérature scientifique. Conclusion : Ces résultats soulignent l’importance des facteurs organisationnels par rapport aux facteurs individuels dans l’utilisation des mesures coercitives en psychiatrie et la nécessité d’évaluer les perceptions quant à l’agressivité et à la sécurité chez le personnel soignant. En comprenant mieux les phénomènes qui amènent leur utilisation, il sera possible de trouver des alternatives aux mesures d’isolement et de contentions et ainsi réduire le recours à ces dernières.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Contexte: Bien que plusieurs algorithmes pharmacogénétiques de prédiction de doses de warfarine aient été publiés, peu d’études ont comparé la validité de ces algorithmes en pratique clinique réelle. Objectif: Évaluer trois algorithmes pharmacogénomiques dans une population de patients qui initient un traitement à la warfarine et qui souffrent de fibrillation auriculaire ou de problèmes de valves cardiaques. Analyser la performance des algorithmes de Gage et al., de Michaud et al. ainsi que de l’IWPC quant à la prédiction de la dose de warfarine permettant d’atteindre l’INR thérapeutique. Méthodes: Un devis de cohorte rétrospectif fut utilisé afin d’évaluer la validité des algorithmes chez 605 patients ayant débuté une thérapie de warfarine à l’Institut de Cardiologie de Montréal. Le coefficient de corrélation de Pearson ainsi que l’erreur absolue moyenne ont été utilisés pour évaluer la précision des algorithmes. L’exactitude clinique des prédictions de doses fut évaluée en calculant le nombre de patients pour qui la dose prédite était sous-estimée, idéalement estimée ou surestimée. Enfin, la régression linéaire multiple a été utilisée pour évaluer la validité d’un modèle de prédiction de doses de warfarine obtenu en ajoutant de nouvelles covariables. Résultats : L’algorithme de Gage a obtenu la proportion de variation expliquée la plus élevée (R2 ajusté = 44 %) ainsi que la plus faible erreur absolue moyenne (MAE = 1.41 ± 0.06). De plus, la comparaison des proportions de patients ayant une dose prédite à moins de 20 % de la dose observée a confirmé que l’algorithme de Gage était également le plus performant. Conclusion : Le modèle publié par Gage en 2008 est l’algorithme pharmacogénétique le plus exact dans notre population pour prédire des doses thérapeutiques de warfarine.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le présent travail porte sur ce qui détermine et garantit la valeur primaire des documents dans l’environnement numérique, notamment dans le contexte des organisations. L’écrit est-il demeuré la meilleure preuve à l’ère numérique? En quoi les conditions électroniques d’écriture, de relations entre supports et informations ont-elles changé la situation? Du « tout papier » qui fut la norme jusqu’aux années 80, les entreprises ont basculé dans une « économie mixte » où le papier et le numérique cohabitent, voire, où le numérique a entièrement supplanté le papier. Toutefois, le caractère exact de ce changement au niveau des aspects de preuve, d’authenticité, voire légaux des documents numériques semble demeurer dans le vague. En s'appuyant sur une revue de la littérature, ce travail tente de clarifier les concepts nécessaires à la garantie de la valeur primaire des documents numériques, et de les mettre en lien avec l’environnement papier, de manière à comparer les deux. Ce travail suggère que si les principes de base de l’évaluation en matière de valeur primaire s’appliquent toujours, les conceptions juridiques ont en revanche évolué pour reconnaître dans le numérique non pas un « remplaçant » de l’écrit papier, mais un équivalent fonctionnel.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les cellules souches embryonnaires (ES) sont porteuses de grands espoirs en recherche biomédicale dans le but d’apporter un traitement définitif à l’ostéoarthrose. Parce que certaines articulations des chevaux sont similaires à celles des humains, cet animal représente un modèle important dans l’évaluation de stratégies de régénération du cartilage. Cependant, pour expérimenter un traitement par les cellules ES chez le cheval, des cellules ES équines (eES) n’ont toujours pas pu être dérivées. Dans ce contexte, l’objectif principal de cette étude est de dériver des lignées de cellules eES. Le premier objectif de notre étude consiste à optimiser la technique de dérivation des cellules eES. Nous démontrons que la lignée de cellules nourricières et le stade de développement des embryons influencent l’efficacité de la technique de dérivation tandis que l’inhibition de voies de signalisation menant à la différenciation des cellules ES ne l’influence pas sous nos conditions. Le deuxième objectif de notre étude est de caractériser de façon plus approfondie les lignées de cellules eES obtenues. Nous démontrons que les cellules eES dérivées expriment autant des marqueurs associés aux cellules pluripotentes qu’aux cellules différenciées et que l’inhibition de voies de signalisation menant à la différenciation n’influence pas l’expression de ces marqueurs. Pour conclure, nous confirmons avoir dérivé des lignées de cellules semblables au cellules eES (eES-like) ne correspondant pas complètement aux critères des cellules ES.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L‟infection par le VIH-1, chez les patients, affecte principalement le système immunitaire et conduit à une destruction graduelle des lymphocytes T CD4 et, par conséquent, entraîne un état d‟immunodéficience. Cette immunodéficience permet l'établissement d‟infections opportunistes qui sont responsables de manifestations cliniques associées au Sida. Ces patients peuvent aussi développer des lymphomes, lésions du système nerveux central et une atteinte rénale. L'ampleur et la sévérité des conditions associées observées chez les patients infectés par le VIH-1 ne peuvent être imputées seulement au processus infectieux et à la déplétion des cellules T CD4+. Ceci suggère que les produits des gènes de régulation pourraient avoir des effets cytopathogènes. Cependant, les études sur la physiopathogenèse induite par le VIH ou ses différents gènes ont été difficiles à mener en raison de l'absence d'animaux de laboratoire infectés par ce virus. Ceux-ci auraient pu aider à disséquer le rôle des différents composants du génome viral et les mécanismes pathogénétiques impliqués. Pour pallier cette contrainte, nous avons produit le premier modèle de souris transgéniques pour le gène vpu. Vpu code pour une phosphoprotéine membranaire avec plusieurs fonctions connues. Elle participe au relargage des virions à la surface cellulaire, induit la dégradation des CD4, induit la régulation négative des CMH-1, augmente la susceptibilité à la mort cellulaire des lymphocytes T infectés par le VIH et favorise la réplication virale en empêchant les mécanismes antiviraux cellulaires. Dans ce travail, nous avons caractérisé pathologiquement un modèle de souris transgéniques porteuses du gène vpu du VIH-1. Nos résultats démontrent que l‟expression de vpu chez les souris transgéniques induit le développement spontané d‟une hyperplasie lymphoïde pansystémique, une splénomégalie avec une hyperplasie lymphoïde folliculaire évoluant en lésions prémalignes et malignes qui présentent certaines similarités avec la maladie de Castleman et une iv glomérulonéphrite mesangioproliférative qui rappelle certaines altérations de néphropathie associée au VIH chez les patients infectés. L‟ensemble des altérations démontre que les souris Tg/vpu développent une activation chronique et non spécifique du système immunitaire. Dans cette activation immunitaire, une dérégulation de l‟IL-6 et une hyperplasie du réseau de cellules métallophiliques pourraient être impliquées. D‟autres résultats obtenus sur les évaluations du fonctionnement du système immunitaire de la rate et du thymus mettent en évidence une susceptibilité augmentée des lymphocytes des tissus lymphoïdes aux effets apoptotiques de la dexaméthasone et des lipopolysaccharides et un retard dans le repeuplement par les cellules d‟organes lymphoïdes ainsi qu‟une réaction inflammatoire (Schwartzman) exacerbée et des anomalies dans la réaction d‟hypersensibilité retardée expérimentale. Ce modèle transgénique reproduit plusieurs anomalies rencontrées chez les patients infectés par le VIH et ouvre de nouvelles hypothèses sur la pathogenèse de l‟infection par le VIH.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire présente une étude de la morphologie de ce qui est généralement appelé le pluriel nominal du persan (parler de Téhéran) dans le cadre d’une théorie de la morphologie basée sur le mot : Whole Word Morphology, développée par Ford et Singh (1991). Ce modèle lexicaliste adopte une position plus forte que les modèles proposés par Aronoff (1976) et Anderson (1992) en n’admettant aucune opération morphologique sur des unités plus petites que le mot. Selon cette théorie, une description morphologique consiste en l’énumération des Stratégies de Formation de Mots (SFM), licencées chacunes par au moins deux paires de mots ayant la même covariation formelle et sémantique. Tous les SFM suit le même schéma. Nous avons répertorié 49 SFM regroupant les pluriels et les collectifs. Nous constatons qu’il est difficile de saisir le pluriel nominal du persan en tant que catégorie syntaxique et que les différentes « marques du pluriel » présentées dans la littérature ne constituent pas un ensemble homogène : elles partagent toutes un sens de pluralité qui cependant varie d’une interprétation référentielle à une interprétation collective non-référentielle. Cette étude vise la déscription de la compétence morphologique, ce qui ne dépend d’aucune considération extralinguistique. Nous argumentons notamment contre la dichotomie arabe/persan généralement admise dans la littérature. Nous avons également fourni des explications quant à la production des pluriels doubles et avons discuté de la variation supposée du fait d’un choix multiple de « marques du pluriel ».

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Codirecteur de recherche: Dr Sylvain Meloche

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans le domaine des neurosciences computationnelles, l'hypothèse a été émise que le système visuel, depuis la rétine et jusqu'au cortex visuel primaire au moins, ajuste continuellement un modèle probabiliste avec des variables latentes, à son flux de perceptions. Ni le modèle exact, ni la méthode exacte utilisée pour l'ajustement ne sont connus, mais les algorithmes existants qui permettent l'ajustement de tels modèles ont besoin de faire une estimation conditionnelle des variables latentes. Cela nous peut nous aider à comprendre pourquoi le système visuel pourrait ajuster un tel modèle; si le modèle est approprié, ces estimé conditionnels peuvent aussi former une excellente représentation, qui permettent d'analyser le contenu sémantique des images perçues. Le travail présenté ici utilise la performance en classification d'images (discrimination entre des types d'objets communs) comme base pour comparer des modèles du système visuel, et des algorithmes pour ajuster ces modèles (vus comme des densités de probabilité) à des images. Cette thèse (a) montre que des modèles basés sur les cellules complexes de l'aire visuelle V1 généralisent mieux à partir d'exemples d'entraînement étiquetés que les réseaux de neurones conventionnels, dont les unités cachées sont plus semblables aux cellules simples de V1; (b) présente une nouvelle interprétation des modèles du système visuels basés sur des cellules complexes, comme distributions de probabilités, ainsi que de nouveaux algorithmes pour les ajuster à des données; et (c) montre que ces modèles forment des représentations qui sont meilleures pour la classification d'images, après avoir été entraînés comme des modèles de probabilités. Deux innovations techniques additionnelles, qui ont rendu ce travail possible, sont également décrites : un algorithme de recherche aléatoire pour sélectionner des hyper-paramètres, et un compilateur pour des expressions mathématiques matricielles, qui peut optimiser ces expressions pour processeur central (CPU) et graphique (GPU).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Face aux pressions continues que subissent les systèmes de santé, de nombreuses réformes sont perpétuellement en cours pour améliorer le processus de soins et par conséquent, offrir des soins de qualité et accroître le niveau de santé des populations. Les réformes que connaissent actuellement les systèmes de santé visent à optimiser l’impact des services sur la santé de la population en introduisant le concept de la responsabilité populationnelle. Par ailleurs, il existe de plus en plus un consensus sur la nécessité d’établir une relation directe et durable entre les prestataires et la population des territoires desservies pour être en mesure de tenir compte des contextes personnels et sociaux des patients et de leurs familles et pour assurer la continuité des soins dans le temps et d’un service à l’autre. Cette thèse porte sur la Programmation régionale de services ambulatoires (PRSA) de Laval. Elle analyse cette programmation comme une solution innovatrice dans la mise en œuvre de la responsabilisation populationnelle des soins. La stratégie de recherche combine à la fois une revue intégrative de la littérature qui vise à analyser le bien-fondé de la PRSA; une étude quasi-expérimentale pour examiner ses effets; et enfin, une recherche synthétique de cas pour comprendre l’évolution de la PRSA et analyser l’institutionnalisation du changement dans les organisations de la santé. Dans le premier article, nous nous sommes employés à analyser le bien fondé c’est-à-dire la plausibilité des mécanismes causaux présumés. La PRSA est un modèle d’intégration régionale basée sur une approche populationnelle. La stratégie de réseaux intégrés de soins et de case management combinée avec une approche populationnelle telle que mise de l’avant par le PRSA sont trois éléments essentiels en faveur d’une responsabilité populationnelle des soins. À l’aide d’une revue intégrative de la littérature, nous avons démontré qu’il s’agit d’une programmation capable de consolider une intégration régionale en mettant de l’avant une approche populationnelle permettant de bien cibler les besoins des populations du territoire à desservir. Le deuxième article examine les effets populationnels de la PRSA en termes de réduction de la durée moyenne de séjour et de l’augmentation de la rétention régionale. Une approche quasi expérimentale a été utilisée. En ce qui concerne la durée moyenne de séjour, on n’observe aucune diminution pour l’asthme ni pour la démence. Par contre, il est plausible que l’implantation de la PRSA ait permis une diminution de la durée moyenne de séjour pour les maladies coronariennes, les MPOC, l’embolie pulmonaire et le cancer du sein. Pour la rétention régionale, aucun effet n’a été observé pour les MPOC, l’embolie pulmonaire et la démence. Une augmentation de la rétention régionale a été observée pour les maladies coronariennes, l’asthme et le cancer du sein. Cette augmentation pourrait être attribuée à la PRSA. Dans le troisième article, nous avons examiné les facteurs susceptibles d’expliquer l’évolution de la PRSA. En partant du point de vue des responsables de la programmation de la PRSA et les gestionnaires actuels de la programmation de services de la région de Laval, nous avons tenté de mieux cerner les facteurs qui ont provoqué la suspension du déploiement de la PRSA. Les résultats indiquent que les changements fréquents dans les structures dirigeantes du réseau de la santé ainsi que l’interférence de plusieurs autres réformes ont été un obstacle dans le maintien de la PRSA. Dans le contexte actuel des réformes en santé où l’approche de réseaux intégrés de soins et de responsabilité populationnelle sont mises de l’avant, les résultats de cette thèse apportent un éclairage certain sur l’opérationnalisation de ces orientations.