1000 resultados para évaluation des risques
Resumo:
Détecter et comprendre les formes de criminalité, notamment organisées, qui sont impliquées dans la fabrication, la diffusion et/ou l'utilisation de faux documents d'identité est un enjeu complexe et persistant, mais est une nécessité pour soutenir l'action de la sécurité et l'étude des phénomènes criminels. A cet égard, il est postulé qu'une approche traçologique s'appuyant sur un profilage systématique des caractéristiques matérielles des faux documents d'identité peut fournir des renseignements criminels originaux, utiles et pertinents. Une méthode générale a été développée pour extraire, mémoriser et comparer systématiquement les profils des faux documents d'identité saisis par les acteurs de la sécurité. Cette méthode permet de détecter et de suivre les relations entre cas, les tendances et patterns criminels, dont l'interprétation au travers de différentes formes d'analyse permet la mise en évidence de potentiels groupes criminels, d'auteurs prolifiques et de <i>modus operandi</i> récurrents. Par l'étude de centaines de faux documents d'identité saisis par la police et les garde-frontière dans deux pays distincts, cet article démontre comment le renseignement forensique peut soutenir la génération et l'étude d'hypothèses sur la criminalité, aidant par-là la compréhension des marchés et réseaux criminels sur les plans stratégique, opérationnel et tactique. L'article illustre également comment le renseignement forensique peut soutenir des mesures préventives et peut contribuer à l'analyse des risques que posent les faux documents d'identité, voire à la remise en cause de la stratégie sécuritaire et de contrôle actuelle. L'approche proposée présente un carctère essentiellement générique puisque, à l'instar de l'exemple des faux documents d'identité, n'importe quel type de trace matérielle peut être traité systématiquement et scientifiquement de sorte à contribuer à la construction structurée de connaissances sur la criminalité et la sécurité.
Resumo:
Le management des risques dans les institutions psychiatriques représente aujourd'hui un challenge majeur pour les cliniciens, les administrateurs et les décideurs politiques. Il pose la question de la formation des équipes au management de la violence et de l'évaluation des patients dans la clinique quotidienne. Cet article fait le lien entre une étude, menée sur un an dans une institution psychiatrique et un modèle de management des risques, le modèle cindynique. Les résultats doivent interroger sur les représentations du phénomène de violence par les différents acteurs, l'appropriation par les équipes d'outils d'évaluation de la dangerosité et sur la communication dans l'équipe pluridisciplinaire et avec le patient.
Resumo:
Ce travail de recherche vise à explorer le lien entre l'interprétation des mécanismes de défense, élément fondamental de la technique psychanalytique, et l'alliance thérapeutique. Il a été démontré que celle-ci est un prédicteur robuste des résultats en psychothérapie, indépendamment des modalités de traitement et des types de patients. Dans la littérature, quelques liens positifs ont déjà pu être établis entre l'interprétation en général et le développement de l'alliance thérapeutique en psychothérapie psychanalytique. Nous avons choisi de regarder de plus près quelle forme peut prendre ce lien et quelle peut être la valeur de l'interprétation lors des processus de fluctuation de l'alliance thérapeutique qui sont conceptualisés comme séquences de rupture et de résolution de l'alliance. Nous nous sommes particulièrement intéressés aux effets de la concentration des interventions du thérapeute sur l'interprétation des mécanismes de défense déployés par le patient à ces moments-là. Nous avons choisi des patients (n=17) en traitement psychodynamique dans lequel l'alliance thérapeutique, mesurée après chaque séance au moyen de l'Echelle d'alliance aidante (Haq), montrait une séquence de rupture et résolution. Deux séances « contrôle » (5ème et 15èm<>) ont également été sélectionnées. Les interventions du thérapeute ont été examinées et qualifiées à l'aide du 'Psychodynamic Intervention Rating Scale' et de l'Echelle d'évaluation des mécanismes de défense afin d'identifier parmi elles celles qui portaient sur l'interprétation des mécanismes de défense. Nous n'avons pas trouvé de différences significatives entre les séances de rupture, les séances de résolution et les séances de contrôle en ce qui concerne la fréquence relative des trois grandes catégories d'interventions thérapeutiques, à savoir l'interprétation, le soutien et la définition du cadre. Par contre, comparées aux séances de contrôle, les séances de rupture de l'alliance thérapeutique étaient caractérisées par moins d'interprétations des défenses et particulièrement des défenses « intermédiaires » (essentiellement névrotiques). Les séances de résolution de l'alliance thérapeutique étaient caractérisées par la présence de plus d'interprétations des défenses « intermédiaires ». Ces résultats soutiennent l'hypothèse de l'existence d'un lien entre des éléments spécifiques de la technique utilisés dans le travail clinique et le processus de l'alliance thérapeutique en psychothérapie psychodynamique. Sur la base de la littérature on peut considérer que, en partie au moins, une interprétation précise et faite au moment opportun peut avoir un effet favorable sur l'alliance thérapeutique. Nos résultats indiquent que c'est la concentration des interprétations sur les mécanismes de défense (par rapport à d'autres éléments, comme les pulsions ou l'affect) qui est la plus succeptible d'être associée au développement de l'alliance. Ceci est en accord avec une longue tradition en psvchothérapie psychanalytique qui considère que la mise à jour des motions refoulées est principalement realisée au moyen de la défaite des résistances. Viser en particulier les défenses "intermédiaires" dans ce type de travail peut être vu comme un moyen de réengager le patient dans le processus d'exploration commune auquel les défenses de ce niveau peuvent faire obstacle.
Resumo:
Dans un contexte en constante évolution, l'élaboration, la mise en oeuvre et l'évaluation des politiques publiques de biodiversité nécessitent d'anticiper les changements futurs possibles afin de pouvoir se préparer à temps. Or les informations concernant ces changements sont nombreuses et les enjeux qui pourraient s'avérer importants à l'avenir sont souvent peu visibles. Pour répondre à ce défi, une expertise multi-acteurs et multidisciplinaire s'inspirant des démarches d'horizon scanning et intitulée BioPIQue 2013 a permis d'identifier 25 questions émergentes, dont 10 questions stratégiques, pour les politiques publiques de biodiversité en France métropolitaine d'ici à 2020. Ces questions émergentes sont autant d'opportunités et de risques que l'ensemble es acteurs qui souhaitent avancer vers une plus grande prise en compte des enjeux de biodiversité peuvent saisir.
Resumo:
Les voies veineuses centrales (VVC) sont essentielles pour l'administration de la nutrition parentérale. Le risque de complications est dépendant de la qualité des soins apportés à la VVC qui influence de ce fait la qualité de vie des patients et le coût des soins. Beaucoup de complications des VVC, infectieuses ou non, peuvent être prévenues par l'existence de protocoles de soins appropriés et standardisés. L'information sur les soins des VVC et les éventuelles complications est essentielle pour le dépistage et le traitement précoce de ces complications ; elle doit faire l'objet de protocoles partagés entre les patients et les soignants. Cet article décrit une évaluation des pratiques professionnelles sous la forme d'un audit clinique destiné à améliorer la qualité de soins des patients en nutrition parentérale porteurs de VVC. Central venous access devices (CVAD) are essential for the administration of parenteral nutrition. The quality of the care of CVAD influences the risk of complications and so the quality of life of the patients and the costs of care. Numerous infectious or non-infectious complications of CVAD can be prevented by appropriate, standardized protocols of care. Information about the care of CVAD and complications is essential for the early recognition and treatment of complications and should be shared between patients and caregivers. This article describes an audit for CAVD care that can be used to improve quality of care in a professional practice evaluation program.
Resumo:
L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.
Resumo:
La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.
Financement et mode d'organisation des hôpitaux suisses : revue du recueil législatif de 1991 à 2009
Resumo:
Le financement des établissements de soins a connu dans le courant de l'année 2007 d'importants changements législatifs. De l'introduction de la tarification à l'activité sur la base des diagnostic-related groups (DRG) à la mise en concurrence directe des hôpitaux, qu'ils appartiennent au secteur public ou au secteur privé, de l'ingérence de la Confédération dans la planification hospitalière (jusque là domaine réservé des Cantons) à la mise au premier plan des critères de qualité dans l'évaluation des établissements hospitaliers, les exemples ne manquent pas pour illustrer le changement conceptuel auquel nous assistons. L'auteur de ces lignes, privilégiant l'approche historique à l'approche normative, s'est demandé quels étaient les prémices de ce changement législatif et s'est confronté aux différents textes qui ont émaillé les débats de ces vingt dernières années, qu'ils émanent du pouvoir exécutif (messages aux chambres fédérales, ordonnances d'application) ou du pouvoir législatif (textes de loi) afin d'en dégager la cohérence politique. Ce mémoire suit donc une ligne strictement chronologique. Il s'inspire des différents travaux parlementaires. A la lecture de ces textes, il apparaît que, pour les parlementaires, la question du financement des hôpitaux n'est qu'une partie, parfois essentielle, parfois accessoire, selon les époques et l'amplitude du champ d'application du document législatif, du financement des soins par l'assurance-maladie. Les grands principes qui régissent l'assurance-maladie s'appliquent donc nécessairement au financement des hôpitaux. Pour cette raison, il est apparu judicieux à l'auteur de ces lignes de ne pas séparer les deux problèmes et de se plonger dans un premier temps dans les débats qui ont eu cours lors de l'adoption de la nouvelle loi sur l'assurance-maladie (LAMaI) en 1994. [Auteur, p. 5]
Resumo:
In this paper, we characterize the asymmetries of the smile through multiple leverage effects in a stochastic dynamic asset pricing framework. The dependence between price movements and future volatility is introduced through a set of latent state variables. These latent variables can capture not only the volatility risk and the interest rate risk which potentially affect option prices, but also any kind of correlation risk and jump risk. The standard financial leverage effect is produced by a cross-correlation effect between the state variables which enter into the stochastic volatility process of the stock price and the stock price process itself. However, we provide a more general framework where asymmetric implied volatility curves result from any source of instantaneous correlation between the state variables and either the return on the stock or the stochastic discount factor. In order to draw the shapes of the implied volatility curves generated by a model with latent variables, we specify an equilibrium-based stochastic discount factor with time non-separable preferences. When we calibrate this model to empirically reasonable values of the parameters, we are able to reproduce the various types of implied volatility curves inferred from option market data.
Resumo:
Un résumé en anglais est également disponible.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maîtrise en droit international (LL.M)"
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maîtrise en droit (LL.M.)"
Resumo:
Les maladies cardiovasculaires (MCV) sont la principale cause de décès dans les pays occidentaux et constituent la principale complication associée au diabète. La lipoprotéine lipase (LPL) est une enzyme clé du métabolisme des lipides et est responsable de l'hydrolyse des lipoprotéines riches en triglycérides (TG). Plusieurs études ont démontré que la LPL sécrétée par les macrophages dans la paroi artérielle est pro-athérogénique. La dysfonction endothéliale caractérise les stades précoces du processus athérosclérotique. Il a été observé qu’un récepteur nouvellement identifié des lipoprotéines de basse densité oxydées (LDLox), le récepteur de type lectine des LDLox (LOX-1), est fortement exprimé dans les lésions athérosclérotiques humaines et dans l’aorte de rats diabétiques, suggérant un rôle clé de LOX-1 dans la pathogénèse de l’athérosclérose diabétique. Au vu du rôle potentiel de la LPL macrophagique et du LOX-1 dans l’athérosclérose associée au diabète de type 2, nous avons évalué la régulation de ces deux molécules pro-athérogéniques par des facteurs métaboliques et inflammatoires augmentés dans le diabète, soit la leptine, l’acide linoléique (LA) et la protéine C-réactive (CRP). Nos résultats démontrent que : 1) Dans les cellules endothéliales aortiques humaines (HAECs), LA augmente l’expression protéique de LOX-1 de façon temps- et dose-dépendante; 2) La pré-incubation de HAECs avec des antioxydants et des inhibiteurs de la NADPH oxydase, de la protéine kinase C (PKC) et du facteur nucléaire-kappa B (NF-kB), inhibe l’effet stimulant de LA sur l’expression protéique de LOX-1; 3) Dans les HAECs traitées avec LA, on observe une augmentation d’expression des isoformes classiques de la PKC; 4) LA augmente de manière significative l’expression génique de LOX-1 ainsi que la liaison des protéines nucléaires extraites des HAECs à la séquence régulatrice NF-kB présente dans le promoteur du gène de LOX-1; 5) LA augmente, via LOX-1, la captation des LDLox par les cellules endothéliales. Pris dans leur ensemble, ces résultats démontrent que LA augmente l’expression endothéliale de LOX-1 in vitro et appuient le rôle clé de LA dans la dysfonction endothéliale associée au diabète. Au vu de nos études antérieures démontrant qu’une expression accrue de LPL macrophagique chez les patients diabétiques de type 2 et que l’augmentation de facteurs métaboliques dans cette maladie, soit l’homocystéine (Hcys), les acides gras et les produits terminaux de glycation (AGE), accroissent l’expression de la LPL macrophagique, nous avons par la suite déterminé l’effet, in vitro, de deux autres facteurs métaboliques et inflammatoires surexprimés dans le diabète, soit la leptine et la CRP, sur l’expression de la LPL macrophagique. Les concentrations plasmatiques de leptine sont élevées chez les patients diabétiques et sont associées à un accroissement des risques cardiovasculaires. Nous avons démontré que : 1) Dans les macrophages humains, la leptine augmente l’expression de la LPL, tant au niveau génique que protéique; 2) L’effet stimulant de la leptine sur la LPL est aboli par la pré-incubation avec un anticorps dirigé contre les récepteurs à la leptine (Ob-R), des inhibiteurs de la PKC et des antioxydants; 3) La leptine augmente l’expression membranaire des isoformes classiques de la PKC et la diminution de l’expression endogène de la PKC, abolit l’effet de la leptine sur l’expression de la LPL macrophagique; 4) Dans les macrophages murins, la leptine augmente le taux de synthèse de la LPL et augmente la liaison de protéines nucléaires à la séquence protéine activée-1 (AP-1) du promoteur du gène de la LPL. Ces observations supportent la possibilité que la leptine puisse représenter un facteur stimulant de la LPL macrophagique dans le diabète. Finalement, nous avons déterminé, in vitro, l’effet de la CRP sur l’expression de la LPL macrophagique. La CRP est une molécule inflammatoire et un puissant prédicteur d’événements cardiovasculaires. Des concentrations élevées de CRP sérique sont documentées chez les patients diabétiques de type 2. Nous avons démontré que : 1) Dans les macrophages humains, la CRP augmente l’expression de la LPL au niveau génique et protéique et la liaison de la CRP aux récepteurs CD32 est nécessaire pour médier ses effets; 2) La pré-incubation de macrophages humains avec des antioxydants, des inhibiteurs de la PKC et de la protéine kinase mitogénique activée (MAPK), prévient l’induction de la LPL par la CRP; 3) La CRP augmente l’activité de la LPL, la génération intracellulaire d’espèces radicalaires oxygénées (ROS), l’expression d’isoformes classiques de la PKC et la phosphorylation des kinases extracellulaires régulées 1/2 (ERK 1/2); 4) Les macrophages murins traités avec la CRP démontrent une augmentation de la liaison des protéines nucléaires à la séquence AP-1 du promoteur du gène de la LPL. Ces données suggèrent que la LPL puisse représenter un nouveau facteur médiant les effets délétères de la CRP dans la vasculopathie diabétique. Dans l’ensemble nos études démontrent le rôle clé de facteurs métaboliques et inflammatoires dans la régulation vasculaire de la LPL et du LOX-1 dans le diabète. Nos données suggèrent que la LPL et le LOX-1 puissent représenter des contributeurs clé de l’athérogénèse accélérée associée au diabète chez l’humain. Mots-clés : athérosclérose, maladies cardiovasculaires, diabète de type 2, macrophage, LPL, cellules endothéliales, LOX-1, stress oxydatif, leptine, LA, CRP.