587 resultados para modèle linaire dynamique
Resumo:
Dans cette étude, la stabilité de préparations intraveineuses de cyclosporine (0.2 et 2.5 mg/mL dans NaCl 0.9% ou dextrose 5%) entreposées dans des seringues de polypropylène, des sacs de polypropylène-polyoléfine et des sacs de vinyle acétate d’éthylène a été évaluée. Une méthode HPLC indicatrice de la stabilité à base de méthanol a été développée et validée suite a des études de dégradation forcée. Les solutions évaluées ont été préparées de façon aseptique, puis entreposées à 25°C. La stabilité chimique a été évaluée par HPLC et la stabilité physique a été évaluée par inspection visuelle et aussi par diffusion dynamique de la lumière (DLS). Tous les échantillons sont demeurés stables chimiquement et physiquement dans des sacs de polypropylène-polyoléfine (>98% de cyclosporine récupérée après 14 jours). Lorsqu’entreposés dans des seringues de polypropylène, des contaminants ont été extraits des composantes de la seringue. Toutefois, aucune contamination n’a été observée après 10 min de contact entre la préparation de cyclosporine non-diluée et ces mêmes seringues. Les préparations de 2.5 mg/mL entreposées dans des sacs de vinyle acétate d’éthylène sont demeurés stables chimiquement et physiquement (>98% de cyclosporine récupérée après 14 jours). Toutefois, une adsorption significative a été observée avec les échantillons 0.2 mg/mL entreposés dans des sacs de vinyle acétate d’éthylène (<90% de cyclosporine récupéré après 14 jours). Une étude cinétique a démontré une bonne corrélation linéaire entre la quantité adsorbée et la racine carrée du temps de contact (r2 > 0.97). Un nouveou modèle de diffusion a été établi. En conclusion, les sacs de polypropylène-polyoléfine sont le meilleur choix; les seringues de polypropylène présentent un risque de contamination, mais sont acceptables pour un transfert rapide. Les sacs de vinyle acétate d’éthylène ne peuvent être recommandés à cause d’un problème d’adsorption.
Resumo:
Thèse de doctorat effectuée en cotutelle au Département d’administration de la santé Faculté de médecine, Université de Montréal et à l’École doctorale Biologie-Santé Faculté de médecine, Université de Nantes, France
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
Pour nombre de raisons, souvent liées à la nature sui generis de la construction européenne elle même, l'observateur extérieur qui tente de discerner l'action extérieure de l'UE ne peut être indifférent à cette dialectique qui la constamment caractérise. En effet, cinquante ans depuis sa création, il est frappant que de constater à quel point l'action extérieure de l'UE a été construite aux confins d'une dynamique aussi complexe qu'incertaine. D'une part, portée par son élan intégrateur, l'action extérieure de l'UE doit composer à la fois avec la résistance des États membres à renoncer à leurs compétences dans un domaine régalien par excellence que constitue la politique étrangère, et avec le besoin pressant pour l'UE de s'affirmer sur la scène internationale en tant qu'acteur global. D'autre part, guidée par l'impératif de la cohésion/cohérence, l'action extérieure de l'UE doit renouer avec l'efficacité afin de donner sens à sa raison d'être et, par là même, à rendre la voix de l'UE identifiable et audible.
Resumo:
Cette recherche témoigne d'une démarche de recherche-action-participative réalisée auprès d'enfants ayant vécu la perte d'un parent. Elle vise à comprendre l'expérience vécue par les enfants endeuillés d'un parent qui participent à un groupe d'intervention axé sur le modèle de l'aide mutuelle. La réalisation d'une entrevue pré-intervention et une autre post-intervention donnent accès aux perceptions des enfants concernant leur expérience d'endeuillé quant à leurs besoins, mais aussi à leur interprétation de leur réalité. Aussi, l'intervention de groupe utilisée comme méthode d’intervention, et comme méthode de collecte de données reflète la dynamique d'aide mutuelle et son influence sur le vécu des membres autant sur le plan émotif que sur le plan des stratégies adaptatives. Bref, cette recherche en service social, alliant les savoirs pratiques et ceux théoriques, permet de reconnaître que l’aide mutuelle soutient les enfants dans leur réalité d’endeuillés et met aussi l’accent sur le caractère unique de leur deuil respectif.
Resumo:
Ce mémoire de maîtrise a été accompli simultanément à des études à temps plein en droit.
Resumo:
L’examen de la rétine par des moyens non invasifs et in vivo a été un objectif de recherche pendant plusieurs années. Pour l’œil comme pour tous les organes du corps humain, un apport soutenu en oxygène est nécessaire pour le maintien de l’homéostasie. La concentration en oxygène du sang des vaisseaux rétiniens peut être déterminée principalement à partir des mesures du spectre de réflexion du fond de l’œil. En envoyant une lumière, à différentes longueurs d’onde, sur la rétine et en analysant la nature de la lumière réfléchie par la rétine, il est possible d’obtenir des informations quantitatives sur le niveau d'oxygène dans les vaisseaux sanguins de la rétine ou sur le flux sanguin. Cependant, la modélisation est compliquée due aux différentes interactions et aux chemins que la lumière prend à travers les tissus oculaires avant de quitter l’œil. L’objectif de cette thèse a été de développer et de valider un modèle mathématique afin de calculer les dérivées d’hémoglobine à partir de mesures spectrales de réflectométrie sur les vaisseaux sanguins de la rétine. L’instrument utilisé pour mesurer la fonction spectrale de réflectométrie a été un spectroréflectomètre multi-canal, une technologie capable de mesurer in vivo et en continu 800 spectres simultanément. L'équation mathématique qui décrit la fonction spectrale de réflectométrie dans la zone spectrale de 480 nm à 650 nm a été exprimée comme la combinaison linéaire de plusieurs termes représentant les signatures spectrales de l'hémoglobine SHb, de l'oxyhémoglobine SOHB, l’absorption et la diffusion des milieux oculaires et une famille de fonctions multigaussiennes utilisées pour compenser l’incompatibilité du modèle et les données expérimentales dans la zone rouge du spectre. Les résultats du modèle révèlent que le signal spectral obtenu à partir de mesures de réflectométrie dans l’œil est complexe, contenant la lumière absorbée, réfléchie et diffusée, mais chacun avec une certaine prédominance spécifique en fonction de la zone spectrale. La fonction spectrale d’absorption du sang est dominante dans la zone spectrale 520 à 580 nm, tandis que dans la zone spectrale de longueurs d’ondes plus grandes que 590 nm, la diffusion sur les cellules rouges du sang est dominante. Le modèle a été utilisé afin de mesurer la concentration d’oxygène dans les capillaires de la tête du nerf optique suite à un effort physique dynamique. L’effort physique a entraîné une réduction de la concentration d’oxygène dans les capillaires, ainsi qu’une réduction de la pression intraoculaire, tandis que la saturation sanguine en oxygène, mesurée au niveau du doigt, restait constante. Le modèle mathématique développé dans ce projet a ainsi permis, avec la technique novatrice de spectroréflectométrie multicanal, de déterminer in vivo et d’une manière non invasive l’oxygénation sanguine des vaisseaux rétiniens.
Resumo:
Mesures effectuées dans le laboratoire de caractérisation optique des semi-conducteurs du Prof. Richard Leonelli du département de physique de l'université de Montréal. Les nanofils d'InGaN/GaN ont été fournis par le groupe du Prof. Zetian Mi du département de génie électrique et informatique de l'université McGill.
Resumo:
Les sélénoprotéines sont des protéines auxquelles des sélénocystéines, soit le 21e acide aminé, sont incorporées durant leur traduction. Plus précisément, la sélénocystéine (Sec) est un dérivé métabolique de la sérine, mais structurellement équivalent à une cystéine dont on a remplacé l'atome de soufre par du sélénium. Elle se distingue des autres acides aminés puisqu’elle possède sa propre synthétase qui sert à convertir la sérine en Sec alors que le résidu est déjà fixé à l’ARNt. La position d’une Sec sur l’ARNm est indiquée par le codon UGA étant habituellement un signal STOP introduisant le concept de recoding. Grâce à une machinerie métabolique spécifique à l'ARNtSec et à la présence d’un SecIS (Selenocystein Insertion Sequence) sur l’ARNm, ce codon permet la présence d'une Sec dans la protéine. Il est connu que la synthèse débute avec l’acétylation de l’ARNt[Ser]Sec par la seryl-ARNt synthétase (SerRS) afin de donner la seryl-ARNt[Ser]Sec. Cette dernière est subséquemment phosphorylée par l’O-phosphoséryl-ARNt[Ser]Sec kinase (PSTK) qui donnera l’O-phosphoséryl-ARNt[Ser]Sec. Par la suite, un complexe de plusieurs protéines et cofacteurs, agissant comme machinerie pour l’incorporation des Sec durant la traduction, s’associe avec l’ARNt[Ser]Sec puis l’ARNm et, finalement, les composantes du ribosome. Parmi ces protéines, SepSecS catalyse l’étape finale de la synthèse des Sec en convertissant le O-phosphoseryl-ARNt[Ser]Sec en selenocysteinyl-ARNt[Ser]Sec utilisant le sélénophosphate comme source de sélénium. Des études récentes montrent que l’association avec SECp43 serait nécessaire pour que SepSecS joue son rôle et soit ségrégée au noyau pour s’associer à la machinerie de biosynthèse des sélénoprotéines, soit le complexe moléculaire qui reconnaît le codon UGA. Parmi les protéines de la machinerie de biosynthèse des sélénoprotéines que nous avons analysées, il y a eEFSec, RPL30, SPS2, SPS1, SBP2 et NSEP1. Nos résultats d’analyse de la dynamique de l’interaction entre les constituants de la machinerie de biosynthèse et d’incorporation des Sec, confirment plusieurs données de la littérature, mais remettent en question le modèle jusqu’à maintenant établi. Une meilleure compréhension de la dynamique des interactions entre ses constituants et la régulation de cette dynamique permet d’émettre des hypothèses quant au rôle de la machinerie de biosynthèse des sélénoprotéines et de l’importance de sa complexité. Nous avons analysé les interactions in vivo dans des cellules HEK293T au moyen de la technique de Protein-Fragment Complementation Assay (PCA) en couplant, par un clonage moléculaire, les gènes de chacune des protéines d’intérêt avec des fragments des gènes de la protéine luciférase (hRluc). Nous avons ainsi réalisé une fusion en N-terminal et en C-terminal des fragments de luciférase pour chacune des protéines d’intérêt. Puis, nous avons analysé la dynamique des interactions avec les composantes de la machinerie de biosynthèse des Sec. D’autres travaux seront essentiels afin de bâtir sur les résultats présentés dans cette recherche.
Resumo:
Les objets d’étude de cette thèse sont les systèmes d’équations quasilinéaires du premier ordre. Dans une première partie, on fait une analyse du point de vue du groupe de Lie classique des symétries ponctuelles d’un modèle de la plasticité idéale. Les écoulements planaires dans les cas stationnaire et non-stationnaire sont étudiés. Deux nouveaux champs de vecteurs ont été obtenus, complétant ainsi l’algèbre de Lie du cas stationnaire dont les sous-algèbres sont classifiées en classes de conjugaison sous l’action du groupe. Dans le cas non-stationnaire, une classification des algèbres de Lie admissibles selon la force choisie est effectuée. Pour chaque type de force, les champs de vecteurs sont présentés. L’algèbre ayant la dimension la plus élevée possible a été obtenues en considérant les forces monogéniques et elle a été classifiée en classes de conjugaison. La méthode de réduction par symétrie est appliquée pour obtenir des solutions explicites et implicites de plusieurs types parmi lesquelles certaines s’expriment en termes d’une ou deux fonctions arbitraires d’une variable et d’autres en termes de fonctions elliptiques de Jacobi. Plusieurs solutions sont interprétées physiquement pour en déduire la forme de filières d’extrusion réalisables. Dans la seconde partie, on s’intéresse aux solutions s’exprimant en fonction d’invariants de Riemann pour les systèmes quasilinéaires du premier ordre. La méthode des caractéristiques généralisées ainsi qu’une méthode basée sur les symétries conditionnelles pour les invariants de Riemann sont étendues pour être applicables à des systèmes dans leurs régions elliptiques. Leur applicabilité est démontrée par des exemples de la plasticité idéale non-stationnaire pour un flot irrotationnel ainsi que les équations de la mécanique des fluides. Une nouvelle approche basée sur l’introduction de matrices de rotation satisfaisant certaines conditions algébriques est développée. Elle est applicable directement à des systèmes non-homogènes et non-autonomes sans avoir besoin de transformations préalables. Son efficacité est illustrée par des exemples comprenant un système qui régit l’interaction non-linéaire d’ondes et de particules. La solution générale est construite de façon explicite.
Resumo:
La fibrillation auriculaire (FA) est la forme d’arythmie la plus fréquente et représente environ un tiers des hospitalisations attribuables aux troubles du rythme cardiaque. Les mécanismes d’initiation et de maintenance de la FA sont complexes et multiples. Parmi ceux-ci, une contribution du système nerveux autonome a été identifiée mais son rôle exact demeure mal compris. Ce travail cible l’étude de la modulation induite par l’acétylcholine (ACh) sur l’initiation et le maintien de la FA, en utilisant un modèle de tissu bidimensionnel. La propagation de l’influx électrique sur ce tissu est décrite par une équation réaction-diffusion non-linéaire résolue sur un maillage rectangulaire avec une méthode de différences finies, et la cinétique d'ACh suit une évolution temporelle prédéfinie qui correspond à l’activation du système parasympathique. Plus de 4400 simulations ont été réalisées sur la base de 4 épisodes d’arythmies, 5 tailles différentes de région modulée par l’ACh, 10 concentrations d’ACh et 22 constantes de temps de libération et de dégradation d’ACh. La complexité de la dynamique des réentrées est décrite en fonction de la constante de temps qui représente le taux de variation d’ACh. Les résultats obtenus suggèrent que la stimulation vagale peut mener soit à une dynamique plus complexe des réentrées soit à l’arrêt de la FA en fonction des quatre paramètres étudiés. Ils démontrent qu’une décharge vagale rapide, représentée par des constantes de temps faibles combinées à une quantité suffisamment grande d’ACh, a une forte probabilité de briser la réentrée primaire provoquant une activité fibrillatoire. Cette activité est caractérisée par la création de plusieurs ondelettes à partir d’un rotor primaire sous l’effet de l’hétérogénéité du gradient de repolarisation causé par l’activité autonomique.
Resumo:
Le travail de modélisation a été réalisé à travers EGSnrc, un logiciel développé par le Conseil National de Recherche Canada.
Resumo:
L'élastographie ultrasonore est une technique d'imagerie émergente destinée à cartographier les paramètres mécaniques des tissus biologiques, permettant ainsi d’obtenir des informations diagnostiques additionnelles pertinentes. La méthode peut ainsi être perçue comme une extension quantitative et objective de l'examen palpatoire. Diverses techniques élastographiques ont ainsi été proposées pour l'étude d'organes tels que le foie, le sein et la prostate et. L'ensemble des méthodes proposées ont en commun une succession de trois étapes bien définies: l'excitation mécanique (statique ou dynamique) de l'organe, la mesure des déplacements induits (réponse au stimulus), puis enfin, l'étape dite d'inversion, qui permet la quantification des paramètres mécaniques, via un modèle théorique préétabli. Parallèlement à la diversification des champs d'applications accessibles à l'élastographie, de nombreux efforts sont faits afin d'améliorer la précision ainsi que la robustesse des méthodes dites d'inversion. Cette thèse regroupe un ensemble de travaux théoriques et expérimentaux destinés à la validation de nouvelles méthodes d'inversion dédiées à l'étude de milieux mécaniquement inhomogènes. Ainsi, dans le contexte du diagnostic du cancer du sein, une tumeur peut être perçue comme une hétérogénéité mécanique confinée, ou inclusion, affectant la propagation d'ondes de cisaillement (stimulus dynamique). Le premier objectif de cette thèse consiste à formuler un modèle théorique capable de prédire l'interaction des ondes de cisaillement induites avec une tumeur, dont la géométrie est modélisée par une ellipse. Après validation du modèle proposé, un problème inverse est formulé permettant la quantification des paramètres viscoélastiques de l'inclusion elliptique. Dans la continuité de cet objectif, l'approche a été étendue au cas d'une hétérogénéité mécanique tridimensionnelle et sphérique avec, comme objectifs additionnels, l'applicabilité aux mesures ultrasonores par force de radiation, mais aussi à l'estimation du comportement rhéologique de l'inclusion (i.e., la variation des paramètres mécaniques avec la fréquence d'excitation). Enfin, dans le cadre de l'étude des propriétés mécaniques du sang lors de la coagulation, une approche spécifique découlant de précédents travaux réalisés au sein de notre laboratoire est proposée. Celle-ci consiste à estimer la viscoélasticité du caillot sanguin via le phénomène de résonance mécanique, ici induit par force de radiation ultrasonore. La méthode, dénommée ARFIRE (''Acoustic Radiation Force Induced Resonance Elastography'') est appliquée à l'étude de la coagulation de sang humain complet chez des sujets sains et sa reproductibilité est évaluée.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Si l’approche par compétences au Canada et aux États-Unis est particulièrement valorisée pour orienter la pratique des professionnels de la santé (PDS) – et en bioéthique clinique –, les travaux permettant de mieux comprendre les fondements psychologiques, ontologiques et philosophiques de ces compétences sont peu présents dans la littérature en bioéthique. Les principaux outils actuellement disponibles se divisent généralement en quatre principales catégories : 1) les documents officiels (codes de déontologie, règlements institutionnels, etc.); 2) les principales théories éthiques (éthique de la discussion, éthique de la vertu, principisme, etc.); 3) les ouvrages de référence scientifiques; 4) les outils de prise de décision éthique. Ces documents sont des incontournables pour les bioéthiciens et les PDS, mais leur disparité, voire leur contenu parfois contradictoire, jumelée à une compréhension limitée de l’éthique, est souvent source de confusion dans les processus décisionnels et peut être la cause de comportements ne répondant pas aux standards éthiques des pratiques professionnelles. Notre recherche constitue une réflexion qui s’inscrit en amont de ces outils dont le caractère pragmatique a le désavantage de simplifier la réflexion théorique au profit de données plus concrètes. Nos travaux visent à développer les bases d’un modèle flexible et inclusif – le modèle de la déontologie réflexive (MDR) – permettant de : 1) poser les principaux repères philosophiques, sociaux et déontologiques des problématiques éthiques rencontrées en pratique; 2) saisir les principales tensions éthiques inhérentes à cette complexité; 3) mieux comprendre, dans une perspective psychologique et développementale, les exigences personnelles et professionnelles qu’impose le statut de professionnel de la santé dans le contexte actuel des soins de santé. Entreprise théorique, ce projet consiste principalement à mettre en relation dynamique un ensemble de dimensions (légale, éthique, clinique, sociale, psychologique) à l’oeuvre dans la rencontre du bioéthicien et du PDS avec la complexité des situations éthiques, en s’inspirant du concept de sensibilité éthique de la « petite éthique » de Paul Ricoeur (1990), du modèle des quatre composantes de Rest (1994) et de la théorie du soi et des modes identitaires d’Augusto Blasi (1993). Ce processus implique trois étapes successives : 1) une mise en ii perspective de la posture épistémologique particulière du bioéthicien et du PDS à la lumière de la « petite éthique » de Ricoeur; 2) une revue de la littérature interdisciplinaire sur le concept de sensibilité éthique afin d’en proposer une définition et de le mettre en perspective avec d’autres compétences éthiques; 3) le développement d’un cadre de référence en matière d’identité éthique professionnelle (professional ethics identity tendencies, PEIT), inspiré de la théorie du soi et des modes identitaires de Blasi. Ces PEIT proposent un repère normatif aux exigences liées à la construction de l'identité en contexte de pratique des PDS et suggèrent des pistes de réflexion quant à la formation et à la recherche en éthique professionnelle. Cette recherche souhaite établir des fondements théoriques pour le développement ultérieur du modèle de la déontologie réflexive (MDR).