994 resultados para Trouble de la personnalité limite
Resumo:
Introduction : Les personnes ayant eu un accident vasculaire cérébral léger (AVCL) sont autonomes pour l’accomplissement des activités de la vie quotidienne de base, mais peuvent présenter des déficits subtils pour l’accomplissement d’activités complexes qui ne sont pas dépistés durant l’hospitalisation. Le retour à domicile parmi les proches est souvent le moment où certaines difficultés apparaissent. L’objectif de cette étude est d’explorer la perception des proches de leur qualité de vie, trois mois après le retour à domicile de la personne ayant eu l’AVCL. Méthodologie : Cette étude qualitative repose sur un paradigme constructiviste. Des entrevues individuelles semi-dirigées ont été menées à l’aide d’un guide d’entrevue, auprès de proches de personnes ayant eu un premier AVCL trois mois auparavant. Une transcription du contenu des entrevues a été faite sous forme de verbatim, suivie d’une analyse de contenu. Résultats : Huit entrevues ont été complétées (âge moyen 56,9 ans – ratio hommes/femmes de 2/6). Six thèmes ont été identifiés : personne ayant eu l’AVCL, vie quotidienne, relation conjugale, récidive, santé et services. L’AVCL engendre plusieurs incapacités (personne ayant eu l’AVCL) et les proches interrogés rapportent une augmentation de leurs tâches quotidiennes ce qui limite leurs activités personnelles (vie quotidienne). Ils mentionnent également devoir passer du rôle de conjoint à celui de parent, ce qui modifie la dynamique de couple (relation conjugale). Les proches se disent anxieux face au risque de récidive (récidive) et certains présentent des malaises physiques comme des maux de tête et un manque d’énergie (santé). Les proches affirment n’avoir accès à aucun service et que le seul soutien dont ils bénéficie est celui de leur entourage (services). Conclusion : Le retour à domicile de la personne AVCL engendre diverses conséquences sur le quotidien des proches, ce qui affecte leur qualité de vie.
Resumo:
Les mouches, Sodome et Gomorrhe et Caligula présentent des divinités parodiant et critiquant les dirigeants politiques de l’Occupation (1940-1944), ainsi que l’usage par les dictateurs des idéologies religieuses traditionnelles dans le but de soumettre l’humanité à des régimes totalitaires. Divinités théâtrales autrefois infaillibles et toutes-puissantes, les figures analysées dans ce mémoire relèvent des remises en question de la divinité et du pouvoir politique du XXe siècle. Notre mémoire comporte trois chapitres examinant les discours de ces figures de la divinité sous des angles dramaturgique, sémiologique, philosophique et pragmatique avec comme point de départ l’hypothèse suivante : tout porte à croire qu’en limitant l’emprise de divinités fictives, et ce, en grande partie à travers les failles dans leurs discours, Sartre, Giraudoux et Camus ont tenté de neutraliser les discours correspondants d’hommes réels dans la conscience collective de l’époque. Les auteurs étudiés ont profondément modifié l’image traditionnelle de la divinité théâtrale en minant sa force langagière et en s’interrogeant sur son identité. Les divinités choisies pour cette étude annoncent la décomposition du personnage ayant lieu après 1950 : elles ont un statut dévalorisé de même qu’un langage à la force perlocutoire diminuée. Sans véritable emprise sur l’humanité, dépendant du théâtre, des simulacres, de l’histrionisme, ainsi que des faiblesses humaines, ces divinités caricaturales s’exposent à compromettre leurs régimes et sont réduites à une influence fortement limitée par la liberté des hommes. En actualisant ces mythes et récits ainsi, Sartre, Giraudoux et Camus ont tenté de discréditer, par extension, les dirigeants européens de l’époque.
Resumo:
Un déficit de la cognition sociale incluant l’attribution d’états mentaux, la perception sociale et la perception des émotions est l’une des caractéristiques les plus handicapantes de la schizophrénie. Les résultats d’une étude par Hardy-Baylé et al. (2003) suggèrent que les difficultés des schizophrènes (SZ) à attribuer des intentions aux autres seraient dues à l’incapacité à utiliser l’information contextuelle. Certaines études (Ivanko & Pexman, 2003; Pexman & Olineck, 2002b) démontrent que des facteurs comme le degré d’incongruité entre le contexte et l’énoncé, l’intonation de la voix et les caractéristiques des personnages peuvent influencer la compréhension de l’intention ironique chez les sujets sains (CT). L’objectif de cette étude est de manipuler des informations contextuelles afin de déterminer si le type de métier du locuteur est un indice social facilitant la compréhension de l’intention du locuteur (théorie de l’esprit ; TdE) et de la perception sociale chez les patients SZ. Trente participants SZ appariés avec trente participants CT ont été recrutés. Ils ont été évalués sur la compréhension de l’ironie et sur la mémoire de travail. Les histoires étaient développées selon deux conditions de métier: un métier favorisant la compréhension de l’ironie (e.g. comédien) et un métier ne favorisant pas la compréhension de l’ironie (e.g. prêtre). Les résultats montrent que les patients SZ ont un trouble de TdE et ils ne semblent pas sensibles aux stéréotypes contrairement aux participants CT. Toutefois, les résultats indiquent que les participants SZ n’ont pas de déficit concernant la perception sociale.
Resumo:
Le neurofeedback (NF) suscite actuellement un vif intérêt dans la prise en charge du trouble déficitaire de l’attention avec hyperactivité (TDAH) chez l’enfant. Proposée comme méthode alternative à la médication par de nombreux cliniciens, notamment aux États-Unis, le NF est une intervention non-invasive de type électrophysiologique qui repose sur l’apprentissage par conditionnement opérant de l’autorégulation d’ondes cérébrales déviantes. Les études empiriques qui étayent cette pratique font toutefois l’objet de virulentes critiques de la part de spécialistes dans le domaine du TDAH en raison de résultats systématiquement positifs mais non spécifiques, auxquels s’ajoutent de nombreuses lacunes méthodologiques. Les travaux de cette thèse visent à appliquer une méthodologie stricte de type essai clinique contrôlé avec assignation aléatoire afin d’isoler les effets particuliers du NF, en appliquant un protocole d’entraînement propre au déficit primaire sous-tendant le TDAH, soit l’inhibition motrice, dans le but d’évaluer la spécificité de cette intervention. Dans un premier temps, les connaissances relatives à la nosologie du TDAH, à ses principaux traitements, au NF et aux capacités d’inhibition chez l’enfant ayant un TDAH sont présentées (Chapitre 1). Ensuite, les études réalisées dans le cadre de cette thèse sont exposées. Dans l’étude initiale, la spécificité du NF est évaluée sur les capacités d’inhibition grâce à des mesures subjectives, soit des questionnaires de comportements complétés par les parents, ainsi que des mesures objectives, à savoir des tâches neuropsychologiques (Chapitre 2). Afin de préciser davantage les conséquences d’un entraînement à l’autorégulation d’ondes cérébrales, l’étude subséquente s’est intéressée à l’impact neurophysiologiques de l’amélioration des capacités d’inhibition, par le biais d’une étude en potentiels évoqués employant une tâche de performance continue de type Stop-signal (Chapitre 3). Les principaux résultats reflètent un recrutement sous optimal, avec une puissance statistique insuffisante pour réaliser des statistiques quantitatives de groupe. Néanmoins, l’appréciation des données selon une approche d’étude de cas multiples permet de mettre en évidence la présence d’une réponse placebo sur les capacités d’inhibition suite à un entraînement en NF. Finalement, les implications de la taille de l’échantillon, ainsi que les limites et les critiques de ces études sont discutées au Chapitre 4.
Resumo:
L’effort physique a été reconnu comme l’un des déterminants majeurs qui affecte l’absorption pulmonaire et la cinétique des solvants industriels, composés volatils très répandus dans le milieu de travail. L’objectif global de ce projet était de caractériser la relation entre divers niveaux de charge de travail et les concentrations biologiques de l’acétone et du styrène ou de ses métabolites utilisés comme des indicateurs biologiques de l’exposition (IBEs) à ces solvants. Des modèles pharmacocinétiques à base physiologique ont été développés et validés afin de reproduire une exposition professionnelle à l’acétone et au styrène, individuellement et en combinaison, durant une semaine complète de travail (8h/jour, 5 jours). Les simulations ont été effectuées suivant une exposition aux valeurs limite d’exposition (500 ppm et 20 ppm, respectivement) et à des charges de travail de 12,5 W (repos), 25 W et 50 W. Les valeurs prédites par les modèles ont été comparées aux valeurs de référence des IBEs actuels. Le niveau d’acétone dans l’urine obtenu à la fin du dernier quart de travail était 3,5 fois supérieur à la valeur au repos (28 mg/L) pour un effort de 50 W, tandis que les niveaux de styrène dans le sang veineux et de ses métabolites dans l’urine ont augmenté d’un facteur d’environ 3,0 en comparaison avec les valeurs au repos, respectivement de 0,17 mg/L et 144 mg/g créatinine. Pour une co-exposition à des concentrations de 20 ppm de styrène et 200 ppm d’acétone et à une activité physique de 50 W, les simulations ont montré une augmentation de 10% du styrène sanguin et une faible diminution de ses métabolites dans l’urine. Les valeurs simulées par les modèles pour l’acétone ou le styrène montrent que des travailleurs dont la charge de travail équivaut à plus de 25 W sont susceptibles d’avoir des concentrations internes pouvant dépasser les valeurs de référence des IBEs respectifs de ces solvants et peuvent être à risque. Les résultats soulignent ainsi l’importance de tenir compte de la charge de travail dans la détermination d’une valeur de référence pour la surveillance biologique de l’acétone et du styrène.
Resumo:
Un nouveau contrôleur de EMCCD (Electron multiplying Charge Coupled Device) est présenté. Il permet de diminuer significativement le bruit qui domine lorsque la puce EMCCD est utilisé pour du comptage de photons: le bruit d'injection de charge. À l'aide de ce contrôleur, une caméra EMCCD scientifique a été construite, caractérisée en laboratoire et testée à l'observatoire du mont Mégantic. Cette nouvelle caméra permet, entre autres, de réaliser des observations de la cinématique des galaxies par spectroscopie de champ intégral par interférométrie de Fabry-Perot en lumière Ha beaucoup plus rapidement, ou de galaxies de plus faible luminosité, que les caméras à comptage de photon basées sur des tubes amplificateurs. Le temps d'intégration nécessaire à l'obtention d'un rapport signal sur bruit donné est environ 4 fois moindre qu'avec les anciennes caméras. Les applications d'un tel appareil d'imagerie sont nombreuses: photométrie rapide et faible flux, spectroscopie à haute résolution spectrale et temporelle, imagerie limitée par la diffraction à partir de télescopes terrestres (lucky imaging), etc. D'un point de vue technique, la caméra est dominée par le bruit de Poisson pour les flux lumineux supérieurs à 0.002 photon/pixel/image. D'un autre côté, la raie d'hydrogène neutre (HI) à 21 cm a souvent été utilisée pour étudier la cinématique des galaxies. L'hydrogène neutre a l'avantage de se retrouver en quantité détectable au-delà du disque optique des galaxies. Cependant, la résolution spatiale de ces observations est moindre que leurs équivalents réalisés en lumière visible. Lors de la comparaison des données HI, avec des données à plus haute résolution, certaines différences étaient simplement attribuées à la faible résolution des observations HI. Le projet THINGS (The HI Nearby Galaxy Survey a observé plusieurs galaxies de l'échantillon SINGS (Spitzer Infrared Nearby Galaxies Survey). Les données cinématiques du projet THIGNS seront comparées aux données cinématiques obtenues en lumière Ha, afin de déterminer si la seule différence de résolution spatiale peut expliquer les différences observées. Les résultats montrent que des différences intrinsèques aux traceurs utilisées (hydrogène neutre ou ionisé), sont responsables de dissemblances importantes. La compréhension de ces particularités est importante: la distribution de la matière sombre, dérivée de la rotation des galaxies, est un test de certains modèles cosmologiques.
Resumo:
Si le dogme libéral a longtemps mis en avant la nécessité d’un interventionnisme restreint de l’autorité publique définissant post hoc le droit idéal comme un droit absent, cette idéologie semble être amenée à évoluer. Alors que le marché a longtemps été placé comme matrice de la civilisation et que ce phénomène a donné une place essentielle à la finance, différentes initiatives réglementaires françaises, européennes et mondiales remettent en cause ce paradigme et tentent d’encadrer les dérives du capitalisme contemporain axé sur un courttermisme à outrance et une irresponsabilité grandissante. La rémunération variable des opérateurs de marché (les fameux « bonus ») illustre ce phénomène de reflux du droit, un droit qui témoigne d’une collaboration entre acteurs publics et acteurs privés. Toutefois, ce nouveau paysage juridique n’est pas sans critiques. En effet, cette intervention se révèle trop limitée en l’état pour atteindre les ambitions que l’Etat français et ses homologues ne cessent de clamer : l’institution d’un pacte mondial à long terme.
Resumo:
Selon plusieurs auteurs, l’intelligence générale et les traits de personnalité sont des construits fondamentaux nécessaires à l’adaptation psychosociale des individus. Bien que plusieurs études menées à partir d’échantillons d’adultes aient démontré des liens significatifs entre ces deux construits, peu d’entre elles ont tenté de vérifier si ces relations pouvaient être observées aussi chez les adolescents. De plus, un nombre très restreint d’études ont étudié la question de savoir si les relations entre l’intelligence générale et les traits de personnalité étaient significatives de façon prospective avec un intervalle de temps entre les évaluations. Enfin, les études disponibles ne permettent pas de déterminer si les relations entre l’intelligence générale et les traits de personnalité sont différentes selon le sexe. La présente étude visait à combler ces vides. Les objectifs étaient, d’une part, de déterminer s’il existe des relations prédictives concurrentes et prospectives entre l’intelligence générale et les traits de personnalité chez les adolescents et, d’autre part, de vérifier si ces relations sont différentes entre les garçons et les filles. Les données utilisées proviennent de l’étude longitudinale de la Stratégie d’intervention agir autrement (SIAA). Un large échantillon d’adolescents évalués une première fois en secondaire un et réévalués à nouveau quatre ans plus tard en secondaire cinq a été employé. À la première vague de collecte de données, seule l’intelligence générale a été évaluée, tandis qu’à la deuxième vague, autant l’intelligence générale que les traits de personnalité l’ont été. La modélisation par équations structurales sur des variables latentes a été utilisée pour tester les différentes hypothèses de recherche. Les résultats ont démontré que, sur le plan concurrent, l’intelligence générale et tous les traits de personnalité considérés sont reliés significativement de façon positive, ce qui va partiellement à l’encontre des données obtenues à partir des échantillons d’adultes. Sur le plan prospectif, les résultats ont confirmé que les corrélations diminuent avec le temps, et ce, pour presque tous les traits étudiés. Finalement, les modèles d’équations structurales multi-groupes ont confirmé la présence de différences significatives entre les garçons et les filles pour certains traits de personnalité. Dans l’ensemble, bien que plusieurs résultats de la présente étude obtenus à partir d’un échantillon d’adolescents soient conformes à ceux observés auprès d’échantillons d’adultes, certaines différences intéressantes sont observées.
Resumo:
Il est rapporté que la biodisponibilité orale de l’amoxicilline chez le porc est environ trois fois moindre que chez l’homme. Pour élucider les raisons de cette différence, la pharmacocinétique artérielle, veineuse porte et urinaire de cet antibiotique a été caractérisée à des doses intragastriques de 4 à 30 mg/kg et différents modèles compartimentaux physiologiques ont été conçus pour l’analyse des données. La biodisponibilité orale de l’amoxicilline est maximale à 4 mg/kg, avec une valeur moyenne de 52%. Les différences porto-systémiques de concentrations plasmatiques d’amoxicilline et la clairance urinaire ont permis de démontrer une augmentation de la clairance hépatique jusqu’à la dose de 30 mg/kg. Un modèle compartimental comprenant deux voies parallèles d’absorption (de type Michaelis- Menten d’accessibilité limitée dans le temps et d’ordre 1), deux compartiments de distribution (central et périphérique) deux voies d’élimination (excrétions urinaire et biliaire) est celui qui prédit le mieux les données observées. Ces résultats mettent en évidence le rôle prépondérant du transporteur saturable PepT1 dans l’absorption orale de l’amoxicilline administrée à faible dose, ainsi que l’importance croissante de l’absorption passive lors d’administration à forte dose.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation
Resumo:
La cartographie peptidique est une méthode qui permet entre autre d’identifier les modifications post-traductionnelles des protéines. Elle comprend trois étapes : 1) la protéolyse enzymatique, 2) la séparation par électrophorèse capillaire (CE) ou chromatographie en phase liquide à haute performance (HPLC) des fragments peptidiques et 3) l’identification de ces derniers. Cette dernière étape peut se faire par des méthodes photométriques ou par spectrométrie de masse (MS). Au cours de la dernière décennie, les enzymes protéolytiques immobilisées ont acquis une grande popularité parce qu’elles peuvent être réutilisées et permettent une digestion rapide des protéines due à un rapport élevé d’enzyme/substrat. Pour étudier les nouvelles techniques d’immobilisation qui ont été développées dans le laboratoire du Professeur Waldron, la cartographie peptidique par CE est souvent utilisée pour déterminer le nombre total de peptides détectés et leurs abondances. La CE nous permet d’avoir des séparations très efficaces et lorsque couplée à la fluorescence induite par laser (LIF), elle donne des limites de détection qui sont 1000 fois plus basses que celles obtenues avec l’absorbance UV-Vis. Dans la méthode typique, les peptides venant de l’étape 1) sont marqués avec un fluorophore avant l’analyse par CE-LIF. Bien que la sensibilité de détection LIF puisse approcher 10-12 M pour un fluorophore, la réaction de marquage nécessite un analyte dont la concentration est d’au moins 10-7 M, ce qui représente son principal désavantage. Donc, il n’est pas facile d’étudier les enzymes des peptides dérivés après la protéolyse en utilisant la technique CE-LIF si la concentration du substrat protéique initial est inférieure à 10-7 M. Ceci est attribué à la dilution supplémentaire lors de la protéolyse. Alors, afin d’utiliser le CE-LIF pour évaluer l’efficacité de la digestion par enzyme immobilisée à faible concentration de substrat,nous proposons d’utiliser des substrats protéiques marqués de fluorophores pouvant être purifiés et dilués. Trois méthodes de marquage fluorescent de protéine sont décrites dans ce mémoire pour étudier les enzymes solubles et immobilisées. Les fluorophores étudiés pour le marquage de protéine standard incluent le naphtalène-2,3-dicarboxaldéhyde (NDA), la fluorescéine-5-isothiocyanate (FITC) et l’ester de 6-carboxyfluorescéine N-succinimidyl (FAMSE). Le FAMSE est un excellent réactif puisqu’il se conjugue rapidement avec les amines primaires des peptides. Aussi, le substrat marqué est stable dans le temps. Les protéines étudiées étaient l’-lactalbumine (LACT), l’anhydrase carbonique (CA) et l’insuline chaîne B (INB). Les protéines sont digérées à l’aide de la trypsine (T), la chymotrypsine (CT) ou la pepsine (PEP) dans leurs formes solubles ou insolubles. La forme soluble est plus active que celle immobilisée. Cela nous a permis de vérifier que les protéines marquées sont encore reconnues par chaque enzyme. Nous avons comparé les digestions des protéines par différentes enzymes telles la chymotrypsine libre (i.e., soluble), la chymotrypsine immobilisée (i.e., insoluble) par réticulation avec le glutaraldéhyde (GACT) et la chymotrypsine immobilisée sur billes d’agarose en gel (GELCT). Cette dernière était disponible sur le marché. Selon la chymotrypsine utilisée, nos études ont démontré que les cartes peptidiques avaient des différences significatives selon le nombre de pics et leurs intensités correspondantes. De plus, ces études nous ont permis de constater que les digestions effectuées avec l’enzyme immobilisée avaient une bonne reproductibilité. Plusieurs paramètres quantitatifs ont été étudiés afin d’évaluer l’efficacité des méthodes développées. La limite de détection par CE-LIF obtenue était de 3,010-10 M (S/N = 2,7) pour la CA-FAM digérée par GACT et de 2,010-10 M (S/N = 4,3) pour la CA-FAM digérée par la chymotrypsine libre. Nos études ont aussi démontrées que la courbe d’étalonnage était linéaire dans la région de travail (1,0×10-9-1,0×10-6 M) avec un coefficient de corrélation (R2) de 0,9991.
Resumo:
Cet article évalue, du point de vue moral, les justifications possibles pour le recours à la taxation en vue de promouvoir des comportements « sains ». L’objectif est de démontrer qu’un tel instrument recevrait une meilleure justification, c’est-à-dire plus en accord avec des principes égalitariens respectueux de la liberté individuelle, s’ils s’inscrivaient dans une logique de mutualisation. Pour ce faire, les arguments du bien-être individuel et de l’efficience sociale sont discutés afin d’en pointer les fécondités et limites. Au travers de leurs limites, ces arguments introduisent naturellement à une troisième manière d’appréhender le problème, sous l’angle de la mutualisation. Ce principe représente moins une remise en cause radicale des arguments précédents qu’une reformulation du recours à l’efficience sociale et une limitation du champ d’application des appels au bien-être individuel. Il repose sur deux idées. La première est que la référence à une notion de responsabilité, même affadie, est nécessaire. De plus, celle-ci doit être conçue comme partagée entre producteurs et consommateurs ainsi que limitée au domaine financier. La seconde est que la mutualisation ne peut être déconnectée d’intuitions égalitariennes formulées de manière générale.
Resumo:
La psychoéducation de même que plusieurs approches théoriques en psychologie clinique suggèrent que l’intervenant constitue un élément actif fondamental des interventions auprès des individus en difficulté. Parmi l’ensemble des caractéristiques des intervenants qui sont utiles de considérer, les attitudes et préférences éducatives des intervenants apparaissent importantes puisqu’elles peuvent être reliées à un bon appariement avec un milieu d’intervention donné, au sentiment d’efficacité professionnelle et, ultimement, à l’efficacité d’une intervention. Or, très peu d’instruments psychométriques d’évaluation validés existent pour évaluer ces construits importants. Cette étude visait principalement à effectuer un examen préliminaire des propriétés psychométriques de la version française du Questionnaire d’attitudes et de préférences des intervenants (QAPÉI; Jesness & Wedge, 1983; Le Blanc, Trudeau-Le Blanc, & Lanctôt, 1999). Le premier objectif de la présente étude était d’évaluer si la structure théorique originale était reproductible empiriquement ou si une structure factorielle alternative était nécessaire. Le deuxième objectif était d’évaluer si les attitudes et préférences éducatives des intervenants étaient reliées à leurs traits de personnalité. L’échantillon utilisé était composé d’intervenants faisant partie de Boscoville2000, un projet d’intervention cognitive-comportementale en milieu résidentiel pour les adolescents en difficulté. Des analyses factorielles exploratoires ont démontré que la structure théorique originale n’était pas reproduite empiriquement. Une structure alternative en cinq facteurs a été recouvrée. Cette structure alternative était plus cohérente sur le plan conceptuel et démontrait une bonne adéquation aux données. Les facteurs identifiés ont été nommés Distance affective, Évitement thérapeutique, Exaspération, Permissivité et Coercition. Des analyses corrélationnelles ont démontré que ces échelles d’attitudes et de préférences éducatives étaient reliées de façon conceptuellement cohérente aux traits de personnalité des intervenants, ce qui appuie la validité de critère de la nouvelle structure de l’instrument.
Resumo:
La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.
Resumo:
Le décrochage scolaire des adolescents est un phénomène alarmant qui occasionne de multiples conséquences négatives, tant pour le jeune que pour la société. Des recherches empiriques ont soulevé l’importance de considérer les décrocheurs comme un groupe aux profils hétérogènes. En conséquence, quelques chercheurs ont proposé des typologies des décrocheurs scolaires à l’adolescence, dont Janosz (1994; Janosz, Le Blanc, Boulerice, & Tremblay 2000). À partir de trois indicateurs de l’adaptation scolaire des adolescents (engagement scolaire, indiscipline scolaire et performance scolaire), Janosz et ses collègues ont identifié quatre types de décrocheurs scolaires potentiels, soient les Discrets, les Désengagés, les Sous-performants et les Inadaptés. Les études prédictives conduites jusqu’à maintenant ont permis de déterminer que les différents types proposés par cette typologie se distinguent sur différents facteurs de risque du décrochage d’ordre individuel et environnemental. Toutefois, il n’est pas connu si ces types de décrocheurs potentiels se distinguent des adolescents non à risque de décrocher sur un facteur important, soit les traits de personnalité. Cette étude visait donc à évaluer si les traits de personnalité des adolescents (Ouverture, Extraversion, Contrôle, Amabilité et Stabilité émotionnelle) permettaient de prédire l’appartenance aux quatre types de décrocheurs potentiels proposés par Janosz et ses collègues (2000), en contrôlant l’effet de plusieurs autres facteurs de risque classique du décrochage. Les données provenaient de l’étude Stratégie d’Intervention Agir Autrement (SIAA), qui compte plus de 40 000 adolescents provenant de 69 écoles secondaires au Québec. L’échantillon qui a été utilisé dans cette étude (N = 4980) était composé d’élèves de 14 à 16 ans évalués en 2006-2007. Les adolescents ont rempli des questionnaires en groupe durant une période de classe. Différents modèles de régression logistique multinomiale contrôlant pour la nature hiérarchique des données ont confirmé que les traits de personnalité ont prédit l’appartenance à différents types de décrocheurs, et ce, au-delà de l’effet de plusieurs facteurs de risque classiques du décrochage scolaire. Ces résultats suggèrent que les théories du décrochage scolaire pourraient intégrer les traits de personnalité et que ces derniers pourraient être utilisés pour le dépistage des adolescents à risque de décrochage.