960 resultados para Valeur de Shapley
Resumo:
La thèse a été réalisée en cotutelle avec l'Université Paul Céazanne (Aix Marseille III).
Resumo:
Les Hells Angels (HA) sont un groupe de motards qui surprennent par leur longévité. Implantés dans la province en 1977, ils sont toujours présents et actifs. Pourtant, ils ont évolué dans un contexte où les risques endogènes et exogènes furent croissants : conflits internes chez les motards, hostilités et rivalités inter groupes, opérations policières, incarcérations massives et changements législatifs sont autant d’obstacles qui se sont dressés devant eux. Que signifie être un motard et comment sont-ils demeurés résilients? Bien que différentes forces matérielles et organisationnelles aident les HA à surmonter les difficultés, nous avançons que l’élément clé de cette continuité réside dans leur réputation. En ce sens, nous adhérons à la thèse de Gambetta (2009) qui affirme que la persistance de la croyance en l’immortalité de la mafia provoque un phénomène de self-fulfilling prophecy qui rend l’organisation effectivement résiliente. Cet argument est ici appliqué aux Hells du Québec. Des entrevues auprès de motards incarcérés et non incarcérés, de délinquants non motards et de membres du personnel du Service correctionnel du Canada, ont permis de constater que l’étiquette de « Hells Angels » influence la vie des individus qui la portent. Les résultats supportent l’hypothèse que la réputation d’être une organisation dangereuse offre au groupe une valeur économique et symbolique. Néanmoins, la réputation des Hells Angels engendre des aspects négatifs pour les individus qui endossent ce nom. Il devient intéressant de comprendre l’impact d’une telle étiquette à travers différentes phases d’une carrière collective.
Resumo:
Les projets interdisciplinaires constituent rarement le terrain des études sur le processus de conception en design. Les théories générales du design, en tentant de définir ce qui est commun à toutes les disciplines du design, ont davantage étudié les cas typiques que les cas atypiques. Or, nous croyons qu’il existe dans les projets interdisciplinaires une négociation argumentative et une ouverture vers l’autre, propice à l’analyse du processus de conception en design. Pour réaliser l’étude de ce processus, la stratégie empruntée a été la «recherche-projet» qui propose une participation active sur le terrain. À l’intérieur de cette stratégie méthodologique, nous avons réalisé l’étude de cas d’un projet hybride, une signalétique identitaire destinée à marquer les écocentres montréalais et orienter leurs usagers. Comme plusieurs autres pratiques du design, la complexité des projets interdisciplinaires demande l’apport de plusieurs acteurs dans le processus. Ces personnes conçoivent le projet à travers des représentations visuelles et des échanges verbaux, nous avons choisi de faire porter notre étude principalement sur le second. Pour ce faire, nous avons choisi comme cadre théorique le Traité de l’argumentation de Chaïm Perelman et Lucie Olbrechts-Tyteca en nous intéressant plus spécifiquement aux concepts d’«accord» et d’«auditoire». Parce que le véhicule de l’action en design est la notion de «projet», l’Anthropologie du projet de Jean-Pierre Boutinet sera notre guide à travers cette conduite. L’objet de recherche de ce mémoire sera donc le processus de conception en design qui sera étudié à travers le regard de l’argumentation. L’argumentation s'est révélée la clé du problème que posent les jugements de valeur, commune à toutes les disciplines du design. Qu’est-ce qu’un «bon» projet réalisé? Est-il possible de répondre à cette question, sans tomber dans un cadre argumentatif, sans devoir révéler les arguments qui nous permettent de croire vraisemblable une telle proposition? C’est en mettant en lien la théorie du projet en design et la théorie de l’argumentation que nous avons éclairé la pratique du designer, sa relation à ses collègues et ultimement avec lui-même. L’argumentation s’est avérée un outil permettant la construction de la réalité dans le projet interdisciplinaire.
Resumo:
Peu de personnes se rappellent de la présence de la France en Inde. Quelques parties de l’Inde sont restées françaises jusqu’en 1954. À cette date, l’Inde française, consistant de quatre petits établissements (Pondichéry, Yanaon, Karikal et Mahé), était en pleine décadence et éclipsée par d’autres colonies françaises, plus grandes, plus lucratives et plus importantes pour la Métropole. L’Indochine et l’Algérie ne sont que deux exemples. Toutefois, les Français n’étaient pas disposés à abandonner leurs possessions en Inde sans résistance. Le présent mémoire cherche à expliquer la valeur des possessions françaises en Inde et les raisons de la fin de la tutelle française. Le titre du mémoire indique qu’un certain changement a eu lieu dans la politique française vis-à-vis de ses possessions en Inde. L’étude commence par un résumé de la situation politique et économique de l’Inde française depuis la fin de la dernière occupation anglaise en 1814 jusqu’à la fin de la Première Guerre mondiale. L’année 1920 est choisie comme point de départ de la période visée par le mémoire. Portant sur les années 1920, le premier chapitre examine l’hégémonie du parti Gaebelé qui a eu toutes les caractéristiques d’une dictature. Indifférentes à la vie politique de l’Inde française, les autorités métropolitaines étaient surtout attirées par le commerce que la colonie offrait dans la production de tissus et l’exportation d’arachides. Après la chute du parti Gaebelé, l’Inde française a été plongée dans une longue période d’agitation, un thème clé du deuxième chapitre sur les années 1930. Inconscientes de la réalité politique, les autorités métropolitaines ont toujours accordé la priorité au commerce. Durant les années 1940, l’Inde française n’a jamais arrêté de se rapprocher de l’Inde britannique. Ce rapprochement a aussi persisté lorsque l’Inde britannique est devenue l’Union indienne en 1947. Soudainement, les Français ont senti le besoin de réaffirmer leur position d’autorité en Inde française. Le commerce est passé au second plan au profit d’une série de réformes politiques. Toutefois, ce brusque changement de politique fut trop tardif. Le quatrième chapitre, centré surtout sur la période de 1950 à 1954 et vu à travers l’exemple d’Édouard Goubert, a souligné la méconnaissance des autorités métropolitaines des réalités qui confrontaient l’Inde française. Lorsque Goubert a cessé de servir comme porte-parole et principal allié du gouvernement français en Inde, les possessions françaises en Inde furent rattachées une par une à l’Union indienne. Rétrospectivement, les faits économiques, vitaux pour le début du mémoire, sont quasiment absents de deux derniers chapitres. Se retrouvant face à la menace de perdre leurs possessions en Inde, les Français ont compris que l’Inde française était précieuse pour des raisons autres que le commerce. Un accent particulier fut mis pour souligner ces avantages culturels et politiques. De petite taille, les possessions françaises étaient importantes pour l’ordre et la stabilité dans les autres colonies de l’Empire. Parallèlement, elles représentaient des points d’appui pour l’expansion de la culture française dans l’immense sous-continent indien.
Resumo:
La thèse vise à analyser la structure des échanges transnationaux de cocaïne, d’héroïne et de marijuana. Partant de la perspective des systèmes-mondes, l’hypothèse que le trafic de drogues forme un système inverse au commerce légal est développée. Les outils de l’analyse de réseaux sont appliqués aux échanges de drogues entre pays. La thèse s’appuie sur deux sources de données complémentaires. La première est une banque d’informations uniques compilées par l’United Nations Office on Drugs and Crime (UNODC) sur les saisies d’importance effectuées dans le monde entre 1998 et 2007 (n = 47629). Ces données sont complétées par les informations contenues dans une dizaine de rapports publiés par des organismes internationaux de surveillance du trafic de drogues. Les réseaux d’échanges dirigés construits à partir de ces données permettent d’examiner l’étendue du trafic entre la plupart des pays du monde et de qualifier leur implication individuelle. Les chapitres 3 et 4 portent sur la structure du trafic elle-même. Dans un premier temps, les différents rôles joués par les pays et les caractéristiques des trois marchés de drogues sont comparés. Les quantités en circulation et les taux d’interception sont estimés pour les 16 régions géographiques définies par l’UNODC. Dans un deuxième temps, leurs caractéristiques structurelles sont comparées à celles des marchés légaux. Il en ressort que les marchés de drogues sont beaucoup moins denses et que les pays périphériques y jouent un rôle plus prononcé. L’inégalité des échanges caractérise les deux économies, mais leurs structures sont inversées. Le chapitre 5 propose une analyse de la principale source de risque pour les trafiquants, les saisies de drogues. Les données compilées permettent de démontrer que les saisies policières de drogues agrégées au niveau des pays sont principalement indicatrices du volume de trafic. L’éventuel biais lié aux pressions policières est négligeable pour les quantités saisies, mais plus prononcé pour le nombre de saisies. Les organismes de contrôle seraient donc plus à même de moduler leurs activités que les retombées éventuelles. Les résultats suggèrent aussi que les trafiquants adoptent des stratégies diverses pour limiter les pertes liées aux saisies. Le chapitre 6 s’attarde à l’impact de la structure sur le prix et la valeur des drogues. Le prix de gros varie considérablement d’un pays à l’autre et d’une drogue à l’autre. Ces variations s’expliquent par les contraintes auxquelles font face les trafiquants dans le cadre de leurs activités. D’une part, la valeur des drogues augmente plus rapidement lorsqu’elles sont destinées à des pays où les risques et les coûts d’importation sont élevés. D’autre part, la majoration des prix est plus prononcée lorsque les échanges sont dirigés vers des pays du cœur de l’économie légale. De nouveau, les rôles sont inversés : les pays généralement avantagés dépendent des plus désavantagés, et les pays pauvres en profitent pour exploiter les riches.
Resumo:
L'attaque de retransmission sélective est une menace sérieuse dans les réseaux de capteurs sans fil (WSN), en particulier dans les systèmes de surveillance. Les noeuds peuvent supprimer de manière malicieuse certains paquets de données sensibles, ce qui risque de détruire la valeur des données assemblées dans le réseau et de diminuer la disponibilité des services des capteurs. Nous présentons un système de sécurité léger basé sur l'envoi de faux rapports pour identifier les attaques de retransmission sélective après avoir montré les inconvénients des systèmes existants. Le grand avantage de notre approche est que la station de base attend une séquence de faux paquets à un moment précis sans avoir communiqué avec les noeuds du réseau. Par conséquent, elle sera capable de détecter une perte de paquets. L'analyse théorique montre que le système proposé peut identifier ce type d'attaque et peut alors améliorer la robustesse du réseau dans des conditions d'un bon compromis entre la fiabilité de la sécurité et le coût de transmission. Notre système peut atteindre un taux de réussite élevé d‟identification face à un grand nombre de noeuds malicieux, tandis que le coût de transmission peut être contrôlé dans des limites raisonnables.
Resumo:
Ce mémoire est consacré au problème de la place de l’herméneutique dans l’œuvre d’Emmanuel Levinas. Au premier abord, l’œuvre semble présenter une forte ambivalence quant à la valeur que le philosophe accorde aux catégories herméneutiques. D’abord, dans les œuvres proprement philosophiques, Levinas présente une critique sévère de la compréhension dans laquelle il décèle un geste de totalisation et d’appropriation du sens contre lequel il élèvera une pensée de l’éthique comme « philosophie première ». D’autre part, un autre pan du corpus levinassien, celui des Lectures talmudiques, est consacré au déploiement d’une herméneutique des textes religieux de la tradition juive où Levinas fait puissamment intervenir les catégories éthiques propres à sa philosophie au sein de son activité exégétique. L’un des paradoxes intéressants que nous présente donc l’œuvre levinassienne est celui d’une philosophie s’érigeant en bonne partie sur une critique de la catégorie centrale de l’herméneutique, la compréhension, et qui ne se décline pas moins elle-même en une théorie de l’interprétation des textes. Afin de résoudre ce paradoxe, il nous faut d’abord exposer la critique de la compréhension qui est consubstantielle au projet philosophique de Levinas. En nous appuyant sur quelques textes centraux de son œuvre, nous expliciterons à la fois le déficit éthique de la compréhension que pointe Levinas et les possibilités de sens au nom desquelles cette critique s’accomplit. Nous verrons ainsi ce qui conduit Levinas à suggérer qu’autrui, en son visage, témoigne d’un sens qui ferait exception à la structure gnoséologique du sensé que suppose l’herméneutique. Dans un deuxième temps, nous tenterons de cerner les raisons qui peuvent légitiment conduire Levinas à faire usage, dans le contexte de son herméneutique talmudique, des « concepts » nés de sa critique de la compréhension. L’étude du rapport entre éthique et herméneutique, entre texte et visage, nous conduira à identifier le principe directeur de l’herméneutique levinassienne et à articuler la façon dont il se rattache à l’éthique du visage. Finalement, nous tenterons de faire valoir la pertinence philosophique de l’herméneutique levinassienne en étudiant la manière dont elle peut rendre compte de phénomènes fondamentaux liés à l’interprétation des textes.
Resumo:
L’aphasie est un trouble acquis du langage entraînant des problèmes de communication pouvant toucher la compréhension et/ou l’expression. Lorsque l’aphasie fait suite à un accident vasculaire cérébral, une régression des déficits communicatifs s'observe initialement, mais elle peut demeurer sévère pour certains et est considérée chronique après un an. Par ailleurs, l’aphasie peut aussi être observée dans l’aphasie progressive primaire, une maladie dégénérative affectant uniquement le langage dans les premières années. Un nombre grandissant d’études s’intéressent à l’impact de la thérapie dans l’aphasie chronique et ont démontré des améliorations langagières après plusieurs années. L’hémisphère gauche semble avoir un rôle crucial et est associé à de meilleures améliorations langagières, mais la compréhension des mécanismes de plasticité cérébrale est encore embryonnaire. Or, l’efficacité de la thérapie dans l’aphasie progressive primaire est peu étudiée. À l’aide de la résonance magnétique fonctionnelle, le but des présentes études consiste à examiner les mécanismes de plasticité cérébrale induits par la thérapie Semantic Feature Analysis auprès de dix personnes souffrant d’aphasie chronique et d’une personne souffrant d’aphasie progressive primaire. Les résultats suggèrent que le cerveau peut se réorganiser plusieurs années après une lésion cérébrale ainsi que dans une maladie dégénérative. Au niveau individuel, une meilleure amélioration langagière est associée au recrutement de l’hémisphère gauche ainsi qu’une concentration des activations. Les analyses de groupe mettent en évidence le recrutement du lobule pariétal inférieur gauche, alors que l’activation du gyrus précentral gauche prédit l’amélioration suite à la thérapie. D’autre part, les analyses de connectivité fonctionnelle ont permis d’identifier pour la première fois le réseau par défaut dans l’aphasie. Suite à la thérapie, l’intégration de ce réseau bien connu est comparable à celle des contrôles et les analyses de corrélation suggèrent que l’intégration du réseau par défaut a une valeur prédictive d’amélioration. Donc, les résultats de ces études appuient l’idée que l’hémisphère gauche a un rôle prépondérant dans la récupération de l’aphasie et fournissent des données probantes sur la neuroplasticité induite par une thérapie spécifique du langage dans l’aphasie. De plus, l’identification d’aires clés et de réseaux guideront de futures recherches afin d’éventuellement maximiser la récupération de l’aphasie et permettre de mieux prédire le pronostic.
Resumo:
Ces travaux visent à étendre les applications de la résonance de plasmons de surface (SPR) L’objectif est d’offrir des outils diagnostics plus rapides, efficaces et simple d’utilisation pour diagnostiquer ou effectuer le suivi de conditions cliniques. Pour se faire, un nouveau type d’instrumentation SPR basé sur l’utilisation d’un prisme d’inversion (dove) a permis d’atteindre une limite de détection (LOD) de 10-6 unité d’indice de réfraction (RIU), une valeur comparable aux instruments commerciaux complexes tout en demeurant peu dispendieux, robuste et simple d’utilisation. Les travaux présentés dans cet ouvrage visent, dans un second temps, à réduire les interactions nonspécifiques (NSB) entre la surface des biocapteurs SPR et les composants de la matrice biologique complexe telles que: l’urine, le lysat cellulaire, le sérum et le sang. Ces dernières induisent des réponses empêchant l’utilisation de biocapteurs SPR en milieux complexes. Les acides aminés (AA) offrent une grande variété de propriétés physico-chimiques permettant la mise au point de monocouches auto-assemblées (SAM) aux propriétés diverses. Initialement, 19 des 20 acides aminés naturels ont été attachés à l’acide 3-mercaptopropionique (3-MPA) formant des SAMs peptidomimétiques. La quantité d’interactions nonspécifiques engendrées par ces différentes surfaces a été mesurée en exposant ces surfaces au sérum sanguin bovin complet variant de 400 ng/cm² jusqu’à 800 ng/cm². La détection à l’aide de ces surfaces de la β-lactamase (une enzyme responsable de la résistance aux antibiotiques au niveau μM) a démontré la possibilité d’employer ces surfaces pour bâtir des biocapteurs SPR. Des peptides de longueur allant de 2 à 5 résidus attachés à 3-MPA ont été synthétisés sur support solide. Cette étude a démontré que l’augmentation de la longueur des peptides formés d’AA résistants aux NBS accroit leur résistance jusqu’à 5 résidus. Le composé le plus performant de ce type (3-MPA-(Ser)5-OH) a permis d’atteindre 180 ng/cm². Cette valeur est similaire à celle des meilleures surfaces disponibles commercialement, notamment les surfaces de polyethylène glycol (PEG) à 100 ng/cm². Des surfaces de 3-MPA-(Ser)5-OH ont permis l’étalonnage de la β-lactamase et sa quantification directe dans un lysat cellulaire. La LOD pour ces biocapteurs est de 10 nM. Une troisième génération de surfaces peptidiques binaires a permis la réduction de la NSB jusqu’à un niveau de 23±10 ng/cm² une valeur comparable aux meilleures surfaces disponibles. Ces surfaces ont permis l’étalonnage d’un indicateur potentiel du cancer la metalloprotéinase-3 de matrice (MMP-3). Les surfaces formées de peptides binaires (3-MPA-H3D2-OH) ont permis la quantification directe de la MMP-3 dans le sérum sanguin complet. Une quatrième génération de surfaces peptidiques a permis de réduire davantage le niveau de NSB jusqu’à une valeur de 12 ± 11 ng/cm². Ces surfaces ont été modifiées en y attachant une terminaison de type acide nitriloacétique (NTA) afin d’y attacher des biomolécules marquées par six résidus histidines terminaux. Ces surfaces ont permis le développement d’une méthode rapide de balayage des ligands ciblant le « cluster of differenciation-36 » (CD36). L’étude d’électroformation des monocouches de peptide a permis de déterminer les conditions de formation optimales d’une couche de 3-MPA-HHHDD-OH permettant ainsi la formation de monocouches résistantes au NSB en moins de 6 minutes en appliquant un potentiel de formation de 200mV vs Ag/AgCl.
Resumo:
Dans les sphères du développement durable, des modèles d’affaires et du design de produit, certains leviers rendent le croisement de ces trois sphères de plus en plus pertinent. Au croisement de ces trois sphères se trouve une opportunité de comprendre les relations existantes entre le design de produit et les modèles d’affaires afin d’aider les décideurs à développer des solutions davantage durables. L’approche méthodologique de cette recherche utilise un système complexe et est basée sur un paradigme pragmatique. En vue de répondre à la question « Dans quelle mesure des modèles d’affaires et le design de produit sont liés dans un contexte de développement durable? », cette recherche a soigneusement analysé trois cas: Better Place, une compagnie californienne ayant développé une infrastructure permettant le chargement des voitures électriques; Interface Inc., un manufacturier mondial de tuiles de tapis commerciales établi à Atlanta; et Métacycle, un concept d’entreprise développé par une équipe de chercheurs en design à Montréal. Chaque cas a été analysé en corrélant des aspects du design de produit à des éléments de leur modèle d’affaires. Les résultats montrent que dans le contexte du développement durable, le design de produit et les modèles d’affaires sont interdépendants. Les résultats peuvent être résumés en six points: il existe des relations applicables universellement; les innovations de design substantielles jouent un rôle important dans le développement durable; la « durabilité » peut être une qualité émergente d’un modèle d’affaires; les partenariats peuvent être vitaux pour l’intégration des systèmes; un modèle de services a des bénéfices et des limitations considérables; le design peut agir comme levier à l’utilisation d’énergies renouvelables. Pratiquer simultanément l’innovation du modèle d’affaires et du produit peut apporter une valeur ajoutée, susciter des opportunités et augmenter l’efficience sur plusieurs facettes. Toutefois, les risques et les coûts de tels procédés sont souvent très élevés. En aidant à comprendre et définir comment les trois sphères mentionnées plus tôt sont interdépendantes, cette recherche pourrait idéalement inspirer des recherches supplémentaires sur le sujet. L’application par des organisations de la méthodologie et des apprentissages résultant de cette recherche peut permettre à d’autres d’utiliser le croisement entre l’innovation de produit et l’innovation du modèle d’affaires afin de résoudre des enjeux sociaux et environnementaux complexes.
Resumo:
Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.
Resumo:
Au cours de la dernière décennie, les changements observés sur le marché amènent les organisations à améliorer leurs conditions de travail afin d’être en mesure d’attirer et de retenir des travailleurs performants. Les PRH n’y font pas exception. En effet, les PRH présentent des attentes bien précises et développent un contrat psychologique qui leur est propre. Cette recherche porte sur l’intention de quitter des PRH. Plus précisément, elle vise à identifier à travers la théorie du contrat psychologique, les conditions d’emploi et d’exercice de la profession qui, lorsqu’elles ne sont pas respectées, influencent positivement l’intention de quitter des PRH. Il ressort de nos analyses statistiques que la violation du contrat psychologique, notamment des conditions d’emploi et des conditions d’exercice de la profession, influence positivement l’intention de quitter des PRH. Nos analyses nous ont permis d’identifier les différentes conditions d’emploi et d’exercice de la profession qui ont une influence sur l’intention de quitter des PRH. En ce qui concerne les conditions d’emploi, il s’agit de celles reliées au développement de carrière, à l’atmosphère au travail et au contenu de l’emploi. Du côté des conditions d’exercice de la profession, il s’agit du rôle d’agent de changement et de partenaires d’affaires qui ont une influence positive, tandis que le rôle d’expert fonctionnel influence négativement les intentions de quitter des PRH. Nos analyses mettent en évidence l’importance du respect des conditions d’emploi comparativement à celles associées aux conditions d’exercice de la profession. En effet, on constate que les trois conditions d’emploi qui ont une influence positive sur les intentions de quitter des PRH peuvent, sans contredit, être associées au développement professionnel, une valeur importante chez les PRH.
Resumo:
La pollution microbienne des eaux récréatives peut engendrer un risque pour la santé des populations exposées. La contamination fécale de ces eaux représente une composante importante de ce risque, notamment par la présence possible d’agents pathogènes et par l’exposition à des micro-organismes résistants aux antimicrobiens. Les sources de pollution fécale sont multiples et incluent entre autres les activités agricoles et les productions animales. Ce projet visait donc à mieux comprendre les facteurs influençant la qualité microbiologique des eaux récréatives du Québec méridional, en ciblant le rôle possible des activités agricoles, ainsi qu`à proposer et évaluer de nouvelles sources de données pouvant contribuer à l’identification de ces facteurs. Dans un premier temps, une évaluation de la présence d’Escherichia coli résistants aux antimicrobiens dans les eaux récréatives à l’étude a été effectuée. À la lumière des résultats de cette première étude, ces eaux représenteraient une source de micro-organismes résistants aux antimicrobiens pour les personnes pratiquant des activités aquatiques, mais l’impact en santé publique d’une telle exposition demeure à déterminer. Les déterminants agroenvironnementaux associés à la présence de micro-organismes résistants aux antimicrobiens ont par la suite été explorés. Les résultats de ce chapitre suggèrent que les activités agricoles, et plus spécifiquement l’épandage de fumier liquide, seraient reliées à la contamination des eaux récréatives par des bactéries résistantes aux antimicrobiens. Le chapitre suivant visait à identifier des déterminants agroenvironnementaux temps-indépendants d’importance associés à la contamination fécale des eaux à l’étude. Différentes variables, regroupées en trois classes (activités agricoles, humaines et caractéristiques géohydrologiques), ont été explorées à travers un modèle de régression logistique multivarié. Il en est ressorti que les eaux récréatives ayant des sites de productions de ruminants à proximité, et en particulier à l’intérieur d’un rayon de 2 km, possédaient un risque plus élevé de contamination fécale. Une association positive a également été notée entre le niveau de contamination fécale et le fait que les plages soient situées à l’intérieur d’une zone urbaine. Cette composante nous permet donc de conclure qu’en regard à la santé publique, les eaux récréatives pourraient être contaminées par des sources de pollution fécale tant animales qu’humaines, et que celles-ci pourraient représenter un risque pour la santé des utilisateurs. Pour terminer, un modèle de régression logistique construit à l’aide de données issues de la télédétection et mettant en association un groupe de déterminants agroenvironnementaux et la contamination fécale des eaux récréatives a été mis au point. Ce chapitre visait à évaluer l’utilité de telles données dans l’identification de ces déterminants, de même qu`à discuter des avantages et contraintes associées à leur emploi dans le contexte de la surveillance de la qualité microbiologique des eaux récréatives. À travers cette étude, des associations positives ont été mises en évidence entre le niveau de contamination fécale des eaux et la superficie des terres agricoles adjacentes, de même qu’avec la présence de surfaces imperméables. Les données issues des images d’observation de la Terre pourraient donc constituer une valeur ajoutée pour les programmes de suivi de la qualité microbiologique de ces eaux en permettant une surveillance des déterminants y étant associés.
Resumo:
L’agent régulateur des temps sociaux de la famille québécoise a été la religion catholique pendant des décennies. Les mouvements d’après-guerre et la Révolution tranquille, ont amené un changement de paradigme avec la laïcisation des institutions et la multiplication des programmes sociaux de l’État-providence. Pour cerner l’importance de ce changement, nous avons utilisé la clef analytique de Léon Gérin pour produire une analyse comparative entre deux familles à deux époques : en 1886 et en 2010. Or, au moment où l’État est de plus en plus présent dans toutes les sphères de la vie de la famille tout en leur laissant une autonomie et une liberté, la population se montre de plus en plus sceptique envers les institutions étatiques. Un fossé s’est créé entre la société officielle, celle du social, des institutions, et la société officieuse, celle de la culture populaire qui agit à partir de l’esprit de corps de son groupe, virtuel ou non. La crise de confiance des gens envers les institutions annonce un nouveau changement de paradigme. La rationalité qui a été le moteur de la modernité fait graduellement place à l’émotionnel et à la valeur du temps présent. Le travail, agent régulateur qui comblait les besoins matériels à la modernité, serait remplacé progressivement par des besoins immatériels devenant l’agent régulateur des temps sociaux de la famille.
Resumo:
Notre aptitude à déterminer si un extrait de musique est gai ou triste réside dans notre capacité à extraire les caractéristiques émotionnelles de la musique. Une de ces caractéristiques, le mode, est liée aux hauteurs musicales et une autre, le tempo, est temporelle (Hevner, 1937; 1935). Une perception déficitaire de l’une de ces caractéristiques (ex. les hauteurs) devrait affecter l’expérience émotionnelle. L’amusie congénitale est caractérisée par un traitement anormal des hauteurs (Peretz, 2008). Toutefois, peu de données ont été accumulées sur les réponses émotionnelles des amusiques face à la perception du mode. La perception émotionnelle liée à celui-ci pourrait être préservée, chez les amusiques en raison de leur perception implicite des hauteurs (Peretz, et coll., 2009). Dans un premier temps, cette étude cherchera à déterminer dans quelle mesure les amusiques adultes utilisent le mode relativement au tempo dans la distinction d’une pièce gaie, d’une triste. Dans cette optique, onze amusiques et leurs contrôles appariés ont jugé des extraits de musique classique gais et tristes, dans leur forme originale et dans deux versions modifiées : (1) mode inversé (transcrit dans le mode opposé mineur ↔ majeur) et (2) tempo neutralisé (réglé à une valeur médiane), où le mode émerge comme caractéristique dominante. Les participants devaient juger si les extraits étaient gais ou tristes sur une échelle de 10-points, pendant que leurs réponses électromyographiques (zygomatique et corrugateur) étaient enregistrées. Les participants ont par la suite été réinvités au laboratoire pour réaliser une tâche non émotionnelle de discrimination des modes (majeur, mineur), dans laquelle des paires de stimuli composés de versions plus courtes des extraits originaux et leur version au mode inversé leur étaient présentées. Les participants (14; 7 amusiques) devaient juger si les paires étaient identiques (même stimulus, même mode) ou différentes (même stimulus, modes différents). Dans cette dernière tâche, les amusiques ont eu plus de difficulté que leurs contrôles à discriminer les modes, mais les amusiques comme leurs contrôles se sont montrés sensibles aux manipulations du mode et du tempo, dans la tâche émotionnelle. Ces résultats supportés par des réponses EMG normales présupposent des habiletés préservées ou implicites de traitement tonal dans l’amusie congénitale.