985 resultados para Adaptive negotiation agents
Resumo:
La thèse comporte trois essais en microéconomie appliquée. En utilisant des modèles d’apprentissage (learning) et d’externalité de réseau, elle étudie le comportement des agents économiques dans différentes situations. Le premier essai de la thèse se penche sur la question de l’utilisation des ressources naturelles en situation d’incertitude et d’apprentissage (learning). Plusieurs auteurs ont abordé le sujet, mais ici, nous étudions un modèle d’apprentissage dans lequel les agents qui consomment la ressource ne formulent pas les mêmes croyances a priori. Le deuxième essai aborde le problème générique auquel fait face, par exemple, un fonds de recherche désirant choisir les meilleurs parmi plusieurs chercheurs de différentes générations et de différentes expériences. Le troisième essai étudie un modèle particulier d’organisation d’entreprise dénommé le marketing multiniveau (multi-level marketing). Le premier chapitre est intitulé "Renewable Resource Consumption in a Learning Environment with Heterogeneous beliefs". Nous y avons utilisé un modèle d’apprentissage avec croyances hétérogènes pour étudier l’exploitation d’une ressource naturelle en situation d’incertitude. Il faut distinguer ici deux types d’apprentissage : le adaptive learning et le learning proprement dit. Ces deux termes ont été empruntés à Koulovatianos et al (2009). Nous avons montré que, en comparaison avec le adaptive learning, le learning a un impact négatif sur la consommation totale par tous les exploitants de la ressource. Mais individuellement certains exploitants peuvent consommer plus la ressource en learning qu’en adaptive learning. En effet, en learning, les consommateurs font face à deux types d’incitations à ne pas consommer la ressource (et donc à investir) : l’incitation propre qui a toujours un effet négatif sur la consommation de la ressource et l’incitation hétérogène dont l’effet peut être positif ou négatif. L’effet global du learning sur la consommation individuelle dépend donc du signe et de l’ampleur de l’incitation hétérogène. Par ailleurs, en utilisant les variations absolues et relatives de la consommation suite à un changement des croyances, il ressort que les exploitants ont tendance à converger vers une décision commune. Le second chapitre est intitulé "A Perpetual Search for Talent across Overlapping Generations". Avec un modèle dynamique à générations imbriquées, nous avons étudié iv comment un Fonds de recherche devra procéder pour sélectionner les meilleurs chercheurs à financer. Les chercheurs n’ont pas la même "ancienneté" dans l’activité de recherche. Pour une décision optimale, le Fonds de recherche doit se baser à la fois sur l’ancienneté et les travaux passés des chercheurs ayant soumis une demande de subvention de recherche. Il doit être plus favorable aux jeunes chercheurs quant aux exigences à satisfaire pour être financé. Ce travail est également une contribution à l’analyse des Bandit Problems. Ici, au lieu de tenter de calculer un indice, nous proposons de classer et d’éliminer progressivement les chercheurs en les comparant deux à deux. Le troisième chapitre est intitulé "Paradox about the Multi-Level Marketing (MLM)". Depuis quelques décennies, on rencontre de plus en plus une forme particulière d’entreprises dans lesquelles le produit est commercialisé par le biais de distributeurs. Chaque distributeur peut vendre le produit et/ou recruter d’autres distributeurs pour l’entreprise. Il réalise des profits sur ses propres ventes et reçoit aussi des commissions sur la vente des distributeurs qu’il aura recrutés. Il s’agit du marketing multi-niveau (multi-level marketing, MLM). La structure de ces types d’entreprise est souvent qualifiée par certaines critiques de système pyramidal, d’escroquerie et donc insoutenable. Mais les promoteurs des marketing multi-niveau rejettent ces allégations en avançant que le but des MLMs est de vendre et non de recruter. Les gains et les règles de jeu sont tels que les distributeurs ont plus incitation à vendre le produit qu’à recruter. Toutefois, si cette argumentation des promoteurs de MLMs est valide, un paradoxe apparaît. Pourquoi un distributeur qui désire vraiment vendre le produit et réaliser un gain recruterait-il d’autres individus qui viendront opérer sur le même marché que lui? Comment comprendre le fait qu’un agent puisse recruter des personnes qui pourraient devenir ses concurrents, alors qu’il est déjà établi que tout entrepreneur évite et même combat la concurrence. C’est à ce type de question que s’intéresse ce chapitre. Pour expliquer ce paradoxe, nous avons utilisé la structure intrinsèque des organisations MLM. En réalité, pour être capable de bien vendre, le distributeur devra recruter. Les commissions perçues avec le recrutement donnent un pouvoir de vente en ce sens qu’elles permettent au recruteur d’être capable de proposer un prix compétitif pour le produit qu’il désire vendre. Par ailleurs, les MLMs ont une structure semblable à celle des multi-sided markets au sens de Rochet et Tirole (2003, 2006) et Weyl (2010). Le recrutement a un effet externe sur la vente et la vente a un effet externe sur le recrutement, et tout cela est géré par le promoteur de l’organisation. Ainsi, si le promoteur ne tient pas compte de ces externalités dans la fixation des différentes commissions, les agents peuvent se tourner plus ou moins vers le recrutement.
Resumo:
Les agents des services correctionnels sont appelés à travailler et à intervenir quotidiennement auprès des individus incarcérés et se trouvent au cœur du fonctionnement des établissements de détention provinciaux du Québec. Leurs pratiques disciplinaires envers les individus incarcérés étaient auparavant considérées comme arbitraires et prenaient place dans un milieu défini comme autonome, autosuffisant, fermé sur l’extérieur et ne nécessitant pas le support de la société (Goffman, 1961). Les dernières décennies ont apporté de nombreux changements, tels la reconnaissance des droits des individus incarcérés, l’ouverture du milieu carcéral sur la société ou encore la normalisation des conditions de détention. A ceux-ci se sont ajoutés la Loi sur le système correctionnel du Québec et son Règlement d’application qui vient régir le processus disciplinaire. L’objet de cette recherche vise la compréhension des pratiques des agents correctionnels en matière de poursuites disciplinaires suite à ces changements. Cette étude vise également à comprendre les éléments venant influencer la décision, par un agent correctionnel, de dresser un rapport disciplinaire. Nos résultats se divisent en deux volets. Le premier suggère que le droit disciplinaire est une question d’équilibre carcéral. Les agents correctionnels, ayant la mission de maintenir la sécurité et l’ordre au sein du milieu carcéral, prennent également part à la mission de réinsertion sociale des individus incarcérés. Les agents doivent moduler leurs pratiques disciplinaires selon des éléments administratifs et institutionnels, tout en entretenant une relation avec les individus incarcérés basée sur la négociation et le marchandage. Le deuxième suggère que le droit disciplinaire est une question de pouvoir. En effet, malgré l’encadrement des établissements carcéraux par des textes légaux, les agents correctionnels détiennent un pouvoir discrétionnaire reconnu et accepté dans l’application de la discipline.
Resumo:
La majorité des individus exposés au virus de l’hépatite C (VHC) développent une infection chronique. Une réponse immunitaire adaptative forte et soutenue est associée avec la guérison spontanée du VHC, mais les mécanismes sous-jacents demeurent mal définis. Le rôle des cellules NK et des cellules dendritiques (DC) dans la guérison spontanée du VHC est encore méconnu. Les cellules NK sont la population effectrice la plus importante de l’immunité innée car elles tuent les cellules infectées et sécrètent diverses cytokines. Les DC reconnaissent des agents infectieux et elles sont les premières à initier et réguler l’immunité adaptative. Les cellules NK et les DC interagissent également entre elles afin de réguler l’immunité innée et adaptative. L’hypothèse du projet de doctorat est que l'activité des cellules NK pendant la phase aiguë de l'infection par le VHC module la fonction des DC afin que ces dernières puissent générer une réponse immunitaire adaptative capable d'éliminer le VHC. Le premier objectif était d’établir une corrélation entre l'activité des cellules NK et l'évolution de l'infection au VHC. Nous avons observé une augmentation de la cytotoxicité, mais une diminution de la sécrétion de cytokines par les cellules NK chez les patients chroniques et qui ont résolu spontanément pendant la phase aiguë en comparaison aux contrôles non infectés, démontrant alors une dissociation entre ces deux fonctions. Nos résultats suggèrent que les cellules NK sont activées pendant la phase aiguë indépendamment de l’évolution de l’infection. Le deuxième objectif était d’établir une corrélation entre le phénotype et la fonction des DC, et l'évolution de l'infection. Nous avons d’abord observé que les DC plasmacytoïdes de tous les patients infectés ont un phénotype plus immature que les contrôles, et que ce phénotype est plus prononcé chez les patients ayant résolu spontanément. De plus, en réponse à des stimulations, nous avons observé que pendant la phase aiguë précoce, les DC myéloïdes (mDC) de tous les patients infectés indépendamment de l’évolution de l’infection produisent davantage de cytokines en comparaison aux contrôles. Cependant, cette hyperréactivité n’est pas soutenue au cours de l’évolution chronique. Le troisième objectif était d’établir une corrélation entre les interactions NK/DC et l’évolution de l’infection. Nous avons étudié la capacité des cellules NK à lyser les DC potentiellement tolérogéniques, ainsi que la capacité des DC matures à activer les cellules NK, et nous avons observé aucune différence entre les patients infectés et les contrôles. Finalement, nous avons démontré pour la première fois la capacité des DC immatures à inhiber la fonction des cellules NK. En conclusion, nous avons démontré que les cellules NK sont activées pendant la phase aiguë de l’infection par le VHC indépendamment de l’évolution de l’infection. De plus, la capacité des cellules NK à éliminer les DC potentiellement tolérogéniques est intacte. Finalement, les mDC sont hyperréactives pendant la phase aiguë de l’infection, mais cette hyperréactivité n’est pas soutenue avec la persistance de l’infection. Cette perte d’hyperréactivité des mDC ne semble pas affecter la capacité des DC à activer les cellules NK, mais elle pourrait jouer un rôle dans l’inefficacité de l’immunité adaptative à éliminer le VHC.
Resumo:
Les dernières décennies ont été marquées par une augmentation du nombre des cas de cancers, ce qui a subséquemment conduit à une augmentation dans la consommation des agents de chimiothérapie. La toxicité et le caractère cancérogène de ces molécules justifient l’intérêt crucial porté à leur égard. Quelques études ont fait l’objet de détection et de quantification des agents de chimiothérapie dans des matrices environnementales. Dans ce projet, une méthode utilisant la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS) précédée d’une extraction sur phase solide (SPE) automatisée ou en ligne a été développée pour la détection et la quantification d’un groupe de six agents de chimiothérapie. Parmi ceux-ci figurent les plus utilisés au Québec (gemcitabine, méthotrexate, cyclophosphamide, ifosfamide, irinotécan, épirubicine) et présentant des propriétés physico-chimiques et des structures chimiques différentes. La méthode développée a été validée dans une matrice réelle représentant l’affluent d’une station d’épuration dans la région de Montréal. Deux des six composés cytotoxiques étudiés en l’occurrence (cyclophosphamide et méthotrexate) ont été détectés dans huit échantillons sur les neuf qui ont été recensés, essentiellement au niveau de l’affluent et l’effluent de quelques stations d’épuration de la région de Montréal. Les résultats des analyses effectuées sur les échantillons réels ont montré qu’il n’y avait pas de différence significative dans la concentration entre l’affluent et l’effluent, et donc que les systèmes d’épuration semblent inefficaces pour la dégradation de ces molécules.
Resumo:
Grâce à leur flexibilité et à leur facilité d’installation, les réseaux maillés sans fil (WMNs) permettent un déploiement d’une infrastructure à faible coût. Ces réseaux étendent la couverture des réseaux filaires permettant, ainsi, une connexion n’importe quand et n’importe où. Toutefois, leur performance est dégradée par les interférences et la congestion. Ces derniers causent des pertes de paquets et une augmentation du délai de transmission d’une façon drastique. Dans cette thèse, nous nous intéressons au routage adaptatif et à la stabilité dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la conception d’une métrique de routage et à la sélection des passerelles permettant d’améliorer la performance des WMNs. Dans ce contexte nous proposons un protocole de routage à la source basé sur une nouvelle métrique. Cette métrique permet non seulement de capturer certaines caractéristiques des liens tels que les interférences inter-flux et intra-flux, le taux de perte des paquets mais également la surcharge des passerelles. Les résultats numériques montrent que la performance de cette métrique est meilleure que celle des solutions proposées dans la littérature. Dans une deuxième partie de la thèse, nous nous intéressons à certaines zones critiques dans les WMNs. Ces zones se trouvent autour des passerelles qui connaissent une concentration plus élevé du trafic ; elles risquent de provoquer des interférences et des congestions. À cet égard, nous proposons un protocole de routage proactif et adaptatif basé sur l’apprentissage par renforcement et qui pénalise les liens de mauvaise qualité lorsqu’on s’approche des passerelles. Un chemin dont la qualité des liens autour d’une passerelle est meilleure sera plus favorisé que les autres chemins de moindre qualité. Nous utilisons l’algorithme de Q-learning pour mettre à jour dynamiquement les coûts des chemins, sélectionner les prochains nœuds pour faire suivre les paquets vers les passerelles choisies et explorer d’autres nœuds voisins. Les résultats numériques montrent que notre protocole distribué, présente de meilleurs résultats comparativement aux protocoles présentés dans la littérature. Dans une troisième partie de cette thèse, nous nous intéressons aux problèmes d’instabilité des réseaux maillés sans fil. En effet, l’instabilité se produit à cause des changements fréquents des routes qui sont causés par les variations instantanées des qualités des liens dues à la présence des interférences et de la congestion. Ainsi, après une analyse de l’instabilité, nous proposons d’utiliser le nombre de variations des chemins dans une table de routage comme indicateur de perturbation des réseaux et nous utilisons la fonction d’entropie, connue dans les mesures de l’incertitude et du désordre des systèmes, pour sélectionner les routes stables. Les résultats numériques montrent de meilleures performances de notre protocole en comparaison avec d’autres protocoles dans la littérature en termes de débit, délai, taux de perte des paquets et l’indice de Gini.
Resumo:
Un système multi-agents est composé de plusieurs agents autonomes qui interagissent entre eux dans un environnement commun. Ce mémoire vise à démontrer l’utilisation d’un système multi-agents pour le développement d’un jeu vidéo. Tout d’abord, une justification du choix des concepts d’intelligence artificielle choisie est exposée. Par la suite, une approche pratique est utilisée en effectuant le développement d’un jeu vidéo. Pour ce faire, le jeu fut développé à partir d’un jeu vidéo mono-agent existant et mo- difié en système multi-agents afin de bien mettre en valeur les avantages d’un système multi-agents dans un jeu vidéo. Le développement de ce jeu a aussi démontré l’applica- tion d’autres concepts en intelligence artificielle comme la recherche de chemins et les arbres de décisions. Le jeu développé pour ce mémoire viens appuyer les conclusions des différentes recherches démontrant que l’utilisation d’un système multi-agents per- met de réaliser un comportement plus réaliste pour les joueurs non humains et bien plus compétitifs pour le joueur humain.
Resumo:
Cette thèse porte sur les processus de sélection, formation et encadrement (SFE) des gestionnaires, appelés pilotes et considérés comme agents de changement dans les télécentres communautaires au Mali. Ces processus sont étudiés sous l'angle de leur contribution positive ou négative à l'implantation et au développement de ces centres. Les projets "technologies de l’information et de la communication", initiés par les partenaires techniques et financiers, répondent au besoin des autorités maliennes préoccupées par un souci de connecter les 703 communes du pays. À la suite du sommet mondial sur la société de l’information en décembre 2003 à Genève, l’UNESCO et la Coopération suisse ont décidé d’installer des centres multimédias communautaires dans trois pays d’Afrique (Mali, Mozambique, Sénégal). Ces implantations de télécentres ont été réalisées sur le modèle de ce qui avait été fait en Asie sans tenir compte des besoins réels des bénéficiaires et des conditions particulières (économiques, politiques, culturelles) des sites d’implantation. Malgré les conditions parfois difficiles de l’Afrique, les populations témoignent un enthousiasme réel pour les technologies de communication. Les TIC ont connu une croissance considérable et se sont multipliées partout en Afrique, à des degrés divers. Néanmoins, elles n’ont pas encore atteint la majorité des populations africaines, car 70% de celles-ci vivent en zones rurales souvent marginalisées par les difficultés économiques. Après l’implantation des télécentres, les sites ont donc été confrontés à la difficile tâche de sélectionner les pilotes comme agents de changement. Les responsables chargés de la mise en œuvre des projets ont choisi les pilotes dans leur réseau familial. En ce sens, la thèse met l’accent sur l’importance du rôle d’un pilote dans un télécentre et l’appui qu’il peut générer dans la population bénéficiaire. Nous proposons un modèle qui part de l’action des agents de changement, et ce, afin de potentiellement susciter une prise de conscience chez les décideurs locaux. Nous avons fait une étude de cas sur quatre sites pour mieux connaître les processus de sélection, formation et encadrement des pilotes et nous avons tenté d'identifier les facteurs qui, dans ces processus, ont pu influencer le niveau de réussite de chacun de ces centres.
Resumo:
Étude de cas / Case study
Resumo:
Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Le but de ce travail de mémoire était d'explorer des moyens pour augmenter la perméabilité des biofilms de Streptococcus mutans aux macromolécules en utilisant des agents potentiellement perturbateurs de la structure des biofilms. L’acide éthylènediamine tétraacétique (EDTA) ainsi que l’acide acétylsalicylique (aspirine) sont les agents perturbateurs choisis. Le changement de perméabilité des biofilms de S. mutans a été déterminé en mesurant les coefficients de diffusion globale du polyéthylène glycol (PEG) et de diffusion locale de dextrans. Les coefficients de diffusion globale ont été mesurés par spectroscopie infrarouge avec un échantillonnage par réflexion totale atténuée (ATR) alors que la spectroscopie par corrélation de fluorescence (SCF) a été utilisée pour la mesure des coefficients de diffusion locale. Les résultats ont démontré que l’incorporation de l’EDTA à une concentration de 7.5 (m/v) % dans la solution de diffusion permet d’améliorer les propriétés de transport du PEG dans les biofilms en augmentant sa pénétrabilité et son coefficient de diffusion globale. Par contre, aucune variation n’a été constatée dans la valeur du coefficient de diffusion locale de dextran fluorescent. Cette différence peut être expliquée, entre autres, par l'échelle des mesures et la nature différente des molécules diffusantes. L’aspirine n’a démontré aucun effet sur le transport du PEG à travers les biofilms de S. mutans. La pénétration accrue du PEG en présence de l’EDTA a été corrélée aux tests de viabilité des cellules bactériennes. En effet, la combinaison de la pénicilline G (PenG) avec l’EDTA 2 (m/v) % a eu comme effet l’augmentation du pouvoir biocide d’un facteur 3. De plus, les images de microscopie à épifluorescence et de microscopie confocale à balayage de laser ont démontré que les bactéries dans le cœur des microcolonies sont plus affectées par la PenG lorsque le milieu contient de l'EDTA. A la lumière des résultats obtenus, il s’avère que l’incorporation d'agents perturbateurs de la structure des biofilms est une option sérieuse à considérer dans l’éradication des biofilms microbiens. Plus d’études devront être effectuées afin d’investiguer l’effet d’autres molécules possédant les propriétés perturbatrices de la structure des biofilms sur la résistance de ces derniers aux agents antimicrobiens.
Resumo:
Ce mémoire étudie la dynamique communicationnelle et interactionnelle entre un joueur et un système de jeu par l’entremise des théories de l’énonciation et de la cognition. Par une analyse des jeux vidéo d’horreur en perspective à la première personne, il s’agit de conceptualiser une spirale heuristique de l’énonciation à partir des principes théoriques du Cycle Magique (Arsenault et Perron, 2009). Le propos se focalise sur la manière dont le joueur expérimente et traite les propositions ludiques et les propositions ludodiégétiques. L’intérêt est d’observer comment la valeur réflexive des marques de jeu et des marques de jouabilité sert à départager des relations d’attribution entre des formulations énonciatives (textuelles, verbales, visuelles, sonores ou procédurales) et des agents énonciatifs. Cette recherche rend compte, d’une part, de la gestion cognitive des faits énonciatifs et, d’autre part, de la modulation de leurs valeurs d’immédiateté-hypermédiateté et de leurs rapports de liaison/déliaison avec les agents énonciatifs. Il est expliqué que cette activité cognitive du joueur dirige la schématisation d’attitudes interactionnelles servant à structurer la signification – ludique ou narrative – des propositions ludiques générées au cours de l’activité de jeu. L’analyse cible des processus de mise en phase performative et de mise en phase méta-systémique ludique permettant la détermination de vecteurs d’immersion. En fonction du caractère d’opacité ou de transparence des vecteurs, il est question d’indiquer comment la posture d’expérience du joueur oscille entre un continuum immersif qui polarise une expérience systémique et une expérience diégétisée.
Resumo:
La présente thèse se base sur les principes de la théorisation ancrée (Strauss & Corbin, 1998) afin de répondre au manque de documentation concernant les stratégies adoptées par des « agents intermédiaires » pour promouvoir l’utilisation des connaissances issues de la recherche auprès des intervenants en éducation. Le terme « agent intermédiaire » réfère aux personnes qui sont positionnées à l’interface entre les producteurs et les utilisateurs des connaissances scientifiques et qui encouragent et soutiennent les intervenants scolaires dans l’application des connaissances scientifiques dans leur pratique. L’étude s’inscrit dans le cadre d’un projet du ministère de l’Éducation, du Loisir et du Sport du Québec visant à améliorer la réussite scolaire des élèves du secondaire provenant de milieux défavorisés. Des agents intermédiaires de différents niveaux du système éducatif ayant obtenu le mandat de transférer des connaissances issues de la recherche auprès des intervenants scolaires dans les écoles visées par le projet ont été sollicités pour participer à l’étude. Une stratégie d’échantillonnage de type « boule-de-neige » (Biernacki & Waldorf, 1981; Patton, 1990) a été employée afin d’identifier les personnes reconnues par leurs pairs pour la qualité du soutien offert aux intervenants scolaires quant à l’utilisation de la recherche dans leur pratique. Seize entrevues semi-structurées ont été réalisées. L’analyse des données permet de proposer un modèle d’intervention en transfert de connaissances composé de 32 stratégies d’influence, regroupées en 6 composantes d’intervention, soit : relationnelle, cognitive, politique, facilitatrice, évaluative, de même que de soutien et de suivi continu. Les résultats suggèrent que les stratégies d’ordre relationnelle, cognitive et politique sont interdépendantes et permettent d’établir un climat favorable dans lequel les agents peuvent exercer une plus grande influence sur l’appropriation du processus de l’utilisation des connaissances des intervenants scolaire. Ils montrent en outre que la composante de soutien et de suivi continu est importante pour maintenir les changements quant à l’utilisation de la recherche dans la pratique chez les intervenants scolaires. Les implications théoriques qui découlent du modèle, ainsi que les explications des mécanismes impliqués dans les différentes composantes, sont mises en perspective tant avec la documentation scientifique en transfert de connaissances dans les secteurs de la santé et de l’éducation, qu’avec les travaux provenant de disciplines connexes (notamment la psychologie). Enfin, des pistes d’action pour la pratique sont proposées.
Resumo:
Une des caractéristiques fondamentales des policiers et des agents correctionnels est le recours légitime à la coercition pour imposer leur autorité. Cette force publique doit donc, en théorie, avoir le dessus sur toute forme de force privée. Dans l’étude des phénomènes de violence, cette caractéristique rend leur victimisation singulière. À ce jour, les formes d’influence, de pressions indues et d’intimidation vécus par les agents de la force publique demeurent relativement peu étudiées. Les objectifs de cette thèse sont d’améliorer notre compréhension des dynamiques d’intimidation, de soulever les différents enjeux pour la force publique et de proposer une théorie de l’intimidation criminelle. La force publique étant, avant toute chose, une émanation de l’État, nous avons commencé par analyser la problématique de l’intimidation criminelle de manière plus globale. En testant la théorie de l’action de sécurité (Cusson, 2010), nous avons constaté qu’une force publique intimidée et corrompue entraîne une perte de légitimité et une inefficacité du système judiciaire dans sa lutte contre la criminalité. Nous avons ensuite adopté une perspective interactionniste pour comprendre les dynamiques d’intimidation au quotidien. Nous nous sommes demandés quels étaient les éléments qui rendaient une intimidation crédible et grave pour les policiers. En identifiant leur monde d’objets (Blumer, 1986), nous avons constaté que les actes d’intimidation qui survenaient en dehors du cadre professionnel étaient jugés plus graves par les policiers et que l’appartenance de l’intimidateur à une organisation criminelle entraînait une augmentation de la gravité de la menace. Ensuite, nous nous sommes interrogés sur la notion d’identité sociale des agents correctionnels victimes d’intimidation (Tedeschi et Felson, 1994). Nous avons constaté que les intimidations mineures mais répétées avaient tendance à modifier les pratiques professionnelles des surveillants. Une analyse intégrée de ces perspectives met en lumière l’existence de deux formes d’intimidation : une intimidation réactive et peu sévère en nature et une intimidation planifiée et grave. Elle soulève également trois enjeux pour la force publique : son aspect symbolique, la transformation de son action et sa légitimité. En intégrant ces enjeux, une théorie de l’intimidation criminelle est proposée. En dernier lieu, des solutions préventives et répressives sont avancées pour lutter contre ce phénomène.
Resumo:
Des lois sont adoptées, des politiques implantées, des centaines de milliers de dollars investis dans la formation des employés, et puis ? Cette recherche de type exploratoire tente de jeter la lumière sur ce qui se passe actuellement dans les points d'entrée canadiens situés au Québec en matière de lutte contre la traite de personnes migrantes et de présenter, s'il y a lieu, les incohérences entre l'engagement du Canada à lutter contre la traite de personnes et les pratiques des agents des services frontaliers du Canada sur le terrain. Pour ce faire, nous avons interviewé sept agents des services frontaliers du Canada travaillant à l'Aéroport international Pierre-Elliott-Trudeau de Montréal, quatrième poste frontalier aéroportuaire en importance au Canada et premier au Québec, afin d'en apprendre davantage sur les connaissances ainsi que sur les expériences de ceux-ci en matière de traite de personnes migrantes. Nous avons aussi rencontré quatre intervenants venant en aide aux victimes migrantes de la traite de personnes au Québec, principalement dans la région de Montréal, dans le but d'en savoir un peu plus sur l'expérience des victimes en lien avec l'Agence des services frontaliers du Canada et les impacts de ces expériences sur celles-ci. Si les agents interviewés semblent avoir une assez bonne idée, même si celle-ci paraît largement influencée par les médias, de ce qu'est la traite de personnes migrantes, rares sont ceux qui, dans le cadre de leurs fonctions, ont une expérience pratique auprès des victimes. L'absence de formation substantielle et continue, la perception du rôle de l'ASFC par ses agents ainsi que le manque de leadership de la direction en ce qui a trait à la traite de personnes migrantes semblent être des accrocs majeurs à la volonté politique du gouvernement canadien, plus particulièrement de l'Agence des services frontaliers du Canada, de combattre la traite de personnes migrantes sur son propre territoire. Les obstacles sont nombreux dans la lutte contre la traite de personnes aux frontières canadiennes et représentent un défi de taille à la fois complexe et compliqué. Une approche centrée sur la prévention et une plus grande sensibilisation des agents des services frontaliers du Canada proposent un début de solution.