965 resultados para Approche combinatoire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude traite de la complexité des enjeux de la mise en lumière urbaine et de sa conception. Le but est de déceler les mécanismes opératoires du projet d’éclairage afin de générer une analyse et une compréhension de ce type d’aménagement. Cette recherche met à jour les enjeux lumineux à différents niveaux comme l’urbanisme, l’environnement, la culture, la communication, la vision et la perception mais aussi au niveau des acteurs et de leurs pratiques sur le terrain. En utilisant une approche qualitative déductive, cette recherche théorique cherche à mieux comprendre les différentes significations du phénomène lumineux : comment dans la réalité terrain ces enjeux de la lumière sont compris, interprétés et traduits au travers de la réalisation des projets et des processus mis en place pour répondre aux besoins d’éclairage ? La pertinence de cette recherche est de questionner les enjeux complexes de la mise en lumière afin de savoir comment concevoir un « bon éclairage ». Comment se déroule un projet d’éclairage de sa conception à sa réalisation ? Quels sont les différents acteurs, leurs modes d’intervention et leurs perceptions du projet d’éclairage ? Le but est de vérifier comment ces enjeux se concrétisent sur le terrain, notamment au travers de l’activité et de l’interprétation des professionnels. Nous souhaitons créer un modèle opératoire qui rende compte des enjeux et du processus de ce type de projet. Modèle qui servira alors de repère pour la compréhension des mécanismes à l’œuvre comme le contexte, les acteurs, les moyens et les finalités des projets. Une étude des recherches théoriques nous permettra de comprendre la polysémie du phénomène lumineux afin d’en déceler la complexité des enjeux et de créer une première interprétation de ce type de projet. Nous déterminerons théoriquement ce que recouvre la notion de « bon éclairage » qui nous permettra de créer une grille analytique pour comparer notre approche avec la réalité sur le terrain. Ces recherches seront ensuite confrontées au recueil des données des études de cas, des stages en urbanisme et en conception lumière, et des interviews de professionnels dans le domaine. Nous confronterons les enjeux définis théoriquement aux collectes de données issues du terrain. Ces données seront collectées à partir de projets réalisés avec les professionnels durant la recherche immersive. La recherche-action nous permettra de collaborer avec les professionnels pour comprendre comment ils sélectionnent, déterminent et répondent aux enjeux des projets d’éclairage. Nous verrons grâce aux entretiens semi-dirigés comment les acteurs perçoivent leurs propres activités et nous interprèterons les données à l’aide de la « théorisation ancrée » pour dégager le sens de leurs discours. Nous analyserons alors les résultats de ces données de manière interprétative afin de déterminer les points convergeant et divergent entre les enjeux théoriques définis en amont et les enjeux définis en aval par la recherche-terrain. Cette comparaison nous permettra de créer une interprétation des enjeux de la mise en lumière urbaine dans toutes leurs complexités, à la fois du point de vue théorique et pratique. Cette recherche qualitative et complexe s’appuie sur une combinaison entre une étude phénoménologique et les méthodologies proposées par la « théorisation ancrée ». Nous procéderons à une combinaison de données issues de la pratique terrain et de la perception de cette pratique par les acteurs de l’éclairage. La recherche d’un « bon éclairage » envisage donc par une nouvelle compréhension l’amélioration des outils de réflexion et des actions des professionnels. En termes de résultat nous souhaitons créer un modèle opératoire de la mise en lumière qui définirait quels sont les différents éléments constitutifs de ces projets, leurs rôles et les relations qu’ils entretiennent entre eux. Modèle qui mettra en relief les éléments qui déterminent la qualité du projet d’éclairage et qui permettra de fournir un outil de compréhension. La contribution de ce travail de recherche est alors de fournir par cette nouvelle compréhension un repère méthodologique et analytique aux professionnels de l’éclairage mais aussi de faire émerger l’importance du phénomène de mise en lumière en suscitant de nouveaux questionnements auprès des activités liées au design industriel, à l’architecture et à l’urbanisme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The traditional role of justice is to arbitrate where the good will of people is not enough, if even present, to settle a dispute between the concerned parties. It is a procedural approach that assumes a fractured relationship between those involved. Recognition, at first glance, would not seem to mirror these aspects of justice. Yet recognition is very much a subject of justice these days. The aim of this paper is to question the applicability of justice to the practice of recognition. The methodological orientation of this paper is a Kantian-style critique of the institution of justice, highlighting the limits of its reach and the dangers of overextension. The critique unfolds in the following three steps: 1) There is an immediate appeal to justice as a practice of recognition through its commitment to universality. This allure is shown to be deceptive in providing no prescription for the actual practice of this universality. 2) The interventionist character of justice is designed to address divided relationships. If recognition is only given expression through this channel, then we can only assume division as our starting ground. 3) The outcome of justice in respect to recognition is identification. This identification is left vulnerable to misrecognition itself, creating a cycle of injustice that demands recognition from anew. It seems to be well accepted that recognition is essentjustice, but less clear how to do justice to recognition. This paper is an effort in clarification.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Based on a close reading of the debate between Rawls and Sen on primary goods versus capabilities, I argue that liberal theory cannot adequately respond to Sen’s critique within a conventionally neutralist framework. In support of the capability approach, I explain why and how it defends a more robust conception of opportunity and freedom, along with public debate on substantive questions about well-being and the good life. My aims are: (i) to show that Sen’s capability approach is at odds with Rawls’s political liberal version of neutrality; (ii) to carve out a third space in the neutrality debate; and (iii) to begin to develop, from Sen’s approach, the idea of public value liberalism as a position that falls within that third space.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obésité provient d’un déséquilibre de l’homéostasie énergétique, c’est-à-dire une augmentation des apports caloriques et/ou une diminution des dépenses énergétiques. Plusieurs données, autant anatomiques que physiologiques, démontrent que l’hypothalamus est un régulateur critique de l’appétit et des dépenses énergétiques. En particulier, le noyau paraventriculaire (noyau PV) de l’hypothalamus intègre plusieurs signaux provenant du système nerveux central (SNC) et/ou de la périphérie, afin de contrôler l’homéostasie énergétique via des projections axonales sur les neurones pré-ganglionnaires du système autonome situé dans le troc cérébral et la moelle épinière. Plusieurs facteurs de transcription, impliqués dans le développement du noyau PV, ont été identifiés. Le facteur de transcription SIM1, qui est produit par virtuellement tous les neurones du noyau PV, est requis pour le développement du noyau PV. En effet, lors d’une étude antérieure, nous avons montré que le noyau PV ne se développe pas chez les souris homozygotes pour un allèle nul de Sim1. Ces souris meurent à la naissance, probablement à cause des anomalies du noyau PV. Par contre, les souris hétérozygotes survivent, mais développent une obésité précoce. De façon intéressante, le noyau PV des souris Sim1+/- est hypodéveloppé, contenant 24% moins de cellules. Ces données suggèrent fortement que ces anomalies du développement pourraient perturber le fonctionnement du noyau PV et contribuer au développement du phénotype d’obésité. Dans ce contexte, nous avons entrepris des travaux expérimentaux ayant pour but d’étudier l’impact de l’haploinsuffisance de Sim1 sur : 1) le développement du noyau PV et de ses projections neuronales efférentes; 2) l’homéostasie énergétique; et 3) les voies neuronales physiologiques contrôlant l’homéostasie énergétique chez les souris Sim1+/-. A cette fin, nous avons utilisé : 1) des injections stéréotaxiques combinées à des techniques d’immunohistochimie afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur le développement du noyau PV et de ses projections neuronales efférentes; 2) le paradigme des apports caloriques pairés, afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur l’homéostasie énergétique; et 3) une approche pharmacologique, c’est-à-dire l’administration intra- cérébroventriculaire (i.c.v.) et/ou intra-péritonéale (i.p.) de peptides anorexigènes, la mélanotane II (MTII), la leptine et la cholécystokinine (CCK), afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur les voies neuronales contrôlant l’homéostasie énergétique. Dans un premier temps, nous avons constaté une diminution de 61% et de 65% de l’expression de l’ARN messager (ARNm) de l’ocytocine (Ot) et de l’arginine-vasopressine (Vp), respectivement, chez les embryons Sim1+/- de 18.5 jours (E18.5). De plus, le nombre de cellules produisant l’OT et la VP est apparu diminué de 84% et 41%, respectivement, chez les souris Sim1+/- adultes. L’analyse du marquage axonal rétrograde des efférences du noyau PV vers le tronc cérébral, en particulier ses projections sur le noyau tractus solitaire (NTS) aussi que le noyau dorsal moteur du nerf vague (X) (DMV), a permis de démontrer une diminution de 74% de ces efférences. Cependant, la composition moléculaire de ces projections neuronales reste inconnue. Nos résultats indiquent que l’haploinsuffisance de Sim1 : i) perturbe spécifiquement le développement des cellules produisant l’OT et la VP; et ii) abolit le développement d’une portion importante des projections du noyau PV sur le tronc cérébral, et notamment ses projections sur le NTS et le DMV. Ces observations soulèvent donc la possibilité que ces anomalies du développement du noyau PV contribuent au phénotype d’hyperphagie des souris Sim1+/-. En second lieu, nous avons observé que la croissance pondérale des souris Sim1+/- et des souris Sim1+/+ n’était pas significativement différente lorsque la quantité de calories présentée aux souris Sim1+/- était la même que celle consommée par les souris Sim1+/+. De plus, l’analyse qualitative et quantitative des tissus adipeux blancs et des tissus adipeux bruns n’a démontré aucune différence significative en ce qui a trait à la taille et à la masse de ces tissus chez les deux groupes. Finalement, au terme de ces expériences, les souris Sim1+/--pairées n’étaient pas différentes des souris Sim1+/+ en ce qui a trait à leur insulinémie et leur contenu en triglycérides du foie et des masses adipeuses, alors que tous ces paramètres étaient augmentés chez les souris Sim1+/- nourries ad libitum. Ces résultats laissent croire que l’hyperphagie, et non une diminution des dépenses énergétiques, est la cause principale de l’obésité des souris Sim1+/-. Par conséquent, ces résultats suggèrent que : i) l’haploinsuffisance de Sim1 est associée à une augmentation de l’apport calorique sans toutefois moduler les dépenses énergétiques; ii) l’existence d’au moins deux voies neuronales issues du noyau PV : l’une qui régule la prise alimentaire et l’autre la thermogénèse; et iii) l’haploinsuffisance de Sim1 affecte spécifiquement la voie neuronale qui régule la prise alimentaire. En dernier lieu, nous avons montré que l’injection de MTII, de leptine ainsi que de CCK induit une diminution significative de la consommation calorique des souris des deux génotypes, Sim1+/+ et Sim1+/-. De fait, la consommation calorique cumulative des souris Sim1+/- et Sim1+/+ est diminuée de 37% et de 51%, respectivement, durant les 4 heures suivant l’administration i.p. de MTII comparativement à l’administration d’une solution saline. Lors de l’administration i.c.v. de la leptine, la consommation calorique cumulative des souris Sim1+/- et Sim1+/+ est diminuée de 47% et de 32%, respectivement. Finalement, l’injection i.p. de CCK diminue la consommation calorique des souris Sim1+/- et Sim1+/+ de 52% et de 36%, respectivement. L’ensemble des résultats suggère ici que l’haploinsuffisance de Sim1 diminue l’activité de certaines voies neuronales régulant l’homéostasie énergétique, et particulièrement de celles qui contrôlent la prise alimentaire. En résumé, ces travaux ont montré que l’haploinsuffisance de Sim1 affecte plusieurs processus du développement au sein du noyau PV. Ces anomalies du développement peuvent conduire à des dysfonctions de certains processus physiologiques distincts régulés par le noyau PV, et notamment de la prise alimentaire, et contribuer ainsi au phénotype d’obésité. Les souris hétérozygotes pour le gène Sim1 représentent donc un modèle animal unique, où l’hyperphagie, et non les dépenses énergétiques, est la principale cause de l’obésité. En conséquence, ces souris pourraient représenter un modèle expérimental intéressant pour l’étude des mécanismes cellulaires et moléculaires en contrôle de la prise alimentaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude se concentre sur le travail de Nancy Fraser sur la justice sociale, lequel a suscité beaucoup d’intérêt dans la littérature au cours des dernières années. La reconnaissance et la redistribution sont les deux piliers originaux de son approche: les désavantages dont souffrent les gens dus au dénigrement culturel ou à la privation économique. Ces deux concepts servent à diagnostiquer et fournir le soutien moral aux multiples luttes que les victimes d’injustice entreprennent avec l’objectif d’établir une participation plus égalitaire à la société. Cependant, que peut-elle dire cette approche des groupes qui sont marginalisés et cherchent l’autogouvernance (ou la séparation même) plutôt que l’intégration dans la société? Le travail de Fraser manifeste une résistance envers les droits du groupe, et un silence quant à l’autodétermination. Mon intervention prend comme objectif d’inclure ces formes d’injustice dans son approche, la rendant plus sensible aux dynamiques des groupes et capable de répondre à leurs revendications trop souvent négligées sous prétexte de l’égalité. La question est, l’égalité de qui?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dès le tournant du XIIIe siècle, les écrivains reprennent l’idée d’une quête du Graal, déjà développée par Chrétien de Troyes avec le Conte du Graal, pour y faire entrer plus amplement les traits d’une idéologie ecclésiastique. Les premières proses du Graal présentent alors une nouvelle façon d’exposer certains idéaux de la chevalerie à travers des convictions religieuses. Dans une approche socio-historique, nous nous sommes d’abord penché sur la figure incontournable du roi Arthur, personnage dont le comportement est la cause de la quête du Graal. Plus particulièrement, dans cette recherche, il est question de découvrir comment la position sociale du chevalier tend à s’élever au-dessus de celle du roi. Partant des différentes fonctions royales pour aller vers la nature et le but des aventures vécues par les chevaliers, nous observons pourquoi et comment les auteurs des premières proses du Graal ont tenté d’adapter l’idéologie chevaleresque à l’idéologie ecclésiastique. Il appert que l’influence des discours politiques de cette période médiévale aura joué un rôle important dans cette nouvelle approche de la chevalerie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un certain nombre de théories pédagogiques ont été établies depuis plus de 20 ans. Elles font appel aux réactions de l’apprenant en situation d’apprentissage, mais aucune théorie pédagogique n’a pu décrire complètement un processus d’enseignement en tenant compte de toutes les réactions émotionnelles de l’apprenant. Nous souhaitons intégrer les émotions de l’apprenant dans ces processus d’apprentissage, car elles sont importantes dans les mécanismes d’acquisition de connaissances et dans la mémorisation. Récemment on a vu que le facteur émotionnel est considéré jouer un rôle très important dans les processus cognitifs. Modéliser les réactions émotionnelles d’un apprenant en cours du processus d’apprentissage est une nouveauté pour un Système Tutoriel Intelligent. Pour réaliser notre recherche, nous examinerons les théories pédagogiques qui n’ont pas considéré les émotions de l’apprenant. Jusqu’à maintenant, aucun Système Tutoriel Intelligent destiné à l’enseignement n’a incorporé la notion de facteur émotionnel pour un apprenant humain. Notre premier objectif est d’analyser quelques stratégies pédagogiques et de détecter les composantes émotionnelles qui peuvent y être ou non. Nous cherchons à déterminer dans cette analyse quel type de méthode didactique est utilisé, autrement dit, que fait le tuteur pour prévoir et aider l’apprenant à accomplir sa tâche d’apprentissage dans des conditions optimales. Le deuxième objectif est de proposer l’amélioration de ces méthodes en ajoutant les facteurs émotionnels. On les nommera des « méthodes émotionnelles ». Le dernier objectif vise à expérimenter le modèle d’une théorie pédagogique améliorée en ajoutant les facteurs émotionnels. Dans le cadre de cette recherche nous analyserons un certain nombre de théories pédagogiques, parmi lesquelles les théories de Robert Gagné, Jerome Bruner, Herbert J. Klausmeier et David Merrill, pour chercher à identifier les composantes émotionnelles. Aucune théorie pédagogique n’a mis l’accent sur les émotions au cours du processus d’apprentissage. Ces théories pédagogiques sont développées en tenant compte de plusieurs facteurs externes qui peuvent influencer le processus d’apprentissage. Nous proposons une approche basée sur la prédiction d’émotions qui est liée à de potentielles causes déclenchées par différents facteurs déterminants au cours du processus d’apprentissage. Nous voulons développer une technique qui permette au tuteur de traiter la réaction émotionnelle de l’apprenant à un moment donné au cours de son processus d’apprentissage et de l’inclure dans une méthode pédagogique. Pour atteindre le deuxième objectif de notre recherche, nous utiliserons un module tuteur apprenant basé sur le principe de l’éducation des émotions de l’apprenant, modèle qui vise premièrement sa personnalité et deuxièmement ses connaissances. Si on défini l’apprenant, on peut prédire ses réactions émotionnelles (positives ou négatives) et on peut s’assurer de la bonne disposition de l’apprenant, de sa coopération, sa communication et l’optimisme nécessaires à régler les problèmes émotionnels. Pour atteindre le troisième objectif, nous proposons une technique qui permet au tuteur de résoudre un problème de réaction émotionnelle de l’apprenant à un moment donné du processus d’apprentissage. Nous appliquerons cette technique à une théorie pédagogique. Pour cette première théorie, nous étudierons l’effet produit par certaines stratégies pédagogiques d’un tuteur virtuel au sujet de l’état émotionnel de l’apprenant, et pour ce faire, nous développerons une structure de données en ligne qu’un agent tuteur virtuel peut induire à l’apprenant des émotions positives. Nous analyserons les résultats expérimentaux en utilisant la première théorie et nous les comparerons ensuite avec trois autres théories que nous avons proposées d’étudier. En procédant de la sorte, nous atteindrons le troisième objectif de notre recherche, celui d’expérimenter un modèle d’une théorie pédagogique et de le comparer ensuite avec d’autres théories dans le but de développer ou d’améliorer les méthodes émotionnelles. Nous analyserons les avantages, mais aussi les insuffisances de ces théories par rapport au comportement émotionnel de l’apprenant. En guise de conclusion de cette recherche, nous retiendrons de meilleures théories pédagogiques ou bien nous suggérerons un moyen de les améliorer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ARTICLE 1 : RÉSUMÉ Amputation traumatique: Une étude de cas laotien sur l’indignation et l’injustice. La culture est un contexte essentiel à considérer pour produire un diagnostic et un plan d’intervention psychiatrique. Une perspective culturelle met en relief le contexte social dans lequel les symptômes émergent, et comment ils sont interprétés et gérés par la personne atteinte. Des études ethnoculturelles sur les maladies nous suggèrent que la plupart des gens nous donnent des explications pour leurs symptômes qui ont un fondement culturel. Bien que ces explications contredisent la théorie biomédicale, elles soulagent la souffrance des patients et leur permettent de donner une signification à cette dernière. L’exploration des caractéristiques, contextes et antécédents des symptômes permet au patient de les communiquer au clinicien qui pourrait avoir une explication différente de sa maladie. Cette étude de cas permet de montrer comment le Guide pour Formulation Culturelle du DSM-IV (The DSM-IV Outline for Cultural Formulation) permet aux cliniciens de solliciter un récit du patient en lien avec son expérience de la maladie. Notre étude examine l’utilisation par un patient laotien de « l’indignation sociale » (« Khuâm khum khang ») comme le modèle explicatif culturel de son problème malgré le diagnostic de trouble de stress post-traumatique qui lui fut attribué après une amputation traumatique. L’explication culturelle de son problème a permis au patient d’exprimer la signification personnelle et collective à sa colère et sa frustration, émotions qu’il avait réprimées. Cet idiome culturel lui a permis d’exprimer sa détresse et de réfléchir sur le système de soins de santé et, plus précisément, le contexte dans lequel les symptômes et leurs origines sont racontés et évalués. Cette représentation laotienne a aussi permis aux cliniciens de comprendre des expériences et les explications du client, autrement difficiles à situer dans un contexte biomédical et psychiatrique Euro-américain. Cette étude démontre comment il est possible d’améliorer les interactions entre cliniciens et patients et dès lors la qualité des soins par la compréhension de la perspective du patient et l’utilisation d’une approche culturelle. Mots clés: Culture, signification, idiome culturel, modèle explicatif, Guide pour Formulation culturelle du DSM-IV, indignation sociale, interaction entre patient et intervenant. ARTICLE 2 : RÉSUMÉ Impact de l’utilisation du Guide pour la formulation culturelle du DSM-IV sur la dynamique de conférences multidisciplinaires en santé mentale. La croissance du pluralisme culturel en Amérique du nord a obligé la communauté oeuvrant en santé mentale d’adopter une sensibilité culturelle accrue dans l’exercice de leur métier. Les professionnels en santé mentale doivent prendre conscience du contexte historique et social non seulement de leur clientèle mais également de leur propre profession. Les renseignements exigés pour les soins professionnels proviennent d’ évaluations cliniques. Il faut examiner ces informations dans un cadre culturellement sensible pour pouvoir formuler une évaluation des cas qui permet aux cliniciens de poser un diagnostic juste et précis, et ce, à travers les frontières culturelles du patient aussi bien que celles du professionnel en santé mentale. Cette situation a suscité le développement du Guide pour la formulation culturelle dans la 4ième édition du Manuel diagnostique et statistique des troubles mentaux américain (Diagnostic and Statistical Manual of Mental Disorders (4th ed., DSM-IV) de l’Association psychiatrique américaine. Ce guide est un outil pour aider les cliniciens à obtenir des informations de nature culturelle auprès du client et de sa famille afin de guider la production des soins en santé mentale. L’étude vise l’analyse conversationnelle de la conférence multidisciplinaire comme contexte d’utilisation du Guide pour la formulation culturelle qui sert de cadre dans lequel les pratiques discursives des professionnels de la santé mentale évoluent. Utilisant la perspective théorique de l’interactionnisme symbolique, l’étude examine comment les diverses disciplines de la santé mentale interprètent et conceptualisent les éléments culturels et les implications de ce cadre pour la collaboration interdisciplinaire dans l’évaluation, l’élaboration de plans de traitement et des soins. Mots clé: Guide pour Formulation culturelle – Santé mentale – Psychiatrie transculturelle – Analyse conversationnelle – Interactionnisme symbolique

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La théorie de la guerre juste a fournit les principes qui forment la base de nos intuitions concernant l’éthique de la guerre pendant plus de milles ans. Cependant, la nature de la guerre a changé drastiquement dans les derniers 50 ans. Avec les avancés technologiques, tous les aspects de la guerre, du champ de bataille aux armes utilisées, sont aujourd’hui très différents. Ce qui est proposé dans ce texte est que les principes de jus in bello sont malgré tout encore adéquats pour les guerres contemporaines. Spécifiquement, en utilisant une analyse historique, ce texte argumentera contre la condition de l’urgence suprême de Michael Walzer pour proposer une approche qui laisse les principes de bases du jus in bello intactes. Ce texte suggère que les théoriciens de la guerre juste se penchent sur la question des armes prohibées pour avoir un impacte positif dans le domaine de l’éthique de la guerre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Communication présentée au Premier Congrès des milieux documentaires du Québec le 12 novembre 2009, Palais des congrès de Montréal. Comprend une annexe comportant un exemple d'élément RDA, des exemples de notices RCAA2 et RDA en MARC 21 ainsi qu'une bibliographie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les temps de réponse dans une tache de reconnaissance d’objets visuels diminuent de façon significative lorsque les cibles peuvent être distinguées à partir de deux attributs redondants. Le gain de redondance pour deux attributs est un résultat commun dans la littérature, mais un gain causé par trois attributs redondants n’a été observé que lorsque ces trois attributs venaient de trois modalités différentes (tactile, auditive et visuelle). La présente étude démontre que le gain de redondance pour trois attributs de la même modalité est effectivement possible. Elle inclut aussi une investigation plus détaillée des caractéristiques du gain de redondance. Celles-ci incluent, outre la diminution des temps de réponse, une diminution des temps de réponses minimaux particulièrement et une augmentation de la symétrie de la distribution des temps de réponse. Cette étude présente des indices que ni les modèles de course, ni les modèles de coactivation ne sont en mesure d’expliquer l’ensemble des caractéristiques du gain de redondance. Dans ce contexte, nous introduisons une nouvelle méthode pour évaluer le triple gain de redondance basée sur la performance des cibles doublement redondantes. Le modèle de cascade est présenté afin d’expliquer les résultats de cette étude. Ce modèle comporte plusieurs voies de traitement qui sont déclenchées par une cascade d’activations avant de satisfaire un seul critère de décision. Il offre une approche homogène aux recherches antérieures sur le gain de redondance. L’analyse des caractéristiques des distributions de temps de réponse, soit leur moyenne, leur symétrie, leur décalage ou leur étendue, est un outil essentiel pour cette étude. Il était important de trouver un test statistique capable de refléter les différences au niveau de toutes ces caractéristiques. Nous abordons la problématique d’analyser les temps de réponse sans perte d’information, ainsi que l’insuffisance des méthodes d’analyse communes dans ce contexte, comme grouper les temps de réponses de plusieurs participants (e. g. Vincentizing). Les tests de distributions, le plus connu étant le test de Kolmogorov- Smirnoff, constituent une meilleure alternative pour comparer des distributions, celles des temps de réponse en particulier. Un test encore inconnu en psychologie est introduit : le test d’Anderson-Darling à deux échantillons. Les deux tests sont comparés, et puis nous présentons des indices concluants démontrant la puissance du test d’Anderson-Darling : en comparant des distributions qui varient seulement au niveau de (1) leur décalage, (2) leur étendue, (3) leur symétrie, ou (4) leurs extrémités, nous pouvons affirmer que le test d’Anderson-Darling reconnait mieux les différences. De plus, le test d’Anderson-Darling a un taux d’erreur de type I qui correspond exactement à l’alpha tandis que le test de Kolmogorov-Smirnoff est trop conservateur. En conséquence, le test d’Anderson-Darling nécessite moins de données pour atteindre une puissance statistique suffisante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail de maîtrise a mené à la rédaction d'un article (Physical Review A 80, 062319 (2009)).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Facile de discourir sur la paix ; complexe, par contre, d’évaluer si paroles et gestes y contribuent vraiment. De manière critique, ce mémoire cherche à contextualiser l’émergence de la nation israélienne de 1881 à 1948, de même qu’un certain nombre de forces pacifistes juives, religieuses comme séculières, sionistes comme anti-sionistes, que cette société a engendrées ou provoquées de la fin du XIXe siècle à aujourd’hui. Dans un premier temps, quatre stratégies utilisées pour construire l’État juif sont explorées : la voie pratique (l’établissement de mochavot, kibboutzim et mochavim), la voie diplomatique (le lobbying de Herzl et Weizmann), la voie sociopolitique (la formation de syndicats, de l’Agence juive et du Va’ad Leoumi) et enfin la voie militaire (la mise sur pied d’organisations paramilitaires telles la Hagana, l’Irgoun, le Lehi et le Palmah). Cette exploration permet de mieux camper le problème de la légalité et de la légitimité des nations palestinienne et israélienne. Dans un deuxième temps, une approche conceptuelle et une approche empirique sont combinées pour mieux comprendre ce qu’est un camp de la paix. L’exploration conceptuelle remet en question les critères qu’utilisent certains chercheurs afin d’identifier si une organisation contribue, ou non, à la construction de la paix. L’exploration empirique trace les contours de deux camps de la paix israéliens : les militants de la gauche séculière achkenazi (un pacifisme qui a émergé dans les années 1970) et les religieux haredim (un pacifisme opposé à l’idéologie sioniste dès ses débuts). Ce survol permet de saisir que tout système de croyances peut provoquer la guerre autant que la paix. La conclusion discute des défis du dialogue intercivilisationnel, des défis tant intranationaux (l’harmonie sociale israélienne entre les juifs achkenazim, mizrahim, russes, éthiopiens, etc.) qu’internationaux (la paix entre les Palestiniens et les Israéliens).