462 resultados para Anarchistes classiques
Resumo:
La dopamine (DA) est un neurotransmetteur impliqué dans la modulation de fonctions essentielles du cerveau telles que le contrôle des mouvements volontaires, le système de récompense et certains aspects de la cognition. Depuis sa découverte, la DA a attiré énormément d'attention scientifique en partie à cause des pathologies majeures associées aux dysfonctions du système DAergique, comme la maladie de Parkinson, la schizophrénie et la toxicomanie. On retrouve la majorité des neurones qui synthétisent la DA au niveau du mésencéphale ventral, dans les noyaux de la substance noire compacte (SNc) et de l'aire tegmentaire ventrale (ATV). Ces neurones projettent leurs axones dans un très dense réseau de fibres qui s'organisent en trois voies DAergiques classiques: la voie nigrostriée, la voie mésolimbique et la voie mésocorticale. La transmission DAergique s'effectue par l'activation de récepteurs de la DA qui font partie de la grande famille des récepteurs couplés aux protéines G (RCPGs). Les récepteurs de la DA sont abondamment exprimés aussi bien par les neurones DAergiques que par les neurones des régions cibles, ce qui implique que la compréhension de la signalisation et des fonctions particulières des récepteurs de la DA pré- et postsynaptiques représente un enjeu crucial dans l'étude du système DAergique. Cette thèse de doctorat se sépare donc en deux volets distincts: le premier s'intéresse à la régulation du récepteur D2 présynaptique par la neurotensine (NT), un neuropeptide intimement lié à la modulation du système DAergique; le deuxième s'intéresse au côté postsynaptique du système DAergique, plus particulièrement à la ségrégation de l'expression des récepteurs de la DA dans le striatum et aux fonctions de ces récepteurs dans l'établissement des circuits neuronaux excitateurs prenant place dans cette région. Dans la première partie de cette thèse, nous démontrons que l'activation du récepteur à haute affinité de la NT, le NTR1, provoque une internalisation hétérologue du récepteur D2, avec une amplitude et une cinétique différente selon l'isoforme D2 observé. Cette internalisation hétérologue dépend de la protéine kinase C (PKC), et nous montrons que la surexpression d'un récepteur D2 muté sur des sites de phosphorylation par la PKC ii ainsi que l'inhibition de l'expression de β-arrestine1 par ARNs interférents dans des neurones DAergiques bloquent complètement l'interaction fonctionnelle entre le NTR1 et le D2. Dans la deuxième partie de cette thèse, nous démontrons d'abord que la ségrégation de l'expression des récepteurs D1 et D2 dans le striatum est déjà bien établie dès le 18e jour embryonnaire, bien qu'elle progresse encore significativement aux jours 0 et 14 postnataux. Nos résultats témoignent aussi d'un maintien complet de cette ségrégation lorsque les neurones striataux sont mis en culture aussi bien en présence ou en absence de neurones corticaux et/ou mésencéphaliques. Ensuite, nous montrons que la présence de neurones mésencéphaliques stimule la formation d’épines et de synapses excitatrices sur les neurones striataux épineux exprimant le récepteur D2 (MSN-D2). Le co-phénotype glutamatergique des neurones dopaminergiques semble nécessaire à une grande partie de cet effet. Par ailleurs, le nombre total de terminaisons excitatrices formées sur les MSN-D2 par les neurones corticaux et mésencéphaliques apparaît être régit par un équilibre dynamique. Finalement, nous démontrons que le blocage de la signalisation des récepteurs D1 et D2 de la DA n'est pas nécessaire pour la formation des synapses excitatrices des MSN-D2, alors que l'antagonisme des récepteurs glutamatergiques ionotropes diminue la densité d'épines dendritiques et contrôle de façon opposée le nombre de terminaisons excitatrices corticales et mésencéphaliques. Globalement, ce travail représente une contribution significative pour une meilleure compréhension du fonctionnement normal du système DAergique. Ces découvertes sont susceptibles d’être utiles pour mieux comprendre les dysfonctions de ce système dans le cadre de pathologies du cerveau comme la maladie de Parkinson.
Resumo:
Réalisé en majeure partie sous la tutelle de feu le Professeur Paul Arminjon. Après sa disparition, le Docteur Aziz Madrane a pris la relève de la direction de mes travaux.
Resumo:
Ma thèse propose une analyse attentive de la ré-écriture de l'histoire articulée dans trois romans du collectif d'écrivains italiens publiant sous le pseudonyme Wu Ming: "Q", "54" et "Manituana". Partant du pamphlet publié par les Wu Ming en 2008 sur leur conception du roman historique et de l’écriture romanesque en général, the New Italian Epic (NIE), je propose deux angles d’approche pour mettre en évidence la relecture de l’histoire se dessinant dans les romans cités ci-dessus: la notion du regard oblique (qui est mentionnée dans le NIE); et le concept de multitude. La technique du regard oblique implique une réflexivité de la narration, une mise en abîme du processus narratif qui est effectuéé par le biais d’un point de vue insolite. Ce dernier peut provenir d'un animal, d’un objet animé, ou même d’un objet mystérieux comme le flux immatériel. Cette technique a déjà des précédents littéraires dans l’oeuvre d’écrivains tels que Italo Calvino ou Thomas Pynchon, mais dans la nouvelle forme qu’elle acquiert dans les textes des Wu Ming, elle permet l’articulation d’une relecture transversale de l’histoire. Cette relecture transversale émergeant dans les romans des Wu Ming est analysée dans la première partie de la thèse. La conceptualisation du regard oblique que je développe dans cette partie se base sur la théorie de l'anamorphose de Jacques Lacan, ainsi que sur le concept de la "troisième personne" proposé récemment par le philosophe Roberto Esposito. La seconde partie de la thèse aborde la problématique de la confrontation de l'écriture des Wu Ming à la situation socio-politique internationale contemporaine, soit comment leur ré-écriture de l'histoire s'insère dans la situation biopolitique globale. Dans les romans des Wu Ming on voit surgir une interprétation de cette situation globale qui dépasse les notions classiques de l'État et du citoyen. Le concept du biopolitique se prête à diverses interprétations: dans ses écrits des années 1970, Michel Foucault, qui est un des théoriciens majeurs du biopouvoir et de la biopolitique, ne parvient pas à proposer une interprétation unique et précise de ce dernier concept. Plusieurs philosophes italiens ont repris ce discours en le développant chacun à sa manière. Certains, comme Paolo Virno et, un peu plus tard Toni Negri, voient dans la notion de la Multitude une possibilité pour équilibrer le rapport pouvoir/personne et par conséquent pour développer de nouvelles possibilités révolutionnaires pour la déconstruction du biopouvoir. Les Wu Ming semblent suivre la voie positive de la multitude, qui selon leur conception correspond plus à une interprétation néo-marxiste de l’histoire.
Resumo:
Dans cet article, l’auteur Ejan Mackaay présente les caractéristiques fondamentales du cyberespace et analyse les relations économiques et juridiques entre les acteurs du marché virtuel de l’Internet. Cette analyse s'inscrit en marge des travaux de Niva Elkin-Koren et Eli Salzberger, dont elle suit le plan. D'une part, il y est précisé que le marché virtuel de l’Internet remet en question l’analyse classique des interactions entre les acteurs économiques. La nouvelle analyse néo-institutionnel présente un cadre analytique qui relève plus adéquatement les relations complexes entre les acteurs économiques du marché virtuel que les théories économiques classiques. Cette nouvelle approche se fonde sur le concept que les acteurs économiques utilisent les ressources afin d’être intégrés au sein des institutions les plus actives et efficaces. D'autre part, il est fait mention que le cyberespace présente plusieurs caractéristiques d’un marché économique. Toutefois, étant virtuel, le cyberespace ne présente pas les mêmes limites qu’un marché physique. En effet, dans ce dernier, certaines limites physiques imposent diverses règles de comportement. Le législateur doit donc prendre conscience de l’absence de telles limites et des normes qu’elles imposaient afin de légiférer adéquatement sur les échanges dans le cyberespace. Ensuite, afin d’illustrer les divergences entre les marchés physiques et virtuels, une analyse est faite au regard des principaux échecs de marchés, soit l’établissement d’un monopole, l’accès aux biens publics, les informations imparfaites et les externalités négatives. Un monopole est un échec de marché qui restreint considérablement la compétition, peut être accrut par l’effet boule de neige et, s’il n’est pas contrôlé, peut mener à un effet de blocage ou d’exclusion de certains acteurs. Le second échec analysé est l’accès aux biens publics. Dans le cyberespace, le principal bien public est l’information qui peut être échangée entre les utilisateurs. Toutefois, certaines règles de droits d’auteur et de propriété intellectuelle peuvent considérablement limiter l’accès à ce bien. L’information incomplète des acteurs économiques constitue un autre échec de marché, mais le cyberespace offre plusieurs moyens d’accéder à l’information pertinente aux transactions éclairées. Enfin, les externalités négatives peuvent généralement être considérées comme des effets secondaires des échanges commerciaux. Toutefois il est souligné que ces dernières ont un effet très limité dans le cyberespace, étant donné le plus grand nombre d’options de retrait et la facilité accrue de l’exercer. Enfin, il est rappelé que le commerce électronique et le cyberespace remettent en questions toutes les théories économiques et politiques traditionnelles et offrent une perspective nouvelle sur le phénomène de la formation des normes.
Resumo:
Les institutions juridiques ont été bâties autour des réalités connues depuis des millénaires, que nous appelons de nos jours des phénomènes du monde réel. Ces phénomènes retrouvent présentement un nouveau théâtre – le cyberespace, et les règles du droit font face au défi de s’approprier ce nouvel environnement. Entre autres, les technologies du cyberespace ont mis au monde divers moyens qui nous permettent de nous identifier et de manifester notre attitude envers les actes juridiques – des finalités qui ont été assurées de longue date par la signature manuscrite. Bien que ces nouveaux moyens aient mérité un nom similaire à leur contrepartie traditionnelle – l’appellation de signature électronique, ils restent des phénomènes dont la proximité avec la signature manuscrite est discutable. Force est de constater que le seul point commun entre les moyens classiques et électroniques de signer réside dans les fonctions qu’ils remplissent. C’est en se basant sur ces fonctions communes que le droit a adopté une attitude identique envers les moyens d’authentification traditionnels et électroniques et a accueilli ces derniers sous l’emprise de ses institutions. Cependant, ceci ne signifie pas que ces institutions se soient avérées appropriées et qu’elles ne demandent aucun ajustement. Un des buts de notre étude sera de mettre en relief les moyens d’adaptation qu’offre le droit pour réconcilier ces deux environnements. Ainsi, pour ajuster l’institution de la signature aux phénomènes électroniques, le droit s’est tourné vers le standard de fiabilité de la signature électronique. Le standard de fiabilité est un complément de l’institution juridique de signature qui ne se rapporte qu’à la signature électronique et dont cette étude démontrera les applications. Les composantes du standard de fiabilité qui occuperont un deuxième volet de notre étude représentent un ensemble de règles techniques liées à la signature électronique. Ainsi, comme le standard de fiabilité puise sa substance dans les propriétés de l’architecture du cyberespace, l’attitude du droit envers la signature électronique s’avère tributaire de la morphologie du cyberespace. Étant donné que les possibilités qui nous sont offertes par la technologie continue à déterminer la réglementation juridique, il est légitime de conclure que l’examen des tendances dans l’évolution du cyberespace nous fournira un point de vue prospectif sur l’évolution des règles du droit.
Resumo:
La plupart des conditions détectées par le dépistage néonatal sont reliées à l'une des enzymes qui dégradent les acyls-CoA mitochondriaux. Le rôle physiopathologique des acyls-CoA dans ces maladies est peu connue, en partie parce que les esters liés au CoA sont intracellulaires et les échantillons tissulaires de patients humains ne sont généralement pas disponibles. Nous avons créé une modèle animal murin de l'une de ces maladies, la déficience en 3-hydroxy-3-methylglutaryl-CoA lyase (HL), dans le foie (souris HLLKO). HL est la dernière enzyme de la cétogenèse et de la dégradation de la leucine. Une déficience chronique en HL et les crises métaboliques aigües, produisent chacune un portrait anormal et distinct d'acyls-CoA hépatiques. Ces profils ne sont pas prévisibles à partir des niveaux d'acides organiques urinaires et d'acylcarnitines plasmatiques. La cétogenèse est indétectable dans les hépatocytes HLLKO. Dans les mitochondries HLLKO isolées, le dégagement de 14CO2 à partir du [2-14C]pyruvate a diminué en présence de 2-ketoisocaproate (KIC), un métabolite de la leucine. Au test de tolérance au pyruvate, une mesure de la gluconéogenèse, les souris HLLKO ne présentent pas la réponse hyperglycémique normale. L'hyperammoniémie et l'hypoglycémie, des signes classiques de plusieurs erreurs innées du métabolisme (EIM) des acyls-CoA, surviennent de façon spontanée chez des souris HLLKO et sont inductibles par l'administration de KIC. Une charge en KIC augmente le niveau d'acyls-CoA reliés à la leucine et diminue le niveau d'acétyl-CoA. Les mitochondries des hépatocytes des souris HLLKO traitées avec KIC présentent un gonflement marqué. L'hyperammoniémie des souris HLLKO répond au traitement par l'acide N-carbamyl-L-glutamique. Ce composé permet de contourner une enzyme acétyl-CoA-dépendante essentielle pour l’uréogenèse, le N-acétylglutamate synthase. Ceci démontre un mécanisme d’hyperammoniémie lié aux acyls-CoA. Dans une deuxième EIM des acyls-CoA, la souris SCADD, déficiente en déshydrogénase des acyls-CoA à chaînes courtes. Le profil des acyls-CoA hépatiques montre un niveau élevé du butyryl-CoA particulièrement après un jeûne et après une charge en triglycérides à chaîne moyenne précurseurs du butyryl-CoA.
Resumo:
Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés.
Resumo:
Key agreement is a cryptographic scenario between two legitimate parties, who need to establish a common secret key over a public authenticated channel, and an eavesdropper who intercepts all their messages in order to learn the secret. We consider query complexity in which we count only the number of evaluations (queries) of a given black-box function, and classical communication channels. Ralph Merkle provided the first unclassified scheme for secure communications over insecure channels. When legitimate parties are willing to ask O(N) queries for some parameter N, any classical eavesdropper needs Omega(N^2) queries before being able to learn their secret, which is is optimal. However, a quantum eavesdropper can break this scheme in O(N) queries. Furthermore, it was conjectured that any scheme, in which legitimate parties are classical, could be broken in O(N) quantum queries. In this thesis, we introduce protocols à la Merkle that fall into two categories. When legitimate parties are restricted to use classical computers, we offer the first secure classical scheme. It requires Omega(N^{13/12}) queries of a quantum eavesdropper to learn the secret. We give another protocol having security of Omega(N^{7/6}) queries. Furthermore, for any k>= 2, we introduce a classical protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1/2+k/{k+1}}) queries, approaching Theta(N^{3/2}) when k increases. When legitimate parties are provided with quantum computers, we present two quantum protocols improving on the best known scheme before this work. Furthermore, for any k>= 2, we give a quantum protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1+{k}/{k+1}})} queries, approaching Theta(N^{2}) when k increases.
Resumo:
Cette thèse analyse les incidences des avancées d’une rationalité technoscientifique sur les définitions classiques de l’humain. Elle discerne, dans sa présentation de ce phénomène, le lien entre la technoscience, la cybernétique et le posthumanisme qui en découle. Elle souligne les mutations et projets de remodèlement de l’humain qui traversent cette rationalité technoscientifique et son paradigme informationnel cybernéticien. Cette rationalité technoscientifique, polémique aux ontologies dites conservatrices, soutenant une vision amorale de la RDTS (Recherche & Développement technoscientifique), accouche d’un posthumanisme – en rapport difficile avec le corps – qui bouscule les définitions classiques de l’humain judéo-chrétien, dont l’anthropologie théologique évangélique. Traitant, dans une première grande section de trois chapitres, de la rationalité technoscientifique et de ses visions de l’humain, la thèse permet la mise en exergue des enjeux principaux se dégageant des nouveaux questionnements des anthropologies classiques soumises aux pressions de la RDTS. Dans la deuxième partie, encore de trois chapitres, qui porte sur l’anthropologie évangélique, la thèse situe les Évangéliques historiquement et doctrinalement, pour mieux relever les éléments identitaires du mouvement et les grandes déterminations théologiques à l’intérieur desquels se déploie cette anthropologie. La présentation de cette dernière se décline à partir des différentes compréhensions du motif anthropologique évangélique par excellence, l’imago Dei et le concept de l’unicité de l’humain dont les fondements semblent de plus en plus fragiles à la lumière des conclusions des recherches en paléontologie et en cognition animale. Si plusieurs défis importants sont posés à l’anthropologie évangélique, la thèse, se limitant à une critique évangélique de la rationalité technoscientifique et des réponses évangéliques à cette dernière, analyse une question essentielle pour la pensée évangélique, celle de l’humain homo ii faber et l’anthropotechnie, versus le remodèlement de l’humain autour des interrogations posthumanistes sur le corps et la question du salut. Cette thèse apporte une contribution 1) sur le plan de la synthèse qu’elle présente de l’anthropologie évangélique, 2) de la compréhension de l’identité évangélique, sa singularité et sa diversité, et 3) des manières dont une théologie évangélique peut entrer en dialogue avec la raison technoscientifique. Elle lève le voile sur l’utilisation tous azimuts du concept de l’imago Dei et de son insuffisance, à lui seul, pour apprécier les véritables enjeux du débat avec la rationalité technoscientique. Elle insinue que ce motif doit être analysé en conjonction avec la christologie dans l’approfondissement du Logos incarné, pour en mieux apprécier l'étendue. Ce n'est que dans ce lien qu’ont pu être trouvés des éléments capables d'articuler ce qui est en germe dans l'imago Dei et suggérer une définition de l’humain capable de prendre en considération les défis d’une rationalité technoscientifique et de son posthumanisme.
Resumo:
Comment expliquer la spécificité de la participation politique des immigrants au Québec, alors qu’elle échappe aux explications usuelles ? Si une multitude de facteurs expliquent bien la participation politique dans un cadre général comme le produit d’une rationalité individuelle, rationalité vers laquelle nos politiques sont orienté, ces facteurs peinent empiriquement à saisir pourquoi les immigrants participent et pourquoi ils évitent certains espaces politiques. Plutôt que de reprendre une approche fondée sur une rationalité cognitive ce travail suggère de compléter les approches classiques par celles de la psychologie sociale, et de choisir un spectre original axé sur les facteurs de développement d’un sentiment d’appartenance au Québec socio-affectif. Deux intérêts majeurs accompagnent cette démarche. En premier lieu, elle permet d’inclure le rôle des émotions dans la compréhension de la participation politique et ouvre la voie à des explications complémentaires jusqu'alors négligées. En second lieu, elle permet de séparer la dimension identitaire de la dimension affective, encore fusionnées dans la plupart des approches. En cela elle offre au chercheur un nouveau cadre conceptuel qui permet la prise en compte du poids des affects dans l’étude de la participation politique, dans des cas atypiques tels que l’immigration ou les sociétés en mutation rapide. Enfin, la recherche effectuée dans ce mémoire permet d’éclaircir le comportement politique des immigrants du Québec en démontrant l’échec des politiques d’intégration à développer un sentiment d’appartenance chez ses arrivants.
Resumo:
Please find the referenced videos attached
Resumo:
L’école et les programmes de formation à l’enseignement ont connu beaucoup de transformations au cours des dernières décennies. Ces changements sont notamment associés au mouvement de la professionnalisation de l’enseignement qui met l’accent, entre autres, sur l’importance de développer une réflexivité critique chez les futurs enseignants à travers des cours théoriques et des stages. Dans cette optique, le Ministère de l’éducation, des loisirs et du sport (MELS) et les institutions universitaires ont la responsabilité d’interpréter les caractéristiques propres à une pensée critique et de les intégrer à la formation initiale des enseignants. Cependant, bien que le concept de pensée critique ait fait l’objet de nombreuses recherches théoriques et empiriques depuis les travaux sur la pensée réfléchie de Dewey, il n’existe toujours pas une définition consensuelle du concept. Néanmoins les philosophes « classiques » (Ennis, McPeck, Paul, Siegel, Lipman) s’entendent pour soutenir qu’une pensée critique présuppose un doute méthodique qui conduit à la mobilisation d’habiletés et d’attitudes intellectuelles complexes, reliées à l’évaluation des faits et des situations. De leur côté, des épistémologues issus du champ de la psychologie développementale (King & Kitchener, Kuhn, Perry, et d’autres) ont élaboré des modèles de développement d’une pensée critique basés sur l’identification de stades. L’un des plus récents modèles est issu des sciences de l’éducation (Daniel et al.) et sera utilisé comme grille pour analyser nos données. Il présuppose quatre modes de pensée (logique, métacognitif, créatif et responsable) et leur complexification à partir de trois perspectives épistémologiques (égocentrisme, relativisme et intersubjectivité). La présente étude, de nature qualitative, cherche à d’identifier la réflexivité (simple ou critique) visée par les textes officiels du MELS, stimulée par l’Université de Montréal (UdeM) dans le cadre de la formation initiale des étudiants inscrits en Éducation physique et à la santé (ÉPS) et manifestée par ces étudiants en fin de formation. Pour ce faire, nous avons eu recours à une analyse de contenu, et à une analyse basée sur le modèle développemental de Daniel et ses collègues. Ces analyses ont été conduites sur le référentiel de compétences du MELS, sur les indicateurs de compétences et les consignes de rédaction des rapports synthèses de l’UdeM, ainsi que sur des verbatim d’entrevues individuelles et de groupe et sur les rapports synthèses des participants (au nombre de neuf). Les résultats d’analyse du référentiel de compétences et des indicateurs de compétences montrent que les réflexivités visée et stimulée sont de l’ordre d’une pensée réfléchie mais pas nécessairement d’une pensée critique. Parallèlement, la réflexivité manifestée par les stagiaires lors des entrevues ainsi que dans leurs rapports synthèse s’est révélée être de l’ordre d’une pensée réfléchie pas nécessairement critique même si des manifestations d’une pensée critique ont occasionnellement pu être observées.
Resumo:
De plus en plus de recherches sur les Interactions Humain-Machine (IHM) tentent d’effectuer des analyses fines de l’interaction afin de faire ressortir ce qui influence les comportements des utilisateurs. Tant au niveau de l’évaluation de la performance que de l’expérience des utilisateurs, on note qu’une attention particulière est maintenant portée aux réactions émotionnelles et cognitives lors de l’interaction. Les approches qualitatives standards sont limitées, car elles se fondent sur l’observation et des entrevues après l’interaction, limitant ainsi la précision du diagnostic. L’expérience utilisateur et les réactions émotionnelles étant de nature hautement dynamique et contextualisée, les approches d’évaluation doivent l’être de même afin de permettre un diagnostic précis de l’interaction. Cette thèse présente une approche d’évaluation quantitative et dynamique qui permet de contextualiser les réactions des utilisateurs afin d’en identifier les antécédents dans l’interaction avec un système. Pour ce faire, ce travail s’articule autour de trois axes. 1) La reconnaissance automatique des buts et de la structure de tâches de l’utilisateur, à l’aide de mesures oculométriques et d’activité dans l’environnement par apprentissage machine. 2) L’inférence de construits psychologiques (activation, valence émotionnelle et charge cognitive) via l’analyse des signaux physiologiques. 3) Le diagnostic de l‘interaction reposant sur le couplage dynamique des deux précédentes opérations. Les idées et le développement de notre approche sont illustrés par leur application dans deux contextes expérimentaux : le commerce électronique et l’apprentissage par simulation. Nous présentons aussi l’outil informatique complet qui a été implémenté afin de permettre à des professionnels en évaluation (ex. : ergonomes, concepteurs de jeux, formateurs) d’utiliser l’approche proposée pour l’évaluation d’IHM. Celui-ci est conçu de manière à faciliter la triangulation des appareils de mesure impliqués dans ce travail et à s’intégrer aux méthodes classiques d’évaluation de l’interaction (ex. : questionnaires et codage des observations).
Resumo:
The media attribute a great significance to criminal events. However, those are not all reported in the same way. The media treatment of one generally depends of its sensationalism. The more impressive the event is, the more importance will be given by the media. Although street gangs have been very much present in the news content for several years, very few studies have assessed the extent to which the phenomenon is appealing to the media in relation to all criminal news. Considering the importance of media content and its impact on our society, the present study focuses on this question in order to determine whether the news about street gangs are treated differently. The sample of this study consists of 417 reports from Radio-Canada’s TV channel and Internet content, from that 210 are related to street gangs and 207 don’t bear on the phenomenon. The results suggest that the audiovisual and digital media present a more specific aspect of the phenomenon. Reports about street gangs are also more detailed and benefit from a greater mediatic treatment, regardless the medium of information used. Independently of the components that determine what make good news, the events involving street gangs and their members seem to receive a special media treatment.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).