999 resultados para Représentation mentale
Resumo:
Dans le domaine des neurosciences computationnelles, l'hypothèse a été émise que le système visuel, depuis la rétine et jusqu'au cortex visuel primaire au moins, ajuste continuellement un modèle probabiliste avec des variables latentes, à son flux de perceptions. Ni le modèle exact, ni la méthode exacte utilisée pour l'ajustement ne sont connus, mais les algorithmes existants qui permettent l'ajustement de tels modèles ont besoin de faire une estimation conditionnelle des variables latentes. Cela nous peut nous aider à comprendre pourquoi le système visuel pourrait ajuster un tel modèle; si le modèle est approprié, ces estimé conditionnels peuvent aussi former une excellente représentation, qui permettent d'analyser le contenu sémantique des images perçues. Le travail présenté ici utilise la performance en classification d'images (discrimination entre des types d'objets communs) comme base pour comparer des modèles du système visuel, et des algorithmes pour ajuster ces modèles (vus comme des densités de probabilité) à des images. Cette thèse (a) montre que des modèles basés sur les cellules complexes de l'aire visuelle V1 généralisent mieux à partir d'exemples d'entraînement étiquetés que les réseaux de neurones conventionnels, dont les unités cachées sont plus semblables aux cellules simples de V1; (b) présente une nouvelle interprétation des modèles du système visuels basés sur des cellules complexes, comme distributions de probabilités, ainsi que de nouveaux algorithmes pour les ajuster à des données; et (c) montre que ces modèles forment des représentations qui sont meilleures pour la classification d'images, après avoir été entraînés comme des modèles de probabilités. Deux innovations techniques additionnelles, qui ont rendu ce travail possible, sont également décrites : un algorithme de recherche aléatoire pour sélectionner des hyper-paramètres, et un compilateur pour des expressions mathématiques matricielles, qui peut optimiser ces expressions pour processeur central (CPU) et graphique (GPU).
Resumo:
À partir des années 90, parmi les transformations qu’entraine l’effondrement de l’Union soviétique à Cuba et au milieu des redéfinitions de la cubanité, apparaissent des œuvres narratives contre-discursives et actualisées sur la négritude, la race et le racisme. La représentation du Noir dans les romans de cette période prend toute sa signification du fait que se configure alors un champ de discussion dans lequel convergent différentes modalités et perceptions. Notre recherche explore le terrain discursif entourant les définitions de la cubanité et la négritude qui circulent à cette période à Cuba, pour ensuite voir de quelle manière elles se répercutent sur les auteurs et textes littéraires. À travers l’analyse des oeuvres des écrivains Eliseo Altuanga et Marta Rojas, cette thèse reconstruit leurs dialogues avec l’historiographie littéraire cubaine, l’Histoire de l’Ile et les discours plus actualisés quant au débat ethno-racial. Au moyen de visualisations opposées par rapport à l’histoire de Cuba, Altuanga et Rojas élaborent des œuvres et des personnages avec des différences idéoesthétiques marquées. Ainsi, le premier focalisera sur la recherche d’une rupture épistémologique quant à la conception du Noir dans l’imaginaire cubain, soulignant les événements de l’histoire nationale qui considèrent le Noir comme protagoniste, ce qui renforce l’idée d’une continuité dans son état de subalternisation. En ce qui concerne les protagonistes de Rojas, elle fait appel à des mulâtresses pour raconter le processus de transculturation par lequel, à son point de vue, s’est consolidée l’identité culturelle actuelle des Cubains. Suspendue dans un espace d’énonciation intermédiaire entre les premières décennies de la Révolution et la Période spéciale en Temps de Paix, Rojas construit une trilogie romanesque qui s’efforce à signaler la coupure entre les périodes pré- et postrévolutionnaires quant au traitement du Noir.
Resumo:
Ce mémoire portera sur le problème de la signification, dans la pensée de Heidegger, de la métaphysique moderne, à partir de la conception de l’histoire de l’être qu’il développe dans les années 1930. Plus précisément, nous nous baserons sur l’écrit Die Zeit des Weltbildes, que l’on retrouve dans le recueil nommé Holzwege, mais également, dans une moindre mesure, sur l’écrit Niezsches Wort « Gott ist tot » du même recueil. Nous commencerons par introduire le lecteur à l’idée qu’il se fait de la métaphysique en général dans son rapport à l’homme, et du nihilisme que constitue son histoire, lequel s’accentue à l’époque moderne. Nous rentournerons alors brièvement aux premiers commencements de la métaphysique, chez Parménide et Platon principalement, dans le but de dégager les aspects de la métaphysique moderne qui y ont trouvé leur source. C’est alors que nous entrerons dans le vif du sujet, en expliquant en quoi consiste l’inauguration de la métaphysique moderne chez Descartes qui, face à l’obligation religieuse, pose la confirmation autonome de la vérité qui trouve son lieu propre dans la conscience de soi. Il sera dès lors question de montrer précisément comment se fait cette confirmation par soi-même du vrai, au travers de certaines notions centrales de l’analyse heideggerienne : la pro-position, la présentation et la représentation, l’instauration, la production, l’obtention, la préhension et la compréhension, notamment. Nous analyserons ensuite le mouvement de la volonté du sujet qui sous-tend cette confirmation autonome du savoir jusqu’à son aboutissement chez des penseurs tels que Schopenhauer. Nous mettrons par le fait même en évidence le rapport fondamental, souligné par Heidegger, entre le sujet et son objet, l’homme moderne se soulèvant et se donnant lui-même le statut éminent de centre de référence de toute chose, rapportant à lui-même tout chose. Ce mémoire se terminera par l’analyse que fait Heidegger d’un phénomène propre à la modernité, et donc émanent de la métaphysique qui aura été examinée au préalable, soit la science moderne. Celle-ci constitue la voie privilégiée où l’homme moderne, après avoir sciemment pris position au centre du monde, peut « procéder » dans le monde comme dans son royaume, un monde qui se révèle alors comme étant essentiellement à sa disposition. La science, émanant selon Heidegger de la conception moderne de la vérité et de l’étant, se révèle alors non seulement comme une réalisation de la métaphysique qui aura été analysée dans les chapitres précédents, mais peut-être même comme le phénomène duquel Heidegger semble s’être inspiré pour développer son idée de la métaphysique moderne.
Resumo:
Cette étude tente de saisir l’ambiguïté du propos pessimiste dans trois romans de Catulle Mendès (1841-1909). D’un côté, la construction du héros suggère une critique psychopathologique du pessimisme conforme au moralisme de la doxa fin-de-siècle qui dénie à cette pensée toute valeur spéculative. De l’autre, la représentation d’une société dissimulatrice contre laquelle le héros est en lutte confère à celui-ci un pouvoir de dévoilement. Cette tension se trouve condensée dans le concept de monstre qui fait l’objet d’une double lecture, à la fois pathologique et herméneutique. La conscience du héros étant conforme par sa stérilité à la conscience décadente telle qu’elle est définie par Jankélévitch, le système de pensée qu’elle féconde peut être assimilé à un monstre. Or, le sens premier du monstre pessimiste est le caractère inhumain de la vérité, autant comme quête que comme révélation. Seul un monstre peut porter la vérité car celle-ci est à sa mesure, intolérable. Elle renvoie l’homme à la toute-puissance de l’instinct dont découlent ses idéaux. Partant d’une conception pessimiste, le propos de Mendès débouche ainsi sur une morale idéaliste qui prône contre l’universelle tare le mensonge universel.
Resumo:
Cette étude de cas, composée de trois articles, examine les diverses sources d’explication de l’écart salarial selon le genre chez les professeurs d’une grande université de recherche canadienne. Le premier article analyse les écarts selon le genre sur les primes “de marché” à partir de données d’un sondage réalisé auprès des professeurs en 2002. Une analyse des correspondances donne une solution à deux facteurs dans laquelle le second facteur oppose clairement les professeurs qui ont reçu une prime à ceux qui n’en n’ont pas reçue. Le genre est fortement associé à ce facteur, la catégorie “femme” se retrouvant du côté de l’axe associé à l’absence de primes de marché. Les résultats de la régression logistique confirment que le secteur d’activité, la fréquence des contrats de recherche, la valorisation du salaire ainsi que le rang combiné à l’ancienneté sont reliés à la présence de primes de marché, tel que proposé par les hypothèses. Toutefois, même après avoir contrôlé pour ces relations, les femmes sont toujours près de trois fois moins susceptibles de s’être vu attribuer des primes de marché que leurs homologues masculins. Dans l’ensemble, les résultats suggèrent que dans un contexte où les salaires sont déterminés par convention collective, la réindividualisation du processus de détermination des salaires — en particulier le versement de primes de marché aux professeurs d’université — peut favoriser la réapparition d’écarts de salaire selon le genre. Le second article est réalisé à partir de données administratives portant sur les années 1997 à 2006. Les contributions respectives de quatre composantes de la rémunération à l’écart salarial selon le genre y sont analysées, soit le salaire de base, l’accès au rang de professeur titulaire, l’accès aux primes de marché et chaires de recherche du Canada, de même que les montants reçus. Les composantes varient quant à leur degré de formalisation. Ceci permet de tester l’hypothèse selon laquelle l’ampleur de l’écart salarial selon le genre varie en fonction du degré de formalisation des composantes salariales. Nous déterminons également dans quelle mesure l’écart selon le genre sur les diverses composantes de la rémunération varie en fonction de la représentation relative des femmes professeurs au sein des unités. Les résultats démontrent l’existence de variations dans l’ampleur des différences selon le genre en fonction du degré de formalisation des pratiques de rémunération. Qui plus est, après contrôles, la rémunération est plus faible dans les unités où les femmes sont fortement représentées. Le dernier article examine les mécanismes pouvant mener à un écart selon le genre en ce qui a trait à l’accès aux primes de marché chez les professeurs de l’institution. Les processus d’attribution de ces suppléments salariaux sont examinés à partir d’entretiens réalisés avec 17 administrateurs à tous les niveaux hiérarchiques de l’institution et dans une diversité d’unités académiques. Les résultats suggèrent que les différences selon le genre pourraient être liées à des caractéristiques spécifiques du processus d’attribution et à une distribution inégale des primes aux unités à forte représentation féminine. De façon générale, les résultats démontrent que l’écart de rémunération selon le genre chez les professeurs de cette université n’est pas totalement expliqué par des différences dans les caractéristiques individuelles des hommes et femmes. L’analyse révèle que l’écart réside dans des différences selon le genre en ce qui a trait à l’accès aux primes de marché et aux chaires de recherches du Canada et, dans une moindre mesure, au rang de professeur titulaire. Aucune différence n’est observée sur le salaire de base et le montant des primes salariales reçues, que celles-ci soient dites de “marché” ou associées à une chaire de recherche du Canada. Qui plus est, on constate que la rémunération est plus faible dans les unités où les femmes sont le mieux représentées. L’accès différencié selon le genre aux primes de marché qui est observé pourrait être lié à certains processus organisationnels qui limitent les probabilités d’octrois à des femmes. Les femmes pourraient être particulièrement désavantagées dans ce système d’octroi, pour plusieurs raisons. L’existence de différences selon le genre en ce qui a trait aux dispositions ou habiletés des individus à négocier leur salaire est évoquée et supposée par certains administrateurs. Un accès limité aux informations concernant la politique de primes pourrait réduire la probabilité que des femmes tentent d’obtenir ces suppléments salariaux. Les directeurs d’unités, qui sont en majorité des hommes, pourraient être biaisées en faveur des professeurs masculins dans leurs évaluations s’ils tendent à favoriser ceux qui leurs ressemblent. Il est également possible que les directeurs d’unités où les femmes sont les mieux représentées n’aient pas reçu d’information sur les primes de marché ou que des traditions disciplinaires les aient rendu réticents à demander des primes.
Resumo:
Le partenariat demeure l’un des éléments les plus flous du commerce équitable. Il est composé de trois éléments principaux (un régime de représentation, des mécanismes de contrôle et des espaces de négociation) qui coexistent et prennent une importance variables selon les époques. À partir de l’étude du partenariat entre CIAP au Pérou, Solidarmonde et Artisans du Monde en France, le texte propose une analyse de ces différentes dimensions. D’une primauté des représentations et du contrôle dans le CÉ actuel, nous proposons une réflexion sur les outils qui permettraient de tabler sur les espaces de négociation présents dans cette relation. Inspiré de la littérature sur la coopération internationale et l’évaluation, l’idée d’outils de cogestion partenariale est proposée comme base principale à la relation entre acteurs du Nord et du Sud.
Resumo:
La mesure du déjettement du tronc est un élément important pour évaluer la posture en ce qui a trait à la scoliose idiopathique. Cependant, il y a peu d'informations quant à sa mesure et les associations entre le déjettement du tronc et d'autres indicateurs ou facteurs pertinents. Les objectifs de cette étude sont : 1) d’évaluer la validité et la fiabilité de test-retest du fil à plomb pour mesurer le déjettement du tronc de C7 à S1 chez les personnes atteintes de scoliose idiopathique; et 2) d'étudier l'association entre le déjettement du tronc et les facteurs suivants : la douleur, l’angle de Cobb, le type de scoliose, la santé mentale et l’image de soi chez les personnes atteintes de scoliose idiopathique. Nous avons recruté 55 sujets âgés de 10 à 21 ans atteints de scoliose idiopathique (angle de Cobb : 15º à 60º) de la clinique de scoliose dans un hôpital pédiatrique de soins tertiaires. Le déjettement a été mesuré directement sur les sujets à deux reprises par la même physiothérapeute de même que sur les radiographies prises ce jour-là. Deux mesures ont été prises à chaque fois : une les pieds joints (FT) et l’autre en écartant les pieds (FA). Les sujets ont répondu au questionnaire adressé au patient de la Scoliosis Research Society-22, qui traite de la douleur, de l'image de soi et de la santé mentale. Le type de scoliose et l'angle de Cobb ont été mesurés sur les radiographies prises ce jour-là. Nous avons utilisé la théorie de la généralisabilité pour calculer la fidélité de test-retest pour les mesures FT et FA, en rapportant les coefficients de fiabilité (f) et les erreurs types de mesure (SEM). La validité de la mesure du fil à plomb a été calculée en comparant les mesures prises directement sur les radiographies en utilisant le coefficient de corrélation de Pearson. Les corrélations de Pearson ont été calculées entre le déjettement du tronc et la douleur, l'angle de Cobb, l'image de soi et la santé mentale. Les corrélations de Spearman ont été calculées entre le déjettement du tronc et le type de scoliose. Nous avons ensuite utilisé des modèles de régression linéaire multiple pour déterminer les associations entre ces variables. Nos résultats indiquent que les mesures de déjettement du tronc en utilisant un fil à plomb ont une forte corrélation (r = 0,87) avec la mesure obtenue par radiographie. La mesure du déjettement du tronc en utilisant un fil à plomb a démontré une excellente fidélité de test-retest (f: 0,98 pour la mesure FT et 0,99 pour la mesure FA) et les SEM étaient de 2,0 mm pour la mesure FT et 1,8 mm pour la mesure FA. Le déjettement du tronc est corrélé positivement avec l'angle de Cobb (r = 0,32, p = 0,02), mais il n'est pas corrélé à la douleur, la santé mentale, l'image de soi ou le type de scoliose. Les conclusions de notre étude ont montré que la mesure clinique du déjettement du tronc en utilisant un fil à plomb est une méthode fiable et valide et que le déjettement du tronc est associé à l'angle de Cobb. Une étude longitudinale est nécessaire pour déterminer si le déjettement du tronc est un indicateur pronostique de la progression de la scoliose. Mots-clés: la scoliose idiopathique, le déjettement du tronc, fil à plomb, posture, déplacement latéral du tronc
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.
Resumo:
Les antipsychotiques atypiques sont des options de traitement de première ligne pour la schizophrénie. Cependant, la prise d’antipsychotiques atypiques, comme l’olanzapine, est associée à des effets secondaires métaboliques : l’augmentation du poids, la dyslipidémie et l’intolérance au glucose. Les mécanismes en lien avec ces effets secondaires sont à ce jour peu connus. Ce mémoire étudie l’évolution de différents paramètres, tant au niveau biométrique (poids, IMC, circonférence abdominale), qu’au niveau sérique (bilan lipidique, glycémie à jeun, insuline, leptine, ghreline) et clinique (mesures des symptômes positifs, négatifs et généraux de la schizophrénie, de même que des comportements alimentaires) chez des sujets schizophrènes, traités pendant 16 semaines avec l’olanzapine. Des examens de résonance magnétique, structurale et fonctionnelle, ont été effectués au début et à la fin du traitement d’olanzapine chez les sujets schizophrènes et chez un groupe de sujets contrôles afin d’identifier les régions cérébrales dont les volumes ou les activations pourraient être associés aux mécanismes d’effets secondaires métaboliques. Nos résultats confirment l’émergence de multiples effets secondaires métaboliques, associés à des modifications des comportements alimentaires, en lien avec la prise d’olanzapine auprès de notre échantillon. Des associations ont été retrouvées entre les changements métaboliques et les volumes de plusieurs régions cérébrales, notamment les hippocampes, les précunei et le gyrus orbitofrontal droit. De plus, des différences en terme d’activations cérébrales entre les sujets contrôles et les patients schizophrènes, qui ont été accentuées par le traitement d’olanzapine, ont aussi été décrites notamment au niveau amygdalien, cérébelleux et des insulas, suggérant l’implication de mécanismes neuronaux dans l’apparition des troubles métaboliques associés aux antipsychotiques atypiques.
Resumo:
Au croisement de l’anthropologie médicale, de la communication, du design industriel et des nouvelles technologies de l’information, ce mémoire se penche sur les difficultés communicatives rencontrées par le personnel médical et les patients de provenances culturelles variées dans le milieu des urgences hospitalières à Montréal. Dans l’optique d’améliorer l’échange au poste de triage, la réflexion porte principalement sur la pertinence et les caractéristiques d’un support visuel d’appoint. Elle aborde la problématique par l’étude des concepts de perception, de compréhension, d’interprétation et de représentation graphique sous les angles théoriques de la communication visuelle (Benjamin, Berger, Dibi-Huberman), de la sémiologie du discours social (Verón) et du jeu herméneutique (Gadamer). Les systèmes symboliques de cent cinquante images, illustrant sur Internet trois symptômes propres à la gastro-entérite, ont été analysés d’après une méthodologie mixte quantitative et qualitative afin d’identifier leurs sens dénotatifs et connotatifs. Les résultats appuient le recours à des images pour contourner les barrières langagières et révèlent l’existence d’une culture médicale visuelle internationale dont le code iconographique est hybride et pluriculturel. Ces nouvelles informations indiquent des critères de performance et des hypothèses concernant les changements occasionnés par l’ajout d’un support visuel dans la dynamique communicationnelle de l’ETC. La recherche ouvre aussi une piste vers l’étude herméneutique du produit en design industriel.
Resumo:
La Fédération des scouts catholiques de la province de Québec fut fondée en 1935. Elle possédait un objectif exigeant : former des hommes, des chrétiens et des citoyens. Plus encore, elle se proposait de former des chefs aptes à influencer la société canadienne-française. Bien que chapeauté par l’Église catholique, le mouvement scout laissait aux laïcs une place prépondérante. Le scoutmestre (SM) et le chef de patrouille (CP) étaient les deux principaux chefs laïcs de la troupe scoute. Ils étaient respectivement en charge de la troupe (24 à 32 jeunes) et de la patrouille (6 à 8 jeunes). Le CP était lui-même un jeune scout. Par eux transitaient les idéaux et les systèmes de représentation inculqués aux jeunes. Ils devaient être formés adéquatement pour leur charge. Plus que de simples compétences de meneur, leur formation visait à leur transmettre un véritable rapport au monde : l’idéal du chef scout. Ce mémoire examine la méthode scoute prônée par la Fédération, tout en la nuançant avec le vécu de chefs et de jeunes scouts dans quatre troupes outremontaises. L’effet de la Révolution tranquille sur la représentation traditionnelle du chef scoute sera aussi abordé.
Resumo:
Ce rapport de stage porte sur l’observance du traitement psychosocial chez des détenus fédéraux présentant un double diagnostic de schizophrénie et de trouble de la personnalité antisociale. Après une recension des écrits, le milieu de stage est présenté, ainsi que la méthodologie, trois études de cas et, enfin, une analyse de celles-ci. L’observance du traitement et les problématiques de santé mentale ici traitées sont exposées de façon descriptive, assez précise et critique. Suite à l’analyse des trois études de cas dans un centre correctionnel communautaire (SCC), il semble que la clientèle judiciarisée, schizophrène et antisociale ne reçoive pas des services entièrement adaptés à ses déficits au niveau des compétences sociales. De même, le personnel du SCC présente certaines lacunes face à l’intervention préconisée avec ces individus. Dans ce sens, il est noté que les intervenants sont généralement insuffisamment disponibles, formés et disposés à réellement envisager la réadaptation sociale du détenu tel que perçue dans ce stage. Souvent, les suivis étant discontinus, l’alliance thérapeutique peine à s’installer. Or ce n’est qu’en instaurant une relation de confiance qu’un travail clinique profitable peut subsister. En somme, avant d’être remis en liberté, il serait souhaitable que ces hommes reçoivent du soutien quant à l’acquisition des savoir-faire et savoir-être nécessaires à toute socialisation.
Resumo:
Par son recours à diverses formes d’expression, Unica Zürn (1916-1970) redynamise l’espace de la feuille en le faisant activement participer à l’écriture de soi. Le « je » semble en effet se démultiplier grâce à des jeux « anagrammatiques » sur les divers signes mobilisés, qu’ils soient alphabétiques, picturaux ou musicaux. L’autoreprésentation s’inscrit alors au sein d’une œuvre pluridisciplinaire inusitée, qui renouvelle l’esthétique quelque peu « essoufflée » du mouvement surréaliste. Cette attitude vis-à-vis de la feuille, où plusieurs signes « décomposables » et « recomposables » se partagent l’espace, est observable tant dans l’œuvre littéraire que picturale d’Unica Zürn. Le processus de création par la lettre, le trait et la note de musique, tend à revaloriser le support matériel utilisé par l’effacement des frontières entre les disciplines artistiques, qui appelle un regard distancié du lecteur/spectateur sur l’œuvre. Afin d’interpréter les travaux de Zürn dans la pluralité des moyens artistiques qui y sont déployés, l’approche intermédiale sera favorisée. Dans le premier chapitre de ce mémoire, il s’agira d’abord de voir comment s’articule un certain dialogue entre le discours des chercheurs de l’intermédialité et l’œuvre d’Unica Zürn. Le rapport à l’objet sera notre porte d’entrée dans la matière intermédiale. Par un retour à la matérialité de l’expérience médiatique, nous constaterons que Zürn met à l’avant-scène les instruments et supports de la création, ce qui mène à une représentation distorsionnée de soi, de l’espace et du temps. Une fois le parallèle établi entre les concepts de l’intermédialité et les travaux de Zürn, nous nous concentrerons sur le pan musical de l’œuvre pluridisciplinaire de l’auteure-artiste. Le second chapitre traitera de l’intrusion du sonore dans l’univers textuel, qui se fera notamment par la réappropriation de l’opéra Norma, de Vincenzo Bellini. Cette réécriture s’intitule Les jeux à deux et prend une distance considérable par rapport au texte originel. Elle s’accompagne de dessins effectués par l’auteure-artiste à même les partitions de l’opéra. Le regard multiple posé sur l’œuvre zürnienne permettra de comprendre que l’écriture palimpseste participe du processus d’autoreprésentation, tout en élaborant un discours sur la rencontre entre littérature, dessin et musique, ainsi que sur l’influence de cette juxtaposition sur le débordement des frontières médiatiques traditionnelles.
Resumo:
Ce mémoire de maîtrise a pour visée d’étudier la spécificité antiautoritaire du discours narratif de l’écrivaine argentine Luisa Valenzuela. Le corpus étudié comprend des nouvelles publiées dans les livres Cambio de armas (1982) et Simetrías (1993), écrites respectivement durant la dictature militaire (1976-1983) et dix ans après le retour à la démocratie. L’analyse des nouvelles dialogue avec l’essai de l’écrivaine, Peligrosas palabras (2001), et avec les différentes perspectives théoriques que nous adoptons dans chacun des chapitres (sociolinguistique, théorie féministe et critique culturelle). Cette recherche fera ressortir comment l’expression du désir dans les textes de Luisa Valenzuela critique les relations de domination présentes dans la dictature et dans la société patriarcale. Les textes étudiés 1) dénoncent les effets de la politique répressive sur le sujet en exposant la sexualité et en rejetant la séparation entre les sphères publique et privée; 2) ils soulignent la matérialité du corps, qui est marqué par les relations sociales et les rapports de pouvoir, à partir de laquelle il est possible de construire une objectivité féminine hors de l’opposition entre corps et esprit; 3) ils créent de nouvelles formes de représentation de la mémoire qui permettent de redéfinir la relation à l’histoire et à l’Autre. Dans le langage de Valenzuela, le désir se présente alors comme une revendication de relations sociales justes et d’une vision alternative du langage, de la subjectivité et de la mémoire.