685 resultados para Schulthaiss (Martin). inscription autrefois existante dans un album (v. 1564)
Resumo:
L’alchimie, science de la manipulation des influences spirituelles par une métallurgie sacrée, et la pataphysique, esthétique pseudo-scientifique associant l'ésotérisme à l'humour, sont les deux principaux fondements idéologiques qui unissent Marcel Duchamp et Roberto Matta. Tandis que Duchamp s'intéresse déjà à l'ésotérisme dès 1910, soit près d'une vingtaine d'années avant sa rencontre avec Matta. Ce dernier aborde, dans sa production, des thèmes propres à la littérature alchimique, soit les opérations occultes, les états merveilleux de la matière et les appareils de laboratoire. De plus, les écrivains symbolistes et pseudo-scientifiques, lus par Duchamp, puis par Matta, influencent l'humour pataphysique, teinté d'ésotérisme, qui s'exprime dans la production de ces deux artistes. Ainsi, Les Célibataires, vingt ans plus tard, est une huile sur toile, réalisée en 1943, par Roberto Matta, qui représente un paysage cosmique, composé d'astres et de trous noirs, de trois alambics et d'une grande machine noire. Dans cette œuvre, Matta réinterprète très librement certains éléments du Grand verre, une peinture sur verre de Marcel Duchamp, laissée inacheve en 1923. Le présent mémoire de maîtrise étudie l'influence de l'alchimie et de l'iconographie duchampienne sur Les Célibataires, vingt ans plus tard. Dans un premier temps, cette étude vise à mettre en exergue et à examiner les influences alchimiques et pataphysiques dans l'œuvre de Matta. Dans un deuxième temps, notre mémoire vise à démontrer comment l'œuvre de Matta s'intègre dans le projet surréaliste de création d'un mythe nouveau, dans la continuité du projet duchampien.
Resumo:
Dans le cadre de la Western Climate Iniative, le Québec a déployé en 2012, un système de plafonnement et d’échange de droits d’émission de gaz à effet de serre (SPEDE). Il s’agit de l’un des premiers régimes de ce type en Amérique du Nord et celui-ci pourrait à terme, constituer l'un des maillons d’un marché commun du carbone à l’échelle du continent. Toutefois, le SPEDE appartient à une catégorie d’instruments économiques de protection de l’environnement encore peu connue des juristes. Il s’inscrit en effet dans la régulation économique de l’environnement et repose sur des notions tirées de la théorie économique, dont la rareté, la propriété et le marché. La thèse s’insère donc dans le dialogue entre juristes et économistes autour de la conception et de la mise en œuvre de ce type d’instrument. Afin d’explorer son architecture et de révler les enjeux juridiques qui le traversent, nous avons eu recours à la méthode de l’analyse économique du droit. Celle-ci permet notamment de montrer les dynamiques d'incitation et d’efficacité qui sont à l'œuvre dans les règles qui encadrent le SPEDE. Elle permet également à donner un aperçu du rôle décisif joué par la formulation des règles de droit dans l’opérationnalisation des hypothèses économiques sous-jacentes à cette catégorie d’instrument. L’exploration est menée par l’entremise d’une modélisation progressive de l’échange de droits d’émission qui prend en compte les coûts de transaction. Le modèle proposé dans la thèse met ainsi en lumière, de manière générale, les points de friction qui sont susceptibles de survenir aux différentes étapes de l'échange de droits d'émission et qui peuvent faire obstacle à son efficacité économique. L’application du modèle aux règles du SPEDE a permis de contribuer à l’avancement des connaissances en donnant aux juristes un outil permettant de donner une cohérence et une intelligibilité à l’analyse des règles de l’échange. Elle a ainsi fourni une nomenclature des règles encadrant l’échange de droits d’émission. Cette nomenclature fait ressortir les stratégies de diversification de l’échange, d’institutionnalisation de ses modalités ainsi que les enjeux de la surveillance des marchés, dont celui des instruments dérivs adossés aux droits d’émission, dans un contexte de fragmentation des autorités de tutelle.
Resumo:
Le présent travail se penche sur le concept de la conscience de l’environnement d’affaires. Ce concept fait référence à l’importance de la prise en compte par l’employé non-cadre d’un ensemble varié d’éléments d’information composant l’environnement d’affaires. La prise en considération de ces éléments d’information par l’employé aiderait ce dernier non seulement à prendre de meilleures décisions d’affaires, mais aussi à résoudre des problèmes dans un milieu de travail prônant la gestion participative. Seulement deux mémoires et un article scientifique se sont penchés sur la conscience de l’environnement d’affaires. Le mémoire d’Ève St-Onge (2007) a justifié l’existence du concept et a établi une première liste d’indicateurs reflétant les éléments d’information de l’environnement d’affaires. Pour sa part le mémoire de Vronique Gauvreau-Jean (2008) s’est plutôt attardé à la validation initiale d’une échelle de mesure de la conscience de l’environnement d’affaires. À ces deux mémoires s’ajoute l’article scientifique de Haines, Rousseau, Brotheridge et St-Onge (2012) lequel a permis de définir un ensemble d’indicateurs et de dimensions de la conscience de l’environnement d’affaires. Le présent mémoire a pour objectif de vrifier le caractère adéquat du contenu de l’échelle de Vronique Gauvreau-Jean (2008), ce type de vrification «consiste essentiellement à examiner le contenu du test pour s’assurer de sa représentativité en tant qu’échantillon du domaine de comportements à évaluer» (Anastasi, 1982, p.132). Considérant la complexité de la conscience de l’environnement d’affaires, cette vrification s’impose pour mettre au point une échelle de mesure qui peut être généralement applicable dans des milieux de travail ayant recours à une gestion participative. Pour vrifier le caractère adéquat du contenu de l’échelle de mesure de Vronique Gauvreau-Jean (2008), il y a eu l’animation de deux panels de discussion avec une entreprise œuvrant dans le placement de personnel ainsi qu’une autre dans la distribution de produits de papier. Avec les propos des participants des panels, une analyse des données a été effectué pour produire une échelle de mesure reformulée. Cette dernière a ensuite eu un avis favorable par deux professeurs, de différentes facultés d’administration québécoises, concernant la facilité de compréhension et sa capacité de refléter les éléments de l’environnement d’affaires. Il y a finalement eu la comparaison du contenu de l’échelle reformulée et du contenu de l’échelle de Gauvreau-Jean (2008) pour déterminer le caractère adéquat de l’échelle existante.
Resumo:
Les nanotubes de carbone et le graphène sont des nanostructures de carbone hybridé en sp2 dont les propriétés électriques et optiques soulèvent un intérêt considérable pour la conception d’une nouvelle génération de dispositifs électroniques et de matériaux actifs optiquement. Or, de nombreux défis demeurent avant leur mise en œuvre dans des procédés industriels à grande échelle. La chimie des matériaux, et spécialement la fonctionnalisation covalente, est une avenue privilégiée afin de résoudre les difficultés reliées à la mise en œuvre de ces nanostructures. La fonctionnalisation covalente a néanmoins pour effet de perturber la structure cristalline des nanostructures de carbone sp2 et, par conséquent, d’affecter non seulement lesdites propriétés électriques, mais aussi les propriétés optiques en émanant. Il est donc primordial de caractériser les effets des défauts et du désordre dans le but d’en comprendre les conséquences, mais aussi potentiellement d’en exploiter les retombées. Cette thèse traite des propriétés optiques dans l’infrarouge des nanotubes de carbone et du graphène, avec pour but de comprendre et d’expliquer les mécanismes fondamentaux à l’origine de la réponse optique dans l’infrarouge des nanostructures de carbone sp2. Soumise à des règles de sélection strictes, la spectroscopie infrarouge permet de mesurer la conductivité en courant alternatif à haute fréquence des matériaux, dans une gamme d’énergie correspondant aux vibrations moléculaires, aux modes de phonons et aux excitations électroniques de faible énergie. Notre méthode expérimentale consiste donc à explorer un espace de paramètres défini par les trois axes que sont i. la dimensionnalité du matériau, ii. le potentiel chimique et iii. le niveau de désordre, ce qui nous permet de dégager les diverses contributions aux propriétés optiques dans l’infrarouge des nanostructures de carbone sp2. Dans un premier temps, nous nous intéressons à la spectroscopie infrarouge des nanotubes de carbone monoparois sous l’effet tout d’abord du dopage et ensuite du niveau de désordre. Premièrement, nous amendons l’origine couramment acceptée du spectre vibrationnel des nanotubes de carbone monoparois. Par des expériences de dopage chimique contrôlé, nous démontrons en effet que les anomalies dans lespectre apparaissent grâce à des interactions électron-phonon. Le modèle de la résonance de Fano procure une explication phénoménologique aux observations. Ensuite, nous établissons l’existence d’états localisés induits par la fonctionnalisation covalente, ce qui se traduit optiquement par l’apparition d’une bande de résonance de polaritons plasmons de surface (nanoantenne) participant au pic de conductivité dans le térahertz. Le dosage du désordre dans des films de nanotubes de carbone permet d’observer l’évolution de la résonance des nanoantennes. Nous concluons donc à une segmentation effective des nanotubes par les greffons. Enfin, nous montrons que le désordre active des modes de phonons normalement interdits par les règles de sélection de la spectroscopie infrarouge. Les collisions élastiques sur les défauts donnent ainsi accès à des modes ayant des vecteurs d’onde non nuls. Dans une deuxième partie, nous focalisons sur les propriétés du graphène. Tout d’abord, nous démontrons une méthode d’électrogreffage qui permet de fonctionnaliser rapidement et à haute densité le graphène sans égard au substrat. Par la suite, nous utilisons l’électrogreffage pour faire la preuve que le désordre active aussi des anomalies dépendantes du potentiel chimique dans le spectre vibrationnel du graphène monocouche, des attributs absents du spectre d’un échantillon non fonctionnalisé. Afin d’expliquer le phénomène, nous présentons une théorie basée sur l’interaction de transitions optiques intrabandes, de modes de phonons et de collisions élastiques. Nous terminons par l’étude du spectre infrarouge du graphène comportant des îlots de bicouches, pour lequel nous proposons de revoir la nature du mécanisme de couplage à l’œuvre à la lumière de nos découvertes concernant le graphène monocouche.
Resumo:
Fansub consiste à traduire et à sous-titrer les produits médiatiques étrangers tels que des films, des feuilletons ou des animes par des internautes bénévoles. Ce phénomène est aujourd’hui très répandu en Chine. Les amateurs s’organisent en groupes de fansub pour accomplir ce travail en collaboration. Les groupes de fansub se caractérisent par la virtualisation du lieu de travail, l’hétérogénéité des membres, la liberté de participation, la collaboration et la non-commercialité. Leur processus de travail et organisation est aussi particulier. Dans ce mémoire, je me suis intéressée à l’apprentissage des fansubbers, un aspect peu étudié dans la littérature sur le fansub. Le fansub a été abordé sous l’angle d’une communauté de pratiques pour comprendre comment les fansubbers acquièrent de nouvelles connaissances et améliorent leur compétence linguistique en sous-titrant les films de langue étrangère. L’étude est basée sur l’observation participative dans un groupe de fansub chinois-français, Fansub Yueyue. J’ai fait de l’observation participante auprès de ce groupe de fansub pour recueillir des traces du travail et des interactions entre les membres. Dix fansubbers du groupe ont aussi été interrogés. Les analyses ont indiqué que le groupe de fansub démontre les trois caractéristiques essentielles d’une communauté de pratique : l’entreprise commune, l’engagement mutuel et un répertoire partagé. Cet ensemble favorise l’existence du groupe ainsi que l’apprentissage des membres. Aussi, par l’analyse des erreurs fréquentes des fansubbers et leur autoévaluation, nous concluons que les pratiques de fansub aident les membres à améliorer leur compétence linguistique. L’apprentissage a lieu pendant le processus de travail de sous-titrage ainsi qu’à travers les interactions entre les membres ou avec des personnes hors de ce groupe.
Resumo:
La présente thèse porte sur l'utilité de la théorie de la fonctionnelle de la densité dans le design de polymères pour applications photovoltaïques. L'étude porte d'abord sur le rôle des calculs théoriques pour la caractérisation des polymères dans le cadre de collaborations entre la théorie et l'expérience. La stabilité et les niveaux énergétiques de certaines molécules organiques sont étudiés avant et après la sulfuration de leurs groupements carbonyles, un procédé destiné à diminuer le band gap. Les propriétés de dynamique électronique, de séparation des porteurs de charges et de spectres de vibrations Raman sont également explorées dans un polymère à base de polycarbazole. Par la suite, l'utilité des calculs théoriques dans le design de polymères avant leurs synthèses est considérée. La théorie de la fonctionnelle de la densité est étudiée dans le cadre du modèle de Scharber afin de prédire l'efficacité des cellules solaires organiques. Une nouvelle méthode de design de polymères à faible band gaps, basée sur la forme structurale aromatique ou quinoide est également présentée, dont l'efficacité surpasse l'approche actuelle de donneur-accepteur. Ces études sont mises à profit dans l'exploration de l'espace moléculaire et plusieurs candidats de polymères aux propriétés électroniques intéressantes sont présentés.
Resumo:
L’objet de la présente thèse est la lutte contre la pauvreté. Elle cherche à identifier les conditions favorisant la sortie de la pauvreté dans un territoire urbain, ici le quartier de la Petite-Patrie. par une approche territoriale intégrée. S’inscrivant dans la mouvance des multiples initiatives de lutte contre la pauvreté et l’exclusion au Québec, le postulat qui fonde cette recherche est le suivant : la lutte contre la pauvreté par l’approche territoriale intégrée permet : 1) d’instaurer des conditions favorisant la sortie de la pauvreté et 2) de renverser les processus qui mènent à l’appauvrissement des personnes et, du même coup, d’améliorer les conditions et la qualité de vie de celles-ci dans un territoire particulier. Les résultats de cette recherche permettent : 1) de contribuer à la compréhension des dynamiques de lutte contre la pauvreté grâce à une approche considérant les acteurs agissant dans un territoire et, 2) d’éclairer les différents niveaux de conception et de mise en œuvre des politiques et des stratégies d’action, tant au niveau de l’État que de la société civile, sachant que les dispositifs d’intervention intégrés se créent à l’interface des initiatives locales ou régionales et des nouvelles formes de politiques publiques en matière de lutte contre la pauvreté. Les grandes conclusions qui émergent de cette recherche sont au nombre de trois : 1) Si la multidimentionnalité de la pauvreté est acceptée par plusieurs auteurs, on ne peut pas parler d’une seule pauvreté, mais de diverses pauvretés. Les visages de la pauvreté dans le territoire de La Petite-Patrie témoignent de cette diversité des pauvretés, et appellent une variété de stratégies d’action ; 2) Les personnes en situation de pauvreté, en fonction de leurs capacités d’agir, peuvent être appréhendées selon un double profil qui structure de façon importante leur processus de sortie de la pauvreté : le premier groupe rassemble les personnes en situation de pauvreté qui ont des initiatives découlant de leurs capacités d’agir, et le second groupe qui réunit les personnes en situation de pauvreté dont la capacité d’initiative est altérée, apparemment de façon durable, par leurs conditions de vie. Toute stratégie publique de sortie de la pauvreté dans un espace donné devrait alors considérer cette dimension relative aux capacités de rapprochement des individus et des ressources pour soutenir le développement d’une stratégie territoriale intégrée de lutte à la pauvreté plus efficace pour les personnes dont le processus de désaffiliation est plus avancé; 3) Les acteurs de lutte contre la pauvreté dans un territoire, pour réunir les conditions d’une action intégrée et mettre en place des conditions favorables de lutte contre la pauvreté, doivent s’appuyer sur la concertation, les alliances intersectorielles, le leadership inclusif et concerté, les passerelles formelles et fonctionnelles entre acteurs institutionnels, et sur une démarche hybride (emploi et défense des droits) qui constituent des ingrédients fondamentaux pour toute action ou intervention en faveur des personnes en situation de pauvreté vivant dans un cadre territorial défini et accepté par l’ensemble des acteurs locaux. Ce caractère hybride de la démarche permet d’agir de façon différenciée sur les deux groupes de la population. L’intégration est donc avant tout stratégique, c’est-à-dire fondée sur l’articulation d’une pluralité de logique d’action.
Resumo:
Les problèmes de conception de réseaux ont reçu un intérêt particulier et ont été largement étudiés de par leurs nombreuses applications dans différents domaines, tels que les transports et les télécommunications. Nous nous intéressons dans ce mémoire au problème de conception de réseaux avec coûts d’ajout de capacité. Il s’agit d’installer un ensemble d’équipements sur un réseau en vue de satisfaire la demande, tout en respectant les contraintes de capacité, chaque arc pouvant admettre plusieurs équipements. L’objectif est de minimiser les coûts variables de transport des produits et les coûts fixes d’installation ou d’augmentation de capacité des équipements. La méthode que nous envisageons pour résoudre ce problème est basée sur les techniques utilisées en programmation linéaire en nombres entiers, notamment celles de génération de colonnes et de coupes. Ces méthodes sont introduites dans un algorithme général de branch-and-bound basé sur la relaxation linéaire. Nous avons testé notre méthode sur quatre groupes d’instances de tailles différentes, et nous l’avons comparée à CPLEX, qui constitue un des meilleurs solveurs permettant de résoudre des problèmes d’optimisation, ainsi qu’à une méthode existante dans la littérature combinant des méthodes exactes et heuristiques. Notre méthode a été plus performante que ces deux méthodes, notamment pour les instances de très grandes tailles.
Resumo:
La création, Bois dormant, met en scène un charpentier-ébéniste qui consacre tous ses temps libres à la création de mobilier, dans un cycle de production inutile. Sa dilapidation insensée de bois incite la nature à se révolter contre lui et à propager une énergie qui donne vie à tous les objets de sa maison. Ce conte revisite plusieurs contes (La Barbe bleue, Les Aventures de Pinocchio, Otesánek, La Belle au bois dormant, Les Aventures d’Alice au pays des merveilles, Cendrillon) pour les transformer en cauchemar, en effriter les morales, en décupler les cruautés et en utiliser les motifs pour illustrer l’absurdité du monde moderne. Ce conte-Frankenstein, par son esthétique baroque où prime la parenthèse, fait de la surenchère un reflet de la surconsommation. L’essai, La réécriture féministe contemporaine de quatre contes dans Putain, de Nelly Arcan et Peau d’âne, de Christine Angot, explore comment, par les réécritures qu’ils inspirent, les contes de Perrault et des frères Grimm constituent un puissant matériau d’incarnation qui facilite la venue à l’écriture du traumatisme chez Christine Angot et Nelly Arcan, mais qui sert aussi d’outil de dénonciation féministe pour elles. Dans Putain, de Nelly Arcan, la narratrice met en lumière, par des réinterprétations des contes du Petit Chaperon rouge, de La Belle au bois dormant et de Blanche-Neige, différents aspects de sa détresse face à l’oppression du regard masculin. Quant à Christine Angot, dans Peau d’âne, elle propose, par une réécriture du conte de Peau d’âne en parallèle avec celui de La Belle au bois dormant, de révler les répercussions perverses des dictats de la mode et de la loi du père sur l’identité de la femme. Toutes ces réécritures permettent de déjouer la logique valorisée par les contes et d’en démontrer l’absurdité et le caractère malsain d’un point de vue féministe.
Resumo:
Le système rénine-angiotensine-aldostérone (SRAA) régule l’homéostasie de la contraction des artères. Or, suivant la liaison de l’angiotensine II (Ang II) à son récepteur AT1, le SRAA est également impliqué dans l’activation de voies de signalisation à l’origine de l’inflammation et de l’hypertrophie des cellules musculaires lisses vasculaires (CMLV), soit deux processus participant au remodelage vasculaire caractéristique de diverses maladies cardiovasculaires, telles l’hypertension et l’athérosclérose. Ces pathologies sont les premières causes de mortalité naturelle en Amérique et les traitements les ciblant ne sont pas optimaux puisqu’ils visent seulement quelques facteurs de risque qui leur sont associés. Ainsi, la détermination des effecteurs intracellulaires régulant ces voies délétères est nécessaire à l'identification de nouvelles cibles thérapeutiques. L’inflammation Ang II-dépendante dans les CMLV est attribuée au facteur de transcription nuclear factor-kappa B (NF-κB). Cependant, les processus moléculaires couplant le récepteur AT1 à son activation sont peu caractérisés. L’étude abordant cette question démontre in vitro que NF-κB est activ par la protéine IκB kinase β (IKKβ) dans les CMLV exposées à l’Ang II et que cette kinase est régulée par deux voies de signalisation indépendantes, mais complémentaires afin d’assurer son activation rigoureuse et soutenue. L’une des voies est précoce et dépend des seconds messagers ainsi que de deux nouveaux effecteurs sous-jacents au récepteur AT1, soit la E3 ligase TNF receptor-associated factor 6 (TRAF6) et la IKK kinase transforming growth factor-beta-activated kinase 1 (TAK1) tandis que la seconde est tardive et résulte de la signalisation mitogen-activated protein kinase kinase 1/2 (MEK1/2) - extracellular signal-regulated kinase 1/2 (ERK1/2) - ribosomal S6 kinase (RSK). L’inhibition conjointe de ces voies abroge complètement la réponse inflammatoire, ce qui indique qu’elles en sont la seule source. Ainsi, l’inhibition d’IKKβ pourrait suffire à contrer l’inflammation impliquée dans le remodelage vasculaire associé à une suractivation du SRAA. Une découverte des plus novatrices découle de cette étude, qui veut que la E3 ligase TRAF6 est un nouvel effecteur des récepteurs couplés aux protéines G et est à l’origine de la formation d’un nouveau type de second messager, soit des chaînes libres de poly-ubiquitines. Les mécanismes moléculaires à la base de l’hypertrophie Ang II-dépendante dans les CMLV sont également peu définis. Or, suivant la parution d’un article démontrant qu’IKKβ dans les cellules cancéreuses participe aux mécanismes d’initiation de la traduction en réponse au facteur de nécrose tumorale α (TNFα) via la phosphorylation de la protéine Tuberous sclerosis 1 (TSC1) et donc l’activation du complexe mammalian target of rapamycin (mTORC1), une hypothèse a été émise selon laquelle cette kinase serait impliquée dans la synthèse protéique Ang II-dépendante dans les CMLV. Les expériences effectuées in vitro dans des CMLV exposées à l’Ang II démontrent qu’IKKβ induit la phosphorylation de TSC1 ainsi que l’activation de mTORC1 et de ses substrats S6 kinase 1 (S6K1) et translational regulators eukaryotic translation initiation factor 4E-binding protein (4E-BP1), deux protéines impliquées directement dans l’hypertrophie. Par ailleurs, la synthèse protéique au niveau des CMLV exposées à l’Ang II est réduite de 75% suivant la diminution de l’expression d’IKKβ et suivant la surexpression d’un mutant de TSC1 dont le site consensus d’IKKβ a été modifié, faisant de cette kinase un médiateur majeur au niveau de ce processus. Ainsi, in vitro IKKβ en réponse à l’Ang II est en amont de deux processus impliqués dans un remodelage vasculaire à l’origine de maladies cardiovasculaires. De plus, plusieurs facteurs de risque de ces pathologies convergent à l’activation d’IKKβ, ce qui en fait une cible thérapeutique particulièrement attrayante. Qui plus est, l’administration d’un inhibiteur d’IKKβ à des rats diminue non seulement la synthèse protéique dépendante de l’Ang II au niveau de l’aorte et des artères mésentériques, mais également la synthèse de la protéine pro-inflammatoire VCAM-1 par les cellules composant l’aorte, ce qui confirme son envergure en tant que cible.
Resumo:
Rapport de stage présenté à la Faculté des Arts et des Sciences en vue de l'obtention du grade de Maîtrise (M.Sc.) en criminologie
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Cette thèse de doctorat analyse les processus et les actions des consommateurs de pornographie juvnile. Nous soutenons que l’univers des collectionneurs de pornographie juvnile se distingue par trois particularités : la préférence sexuelle, l’offre pornographique dans un monde immatériel et la sociabilité virtuelle. Afin de mettre cette thèse à l’épreuve, nous avons eu accès aux disques durs de 40 personnes condamnées pour des infractions de pornographie juvnile. La méthode de l’analyse informatique judiciaire (computer forensics) utilisée dans ce contexte a permis de recréer les évnements entourant la collection d’images par ces personnes. De plus, un échantillon des images possédées par ces individus a été catégorisé selon l’âge et les actes posés sur les images (n = 61 244). En plus des nombreux points qu’il a en commun avec les collectionneurs d’objets populaires, les résultats montrent l’importance de la préférence sexuelle dans la perception et les stratégies du collectionneur, l’omniprésence des images de pornographie adulte dans les collections et la sociabilité virtuelle comme mesure d’efficacité dans la découverte des contenus. En outre, en créant quatre groupes différents en fonction de l’évolution de la gravité des images dans le temps, nous avons découvert que le groupe où il y a aggravation à la fois dans l’âge et dans la gravité des actes posés est le groupe le plus nombreux, avec 37,5 % des sujets. Les résultats de l’étude mettent également en évidence la pertinence de l’utilisation de l’informatique judiciaire dans les études en criminologie.
Resumo:
Réalisé en cotutelle avec l'Université Paris-Diderot.
Resumo:
Le changement de paradigme amené par l'approche par compétences dans le système éducatif québécois au début des années 2000 devait conduire les enseignants à adopter de nouvelles façons de faire prescrites par la Politique en évaluation des apprentissages (MEQ, 2003) qui s’inscrivent dans une évaluation au service de l’apprentissage. Brookhart (2004) pour sa part, considère que la recherche en ce qui concerne les apprentissages et l'évaluation au primaire sont limitées et Boutin (2007) se questionne sur le changement effectif des pratiques considérant les vives critiques suscitées quant à l'implantation de l'approche par compétences dans les écoles québécoises. Cette recherche vise à apporter un éclairage quant aux façons de faire d'enseignants de la 6e année du primaire à toutes les étapes de la démarche d'évaluation en lecture, écriture et mathématique en les situant dans des perspectives nouvelles ou traditionnelles de l'évaluation et en observant si la fréquence des énoncés reliés aux façons de faire diffère selon les caractéristiques personnelles des enseignants. Suivant une méthodologie de type simultanée imbriquée, 55 enseignants ont rempli un questionnaire et 14 d'entre eux ont participé à des entrevues semi-dirigées. L’analyse des données montre que tout au long de la démarche d'évaluation, les façons de faire des enseignants varient, et ce, dans les trois matières: ils utilisent des façons de faire qui sont situées tantôt dans un continuum allant des perspectives traditionnelles aux perspectives nouvelles de l'évaluation comme dans la planification, la collecte de données, l'interprétation et la communication et tantôt dans les nouvelles perspectives de l'évaluation comme dans l'étape du jugement, et ce, selon leurs caractéristiques sociodémographiques. Nous avons ainsi pu catégoriser les enseignants selon le modèle de Schwartz, Bransford et Sears (2005) en distinguant ceux qui sont efficients de ceux qui ne le sont pas, même s'ils innovent. Afin d’améliorer les pratiques des enseignants à chaque étape de la démarche d’évaluation, nous pensons qu'il serait intéressant de valider un tableau synthèse inspiré de Scallon (2004) et l'OCDE (2005) afin de créer une métagrille pour analyser la pertinence et la cohérence des façons de faire des enseignants en cours de cycle dans une optique d’évaluation intégrée à l’apprentissage.