990 resultados para Troisième cinéma
Resumo:
La thèse délaisse l’étude des biais, des erreurs et des influences externes qui modulent les décisions de justice et formule l’hypothèse que les individus, confrontés à un dilemme normatif (quelle serait la juste peine?), manifestent un souci de justice qu’il est pertinent d’analyser en lui-même. Les résultats de cette thèse indiquent qu’une proportion appréciable des choix et des jugements des citoyens et des acteurs judiciaires interrogés témoignent, en raison de leur cohérence interne et de leur modération, d’un souci manifeste de justice. Les données de la thèse s’appuient sur un sondage sentenciel dans lequel on demandait à des répondants du public (n=297), mais aussi à un échantillon d’acteurs judiciaires (n=235), de prendre des décisions de détermination pénale dans trois histoires de cas bien détaillées. La thèse s’intéresse à la détermination de la juste peine, laquelle incorpore trois prises de décision distinctes. Le premier chapitre de la thèse s’attarde à la qualité des échelles individuelles de sévérité des peines qui peuvent être infligées pour sanctionner un délinquant reconnu coupable d’actes criminels. Les résultats indiquent que les citoyens, tous comme les acteurs judiciaires, n’utilisent pas la même métrique pour statuer sur la sévérité des peines, mais que certains d’entre eux, font usage d’une métrique pénale plus cohérente et plus raisonnable que d’autres. Un test décisif pour jauger de la valeur d’une métrique est son aptitude à établir des équivalences pénales entre les peines de prison, de probation, de travaux communautaires et d’amendes. Le deuxième chapitre s’attarde à la qualité des choix sentenciels des citoyens et des acteurs judiciaires. Deux critères sont utilisés pour distinguer les sentences les plus justes : 1) le critère de proportionnalité ou de cohérence interne (les sentences données sont-elles toujours proportionnelles à la gravité de l’infraction commise ?); 2) le critère de modération ou de cohérence externe (la sentence donnée peut-elle rallier le plus grand nombre de points de vue?). Les deux critères sont importants parce qu’ils contribuent tous deux à réduire la marge d’incertitude du dilemme sentenciel. Le troisième chapitre prend acte que toute sentence fera possiblement l’objet d’un aménagement subséquent. Les formes les plus manifestes d’aménagement pénal sont régies par l’octroi d’une libération conditionnelle qui écourte la durée de peine qui sera purgée en prison. Certains acteurs judiciaires choisiront de tenir compte de cette libération anticipée en gonflant leur sentence, alors que d’autres se refuseront à le faire. Le dernier chapitre s’attarde aux raisons qui motivent leurs choix.
Resumo:
Tout au long de la vie, le cerveau développe des représentations de son environnement permettant à l’individu d’en tirer meilleur profit. Comment ces représentations se développent-elles pendant la quête de récompenses demeure un mystère. Il est raisonnable de penser que le cortex est le siège de ces représentations et que les ganglions de la base jouent un rôle important dans la maximisation des récompenses. En particulier, les neurones dopaminergiques semblent coder un signal d’erreur de prédiction de récompense. Cette thèse étudie le problème en construisant, à l’aide de l’apprentissage machine, un modèle informatique intégrant de nombreuses évidences neurologiques. Après une introduction au cadre mathématique et à quelques algorithmes de l’apprentissage machine, un survol de l’apprentissage en psychologie et en neuroscience et une revue des modèles de l’apprentissage dans les ganglions de la base, la thèse comporte trois articles. Le premier montre qu’il est possible d’apprendre à maximiser ses récompenses tout en développant de meilleures représentations des entrées. Le second article porte sur l'important problème toujours non résolu de la représentation du temps. Il démontre qu’une représentation du temps peut être acquise automatiquement dans un réseau de neurones artificiels faisant office de mémoire de travail. La représentation développée par le modèle ressemble beaucoup à l’activité de neurones corticaux dans des tâches similaires. De plus, le modèle montre que l’utilisation du signal d’erreur de récompense peut accélérer la construction de ces représentations temporelles. Finalement, il montre qu’une telle représentation acquise automatiquement dans le cortex peut fournir l’information nécessaire aux ganglions de la base pour expliquer le signal dopaminergique. Enfin, le troisième article évalue le pouvoir explicatif et prédictif du modèle sur différentes situations comme la présence ou l’absence d’un stimulus (conditionnement classique ou de trace) pendant l’attente de la récompense. En plus de faire des prédictions très intéressantes en lien avec la littérature sur les intervalles de temps, l’article révèle certaines lacunes du modèle qui devront être améliorées. Bref, cette thèse étend les modèles actuels de l’apprentissage des ganglions de la base et du système dopaminergique au développement concurrent de représentations temporelles dans le cortex et aux interactions de ces deux structures.
Resumo:
Cette présente recherche vise à défendre le point de vue selon lequel le don de l’Esprit dans le récit de la Pentecôte (Ac 2, 1-13) s’interprète principalement comme l’investissement d’une puissance habilitant au témoignage. À cette fin, nous posons l’hypothèse que le contenu d’Ac 2, 17-21 est un axe fondamental de la théologie pneumatique de l’œuvre lucanienne, lequel interprète la manifestation pentecostale dans une perspective prophétique. La démonstration se fait par le biais d’une analyse rédactionnelle d’Ac 2, 17-21, une citation de Jl 3,1-5 insérée dans un discours explicatif de Pierre du phénomène pentecostal. Nous examinons d’abord le lieu d’inscription de ce passage dans l’œuvre lucanienne afin d’évaluer la valeur stratégique de son emplacement (chapitre 1). Nous étudions ensuite l’interprétation que fait Luc de cette prophétie pour en venir à la conclusion qu’il envisage l’intervention de l’Esprit essentiellement dans une perspective d’habilitation à la prophétie (chapitre 2). Nous vérifions cette première conclusion dans l’Évangile de Luc (chapitre 3); puis ensuite dans les Actes des Apôtres (chapitre 4). Nous en arrivons ainsi à établir un parallélisme entre les étapes initiatiques du ministère de Jésus dans le troisième évangile et celui des disciples dans les Actes, pour y découvrir que, dans les deux cas, l’effusion de l’Esprit habilite à l’activité prophétique. Le ministère des disciples s’inscrit de la sorte dans le prolongement de celui du Maître. Nous soutenons, en fait, que tout le discours pneumatique de l’Évangile de Luc converge vers l’effusion initiale de l’Esprit sur les disciples dans le récit pentecostal, d’une part, et que cette effusion jette un éclairage sur l’ensemble de l’œuvre missionnaire des Actes, d’autre part. Bref, le passage explicatif du phénomène pentecostal, en l’occurrence Ac 2, 17-21, met en lumière un axe central des perspectives de Luc sur l’Esprit : Il s’agit de l’Esprit de prophétie. Dans cette optique, l’effusion de l’Esprit à la Pentecôte s’interpréterait essentiellement comme l’investissement du croyant d’une puissance en vue du témoignage.
Resumo:
Cette recherche vise à étudier l'efficacité des cours d'espagnol comme langue étrangère, à partir de la perception des étudiants d’espagnol comme langue d’origine. Pour atteindre les résultats et les conclusions obtenus, cette étude qualitative compte sur la participation des répondants hispaniques qui ont appris l'espagnol à la maison, à l'école primaire, au secondaire, au cégep et/ou au collège. Les participants ont répondu à un questionnaire qui leur a permis d'exprimer leur perception à l'égard des cours d’espagnol comme langue étrangère qu'ils ont pris au cours de leur étude primaire, secondaire ou supérieure. Les résultats de cette recherche indiquent que les élèves hispaniques ne sont pas intégrés dans les classes ELE, ce qui motive les participants à poursuivre l’étude de la langue espagnole. Comme expliqué par Gardner (1985) dans sa théorie du modèle socio-éducationnel, l’acquisition des langages intervient dans un contexte culturel spécifique et elle est influencée par la croyance populaire et les différences individuelles. Ces dernières sont intégrées dans le concept du motif d'intégration, qui est composé du sens de l'intégration, de l'attitude envers la situation d'apprentissage et de la motivation. Les réponses données par les participants dans cette étude peuvent être utiles à la conception et au développement de cours et de méthodes d’apprentissage de l’espagnol pour les hispanophones d’origine. En tenant compte de leurs points de vue, les étudiantes auraient un sens plus élevé de l’intégration, ce qui influence directement leur motivation et par le fait même leur processus d’apprentissage.
Resumo:
Réalisée en milieux défavorisés, cette étude porte sur l’engagement scolaire des élèves de troisième cycle du primaire (5e et 6e années au Québec) dans un contexte d’utilisation pédagogique des technologies de l’information et de la communication (TIC). L’objectif de cette recherche est d’analyser l’engagement d’élèves utilisant les TIC. Elle vise à décrire les pratiques pédagogiques d’intégration des TIC de dix enseignants, de relater la qualité de l’engagement de leurs 230 élèves lors de tâches TIC et de mesurer l’évolution et la qualité de leur engagement scolaire selon le degré de défavorisation de leur école. Pour ce faire, cette recherche s’est inspirée d’un cadre de référence traitant l’engagement scolaire selon les dimensions affective, comportementale et cognitive. De plus, cette étude multicas essentiellement de nature interprétative et descriptive a utilisé une méthodologie mixte de collecte et d’analyse des données. Les résultats montrent notamment que les enseignants accordent une valeur pédagogique importante aux TIC tant dans la fréquence de leur utilisation, dans les usages valorisés que dans la façon de les intégrer en classe. Les enseignants privilégient largement le traitement de texte et la recherche sur Internet, mais très peu d’autres usages pertinents sont mis de l’avant de manière soutenue. La majorité des enseignants interrogés préférerait se servir de quatre ordinateurs en classe pour utiliser les TIC plus facilement que d’avoir uniquement accès au laboratoire de leur école. De plus, ils perçoivent de manière unanime que l’utilisation des TIC exerce une influence importante sur la dimension affective de leurs élèves lors d’activités préparées, assez bonne sur la dimension comportementale et plus discutable sur la dimension cognitive. Plus globalement, les élèves eux-mêmes affichent en général un engagement scolaire relativement élevé. En six mois, la qualité de l’engagement affectif des élèves est restée stable, leur engagement comportemental a progressé, mais leur engagement cognitif a baissé légèrement. Les résultats montrent aussi que la qualité de l’engagement des élèves de milieux défavorisés évolue différemment selon le degré de défavorisation de leur école. Dans cette recherche, l’importance de l’utilisation des TIC sur la qualité de l’engagement est marquante et s’avère parfois meilleure que dans d’autres types de tâches. Sans pouvoir généraliser, cette étude permet aussi de saisir davantage la qualité et l’évolution de l’engagement scolaire des élèves de la fin du primaire en milieux défavorisés. Des recommandations pour le milieu et des pistes de recherches futures sont présentées en tenant compte des limites et des forces de cette thèse inédite réalisée par articles.
Resumo:
Cette thèse est dédiée à l’étude des matériaux InMnP et GaMnP fabriqués par implantation ionique et recuit thermique. Plus précisément nous avons investigué la possibilité de former par implantation ionique des matériaux homogènes (alliages) de InMnP et GaMnP contenant de 1 à 5 % atomiques de Mn qui seraient en état ferromagnétique, pour des possibles applications dans la spintronique. Dans un premier chapitre introductif nous donnons les motivations de cette recherche et faisons une revue de la littérature sur ce sujet. Le deuxième chapitre décrit les principes de l’implantation ionique, qui est la technique utilisée pour la fabrication des échantillons. Les effets de l’énergie, fluence et direction du faisceau ionique sur le profil d’implantation et la formation des dommages seront mis en évidence. Aussi dans ce chapitre nous allons trouver des informations sur les substrats utilisés pour l’implantation. Les techniques expérimentales utilisées pour la caractérisation structurale, chimique et magnétique des échantillons, ainsi que leurs limitations sont présentées dans le troisième chapitre. Quelques principes théoriques du magnétisme nécessaires pour la compréhension des mesures magnétiques se retrouvent dans le chapitre 4. Le cinquième chapitre est dédié à l’étude de la morphologie et des propriétés magnétiques des substrats utilisés pour implantation et le sixième chapitre, à l’étude des échantillons implantés au Mn sans avoir subi un recuit thermique. Notamment nous allons voir dans ce chapitre que l’implantation de Mn à plus que 1016 ions/cm2 amorphise la partie implantée du matériau et le Mn implanté se dispose en profondeur sur un profil gaussien. De point de vue magnétique les atomes implantés se trouvent dans un état paramagnétique entre 5 et 300 K ayant le spin 5/2. Dans le chapitre 7 nous présentons les propriétés des échantillons recuits à basses températures. Nous allons voir que dans ces échantillons la couche implantée est polycristalline et les atomes de Mn sont toujours dans un état paramagnétique. Dans les chapitres 8 et 9, qui sont les plus volumineux, nous présentons les résultats des mesures sur les échantillons recuits à hautes températures : il s’agit d’InP et du GaP implantés au Mn, dans le chapitre 8 et d’InP co-implanté au Mn et au P, dans le chapitre 9. D’abord, dans le chapitre 8 nous allons voir que le recuit à hautes températures mène à une recristallisation épitaxiale du InMnP et du GaMnP; aussi la majorité des atomes de Mn se déplacent vers la surface à cause d’un effet de ségrégation. Dans les régions de la surface, concentrés en Mn, les mesures XRD et TEM identifient la formation de MnP et d’In cristallin. Les mesures magnétiques identifient aussi la présence de MnP ferromagnétique. De plus dans ces mesures on trouve qu’environ 60 % du Mn implanté est en état paramagnétique avec la valeur du spin réduite par rapport à celle trouvée dans les échantillons non-recuits. Dans les échantillons InP co-implantés au Mn et au P la recristallisation est seulement partielle mais l’effet de ségrégation du Mn à la surface est beaucoup réduit. Dans ce cas plus que 50 % du Mn forme des particules MnP et le restant est en état paramagnétique au spin 5/2, dilué dans la matrice de l’InP. Finalement dans le dernier chapitre, 10, nous présentons les conclusions principales auxquels nous sommes arrivés et discutons les résultats et leurs implications.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
Depuis plus de 50 ans, les chercheurs s’intéressent à la résistance au changement. Or, malgré plusieurs années de recherche, on ne sait toujours pas exactement quelles variables peuvent prédire les comportements de résistance et encore moins ceux de soutien. La présente thèse vise à pallier cette lacune en identifiant des variables pouvant expliquer à la fois les comportements de soutien et de résistance lors d’un changement organisationnel majeur. Le modèle des phases de préoccupations (Bareil 2004a) s’avère intéressant à cet effet puisqu’il intègre bien les savoirs actuels et s’adapte à différents changements. L’objectif principal de cette thèse est donc de vérifier jusqu’à quel point les comportements de soutien et de résistance peuvent être prédits par les phases de préoccupations, en tenant compte de l’engagement affectif envers le changement comme variable médiatrice et du rôle des acteurs et de l’avancement de la mise en œuvre comme variables modératrices. Pour ce faire, une étude a été menée auprès d’enseignants, de professionnels et de directeurs d’une Commission scolaire québécoise ayant implanté une réforme majeure provoquant des préoccupations d’intensité variée et des comportements divers, allant de la résistance au soutien. Les analyses acheminatoires effectuées auprès de deux échantillons indépendants (n=464 et n=171) indiquent que les premières phases du modèle (centrées sur le destinataire, l’organisation et le changement) sont liées positivement aux comportements de résistance et négativement à ceux de soutien. À l’inverse, les dernières phases (centrées sur l’expérimentation, la collaboration et l’amélioration continue) sont liées négativement aux comportements de résistance et positivement à ceux de soutien. Ainsi, plus on avance dans la séquence des phases de préoccupations, plus les comportements de soutien augmentent et ceux de résistance diminuent. Également, l’engagement affectif envers le changement agit à titre de variable médiatrice et permet d’expliquer davantage de variance des comportements de soutien et de résistance. De plus, les analyses de régression indiquent que les phases de préoccupations expliquent davantage de variance des comportements de soutien des agents de changement, alors qu’elles expliquent plus de variance des comportements de résistance des destinataires. On constate aussi que c’est au début de la mise en œuvre que les phases de préoccupations expliquent le plus de variance des comportements de soutien et de résistance. Finalement, un troisième échantillon (n=143) permet de suivre l’évolution des participants ayant répondu deux fois au questionnaire. Les tests t ne rapportent aucune différence significative entre les deux temps de mesure et ce, autant pour les phases de préoccupations que pour les comportements de soutien et de résistance. On constate que lorsque les phases de préoccupations n’évoluent pas, les comportements de soutien ou de résistance demeurent les mêmes. En somme, ces résultats indiquent qu’il est possible de prédire à la fois les comportements de soutien et de résistance avec les phases de préoccupations. En outre, on sait maintenant à quel moment et avec quel type d’acteurs le modèle des phases de préoccupations s’avère le plus utile. Afin de généraliser ces résultats, il serait pertinent de reproduire cette recherche dans une autre organisation qui implante un changement majeur.
Resumo:
En inhibant la formation de caillots dans le sang, les médicaments antiplaquettaires diminuent de façon importante le risque d’événements ischémiques aigus. Cependant, une sous-population de patients souffrant de maladie coronarienne présente une inhibition inadéquate de la fonction plaquettaire malgré la prise quotidienne d’acide acétylsalicylique (AAS). Le premier volet de cette thèse démontre qu’une régénération plaquettaire accélérée pourrait expliquer en partie la variabilité dans la persistance de l’effet antiplaquettaire de l’AAS chez certains sujets souffrant de maladie coronarienne. Ces données suggèrent qu’une augmentation de la fréquence d’administration d’AAS d’une à deux fois par jour pourrait être bénéfique chez ces sujets. Des méta-analyses ont suggéré qu’une réponse plaquettaire inadéquate à l’AAS pourrait augmenter le risque d’événements ischémiques récurrents. La nature rétrospective de ces analyses ne permet pas d’établir la causalité. Dans le deuxième volet de cette thèse, les résultats d’une étude prospective visant à comparer la pertinence clinique de 6 tests de fonction plaquettaire fréquemment utilisés pour évaluer la réponse plaquettaire à l’AAS est présentée. Les résultats démontrent qu’aucun des tests de fonction plaquettaire couramment employés ne prédit la survenue d’événements ischémiques aigus chez des patients souffrant de maladie coronarienne stable. Toutefois, la cessation de la prise d’AAS est un prédicteur important d’événements thrombotiques. La cessation de médicaments antiplaquettaires a souvent été associée à la survenue d’événements thrombotiques dans les jours suivant l’interruption. À savoir si la survenue de ces événements est attribuable uniquement au retrait d’un médicament protecteur ou plutôt à une sensibilisation plaquettaire, constitue un débat d’actualité. Dans le troisième volet de cette thèse, des données sont présentées démontrant que la cessation de clopidogrel après la période recommandée par les lignes directrices actuelles provoque une sensibilisation des plaquettes nouvellement formées aux stimuli plaquettaires physiologiques. Ces résultats encouragent la recherche sur différentes modalités pour atténuer le risque thrombotique accru chez ces patients souffrant de maladie coronarienne. En conclusion, cet ouvrage présente des études visant à identifier les sous-populations de patients qui sont plus à risque de complications cardiovasculaires récurrentes. Dans ce contexte, la personnalisation de traitement est une avenue thérapeutique prometteuse, où chaque patient pourra recevoir un traitement ciblé en fonction de ses besoins et de ses contre-indications. Ce changement de paradigme d’une thérapie empirique issue d’études de grande envergure sur des données populationnelles à une thérapie ajustée aux besoins individuels représente un vaste champ de recherche, où la majorité des découvertes sont à faire.
Resumo:
Les fichiers qui accompagnent le document incluent une archive .jar du zoom-éditeur (qui peut être lancé via un browser) et des exemples de z-textes réalisés avec ce logiciel.
Resumo:
Une réconciliation entre un arbre de gènes et un arbre d’espèces décrit une histoire d’évolution des gènes homologues en termes de duplications et pertes de gènes. Pour inférer une réconciliation pour un arbre de gènes et un arbre d’espèces, la parcimonie est généralement utilisée selon le nombre de duplications et/ou de pertes. Les modèles de réconciliation sont basés sur des critères probabilistes ou combinatoires. Le premier article définit un modèle combinatoire simple et général où les duplications et les pertes sont clairement identifiées et la réconciliation parcimonieuse n’est pas la seule considérée. Une architecture de toutes les réconciliations est définie et des algorithmes efficaces (soit de dénombrement, de génération aléatoire et d’exploration) sont développés pour étudier les propriétés combinatoires de l’espace de toutes les réconciliations ou seulement les plus parcimonieuses. Basée sur le processus classique nommé naissance-et-mort, un algorithme qui calcule la vraisemblance d’une réconciliation a récemment été proposé. Le deuxième article utilise cet algorithme avec les outils combinatoires décrits ci-haut pour calculer efficacement (soit approximativement ou exactement) les probabilités postérieures des réconciliations localisées dans le sous-espace considéré. Basé sur des taux réalistes (selon un modèle probabiliste) de duplication et de perte et sur des données réelles/simulées de familles de champignons, nos résultats suggèrent que la masse probabiliste de toute l’espace des réconciliations est principalement localisée autour des réconciliations parcimonieuses. Dans un contexte d’approximation de la probabilité d’une réconciliation, notre approche est une alternative intéressante face aux méthodes MCMC et peut être meilleure qu’une approche sophistiquée, efficace et exacte pour calculer la probabilité d’une réconciliation donnée. Le problème nommé Gene Tree Parsimony (GTP) est d’inférer un arbre d’espèces qui minimise le nombre de duplications et/ou de pertes pour un ensemble d’arbres de gènes. Basé sur une approche qui explore tout l’espace des arbres d’espèces pour les génomes considérés et un calcul efficace des coûts de réconciliation, le troisième article décrit un algorithme de Branch-and-Bound pour résoudre de façon exacte le problème GTP. Lorsque le nombre de taxa est trop grand, notre algorithme peut facilement considérer des relations prédéfinies entre ensembles de taxa. Nous avons testé notre algorithme sur des familles de gènes de 29 eucaryotes.
Resumo:
Ce mémoire explore la formation des artistes comme entrepreneurs d’eux-mêmes à travers les pratiques de leurs associations professionnelles. Le premier chapitre brosse un portrait du champ culturel québécois et y situe plus spécifiquement les associations qui font l’objet de ce mémoire. L’approche adoptée en est une de gouvernementalité et ce chapitre s’attarde aussi aux sujets constitués dans le dispositif du champ culturel. Le deuxième chapitre aborde les questions méthodologiques soulevées par l’étude : la construction d’une archive et les détails des entretiens conduits. L’archive foucaldienne a été adaptée afin d’y inclure des entretiens. L’objectif était de pouvoir analyser à la fois la subjectivation impliquée par les pratiques des associations et l’exercice du pouvoir sur soi par les artistes. Les troisième, quatrième et cinquième chapitres rendent compte des analyses effectuées. Le troisième chapitre vise à définir l’inclusion dans les associations, c’est-à-dire quels artistes ont accès à leurs services. Avant même que les artistes puissent investir sur eux-mêmes à travers les services des associations, le processus d’adhésion implique déjà une certaine entreprise de soi. Ce chapitre jette les bases du suivant en introduisant la notion de sécurité sur le marché du travail. Le quatrième chapitre aborde plus précisément le sujet entrepreneur de soi qui investit dans sa sécurité à travers des services offerts par les associations : la formation et les caisses de sécurité. Il présente aussi le membership comme investissement en soi, qui donne accès à d’autres investissements, et explore l’inflexibilité des associations comme frein à l’entreprise de soi à travers l’idée d’expérience. Le cinquième chapitre, prenant en compte que les parcours des artistes ne sont isolés, les situe dans un contexte plus large que celui des associations. Il aborde ainsi les notions de marché, de passion et de responsabilisation. La conclusion de ce mémoire en résume le propos général et offre une réflexion épistémologique ainsi qu’une réflexion sur la position schizophrénique du sujet dans le contexte néolibéral.
Resumo:
Le parcours d’Assia Djebar est frappé du sceau de la multidisciplinarité. L’écrivaine algérienne d’expression française a en effet toujours voué un intérêt particulier à la littérature, mais également aux arts. Son engouement pour ces derniers n’a pas été sans influencer son écriture. Ce fait est a priori remarquable au niveau des nombreuses références explicites (tant intertextuelles qu’interdiscursives) que ses récits font tour à tour au cinéma, à la peinture, à la musique, à la photographie et à la mosaïque. C’est à partir de ces renvois que nous posons l’hypothèse d’une relation aux arts mise à l’œuvre de manière plus implicite dans la prose de Djebar, c’est-à-dire susceptible de définir sa poétique. Il s’agira donc pour nous de mettre au jour des procédés d’écriture qui, dans le récit djebarien, sont aptes à créer ─ moyennant leur déplacement et leur transformation ─ des effets que des techniques en usage dans d’autres arts produisent habituellement. L’intermédialité permet d’envisager ce travail : là où l’intertextualité insiste surtout sur la question des textes ; l’interdiscursivité sur celle du discours ; et l’interartialité sur celle de l’esthétique caractéristique des productions artistiques, l’intermédialité rassemble ces préoccupations en ne négligeant pas de considérer la dimension technique inhérente aux phénomènes de signification, qui prête forme à leur matière sémiotique.
Resumo:
L’étude de « Tous les matins du monde», de Pascal Quignard, et ponctuellement, de « Terrasse à Rome», nous permettra d’examiner les relations entre cinéma et littérature d’un point de vue poétique et esthétique et d’approfondir l’approche intermédiale de la littérature. À l’aide de la théorie de la lecture d’Umberto Eco, nous montrerons comment l’encyclopédie filmique du lecteur peut le rendre réceptif à un effet-cinéma en littérature. Nous étudierons les indices implicites qui, ensemble, permettent de parler d’une esthétique filmique. Trois grands chapitres permettront d’étudier cela : vision, montage et univers sonore du texte. Cet angle d’approche devrait permettre de relire « Tous les matins du monde » suivant une perspective critique nouvelle, tout en approfondissant les recherches sur l’intermédialité.
Resumo:
Cette recherche part du constat de l’utilisation des nouvelles technologies qui se généralise dans l’enseignement universitaire (tant sur campus qu’en enseignement à distance), et traite cette question sous trois aspects institutionnel, pédagogique et technologique. La recherche a été menée à travers quinze universités canadiennes où nous avons interrogé vingt-quatre universitaires, nommément des responsables de centres de pédagogie universitaire et des experts sur la question de l’intégration des technologies à l’enseignement universitaire. Pour le volet institutionnel, nous avons eu recours à un cadre théorique qui met en relief le changement de structure et de fonctionnement des universités à l’ère d’Internet, suivant le modèle théorique de l’Open System Communications Net de Kershaw et Safford (1998, 2001). Les résultats, à l’aune de ce modèle, confirment que les universités conventionnelles sont dans une phase de transformation due à l’utilisation des technologies de l'information et de la communication (TIC). De plus, les cours hybrides, la bimodalité, des universités entièrement à distance visant une clientèle estudiantine au-delà des frontières régionales et nationales, des universités associant plusieurs modèles, des universités fonctionnant à base d’intelligence artificielle, sont les modèles principaux qui ont la forte possibilité de s’imposer dans le paysage universitaire nord-américain au cours des prochaines décennies. Enfin, à la lumière du modèle théorique, nous avons exploré le rôle de l’université, ainsi en transformation, au sein de la société tout comme les rapports éventuels entre les institutions universitaires. S’agissant de l’aspect pédagogique, nous avons utilisé une perspective théorique fondée sur le modèle du Community of Inquiry (CoI) de Garrison, Anderson et Archer (2000), revu par Vaughan et Garrison (2005) et Garrison et Arbaugh (2007) qui prône notamment une nouvelle culture de travail à l’université fondée sur trois niveaux de présence. Les résultats indiquent l’importance d’éléments relatifs à la présence d’enseignement, à la présence cognitive et à la présence sociale, comme le suggère le modèle. Cependant, la récurrence -dans les trois niveaux de présence- de certains indicateurs, suggérés par les répondants, tels que l’échange d’information, la discussion et la collaboration, nous ont amenés à conclure à la non-étanchéité du modèle du CoI. De plus, certaines catégories, de par leur fréquence d’apparition dans les propos des interviewés, mériteraient d’avoir une considération plus grande dans les exigences pédagogiques que requiert le nouveau contexte prévalant dans les universités conventionnelles. C’est le cas par exemple de la catégorie « cohésion de groupe ». Enfin, dans le troisième volet de la recherche relatif à la dimension technologique, nous nous sommes inspirés du modèle théorique d’Olapiriyakul et Scher (2006) qui postule que l’infrastructure dans l’enseignement doit être à la fois une technologie pédagogique et une technologie d’apprentissage pour les étudiants (instructional technology and student learning technology). Partant de cette approche, le volet technologique de notre recherche a consisté à identifier les fonctionnalités exigées de la technologie pour induire une évolution institutionnelle et pédagogique. Les résultats à cet égard ont indiqué que les raisons pour lesquelles les universités choisissent d’intégrer les TIC à l’enseignement ne sont pas toujours d’ordre pédagogique, ce qui explique que la technologie elle-même ne revête pas forcément les qualités a priori requises pour une évolution pédagogique et institutionnelle. De ce constat, les technologies appropriées pour une réelle évolution pédagogique et institutionnelle des universités ont été identifiées.