1000 resultados para Pensée technique
Resumo:
Benjamin Fondane est un penseur et un artiste du XXe siècle qui demeure encore relativement méconnu de la communauté universitaire. Pourtant, son œuvre poétique et ses essais révèlent une démarche atypique et une vision concrète de la dualité humaine et de la pratique de la pensée. « Le mal des fantômes », poème central de l’œuvre de Fondane, est une incarnation imagée du mal-être psychique de l’humain qui pressent que ses réflexes intellectuels, tels la raison et l’esprit de non-contradiction, créent une rupture avec son expérience intime du monde, brigue une portion du réel. L’étude de la figure du fantôme (qui est la figure de la hantise dans la tradition littéraire) ainsi que de l’économie discursive de la traversée maritime qui se déploient dans ce poème nous permet d’interroger les astuces rhétoriques que Fondane met en place afin de contrecarrer ce malaise. À travers l’expérience scripturale et la lecture, il est à la recherche d’une nouvelle disposition de l’activité réflexive qui serait davantage solidaire de l’existence humaine. C’est grâce au geste de l’écriture que sa pensée voyage, se meut, retrouve sa vivacité et, par là même, ses pouvoirs de mutation. Se pencher sur la mise en œuvre de la réflexion chez Benjamin Fondane permet de poser un regard sensible sur les propres rapports que nous entretenons avec notre activité intellectuelle, scripturale et notre pensée.
Resumo:
Cette étude quasi-expérimentale a pour but de 1) comparer la prise en compte et les effets de trois conditions rétroactives, à savoir la reformulation, l’incitation et un mélange des deux techniques, 2) déterminer le lien entre la prise en compte et l’apprentissage, et 3) identifier l’effet des perceptions des apprenants quant à la rétroaction corrective sur la prise en compte et l’apprentissage. Quatre groupes d’apprenants d’anglais langue seconde ainsi que leurs enseignants provenant d’un CEGEP francophone de l’île de Montréal ont participé à cette étude. Chaque enseignant a été assigné à une condition rétroactive expérimentale qui correspondait le plus à ses pratiques rétroactives habituelles. La chercheure a assuré l’intervention auprès du groupe contrôle. L’utilisation du passé et de la phrase interrogative était ciblée durant l’intervention expérimentale. Des protocoles de pensée à haute voie ainsi qu’un questionnaire ont été utilisés pour mesurer la prise en compte de la rétroaction corrective. Des tâches de description d’images et d’identification des différences entre les images ont été administrées avant l’intervention (pré-test), immédiatement après l’intervention (post-test immédiat) et 8 semaines plus tard (post-test différé) afin d’évaluer les effets des différentes conditions rétroactives sur l’apprentissage des formes cibles. Un questionnaire a été administré pour identifier les perceptions des apprenants quant à la rétroaction corrective. En termes de prise en compte, les résultats indiquent que les participants sont en mesure de remarquer la rétroaction dépendamment de la forme cible (les erreurs dans l’utilisation du passé sont détectées plus que les erreurs d’utilisation de la phrase interrogative) et de la technique rétroactive utilisée (l’incitation et le mélange d’incitation et de reformulations sont plus détectés plus que la reformulation). En ce qui a trait à l’apprentissage, l’utilisation du passé en général est marquée par plus de développement que celle de la phrase interrogative, mais il n'y avait aucune différence entre les groupes. Le lien direct entre la prise en compte et l’apprentissage ne pouvait pas être explicitement établi. Pendant que la statistique inférentielle a suggéré une relation minimale entre la prise en compte du passé et son apprentissage, mais aucune relation entre la prise en compte de la phrase interrogative et son apprentissage, les analyses qualitatives ont montrés à une association entre la prise en compte et l’apprentissage (sur les deux cibles) pour certains étudiants et augmentations sans prise en compte pour d'autres. Finalement, l’analyse factorielle du questionnaire indique la présence de quatre facteurs principaux, à savoir l’importance de la rétroaction corrective, la reformulation, l’incitation et les effets affectifs de la rétroaction. Deux de ces facteurs ont un effet modérateur sur la prise en compte de la rétroaction sans, toutefois, avoir d’impact sur l’apprentissage.
Resumo:
De nos jours, les applications de grande taille sont développées à l’aide de nom- breux cadres d’applications (frameworks) et intergiciels (middleware). L’utilisation ex- cessive d’objets temporaires est un problème de performance commun à ces applications. Ce problème est appelé “object churn”. Identifier et comprendre des sources d’“object churn” est une tâche difficile et laborieuse, en dépit des récentes avancées dans les tech- niques d’analyse automatiques. Nous présentons une approche visuelle interactive conçue pour aider les développeurs à explorer rapidement et intuitivement le comportement de leurs applications afin de trouver les sources d’“object churn”. Nous avons implémenté cette technique dans Vasco, une nouvelle plate-forme flexible. Vasco se concentre sur trois principaux axes de con- ception. Premièrement, les données à visualiser sont récupérées dans les traces d’exécu- tion et analysées afin de calculer et de garder seulement celles nécessaires à la recherche des sources d’“object churn”. Ainsi, des programmes de grande taille peuvent être vi- sualisés tout en gardant une représentation claire et compréhensible. Deuxièmement, l’utilisation d’une représentation intuitive permet de minimiser l’effort cognitif requis par la tâche de visualisation. Finalement, la fluidité des transitions et interactions permet aux utilisateurs de garder des informations sur les actions accomplies. Nous démontrons l’efficacité de l’approche par l’identification de sources d’“object churn” dans trois ap- plications utilisant intensivement des cadres d’applications framework-intensive, inclu- ant un système commercial.
Resumo:
Ce mémoire interroge le rapport développé dans Maîtres anciens de Thomas Bernhard entre l’écriture littéraire, la pensée philosophique et le kitsch. Au-delà de la supposition surprenante que la philosophie puisse être affaire de goût, de séduction et de sentiments, l’analyse de la notion de kitsch philosophique permet d’envisager le discours critique comme une arme à double tranchant qui promet autant l’émancipation que l’autoaliénation du Kitschmensch pensant. C’est à travers la figure de Reger, protagoniste de la comédie orchestrée par Bernhard, que s’incarne cette perspective critique paradoxale qui témoigne de problèmes de légitimation et d’un scepticisme croissant face aux promesses des grands récits émancipateurs. À l’examen de cette mise en scène de la philosophie, apparaît une manière proprement littéraire de « penser la pensée ». Ce mémoire veut rendre compte de ce en quoi la pensée littéraire se distingue de l’essai philosophique mais aussi de tout autre métadiscours. La littérature, car elle montre plus qu’elle n’affirme, conséquemment permet de comprendre les points de contact et de tension entre la philosophie et le kitsch, entre la culture et la barbarie, d’une manière toute particulière. C’est cette particularité qui fait l’objet de cette étude et qui est considérée comme une forme de résistance à la commodification, la vanité, la domestication, bref la kitschification de la pensée critique.
Resumo:
Ce mémoire propose une analyse de la théorie de la volonté en relation avec le mal dans la pensée de Thomas d’Aquin. Le mal est une privation d’être et l’être est identique au bien. La volonté est une forme intellectuelle d’appétit, ainsi que la gouvernante des puissances inférieures, mais aussi de la raison qui est à la fois son principe. L’appétit est un mouvement vers ce qui est le bien d’une nature, il est donc difficile d’accepter que la volonté puisse élire son contraire qui est le mal. La thèse de Platon selon laquelle le mal n’est désiré que par ignorance est écartée, puisque le propos de Thomas est d’expliquer le consentement en faveur du mal connu. Or, si le mal peut être voulu, on ne peut le vouloir sans le référer au bien. Ainsi, le libre arbitre, bien qu’ayant Dieu pour principe, est le principe du premier mauvais choix. La compréhension de la problématique passe par la division de ce qui appartient à l’extérieur de la volonté et ensuite à l’intérieur. De soi, un acte extérieur peut être immoral, comme le vol, mais la volonté d’une intention bonne qui choisit cet acte devient mauvaise, bien qu’elle garde le mérite de sa bonne intention. Son choix mauvais est parfois dû à une certaine ignorance, mais, puisque nous n’ignorons pas toujours le mal, il faut attribuer une faiblesse à la volonté, car elle n’accomplit pas pleinement sa nature. Quand elle répète ses actes de faiblesse à l’égard du mal, elle se dispose à accueillir l’habitus de la malice, et alors elle cherche d’elle-même le mal. Aucun de ces principes, cependant, ne peut s’appliquer à l’homme originel ni au diable. Ceux-ci n’auront pour principe de leurs choix que l’orgueil dans le libre exercice de la volonté.
Resumo:
L’élaboration de normes vouées à encadrer une activité technologique pose, au-delà du défi de la simplicité, celui de construire un cadre juridique durable, dont la pertinence ne saurait être remise en cause par de nouveaux développements techniques. Le principe de neutralité technologique, qui incarne cette volonté de pérennité du droit, emporte une formulation particulière des lois relatives aux technologies de l’information. Davantage tourné vers des objectifs que vers des technologies prédéterminées, ce style rédactionnel perd cependant en précision : au risque d’interprétations erronées, les destinataires doivent eux-mêmes identifier les technologies susceptibles de correspondre aux exigences juridiques. Relevant ainsi le dilemme cornélien entre le besoin de pérennité technique du droit et le souci d’un encadrement juridique précis, l’auteur constate qu’il caractérise l’intégration de plus en plus courante du concept d’efficacité technique en droit. S’agissant d’un critère pour le moins imprécis, son intégration juridique implique l’utilisation de stratégies normatives originales visant à concilier le principe de neutralité technologique et le besoin de prévisibilité du droit.
Resumo:
« Dissimuler » un trésor a toujours fasciné. Mais à l’heure actuelle, le trésor n’est plus toujours une caisse pleine de pierres précieuses ou d’or, il peut s’agir d’une simple information ou d’une donnée informatique importante que l’on souhaite cacher pour mieux la protéger. Avec le développement d’Internet, le domaine de la stéganographie, technique consistant à dissimuler une information pour la faire passer inaperçue, prend alors une nouvelle ampleur : il est désormais facile de dissimuler un fichier qui n’est qu’une goutte d’eau dans un océan informationnel. Si cette possibilité ouvre de nouvelles perspectives en termes de sécurité de l’information (car si personne ne sait qu’il y a un message secret, personne ne cherchera à le regarder ou le récupérer…), sa couverture sur le plan juridique n’est encore qu’embryonnaire. Dans la première partie, après avoir présenté les principes de la stéganographie informatique, nous montrerons combien un tel procédé est complémentaire et s’accorde bien avec la cryptographie, et le mettrons en perspective avec d’autres techniques voisines de dissimulation d’information (tatouage et empreinte digitale). Nous illustrerons finalement quelques pratiques de stéganographie appliquée à deux catégories de données numériques, l’image et le texte. Dans la seconde partie, nous plaçant résolument sur le plan juridique, nous tenterons tout d’abord de voir si la stéganographie peut faire partie des mesures techniques de protection que doit mettre en place un responsable de système d’information au titre de l’obligation de sécurité informationnelle. Ensuite, après avoir constaté que certains usages déviants de la stéganographie pouvaient impacter la sécurité publique, nous nous interrogerons sur ses répercussions, compte tenu des exigences d’accessibilité et d’intégrité de l’information.
Resumo:
La protection des renseignements personnels est au cœur des préoccupations de tous les acteurs du Web, commerçants ou internautes. Si pour les uns trop de règles en la matière pourraient freiner le développement du commerce électronique, pour les autres un encadrement des pratiques est essentiel à la protection de leur vie privée. Même si les motivations de chacun sont divergentes, le règlement de cette question apparaît comme une étape essentielle dans le développement du réseau. Le Platform for Privacy Preference (P3P) propose de contribuer à ce règlement par un protocole technique permettant la négociation automatique, entre l’ordinateur de l’internaute et celui du site qu’il visite, d’une entente qui encadrera les échanges de renseignements. Son application pose de nombreuses questions, dont celle de sa capacité à apporter une solution acceptable à tous et surtout, celle du respect des lois existantes. La longue et difficile élaboration du protocole, ses dilutions successives et sa mise en vigueur partielle témoignent de la difficulté de la tâche à accomplir et des résistances qu’il rencontre. La première phase du projet se limite ainsi à l’encodage des politiques de vie privée des sites et à leur traduction en termes accessibles par les systèmes des usagers. Dans une deuxième phase, P3P devrait prendre en charge la négociation et la conclusion d’ententes devant lier juridiquement les parties. Cette tâche s’avère plus ardue, tant sous l’angle juridique que sous celui de son adaptation aux us et coutumes du Web. La consolidation des fonctions mises en place dans la première version apparaît fournir une solution moins risquée et plus profitable en écartant la possible conclusion d’ententes incertaines fondées sur une technique encore imparfaite. Mieux éclairer le consentement des internautes à la transmission de leurs données personnelles par la normalisation des politiques de vie privée pourrait être en effet une solution plus simple et efficace à court terme.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).