794 resultados para Responsibility conception


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire explore des façons de conceptualiser la responsabilité dans des cas où des individus contribuent de façon peu significative à des torts collectifs éloignés. Pour contextualiser la discussion, la relation entre des actes de consommation et la perpétuation des « sweatshops » dans l’industrie des textiles et des chaussures est utilisée. Une approche basée sur les droits humains est déployée pour définir le tort qui est présent dans les usines de textiles et une conceptualisation de la connection est proposée selon la notion de la structure sociale. Guidé par la notion de « unstructured collective harms » proposée par Christopher Kutz, et en comparaison avec des notions de responsabilité qui mettent la responsabilité nationale en premier plan, les conclusions qui sont offertes ici sont centrées sur l’importance de la confrontation du consommateur pour remédier aux effets du problème d’action collective qui est au coeur de la création des torts collectifs lointains. Finalement, l’importance du cosmopolitanisme comme une façon de stabiliser des théories de responsabilité à travers les frontières est mis en évidence.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En octobre 2005, l’assemblée générale de l’UNESCO adoptait la Déclaration universelle sur la bioéthique et les droits de l’Homme. Le projet de cette déclaration a été élaboré par le Comité international de bioéthique (CIB) en consultation avec le Comité intergouvernemental de bioéthique (CIGB), les États membres, le comité interagences des Nations Unies, des organisations gouvernementales et non gouvernementales, des comités nationaux d’éthiques et de multiples acteurs impliqués en bioéthique. Cette déclaration faisait suite à deux autres textes sur le même sujet produits en 1997 et 2003, la Déclaration sur le génome humain et les droits de l’homme et la Déclaration internationale sur les données génétiques humaines. Les nouvelles questions éthiques que suscitaient les développements scientifiques et technologiques ainsi que la mondialisation de la recherche avaient incité cette organisation à se doter d’instruments normatifs pouvant rejoindre toutes les nations. Seule organisation mondiale ayant une vocation spécifique en éthique, l’UNESCO a voulu par cette dernière déclaration fournir à ses États membres un cadre normatif susceptible de les aider à formuler des lois et des lignes directrices. Ayant été impliquée, à titre de présidente du Comité international de bioéthique dans la préparation de cet instrument nous nous sommes posée la question suivante : Dans un contexte de mondialisation, une bioéthique qui vise le bien commun universel est-elle possible au sein de la diversité et de la pluralité culturelle des nations ? L’exemple de l’élaboration de la déclaration universelle sur la bioéthique et les droits de l’homme de l’UNESCO. Le bien commun étant un concept fréquemment mentionné et à peu près jamais défini clairement, il nous a semblé intéressant d’en retracer l’histoire et de dégager un cadre conceptuel qui a ensuite servi à étudier et dégager le sens donné à ces concepts dans la préparation de la déclaration. Un premier chapitre présente le contexte et la problématique. Le deuxième chapitre présente la revue de la littérature et la définition des concepts ainsi que le cadre conceptuel. Le troisième chapitre présente le cadre théorique et les données analysées et la méthodologie. Le quatrième chapitre présente l’analyse détaillée des différentes étapes de l’élaboration de la déclaration. Le cinquième chapitre présente la portée et les limites de la thèse et le cinquième chapitre la conclusion. Nous concluons que la déclaration en ayant utilisé une méthode de consultation, de délibération et de consensus pragmatique, offre un texte avec une vision d’un bien commun universel susceptible d’être utilisé dans tous les contextes culturels et par toutes les nations, spécialement les nations en développement. En effet, son architecture flexible et son souci de ne pas catégoriser les principes, mais plutôt de les utiliser en complémentarité les uns avec les autres, en fait un texte souple et adaptable au plan mondial. Ce travail pourra aussi contribuer à enrichir la réflexion et l’action des organisations internationales impliquées en bioéthique. Il pourra aussi inspirer les recherches actuelles en sciences politiques et en droit alors que sont explorés de nouveaux modèles de gouvernance et de nouvelles façons de construire les législations et les normes et de faire face aux défis actuels qui se posent aux droits de l’homme.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La conception heideggérienne du « cercle de la compréhension » exposée aux §§ 31 et 32 de Sein und Zeit est bien connue et a souvent été analysée, notamment par Hans-Georg Gadamer dans Vérité et méthode (1960) et Jean Greisch dans son commentaire de Sein und Zeit (1994). Mais on a trop peu vu que la théorie du cercle herméneutique déterminait aussi la conception heideggérienne de la philosophie. Notre recherche s’efforcera de le montrer et d’expliquer pourquoi il en est ainsi. Au plan de la méthodologie, nous proposerons, en nous inspirant des commentateurs les plus autorisés (Greisch, Gadamer, Courtine, et al.), un commentaire serré des §§ 31 et 32 de Sein und Zeit, sans oublier le § 63 où Heidegger souligne lui-même la « situation herméneutique » de sa propre enquête, ni le § 68 où se trouve mise en évidence la dimension temporelle du cercle de la compréhension. Nous tâcherons ensuite de montrer en quoi ce cercle affecte la conception heideggérienne de la philosophie telle que présentée au § 7 de Sein und Zeit et dans d’autres textes de Heidegger tels que Les problèmes fondamentaux de la phénoménologie (GA 24).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire portera sur le problème de la signification, dans la pensée de Heidegger, de la métaphysique moderne, à partir de la conception de l’histoire de l’être qu’il développe dans les années 1930. Plus précisément, nous nous baserons sur l’écrit Die Zeit des Weltbildes, que l’on retrouve dans le recueil nommé Holzwege, mais également, dans une moindre mesure, sur l’écrit Niezsches Wort « Gott ist tot » du même recueil. Nous commencerons par introduire le lecteur à l’idée qu’il se fait de la métaphysique en général dans son rapport à l’homme, et du nihilisme que constitue son histoire, lequel s’accentue à l’époque moderne. Nous rentournerons alors brièvement aux premiers commencements de la métaphysique, chez Parménide et Platon principalement, dans le but de dégager les aspects de la métaphysique moderne qui y ont trouvé leur source. C’est alors que nous entrerons dans le vif du sujet, en expliquant en quoi consiste l’inauguration de la métaphysique moderne chez Descartes qui, face à l’obligation religieuse, pose la confirmation autonome de la vérité qui trouve son lieu propre dans la conscience de soi. Il sera dès lors question de montrer précisément comment se fait cette confirmation par soi-même du vrai, au travers de certaines notions centrales de l’analyse heideggerienne : la pro-position, la présentation et la représentation, l’instauration, la production, l’obtention, la préhension et la compréhension, notamment. Nous analyserons ensuite le mouvement de la volonté du sujet qui sous-tend cette confirmation autonome du savoir jusqu’à son aboutissement chez des penseurs tels que Schopenhauer. Nous mettrons par le fait même en évidence le rapport fondamental, souligné par Heidegger, entre le sujet et son objet, l’homme moderne se soulèvant et se donnant lui-même le statut éminent de centre de référence de toute chose, rapportant à lui-même tout chose. Ce mémoire se terminera par l’analyse que fait Heidegger d’un phénomène propre à la modernité, et donc émanent de la métaphysique qui aura été examinée au préalable, soit la science moderne. Celle-ci constitue la voie privilégiée où l’homme moderne, après avoir sciemment pris position au centre du monde, peut « procéder » dans le monde comme dans son royaume, un monde qui se révèle alors comme étant essentiellement à sa disposition. La science, émanant selon Heidegger de la conception moderne de la vérité et de l’étant, se révèle alors non seulement comme une réalisation de la métaphysique qui aura été analysée dans les chapitres précédents, mais peut-être même comme le phénomène duquel Heidegger semble s’être inspiré pour développer son idée de la métaphysique moderne.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objet de ce travail de recherche est de mettre en dialogue les œuvres de Hans-Georg Gadamer et de Paul Ricœur afin de mettre au jour ce qui caractérise en propre la conception herméneutique du langage et d’en souligner la pertinence. Notre thèse principale est que, pour ce faire, il est impératif de dépasser les lectures dichotomiques des deux œuvres par une interprétation plus dialectique, puisque seule une telle démarche paraît susceptible de saisir l’étendue, la richesse et l’importance de l’intelligence herméneutique du phénomène langagier. Ainsi, dans ce travail, nous défendrons l’idée que, par-delà leurs différences incontestables, précieuses en elles-mêmes car sans elles il n’est pas de dialogue, les herméneutiques de Gadamer et Ricœur se distinguent par une réflexion philosophique incessante sur notre appartenance fondamentale au langage, qui constitue le cœur de la conception herméneutique du langage. Nous proposerons une confrontation des philosophies de Gadamer et Ricœur s’effectuant principalement autour d’une dialectique entre appartenance et distanciation, dans laquelle des approches plus objectivantes du langage pourront s’articuler à une description de notre expérience vécue. Avant de décrire cette dialectique pour elle-même, il nous est apparu indiqué de tenir compte de l’héritage phénoménologique incontournable à partir duquel Gadamer et Ricœur ont développé leurs approches respectives du langage. Cette base nous permettra de faire ressortir l’existence d’un accord de fond entre les deux herméneutiques sur la reconnaissance de notre irréductible appartenance au langage. Cette thèse n’exclut pas la possibilité, voire la nécessité d’intégrer dialectiquement un moment de distanciation au sein de cette appartenance primordiale. Nous montrerons en effet que c’est en s’appuyant sur cette distanciation que, par un mouvement réflexif, la pensée herméneutique peut revenir sur notre expérience langagière pour la thématiser et l’expliciter. Cette réflexion sur le langage s’effectue à partir de trois principaux modèles : ceux du dialogue, du texte et de la traduction. Nous exposerons comment chacun de ces modèles contribue à une meilleure compréhension de la vie du langage et de notre rapport au sens. Ceci nous conduira à examiner les efforts de Gadamer et Ricœur visant à mettre en lumière la puissance créatrice qui anime le langage, telle qu’elle ressort de leurs nombreux travaux sur la métaphore, le dire poétique et le récit. Nous défendrons alors la thèse qu’une conception originale de l’imagination s’élabore à travers la réflexion herméneutique sur l’innovation sémantique et la métaphoricité essentielle du langage. Cette recherche se terminera par une analyse des conceptions gadamérienne et ricœurienne des rapports entre langage et expérience, ainsi que de la portée ontologique du langage. Il y aura ici lieu d’insister sur la thèse partagée par les deux herméneutes selon laquelle il importe de résister à toute hypostase ou absolutisation du langage et de constamment penser le langage comme offrant une ouverture sur l’être et la possibilité de dire ce qui est.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La problématique de l’observance de la biosécurité est présente dans tous les types de production. Il est essentiel de définir des stratégies pour améliorer l’application des mesures de biosécurité. Cette étude décrit l’application des mesures de biosécurité à l’entrée et à la sortie de 24 bâtiments d’élevages avicoles au Québec, Canada. L’effet des audits et de caméras visibles sur l’observance a été étudié, de même que les déterminants de l’observance. De plus, la relation entre l’observance et les profils de personnalité, l’expérience et l’éducation a été décrite. L’application des mesures de biosécurité a été évaluée à l’aide de caméras cachées. L’observance à court terme (deux premières semaines) et à moyen terme (six mois plus tard) a été déterminée. Basés sur les résultats du groupe contrôle, 44 différentes erreurs lors de l’application des mesures de biosécurité ont été observées à l’entrée et la sortie des bâtiments. La plupart étaient reliées à la délimitation des zones (propre versus contaminée). La nature et la fréquence des erreurs suggèrent un manque de compréhension des principes associés aux mesures de biosécurité. Le visionnement des vidéos a révélé 3055 visites par 277 individus différents (136 employés, 123 visiteurs, 3 superviseurs et 15 éleveurs). Les résultats ont démontré que les audits n’avaient pas d’impact sur l’observance des employés. Les caméras visibles ont eu un impact, à court terme, sur le port de bottes et le respect des zones durant la visite. Par contre, six mois plus tard, l’observance avait significativement diminué, au point de ne plus être statistiquement plus élevée que le groupe contrôle. La durée et le moment de la visite, la présence de l’éleveur ou d’un observateur, la conception de l’entrée, le nombre de bâtiments, le nombre de mesures de biosécurité exigé, le type de bottes, le genre et être membre de la famille de l’éleveur étaient significativement associés à l’observance de certaines mesures. Finalement, trois traits de la personnalité étaient associés à l’observance: responsabilité, orienté vers l’action et complexité, de même que le nombre d’années d’expérience et le niveau d’éducation. Il est nécessaire d’améliorer la formation en matière de biosécurité en fournissant du matériel de formation à tous les intervenants qui démontrent pourquoi et comment appliquer les mesures de biosécurité. La formation continue devrait également aborder les problématiques reliées aux caractéristiques de visites et de fermes. Améliorer la conception des entrées de bâtiments devrait contribuer à augmenter et à maintenir l’observance. L’identification de traits de personnalité associés à l’observance peut avoir des implications sur la sélection des candidats à l’embauche ou sur l’attribution de tâches et sur la planification des programmes de formation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche porte sur des questions relatives à la conception des interfaces humain-ordinateur. Elle s’inscrit dans le courant des recherches sur l’utilisabilité et elle s’intéresse particulièrement aux approches centrées sur l’utilisateur. Nous avons été très souvent témoin des difficultés éprouvées par les utilisateurs dans l’usage de certaines interfaces interactives et nous considérons que ces difficultés découlent d’un problème de design. Le design d’interface doit être basé sur les besoins de l’utilisateur dans le cadre de ses activités, dont les caractéristiques devaient être bien comprises et bien prises en considération pour mener à la conception d’interfaces qui respectent les critères d’utilisabilité. De plus, la communauté des chercheurs ainsi que l’industrie admettent maintenant que pour améliorer le design, il est crucial de développer les interfaces humain-ordinateur au sein d’une équipe multidisciplinaire. Malgré les avancées significatives dans le domaine du design centrées sur l’utilisateur, les visées annoncées sont rarement réalisées. La problématique étudiée nous a conduit à poser la question suivante : En tant que designer d’une équipe multidisciplinaire de conception, comment modifier la dynamique de collaboration et créer les conditions d’une conception véritablement centrée sur l’interaction humain-ordinateur ? Notre démarche de recherche a été guidée par l’hypothèse voulant que l’activité de design puisse être le moyen de faciliter la création d’un langage commun, des échanges constructifs entre les disciplines, et une réflexion commune centrée sur l’utilisateur. La formulation de cette hypothèse nous a mené à réfléchir sur le rôle du designer. Pour mener cette recherche, nous avons adopté une méthodologie mixte. Dans un premier temps, nous avons utilisé une approche de recherche par projet (recherche-projet) et notre fonction était celle de designer-chercheur. La recherche-projet est particulièrement appropriée pour les recherches en design. Elle privilégie les méthodes qualitatives et interprétatives ; elle étudie la situation dans sa complexité et de façon engagée. Nous avons effectué trois études de cas successives. L’objectif de la première étude était d’observer notre propre rôle et nos interactions avec les autres membres de l’équipe de projet pendant le processus de design. Dans la seconde étude, notre attention a été portée sur les interactions et la collaboration de l’équipe. Nous avons utilisé le processus de design comme méthode pour la construction d’un langage commun entre les intervenants, pour enrichir les réflexions et pour favoriser leur collaboration menant à redéfinir les objectifs du projet. Les limites de ces deux cas nous ont conduit à une intervention différente que nous avons mise en œuvre dans la troisième étude de cas. Cette intervention est constituée par la mise en place d’un atelier intensif de conception où les intervenants au projet se sont engagés à développer une attitude interdisciplinaire permettant la copratique réflexive pour atteindre les objectifs d’un projet de construction d’un site web complexe centré sur l’utilisateur. L’analyse et l’interprétation des données collectées de ces trois études de cas nous ont conduit à créer un modèle théorique de conception d’interface humain-ordinateur. Ce modèle qui informe et structure le processus de design impliquant une équipe multidisciplinaire a pour objectif d’améliorer l’approche centrée sur l’utilisateur. Dans le cadre de ce modèle, le designer endosse le rôle de médiateur en assurant l’efficacité de la collaboration de l’équipe. Dans un deuxième temps, afin de valider le modèle et éventuellement le perfectionner, nous avons utilisé une approche ethnographique comportant des entrevues avec trois experts dans le domaine. Les données des entrevues confirment la validité du modèle ainsi que son potentiel de transférabilité à d’autres contextes. L’application de ce modèle de conception permet d’obtenir des résultats plus performants, plus durables, et dans un délai plus court.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les biocapteurs sont utilisés quotidiennement pour déterminer la présence de molécules biologiques dans une matrice complexe, comme l’urine pour les tests de grossesses ou le sang pour les glucomètres. Les techniques courantes pour la détection des autres maladies nécessitent fréquemment le marquage de l’analyte avec une autre molécule, ce qui est à éviter pour fin de simplicité d’analyse. Ces travaux ont pour but la maximisation de la sensibilité d’une surface d’or ou d’argent nanotrouée, afin de permettre la détection de la liaison de molécules biologiques par résonance des plasmons de surface localisés (LSPR), en utilisant la spectroscopie de transmission. Un biocapteur portable, rapide et sans marquage pour quantifier des analytes d’intérêt médical ou environnemental pourrait être construit à partir de ces travaux. Dans l’objectif d’étudier de nombreuses configurations pour maximiser la sensibilité, le temps et le coût des méthodes de fabrication de nanostructures habituelles auraient limité le nombre de surfaces nanotrouées pouvant être étudiées. Un autre objectif du projet consiste donc au développement d’une technique de fabrication rapide de réseaux de nanotrous, et à moindres coûts, basée sur la lithographie de nanosphères (NSL) et sur la gravure au plasma à l’oxygène (RIE). La sensibilité à la variation d’indice de réfraction associée aux liaisons de molécules sur la surface du métal noble et la longueur d’onde d’excitation du plasmon de surface sont influencées par les caractéristiques des réseaux de nanotrous. Dans les travaux rapportés ici, la nature du métal utilisé, le diamètre ainsi que la périodicité des trous sont variés pour étudier leur influence sur les bandes LSPR du spectre en transmission pour maximiser cette sensibilité, visant la fabrication d’un biocapteur. Les surfaces d’argent, ayant un diamètre de nanotrous inférieur à 200 nm pour une périodicité de 450 nm et les nanotrous d’une périodicité de 650 nm démontre un potentiel de sensibilité supérieur.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire analysera une des thèses majeures de l’œuvre d’Emmanuel Levinas, à savoir le primat de l’éthique sur l’ontologie. L’argumentation se penchera surtout sur la description phénoménologique de l’approche de l’altérité, incarnée dans la concrétude du visage du prochain et dans laquelle se retrouve l’idée de l’infini, inspirée dans sa formulation de Descartes. Cette idée, n’étant pas qu’un simple concept mais plutôt une réalité phénoménale transcendante, amène Levinas à questionner le rôle de la conscience thématisante dans l’expérience morale, caractérisée par son immédiateté et par la présence d’un Autre. Est-ce que l’essentiel de la conscience se comprend comme liberté et savoir ? Y aurait-il un autre aspect, oublié par la rationalité que Levinas qualifie de grecque, qui serait plus propre à décrire la conscience ? L’ontologie ne repose-t-elle pas sur une conception de l’homme comme un sujet autonome et en contrôle ? Par ses fines analyses plutôt ontologiques dans Totalité et infini, et par sa prose plus déconstructrice d’Autrement qu’être, ou au-delà de l’essence, Levinas ébranle les fondations du sujet moderne tout en ramenant au centre des préoccupations philosophiques une idée que la tradition occidentale a eu tendance à évacuer, c’est-à-dire l’altérité. Et cette altérité, irréductible aux concepts immanents de la conscience d’un sujet, est ce qui justifie le primat de l’éthique, posant devant le je un tu qui appelle et demande une responsabilité absolue. Plusieurs auteurs et commentateurs seront mis à contribution, dont surtout Husserl et Heidegger, ainsi que S. Critchley, B. Bergo, J.-M. Salanskis et Jacques Roland.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire propose une conception naturaliste et normative de l'axiologie scientifique contemporaine, c'est-à-dire des buts de la science et des scientifiques. Nous commençons par présenter le naturalisme en philosophie des sciences, en particulier ses dimensions scientifique, méthodologique et ontologique. Nous discutons le sophisme naturaliste et l'objection de la normativité souvent adressée aux approches naturalistes, principalement à travers le prisme de l'épistémologie naturalisée de Quine (1969). Nous illustrons ensuite ces thèmes - naturalisme, normativité, et axiologie scientifique - au moyen de la théorie de Laudan (1987), qui articule un début de théorie axiologique de la science qui se veut naturaliste et normative. Nous soulignons le caractère insatisfaisant de sa théorie, et proposons une conception plus riche et plus détaillée de l'axiologie scientifique. Nous analysons pour ce faire différents liens entre la science, l'industrie, le gouvernement et la société. Nous dégageons en particulier une tendance axiologique pragmatique de la science contemporaine. Finalement, nous ébauchons un cadre normatif instrumental inspiré de Laudan (1987)pour réfléchir sur l'axiologie scientifique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La politique québécoise de l’adaptation scolaire confirme que le plan d’intervention (PI) constitue l’outil privilégié pour répondre aux besoins des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage. Toutefois, la recension des écrits nous informe que le plan d’intervention est encore loin d’être efficace. Le Ministère de l’Éducation, des Loisirs et des Sports du Québec (MELS, 2004) ainsi que l’Office of Special Education and Rehabilitative Services des U.S. department of Education (dans Eichler, 1999) ont bien identifié et présenté explicitement cinq à six fonctions du PI mais, aucun des deux organismes ne définit ce qu’est une fonction, à quoi elle sert, son importance relative et ce qu’elle implique. De plus, on retrouve, explicitement ou implicitement, soit dans le cadre de référence pour l’établissement des PI (MELS, 2004), soit dans la revue de la littérature, soit dans les milieux de pratique plusieurs autres fonctions que le PI remplit ou devrait remplir. Ce flou entourant le concept de fonction entraîne un manque de rigueur dans la conception des PI, car « lorsque la totalité des fonctions a été identifiée, elle permet le développement d’un produit répondant à l’usage attendu » (Langevin et coll., 1998). Il y a d’emblée une somme de fonctions qu’un PI remplit déjà et d’autres sûrement à remplir. Or, cela n’a pas été élucidé, précisé et validé. Le but de la présente recherche a été de définir les rôles du PI au regard des besoins de ses différents utilisateurs. Les objectifs spécifiques ont été les suivants, 1) Identifier les différents utilisateurs d’un PI, 2) Identifier les besoins des différents utilisateurs d’un PI, 3) Identifier les fonctions qu’un PI doit remplir afin de satisfaire les besoins de ses utilisateurs, 4) Créer un cahier des charges fonctionnel pour la conception et l’évaluation d’un PI, 5) Identifier certains coûts reliés à la conception d’un PI. Afin d’atteindre les objectifs précités, nous avons eu recours à la méthode de l’analyse de la valeur pédagogique (AVP) (Langevin, Rocque et Riopel, 2008). La méthode d’AVP comportait une analyse des besoins des différents utilisateurs potentiels, une analyse de la recension des écrits, une analyse des encadrements légaux, une analyse de produits types et une analyse écosystémique. En conclusion, nous avons identifié les différents utilisateurs potentiels d’un PI, identifié les différents besoins de ces utilisateurs, identifié les fonctions qu’un PI doit remplir pour satisfaire leurs besoins, crée un cahier des charges fonctionnel (CdCF) pour la conception et l’évaluation des PI et identifié certains coûts liés à la conception d’un PI. Le CdCF pourra servir à concevoir des PI et à évaluer leur efficience. Une partie du CdCF pourra aussi remplir un rôle prescriptif pour la conception d’outil de soutien à l’élaboration du PI. Enfin, le CdCF pourra servir à la formation et à la recherche en éducation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le domaine des énergies est au cœur des préoccupations technologiques, politiques et économiques de notre société moderne. Ce domaine nécessite une compréhension minimale du concept scientifique de l’énergie. Elle est selon nous essentielle à toute formation citoyenne. Nous avons dans un premier temps, à partir de considérations théoriques et pratiques, examiné pourquoi ce domaine si important dans notre société technologique est si peu abordé dans le cursus scolaire québécois? Pourquoi se contente-t-on d’un enseignement théorique et discursif de ce concept? Pourquoi, au contraire de tout enseignement scientifique, n’a-t-on pas envisagé de situations d’apprentissages en laboratoire pour l’étude des énergies? Dans un deuxième temps, nous avons proposé une idée de solution concrète et réaliste pour répondre à l’ensemble de ces questions. Une solution qui invite les élèves à s’investir de manière constructive dans des activités de laboratoire afin de s’approprier ces concepts. Pour ce faire, nous avons conçu des variables globales énergies qui ont permis aux élèves de les mesurer et d’expérimenter facilement des transformations énergétiques. Cette recherche de développement technologique en éducation consiste donc à profiter des nouveaux développements technologiques de l’informatique et de la micro-électronique pour concevoir, réaliser et mettre à l’essai un environnement informatisé d’apprentissage en laboratoire pour les sciences et la technologie. Par ce que l’énergie est au confluent de trois domaines, cet environnement a été conçu pour supporter dans une même activité l’apprentissage des mathématiques, des sciences et de la technologie. Cette intégration recommandée par les nouveaux programmes est, selon nous, essentielle à la compréhension des concepts liés à l’énergie et à ses transformations. Par cette activité d’apprentissage multidisciplinaire, nous voulons, via une approche empirique et concrète, aborder ces problèmes de transformations énergétiques afin de donner aux élèves la capacité de perfectionner les prototypes qu’ils construisent en technologie de manière à améliorer leurs performances. Nous avons montré que cette démarche technoscientifique, assimilable à la conception d’un schème expérimental en sciences, favorise la compréhension des concepts liés aux énergies et à leurs transformations. Ce développement, ouvert à l’investigation scientifique, apporte un bénéfice didactique, non seulement, pour des enseignants en exercices et des étudiants-maîtres, mais aussi pour des élèves de 5ème année du niveau secondaire, ce que nous avons démontré dans une mise à l’essai empirique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.