861 resultados para Métaux traces
Resumo:
Istanbul est pour Pamuk ce que Paris est pour Baudelaire : une source inépuisable d’inspiration et de spleen. Or, si le poète est davantage conscient de ses états d’âme, le romancier turc le plus lu des deux côtés du Bosphore ne sait pas toujours que tout discours sur le monde extérieur est un discours sur lui-même. Dans un premier temps, il se complait dans l’hüzün, ce sentiment collectif et généralisé de mélancolie, apparemment intrinsèque à la ville et ses ruines, traces tangibles de la décadence d’un grand empire dont les héritiers peinent à se relever. Il n’en est pourtant rien, car, au fur à mesure que Pamuk suit les traces des écrivains et artistes étrangers de passage à Istanbul, il s’aperçoit que l’apparente mélancolie des ruines n’est qu’une strate parmi d’autres, c’est-à-dire glissante, malléable et fluide, tout dépend de l’emplacement et du point de vue de l’observateur, dans une ville palimpseste qui cache dans ses entrailles toutes les altérités. En suivant les traces de l’altérité, Pamuk découvre la nature hétérogène de sa ville et de lui-même et s’aperçoit que la mélancolie collective est fabriquée de toutes pièces par un certain récit socio-politique et une certaine classe sociale. En effet, c’est en traquant les reflets de son double que le romancier prend soudainement conscience du caractère fuyant de sa propre subjectivité, mais aussi de celui du monde et des autres. Si tel est le cas, l’espace urbain qui préoccupe et obsède Pamuk n’est qu’un reflet de son esprit et l’accès à la présence pleine s’avère une illusion. Comme si, l’inquiétante étrangeté de son inconscient, en lui dévoilant le côté insaisissable du monde et du soi, l’encourageait à remettre en cause un certain nombre d’opinions acquises, non seulement à l’intérieur de sa propre culture, mais aussi dans la culture de son double européen. Car si tout est fluide et malléable, il n’y a pas raison de ne pas tout questionner, incluant la tradition et la politique, cette dernière faisant de lui, « une personne bien plus politique, sérieuse et responsable que je ne le suis et ne souhaitais l’être ». Ainsi, Istanbul, souvenir d’une ville questionne le rapport entre la subjectivité et les strates hétérogènes d’Istanbul, pour aboutir à un constat déconstructiviste : tout n’est que bricolage et substitut du sens là où il brille par son absence. S’il brille par son absence, il en est de même loin d’Istanbul, dans une maison périphérique appelée La Maison du Silence à l’intérieur de laquelle les personnages soliloques et par moments muets, se questionnent sur le rapport entre la tradition et la modernité, le centre et la périphérie, l’Occident et l’Orient, sans oublier le caractère destructeur et éphémère du temps, mais aussi de l’espace. Et enfin, Le Musée de l’Innoncence, cette oeuvre magistrale où l’amour joue (en apparence seulement) le rôle principal, n’est en fait que l’étrange aboutissement de la quête obsessessive et narcissique du personnage principal vers un autre espace-temps, quelque part entre la réalité et la fiction, entre l’Est et l’Ouest, entre la tradition et la modernité, cet entre-deux qui campe indéniablement Pamuk parmi les meilleurs romanciers postmodernes de notre époque. Or, pour y parvenir, il faut au préalable un bouc-émissaire qui, dans le cas de Pamuk, représente presque toujours la figure du féminin.
Resumo:
Camp met en présence un officier nazi et ses Juifs : une petite fille s’appuyant sur sa vie d’avant afin de survivre dans sa vie d’après, une jeune femme d’une cinglante liberté intérieure et un groupe de prisonniers, la masse grise. Ce récit se déroule en quelques jours dans un camp d’extermination, en Pologne. Il y est question d’un projet insensé, imaginé et mis en œuvre par le Nazi dont le discours s’apparente à de confuses et dérisoires logorrhées. La recherche d’une humanité déniée, à la base du dévoilement de l’individualité des personnages (prisonniers), émane de la grâce, de l’authenticité et de la force vitale de la protagoniste, la petite fille, tendue vers son plan-de-quand-même-vie. Forêt, écrit en parallèle, puis à la fin de Camp, n’est pas sa suite, mais l’est aussi… Court récit poétique, il raconte la traversée d’une forêt par une femme à la recherche de ses édens. Le lieu, interpellé et très souvent conspué pour ce qu’il est devenu, devient un actant. Forêt, se servant de ses restes mythiques, contraint le pas-à-pas de la femme, perdue d’avance. L’essai, Quatre objets de mémoire, porte sur l’appropriation et la transmission de la mémoire de la Shoah, à partir de restes, de détails, de petits riens, perçus ici comme d’imaginables traces. J’interroge les signes singuliers d’improbables objets (feuillets administratifs du Troisième Reich, clichés fragmentaires d’Auschwitz-Birkenau et photographies de ses bois et de ses latrines) afin d’y débusquer de petits morceaux du caché, du secret et de l’innommable de la Solution finale. L’affect ressenti en présence de ces objets, par ce que je nomme, le nécessaire abandon, y est analysé dans le dessein d’en saisir leurs douleurs et de les rendre miennes. L’œuvre de l’artiste de la photo, Marie-Jeanne Musiol, sur Auschwitz-Birkenau, est à la base de ce désir de mémoire pérenne.
Resumo:
L’Amérique centrale, théâtre des dernières batailles rangées de la guerre froide, est aujourd’hui la région la plus violente au monde, selon les Nations unies. Notre étude s’intéresse à la forme de guerre irrégulière livrée par l’État guatémaltèque contre sa propre population pendant la deuxième moitié du vingtième siècle. À la lumière de rares témoignages d’exécutants et d’archives militaires et policières, nous examinons un mécanisme clandestin de répression dont les trois principales composantes – les enlèvements, la torture et les exécutions sommaires – pouvaient s’abattre sur toute personne soupçonnée, à tort ou à raison, de conspirer contre un statu quo d’exclusion. Au moment de leur articulation, ces moyens répressifs ont constitué un dispositif qui, à partir de 1966, s’est avéré d’une redoutable efficacité. Arme de prédilection des adeptes de la guerre antisubversive pendant plus de vingt ans, le dispositif permettait, telle une chaîne de production, l’accumulation des renseignements jugés indispensables à cette forme de guerre, ainsi que les cadavres dont l’absence éternelle ou la présence outrageuse sur la place publique servaient d’avertissement funeste à l’ensemble du corps social. Où chercher les origines d’un tel dispositif? À partir des ouvrages de référence cités dans le manuel de guerre contre-subversive de l’armée guatémaltèque, la réponse à cette question nous fera découvrir des parachutistes français pour qui la défaite militaire en Indochine et en Algérie pendant les années 1950 n’était pas une option et pour qui la victoire justifiait absolument tous les moyens. Le penchant de ces pionniers de la guerre hors-norme pour les cours magistraux, les entrevues et les articles, nous a permis d’étudier les méthodes qu’ils préconisaient et de repérer leurs traces au Guatemala. Alors que la guerre qui avait servi de prétexte au maintien du dispositif est terminée, sa très réputée efficacité assure encore aujourd’hui sa pérennité auprès de ceux qui peuvent s’offrir le service. En ce sens, la contre-insurrection se poursuit, et ce, malgré l’absence depuis une quinzaine d’années d’un conflit armé. Cette thèse aborde l’histoire de la guerre irrégulière et son déroulement au Guatemala. Les archives et les témoignages à notre disposition contredisent le déni des crimes commis dans les villes et les campagnes guatémaltèques, dont le génocide de 1982. Finalement, certains signes avant-coureurs indiquent que la violence et l’impunité actuelles au pays pourraient mener à la répétition de tels crimes à l’avenir.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
Les biofilms sont des communautés de microorganismes incorporés dans une matrice exo-polymérique complexe. Ils sont reconnus pour jouer un rôle important comme barrière de diffusion dans les systèmes environnementaux et la santé humaine, donnant lieu à une résistance accrue aux antibiotiques et aux désinfectants. Comme le transfert de masse dans un biofilm est principalement dû à la diffusion moléculaire, il est primordial de comprendre les principaux paramètres influençant les flux de diffusion. Dans ce travail, nous avons étudié un biofilm de Pseudomonas fluorescens et deux hydrogels modèles (agarose et alginate) pour lesquels l’autodiffusion (mouvement Brownien) et les coefficients de diffusion mutuels ont été quantifiés. La spectroscopie par corrélation de fluorescence a été utilisée pour mesurer les coefficients d'autodiffusion dans une volume confocal de ca. 1 m3 dans les gels ou les biofilms, tandis que les mesures de diffusion mutuelle ont été faites par cellule de diffusion. En outre, la voltamétrie sur microélectrode a été utilisée pour évaluer le potentiel de Donnan des gels afin de déterminer son impact sur la diffusion. Pour l'hydrogel d'agarose, les observations combinées d'une diminution du coefficient d’autodiffusion et de l’augmentation de la diffusion mutuelle pour une force ionique décroissante ont été attribuées au potentiel de Donnan du gel. Des mesures de l'effet Donnan (différence de -30 mV entre des forces ioniques de 10-4 et 10-1 M) et l'accumulation correspondante d’ions dans l'hydrogel (augmentation d’un facteur de 13 par rapport à la solution) ont indiqué que les interactions électrostatiques peuvent fortement influencer le flux de diffusion de cations, même dans un hydrogel faiblement chargé tel que l'agarose. Curieusement, pour un gel plus chargé comme l'alginate de calcium, la variation de la force ionique et du pH n'a donné lieu qu'à de légères variations de la diffusion de sondes chargées dans l'hydrogel. Ces résultats suggèrent qu’en influençant la diffusion du soluté, l'effet direct des cations sur la structure du gel (compression et/ou gonflement induits) était beaucoup plus efficace que l'effet Donnan. De même, pour un biofilm bactérien, les coefficients d'autodiffusion étaient pratiquement constants sur toute une gamme de force ionique (10-4-10-1 M), aussi bien pour des petits solutés chargés négativement ou positivement (le rapport du coefficient d’autodiffusion dans biofilm sur celui dans la solution, Db/Dw ≈ 85 %) que pour des nanoparticules (Db/Dw≈ 50 %), suggérant que l'effet d'obstruction des biofilms l’emporte sur l'effet de charge. Les résultats de cette étude ont montré que parmi les divers facteurs majeurs qui affectent la diffusion dans un biofilm environnemental oligotrophe (exclusion stérique, interactions électrostatiques et hydrophobes), les effets d'obstruction semblent être les plus importants lorsque l'on tente de comprendre la diffusion du soluté. Alors que les effets de charge ne semblaient pas être importants pour l'autodiffusion de substrats chargés dans l'hydrogel d'alginate ou dans le biofilm bactérien, ils ont joué un rôle clé dans la compréhension de la diffusion à travers l’agarose. L’ensemble de ces résultats devraient être très utiles pour l'évaluation de la biodisponibilité des contaminants traces et des nanoparticules dans l'environnement.
Resumo:
Cette thèse propose une analyse de la question de la survivance – notion ayant retenu l’attention de penseurs issus de différentes disciplines tels que Janine Altounian, Jacques Derrida et Georges Didi-Huberman – dans l’œuvre de Sarah Kofman, plus particulièrement dans son récit autobiographique intitulé Rue Ordener, rue Labat, paru en 1994. Quatre grandes orientations guident ce travail dont l’approche théorique se situe à la croisée de la littérature, de la philosophie, de la psychanalyse, de l’histoire (tant sociale que de l’art) et du juridique. Premièrement, nous nous intéressons à ce qu’implique non seulement le fait d’« échapper à la mort », en observant les moyens mis en œuvre pour y parvenir, mais aussi celui de « continuer à vivre » après l’événement de la Shoah. Deuxièmement, nous étudions les différentes manifestations de « la survivance active de l’enfant en nous » (J.-B. Pontalis) de même que celle de « l’objet perdu » dans le travail de deuil impossible, encore autrement « interminable », qui a pris corps dans l’œuvre de Sarah Kofman. Troisièmement, nous abordons la « survivance » au sens du Nachleben d’Aby Warburg et repérons la trace des autres écrits de la philosophe, elliptiquement condensés dans son récit par la reprise de thèmes, le retour de sujets antérieurement évoqués. Quatrièmement, nous interrogeons la locution pronominale « se survivre » et la portée de ses compléments : « dans son œuvre », « dans son témoignage », « dans les mémoires ». Parmi les points qui sont analysés en profondeur dans les chapitres de cette thèse, notons les motifs du ressentiment, du double tragique, du pardon et de l’oubli, de la « disgrâce », de la honte et de la culpabilité, ainsi que les différentes modalités de la survivance – la capacité d’adaptation et le rôle des mères, la lecture, le rire, les arts visuels – mises en œuvre par Sarah Kofman. Dans cette « œuvre-vie » (Pleshette DeArmitt), ce corpus singulier et unique, il s’est toujours agi de ceci, quoi qu’il lui en coûta : « affirmer sans cesse la survie », selon l’expression de Derrida.
Resumo:
L’innovation pédagogique pour elle-même s’avère parfois discutable, mais elle se justifie quand les enseignants se heurtent aux difficultés d’apprentissage de leurs étudiants. En particulier, certaines notions de physique sont réputées difficiles à appréhender par les étudiants, comme c’est le cas pour l’effet photoélectrique qui n’est pas souvent compris par les étudiants au niveau collégial. Cette recherche tente de déterminer si, dans le cadre d’un cours de physique, la simulation de l’effet photoélectrique et l’utilisation des dispositifs mobiles et en situation de collaboration favorisent une évolution des conceptions des étudiants au sujet de la lumière. Nous avons ainsi procédé à l’élaboration d’un scénario d’apprentissage collaboratif intégrant une simulation de l’effet photoélectrique sur un ordinateur de poche. La conception du scénario a d’abord été influencée par notre vision socioconstructiviste de l’apprentissage. Nous avons effectué deux études préliminaires afin de compléter notre scénario d’apprentissage et valider la plateforme MobileSim et l’interface du simulateur, que nous avons utilisées dans notre expérimentation : la première avec des ordinateurs de bureau et la seconde avec des ordinateurs de poche. Nous avons fait suivre à deux groupes d’étudiants deux cours différents, l’un portant sur une approche traditionnelle d’enseignement, l’autre basé sur le scénario d’apprentissage collaboratif élaboré. Nous leur avons fait passer un test évaluant l’évolution conceptuelle sur la nature de la lumière et sur le phénomène de l’effet photoélectrique et concepts connexes, à deux reprises : la première avant que les étudiants ne s’investissent dans le cours et la seconde après la réalisation des expérimentations. Nos résultats aux prétest et post-test sont complétés par des entrevues individuelles semi-dirigées avec tous les étudiants, par des enregistrements vidéo et par des traces récupérées des fichiers logs ou sur papier. Les étudiants du groupe expérimental ont obtenu de très bons résultats au post-test par rapport à ceux du groupe contrôle. Nous avons enregistré un gain moyen d’apprentissage qualifié de niveau modéré selon Hake (1998). Les résultats des entrevues ont permis de repérer quelques difficultés conceptuelles d’apprentissage chez les étudiants. L’analyse des données recueillies des enregistrements des séquences vidéo, des questionnaires et des traces récupérées nous a permis de mieux comprendre le processus d’apprentissage collaboratif et nous a dévoilé que le nombre et la durée des interactions entre les étudiants sont fortement corrélés avec le gain d’apprentissage. Ce projet de recherche est d’abord une réussite sur le plan de la conception d’un scénario d’apprentissage relatif à un phénomène aussi complexe que l’effet photoélectrique, tout en respectant de nombreux critères (collaboration, simulation, dispositifs mobiles) qui nous paraissaient extrêmement utopiques de réunir dans une situation d’apprentissage en classe. Ce scénario pourra être adapté pour l’apprentissage d’autres notions de la physique et pourra être considéré pour la conception des environnements collaboratifs d’apprentissage mobile innovants, centrés sur les besoins des apprenants et intégrant les technologies au bon moment et pour la bonne activité.
Resumo:
Cet article met en lumière la perspective européenne sur un des plus importants défis que l’Internet et le Web 2.0 présente pour la vie privée et le droit à la protection des données. L’auteur y soulève des problématiques liées à la mémoire numérique et distingue à partir de plusieurs cas où les individus seraient intéressés de réclamer l'oubli tant dans les réseaux sociaux, les journaux officiels des gouvernements et dans les bibliothèques médiatiques numériques. Il trace l’histoire de l’identification du droit à l’oubli dont les fondements ont été définis par les agences françaises, italiennes et espagnoles de protection des données. En conclusion, il pose son regard sur un nouveau cadre européen de la protection des données comprenant le droit individuel à voir leurs données supprimées lorsqu’elles ne sont plus nécessaires à des fins légitimes.
Resumo:
"Herbert Burket trace l’évolution des concepts reliés au ""droit de l’Internet"" dans le cadre du droit de l’Union Européenne. Initialement, ce domaine du droit était perçu comme une nouvelle discipline normative. Or, l’auteur soutient que le ""droit de l’Internet"" n’est pas un domaine normatif distinct, mais correspond aux domaines traditionnels auxquels il a été progressivement intégré. Le ""droit de l’Internet"" a amélioré notre compréhension du processus général d’évolution du droit. L’auteur souligne, entre autres, comment le législateur européen a réagi par diverses législations aux nouveaux impératifs technologiques. De plus, ce domaine offre une nouvelle perspective pour l’analyse de l’évolution des normes face aux innovations technologiques. Les tribunaux, les législateurs et les parties privées sont autant d’acteurs qui interviennent à différents moments et sur différents aspects du processus d’évolution du droit. Enfin, on s’attendait à ce que le droit de l’Internet conduise à la mondialisation des normes, à l’autorégulation des acteurs et à une architecture structurelle normative ouverte. L’auteur constate que la mondialisation des normes ne semble pas s’être réalisée. L’autorégulation, dans le domaine de l’Internet, fait référence aux normes de comportement établies par des acteurs privés et mixtes. Enfin, le concept d’architecture structurelle normative réfère au fait que les créateurs d’un système technologique imposent involontairement certaines règles aux utilisateurs, en dépit de l’affirmation qu’un tel système technologique est normativement neutre. L’auteur soutient que ces attentes, bien qu’elles soient toujours présentes au sein de l’activité normative, n’ont plus la même signification qu’au moment de leur formulation originale. Les concepts traditionnels de période normative, de juridiction, d’acteurs et de procédure ont aussi évolué parallèlement au développement du ""droit de l’Internet"", autant dans le cadre de l’environnement normatif de l’Union Européenne que dans celui du droit international en général. L’évolution de ces concepts modifie le processus de création du droit, ainsi que le rôle et les fonctions des intervenants impliqués dans ce processus.L’auteur conclut en soulignant que le concept même de droit a évolué en perdant ses représentations symboliques traditionnelles grâce au développement de l’accès généralisé à l’information, à l’évolution des technologies de l’information et à leur impact culturel."
Resumo:
"L’auteur Ethan Katsh analyse les problématiques posées par les relations de la communauté virtuelle de l’Internet et son processus en ligne de résolution des conflits. Il explique comment le cyberespace constitue un environnement intégral et indépendant qui développe ses propres règles normatives. L’évolution des normes au sein du cyberespace semble être une conséquence des interactions entre les acteurs, sans intervention législative fondamentale de la part des états. L’auteur trace l’évolution, depuis le début des années 1990, du processus en ligne de résolution des différends, principalement dans le domaine du commerce électronique. L’accroissement rapide des relations commerciales électroniques a entraîné une hausse des litiges dans ce domaine. Dans le cadre de tels litiges, les moyens en ligne de résolution des conflits offrent aux justiciables plus de facilité, de flexibilité et d’accessibilité que les moyens alternatifs traditionnels de résolution des conflits. C’est donc dans ce contexte qu’a été développé le système ""Squaretrade"" qui a pour objectif d’aider la résolution de conflits entre les utilisateurs de ""E-Bay"". Ce système présente l’avantage important d’encadrer et d’uniformiser le processus de résolution en définissant les termes généraux et spécifiques du conflit. L’auteur soutient que la principale fonction d’un tel système est d’organiser et d’administrer efficacement les communications entre les parties. Ainsi, cette fonction préserve le ""paradigme de la quatrième personne"", nécessaire aux processus alternatifs traditionnels de résolution de conflits. Par ailleurs, cette fonction, en tant que partie intégrante du programme informatique, constitue pour les justiciables une alternative intéressante aux règles législatives. Pour l’auteur, l’analyse de ce phénomène soulève des questions importantes concernant la création de normes et leur acceptation par les citoyens. L’auteur analyse par la suite le concept général de la formation des normes dans le contexte d’un environnement non régularisé. Il soutient que les normes émergeantes doivent toujours viser à développer une forme de légitimité auprès des justiciables. Dans le cadre du processus en ligne de résolution des conflits, cette légitimité doit être acquise autant auprès des parties au litige qu’auprès de la population en général. Toutefois, les attentes des parties au litige sont souvent très différentes de celles du public. L’auteur illustre ainsi comment certains processus en ligne de résolution de conflit ne réussissent pas à obtenir une telle légitimité, alors que d’autres s’établissent en tant qu’institutions reconnues. Dans ce contexte, les institutions en ligne de résolution de conflits devront développer leur propre valeur normative. Ainsi, les moyens en ligne de résolution des conflits remettent en question le processus traditionnel de formation des normes et peuvent être considérés comme des éléments d’un nouvel environnement normatif."
Resumo:
Ce texte traite de l’évolution des modes alternatifs de résolution de conflit (MARC) en ligne. L’auteur dresse un historique des différents projets de médiation en ligne en passant par ses « débuts » en 1999 lorsque l’Online Ombuds Office (OOO) fut approché pour l’élaboration d’un système de médiation pour les clients d’eBay, par SquareTrade.com, par les règles de l’ICANN, par Cybersettle et Clicknsettle, etc. Il expose ensuite le courrant que prendra la cybermédiation et le cyberarbitrage dans les années à venir. Ainsi, le médium informatique devient lentement une « quatrième partie » aux discussions et peut venir en aide aux arbitres et aux médiateurs dans la gestion et la communication d’informations. De plus les fonctions d’affichages propres aux ordinateurs, c’est-à-dire la possibilité d’incorporer images, graphiques, plans, etc., devront être mis à l’œuvre par les systèmes de MARC en ligne si ceux-ci sont destinés à prendre de l’expansion dans d’autres domaines que ceux leur étant présentement réservés.
Resumo:
Depuis l’entrée en vigueur du Programme de formation de l’école québécoise en 2001, l’astronomie est à nouveau enseignée dans les classes du Québec. Malheureusement, l’école est mal outillée pour enseigner des concepts astronomiques complexes se déroulant pour la plupart en dehors des heures de classe et sur de longues périodes de temps. Sans compter que bien des phénomènes astronomiques mettent en jeu des astres se déplaçant dans un espace tridimensionnel auquel nous n’avons pas accès depuis notre point de vue géocentrique. Les phases de la Lune, concept prescrit au premier cycle du secondaire, sont de ceux-là. Heureusement, l’école peut compter sur l’appui du planétarium, musée de sciences dédié à la présentation, en accéléré et à toute heure du jour, de simulations ultra réalistes de divers phénomènes astronomiques. Mais quel type de planétarium secondera l’école ? Récemment, les planétariums ont eux aussi subi leur propre révolution : ces institutions sont passées de l’analogique au numérique, remplaçant les projecteurs optomécaniques géocentriques par des projecteurs vidéo qui offrent la possibilité de se déplacer virtuellement dans une simulation de l’Univers tridimensionnel complètement immersive. Bien que la recherche en éducation dans les planétariums se soit peu penchée sur ce nouveau paradigme, certaines de ses conclusions basées sur l’étude des planétariums analogiques peuvent nous aider à concevoir une intervention didactique fructueuse dans ces nouveaux simulateurs numériques. Mais d’autres sources d’inspiration seront invoquées, au premier chef la didactique des sciences, qui conçoit l’apprentissage non plus comme la transmission de connaissances, mais plutôt comme la construction de savoirs par les apprenants eux-mêmes, avec et contre leurs conceptions premières. La conception d’environnements d’apprentissages constructivistes, dont le planétarium numérique est un digne représentant, et l’utilisation des simulations en astronomie, complèteront notre cadre théorique et mèneront à la conception d’une intervention didactique à propos des phases de la Lune dans un planétarium numérique s’adressant à des élèves âgés de 12 à 14 ans. Cette intervention didactique a été mise à l’essai une première fois dans le cadre d’une recherche de développement (ingénierie didactique) visant à l’améliorer, à la fois sur son versant théorique et sur son versant pratique, par le biais de multiples itérations dans le milieu « naturel » où elle se déploie, ici un planétarium numérique gonflable de six mètres de diamètre. Nous présentons les résultats de notre première itération, réalisée en compagnie de six jeunes de 12 à 14 ans (quatre garçons et deux filles) dont nous avons recueilli les conceptions à propos des phases de la Lune avant, pendant et après l’intervention par le biais d’entrevues de groupe, questionnaires, mises en situation et enregistrement des interventions tout au long de l’activité. L'évaluation a été essentiellement qualitative, basée sur les traces obtenues tout au long de la séance, en particulier sous la voûte du planétarium. Ce matériel a ensuite été analysé pour valider les concepts théoriques qui ont mené à la conception de l'intervention didactique, d'une part, mais aussi pour faire émerger des améliorations possibles visant à bonifier l'intervention. Nous avons ainsi constaté que l'intervention provoque effectivement l'évolution des conceptions de la majorité des participants à propos des phases de la Lune, mais nous avons également identifié des façons de rendre l’intervention encore plus efficace à l’avenir.
Resumo:
La formation géologique Mursi est datée à plus de 4 millions d’années, ce qui correspond à la période de l’émergence présumée des australopithèques, premiers hominines présentant une bipédie incontestable. La collection faunique Mursi (N=201) est comparée à celle du membre A de la Formation Shungura (N=300) sur une base taphonomique. La taphonomie est la science dédiée aux modes de formation des fossiles ainsi qu’aux traces laissées par ceux-ci. L’objectif principal de ce mémoire est de vérifier quelles sont les différences et ressemblances entre ces deux assemblages fossiles et d’en tirer des interprétations paléoenvironnementales. Pour chacun des agents taphonomiques (météorisation, piétinement, etc.), les fossiles sont gradés en fonction de stades prédéfinis tirés des écrits scientifiques. Finalement, malgré quelques différences (action des carnivores, intempérisation) on constate que les assemblages sont assez semblables et que, comme prédit par les reconstructions paléoenvironnementales préexistantes, leur lien à l’eau est assez bien démontré (groupes de Voorhies, abrasion).
Resumo:
Ce projet combine l’archéologie expérimentale, l’analyse morphométrique et la comparaison des résultats à l’assemblage archéologique de l’Abri Cellier (Dordogne, France) (N = 12) dans le but de quantifier l’apport du réaffûtage à la variabilité des formes et des dimensions des pointes de projectile aurignaciennes en bois de cervidé. La relecture morphofonctionnelle de la série expérimentale de Knecht (N = 79) couplée à une reproduction expérimentale récente (N = 9) démontre que la nature des dommages infligés au fût des pointes dépend (1) de la force du tir, (2) de la nature de la cible impactée et, (3) des propriétés biomécaniques du matériau employé. Pour sa part, le réaffûtage dépend (1) de l’expérience du réaffûteur et, (2) de la séquence technique employée. Ce comportement est standardisé et demeure indépendant du type de pointe de même que du type de dommage du fût. Les changements morphométriques associés à ce comportement se résument (1) à un déplacement progressif de l’épaule de la base vers le fût de la pointe, (2) à une tendance à l’accroissement de l’angle du fût et, (3) à une localisation des traces de réaffûtage sur le tiers distal de la partie distale de la pointe. Puisque l’utilisation et le réaffûtage sont deux processus impossible à départager sur les artefacts, nous proposons l’adoption d’une mesure, le ratio proximo-distal (RP/D) afin de traduire l’intensité de ces processus convergents et faciliter la comparaison entre les assemblages archéologiques.
Étude de la cinétique et des dommages de gravure par plasma de couches minces de nitrure d’aluminium
Resumo:
Une étape cruciale dans la fabrication des MEMS de haute fréquence est la gravure par plasma de la couche mince d’AlN de structure colonnaire agissant comme matériau piézoélectrique. Réalisé en collaboration étroite avec les chercheurs de Teledyne Dalsa, ce mémoire de maîtrise vise à mieux comprendre les mécanismes physico-chimiques gouvernant la cinétique ainsi que la formation de dommages lors de la gravure de l’AlN dans des plasmas Ar/Cl2/BCl3. Dans un premier temps, nous avons effectué une étude de l’influence des conditions opératoires d’un plasma à couplage inductif sur la densité des principales espèces actives de la gravure, à savoir, les ions positifs et les atomes de Cl. Ces mesures ont ensuite été corrélées aux caractéristiques de gravure, en particulier la vitesse de gravure, la rugosité de surface et les propriétés chimiques de la couche mince. Dans les plasmas Ar/Cl2, nos travaux ont notamment mis en évidence l’effet inhibiteur de l’AlO, un composé formé au cours de la croissance de l’AlN par pulvérisation magnétron réactive et non issu des interactions plasmas-parois ou encore de l’incorporation d’humidité dans la structure colonnaire de l’AlN. En présence de faibles traces de BCl3 dans le plasma Ar/Cl2, nous avons observé une amélioration significative du rendement de gravure de l’AlN dû à la formation de composés volatils BOCl. Par ailleurs, selon nos travaux, il y aurait deux niveaux de rugosité post-gravure : une plus faible rugosité produite par la présence d’AlO dans les plasmas Ar/Cl2 et indépendante de la vitesse de gravure ainsi qu’une plus importante rugosité due à la désorption préférentielle de l’Al dans les plasmas Ar/Cl2/BCl3 et augmentant linéairement avec la vitesse de gravure.