488 resultados para Évolution structurale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

AIDA-I (adhesin involved in diffuse adherence) est une importante adhésine autotransporteur exprimée par certaines souches de Escherichia. coli impliquée dans la colonisation des porcelets sevrés causant la diarrhée post-sevrage et la maladie de l’œdème. Une précédente étude de notre laboratoire a identifié l’apolipoprotéine AI (ApoAI) du sérum porcin, la protéine structurale des lipoprotéines à haute densité, comme récepteur cellulaire putatif de AIDA-I. L’interaction entre ces deux protéines doit être caractérisée. Ici, nous montrons par ELISA que AIDA-I purifiée est capable d’interagir avec l’ApoAI humaine, mais également avec les apolipoprotéines B et E2. L’ApoAI est rencontrée sous deux formes, soit libre ou associée aux lipides. Nous montrons que la forme libre n’interagit pas avec les bactéries AIDA-I+ mais s’associe spécifiquement à l’ApoAI membranaire de cellules épithéliales HEp-2. Afin d’étudier le rôle de l’ApoAI dans l’adhésion des bactéries, nous avons infecté des cellules HEp-2 en présence d’anticorps dirigés contre l’ApoAI, mais l’adhésion des bactéries AIDA I+ n’a jamais été réduite. De plus, l’induction de l’expression de l’ApoAI par fénofibrate et GW7647 chez les cellules Caco 2 polarisée et Hep G2, n’a pas permis l’augmentation de l’adhésion cellulaire des E. coli exprimant AIDA-I. Notre étude suggère davantage que l’interaction entre AIDA-I et ApoAI n’intervient pas dans les mécanismes d’adhésion cellulaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Selon la théorie de la double hérédité, les processus de transmission sociale des connaissances permettraient aux cultures humaines d'évoluer de manière darwinienne. On parvient à cette conclusion en inférant que, étant donné qu'une analogie profonde peut être établie entre les mécanismes de transmission génétique et ceux de transmission sociale, on devrait non seulement concevoir que les processus cognitifs d'apprentissage social constituent bel et bien un système d'hérédité distinct du système d'hérédité génétique, mais qu’il est aussi légitime, sur la base de cette même analogie, de transférer les concepts explicatifs et outils formels issus de la biologie évolutionnaire et de les adapter à l'étude des cultures humaines en vue de constituer une théorie darwinienne de l'évolution culturelle. Cette analogie de l’hérédité culturelle fait depuis longtemps l'objet de controverses tant au sein de la littérature scientifique que dans les discussions philosophiques. On ne semble pas s'entendre sur la nature même de cette analogie ni non plus sur la force de justification épistémique qu'une telle analogie donnerait à la mise en place d'une théorie darwinienne de l'évolution culturelle. Néanmoins, à travers plus de quarante années de débats, la structure de cette analogie n'a jamais été examinée en détail et on a rarement examiné l'épistémologie des inférences par analogie dans un tel contexte. L'objectif principal de la présente thèse consistera à offrir une première analyse systématique de la nature, de la structure, de la fonction et de la justification épistémique de l'analogie de l'hérédité culturelle, fondement conceptuel de la théorie de la double hérédité. En portant ici une attention particulière à la structure logique de cette analogie, on pourra constater l'ampleur de sa complexité, complexité passant souvent inaperçue dans les critiques de la théorie de la double hérédité. On défendra ici la thèse selon laquelle l'analogie de l'hérédité culturelle est en fait composée de deux analogies constitutives qui, conjointement, ouvrent la voie à la mise en place et à l’organisation d’un programme de recherche visant à mettre au point une théorie darwinienne de l’évolution culturelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire a pour objet de vérifier si (et comment) la sélection naturelle peut être comprise comme mécanisme de l’évolution. En effet, la notion de mécanisme en philosophie des sciences doit encore beaucoup aux développements de l’épistémologie de la physique au cours du 20ième siècle. Or, il n’est pas évident que ces développements soient adéquats au domaine biologique. De plus, même si un intérêt renouvelé pour la notion de mécanisme en biologie a entrainé une abondante littérature épistémologique portant sur la notion de mécanisme, il n’est pas clair que les conceptions offertes sont en mesure de rendre compte de la sélection naturelle. Peter Machamer, Lindley Darden, Carl Craver, Stuart Glennan, James Woodward et William Bechtel -entre autres- ont tous contribué à une analyse des mécanismes en tant qu’alternative à une approche nomologique qui a dominé le 20ième siècle. Il reste à déterminer quelle caractérisation du mécanisme réussit à s’accommoder de la sélection naturelle à la lumière de sa nature probabiliste.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’innovation pédagogique pour elle-même s’avère parfois discutable, mais elle se justifie quand les enseignants se heurtent aux difficultés d’apprentissage de leurs étudiants. En particulier, certaines notions de physique sont réputées difficiles à appréhender par les étudiants, comme c’est le cas pour l’effet photoélectrique qui n’est pas souvent compris par les étudiants au niveau collégial. Cette recherche tente de déterminer si, dans le cadre d’un cours de physique, la simulation de l’effet photoélectrique et l’utilisation des dispositifs mobiles et en situation de collaboration favorisent une évolution des conceptions des étudiants au sujet de la lumière. Nous avons ainsi procédé à l’élaboration d’un scénario d’apprentissage collaboratif intégrant une simulation de l’effet photoélectrique sur un ordinateur de poche. La conception du scénario a d’abord été influencée par notre vision socioconstructiviste de l’apprentissage. Nous avons effectué deux études préliminaires afin de compléter notre scénario d’apprentissage et valider la plateforme MobileSim et l’interface du simulateur, que nous avons utilisées dans notre expérimentation : la première avec des ordinateurs de bureau et la seconde avec des ordinateurs de poche. Nous avons fait suivre à deux groupes d’étudiants deux cours différents, l’un portant sur une approche traditionnelle d’enseignement, l’autre basé sur le scénario d’apprentissage collaboratif élaboré. Nous leur avons fait passer un test évaluant l’évolution conceptuelle sur la nature de la lumière et sur le phénomène de l’effet photoélectrique et concepts connexes, à deux reprises : la première avant que les étudiants ne s’investissent dans le cours et la seconde après la réalisation des expérimentations. Nos résultats aux prétest et post-test sont complétés par des entrevues individuelles semi-dirigées avec tous les étudiants, par des enregistrements vidéo et par des traces récupérées des fichiers logs ou sur papier. Les étudiants du groupe expérimental ont obtenu de très bons résultats au post-test par rapport à ceux du groupe contrôle. Nous avons enregistré un gain moyen d’apprentissage qualifié de niveau modéré selon Hake (1998). Les résultats des entrevues ont permis de repérer quelques difficultés conceptuelles d’apprentissage chez les étudiants. L’analyse des données recueillies des enregistrements des séquences vidéo, des questionnaires et des traces récupérées nous a permis de mieux comprendre le processus d’apprentissage collaboratif et nous a dévoilé que le nombre et la durée des interactions entre les étudiants sont fortement corrélés avec le gain d’apprentissage. Ce projet de recherche est d’abord une réussite sur le plan de la conception d’un scénario d’apprentissage relatif à un phénomène aussi complexe que l’effet photoélectrique, tout en respectant de nombreux critères (collaboration, simulation, dispositifs mobiles) qui nous paraissaient extrêmement utopiques de réunir dans une situation d’apprentissage en classe. Ce scénario pourra être adapté pour l’apprentissage d’autres notions de la physique et pourra être considéré pour la conception des environnements collaboratifs d’apprentissage mobile innovants, centrés sur les besoins des apprenants et intégrant les technologies au bon moment et pour la bonne activité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

«Construire hors limite: collisions fantastiques entre corps et machines dans la littérature fin-de-siècle française et anglaise» explore un ensemble de textes qui ont surgi à la fin du dix-neuvième siècle en réponse et en réaction à la fulgurante évolution de l’environnement scientifique et technologique, et qui considèrent la relation entre l’homme et la machine en fantasmant sur la zone grise où ils s’intersectent. Les principaux textes étudiés comprennent L’Ève future de Villiers de l’Isle-Adam, Le Surmâle d’Alfred Jarry, Trilby de George Du Maurier, Le Château des Carpathes de Jules Verne, ainsi qu’une sélection de contes dont nous pouvons qualifier de «contes à appareils», notamment «La Machine à parler» de Marcel Schwob. Utilisant la théorie des systèmes comme base méthodologique, cette dissertation cherche à réinterpréter les textes de la fin du dix-neuvième siècle qui naviguent les limites de l’humain et du mécanique et les surfaces sensibles où ils se touchent et interagissent en les réinscrivant dans un projet plus vaste de construction d’identité qui défie le temps chronologique et les échelles mathématiques. Le lien entre la théorie des systèmes et l’architecture – comme méthode d’organisation d’espace blanc en espace habitable – est exploré dans le but de comprendre la manière dont nous façonnons et interprétons le néant à l’origine de l’identité individuelle, et par association collective, en pratiquant littéralement la schématisation et la construction du corps. Des auteurs tels Villiers et Jarry imaginent la construction du corps comme une entreprise scientifique nécessairement fondée et réalisée avec les matériaux et les technologies disponibles, pour ensuite démanteler cette proposition en condamnant le corps technologique à la destruction. La construction d’une identité amplifiée par la technologie prend donc des proportions prométhéennes perpétuellement redessinées dans des actes cycliques de rasage (destruction) et d’érection (édification), et reflétées dans l’écriture palimpsestique du texte. L’intégrité du corps organique étant mis en question, le noyau même de ce que signifie l’être (dans son sens de verbe infinitif) humain pourrait bien s’avérer, si l’on considère la correspondance entre perte de voix et état pathologique dans les textes de Du Maurier, Verne et Schwob, être une structure des plus précaires, distinctement hors sens (unsound).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Loi concernant le cadre juridique des technologies de l’information a engendré deux modes alternatifs de reproduction des documents, qui seront présentés dans le présent travail, à savoir la copie et le transfert. Une telle évolution a soulevé de nouvelles problématiques, parmi lesquelles l’application de la règle de la meilleure preuve : il s’agit notamment de déterminer dans quelles conditions une copie ou un document résultant d’un transfert pourront « légalement tenir lieu » de l’original. D’une part, nous examinerons successivement les exigences d’intégrité et de certification pour qu’une copie d’un document technologique soit admissible à titre de meilleure preuve. D’autre part, nous porterons notre attention sur l’admissibilité en preuve d’un document résultant d’un transfert et l’obligation de documentation qui résulte des différences inhérentes entre le support papier et le support technologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La complexification de nos sociétés et les limites des instruments législatifs (rigidité, opacité, etc.) minent l’efficacité du droit. Il y a un besoin criant de renouveau entre ce que l’auteur appelle la société civile et les pouvoirs de décision C’est pourquoi sont apparues au fil des années des formes alternatives d’organisations collectives, ouvertes et autorégulées. On parle alors de gouvernance. L’auteur explique cette évolution de la relation droit/gouvernance non seulement par les limites de la législation à proprement parler mais également par le développement de nouvelles techniques et technologies comme Internet qui ouvrent la porte à de nouvelles possibilités de coordination plus efficaces ainsi qu’à la protection d’intérêts divers au même titre que la loi. Internet devient alors un nouvel observatoire d’où l’on peut développer de nouvelles méthodes de gouvernance, le tout dans une optique de consensus sur la norme. En effet, il ne s’agit pas ici d’écarter le droit au profit de nouvelles formes de gouvernance ou vice-versa. On cherche à créer un système complémentaire qui viendra pallier aux faiblesses d’une législation rigide et complexe par moment et qui produira tout de même une dynamique juridique au niveau national et international.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

/Face à l’innovation apportée par les technologies de l’information, il est loisible de s’interroger sur la pertinence des concepts juridiques qui ont été arrêtés en un autre siècle et sous une autre technologie. Il s’agira donc dans une perspective préliminaire, d’envisager l’influence de ces innovations sur le droit de la vie privée. Aussi, en utilisant le concept de « neutralité technologique », nous mesurerons la réalité de son application dans ce domaine d’activité en vérifiant sa pertinence et en identifiant les éléments qui pourraient, au contraire, laisser croire à une différence de traitement entre le papier et l’électronique. Une fois ce constat fait, nous évaluerons les changements opérés respectivement sur le plan de la forme du droit et de sa substance. Concernant en premier lieu sa forme, nous examinerons principalement la façon de faire des lois en nous interrogeant sur l’attitude du législateur qui nous semble quelque peu varier dés lors qu’il s’agit d’encadrer la spécificité des renseignements personnels sur support électronique. Dans la seconde partie, si les principes généraux relatifs à la gestion des renseignements personnels sont désormais connus, il faudra s’interroger sur le fait de savoir si une évolution n’est pas nécessaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"L'intersection entre la sécurité de l'État et corollairement celle de ses ressortissants d’un côté, et la protection des droits des personnes qui se trouvent sur son territoire de l’autre, génère une situation antagonique : les prérogatives régaliennes et wébériennes d'utilisation de la force au nom de la sécurité nationale entrent en collision avec le respect des dispositions juridiques, telles que prescrites dans de nombreux instruments du droit international. Terre d’immigration, les États-Unis sont le reflet de ce paradoxe qui existe entre une vision qui place l’individu et ses libertés au centre de ses préoccupations, versus une conceptualisation étato-centrique de la sécurité. Mais le renvoi de l’immigration dans le registre sécuritaire ne relève pas forcément d’une réalité objective. L’analyse critique des manifestations d’(in)sécurité considère en effet ce concept comme n’étant plus exclusivement stato-centrée, élargissement conceptuel auquel s'associe une autre mutation conceptuelle : la securitization, qui postule que la menace n'est pas uniquement objective mais également subjective. Considérant cette ""évolution"" théorique, l’auteur analyse dans cet article l’immigration aux États-Unis au travers d’un processus de périodisation ­des mythes fondateurs aux mesures prises dans la foulée du 11 septembre 2001- pour démontrer que la gestion des flux migratoires en direction des États-Unis a toujours été considérée comme une question de sécurité nationale. Retenant à titre illustratif trois groupes de personnes, les Périls Jaune, puis Rouge et aujourd’hui Vert, vont permettre d’illustrer que les mesures restrictives règlementant l’immigration ­prisent au nom de la sacro-sainte sécurité nationale- constituent de facto, si ce n’est de jure, des atteintes au principe de non-discrimination. Mais tout en soulignant la pérennité du lien qui est effectué entre immigration et sécurité nationale, l’instrumentalisation de ce lien contribue à un renforcement des pratiques régulatrices et à la criminalisation accrue des mouvements transfrontaliers, qui risquent bien d’être contreproductifs par rapport à l’objectif de sécurité recherché !"

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bien que la souveraineté apparaisse aujourd'hui comme un concept juridique autonome, cela ne fut pas toujours le cas. Comme le souligne l’auteur de ce texte, notre société est passée d'une souveraineté mystique, celle de l'Église, à une souveraineté laïque, celle de l'État, pour aboutir, aujourd'hui, à une souveraineté plurielle ou composite. L'avènement d'un réseau de masse, comme l'Internet, vient encore une fois changer la donne. Ainsi, le concept de souveraineté informationnelle, discuté à la fin des années 70, semble aujourd’hui suranné, voire obsolète, à la lumière des nouveaux environnements électroniques. Conscient de cette évolution et de ses conséquence, l’auteur propose une réflexion historique et conceptuelle du principe de souveraineté afin de réévaluer les critères de territorialité et d'espace physique en tant que pivots autour desquels s'articule le concept de souveraineté nationale. L'État d'aujourd'hui ne pouvant aspirer seul à réglementer les transactions économiques transnationales, cet article nous pousse à nous questionner sur le sens que doit prendre le terme « souveraineté » à l’aube de l’ère numérique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement d’Internet et des nouvelles technologies de l’information permet l’avènement de relations nouvelles. Ce nouveau potentiel, décuplé par ces technologies en constante évolution, actualise la discussion de notions fondamentales. Le développement de ces relations se fonde sur une notion de confiance qu’il est primordial de comprendre afin de mieux saisir les enjeux liés à ces nouvelles technologies. La notion de confiance est intrinsèquement liée aux développements de nos économies. Elle influence du même coup le commerce électronique et certaines notions du droit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La chimie supramoléculaire est un domaine qui suscite depuis quelques années un intérêt grandissant. Le domaine s’appuie sur les interactions intermoléculaires de façon à contrôler l’organisation moléculaire et ainsi moduler les propriétés des matériaux. La sélection et le positionnement adéquat de groupes fonctionnels, utilisés en combinaison avec un squelette moléculaire particulier, permet d’anticiper la façon dont une molécule interagira avec les molécules avoisinantes. Cette stratégie de construction, nommé tectonique moléculaire, fait appel à la conception de molécules appelées tectons (du mot grec signifiant bâtisseur) pouvant s’orienter de façon prévisible par le biais d’interactions faibles et ainsi générer des architectures supramoléculaires inédites. Les tectons utilisent les forces intermoléculaires mises à leur disposition pour s’orienter de façon prédéterminée et ainsi contrecarrer la tendance à s’empiler de la manière la plus compacte possible. Pour ce faire, les tectons sont munies de diverses groupes fonctionnels, aussi appelés groupes de reconnaissance, qui agiront comme guide lors de l’assemblage moléculaire. Le choix du squelette moléculaire du tecton revêt une importance capitale puisqu’il doit permettre une orientation optimale des groupes de reconnaissance. La stratégie de la tectonique moléculaire, utilisée conjointement avec la cristallisation, ouvre la porte à un domaine de la chimie supramoléculaire appelé le génie cristallin. Le génie cristallin permet l’obtention de réseaux cristallins poreux soutenus par des interactions faibles, pouvant accueillir des molécules invitées. Bien que toutes les interactions faibles peuvent être mises à contribution, le pont hydrogène est l’interaction prédominante en ce qui a trait aux réseaux cristallins supramoléculaires. La force, la directionnalité ainsi que la versatilité font du pont hydrogène l’interaction qui, à ce jour, a eu le plus grand impact dans le domaine du génie cristallin. Un des groupements de reconnaissance particulièrement intéressants en génie cristallin, faisant appel aux ponts hydrogène et offrant plusieurs motifs d’interaction, est l’unité 2,4-diamino-1,3,5-triazinyle. L’utilisation de ce groupement de reconnaissance conjointement avec un cœur moléculaire en forme de croix d’Onsager, qui défavorise l’empilement compact, permet l’obtention de valeurs de porosités élevées, comme c’est le cas pour le 2,2’,7,7’-tétrakis(2,4-diamino-1,3,5-triazin-6-yl)-9,9’-spirobi[9H-fluorène]. Nous présentons ici une extension du travail effectué sur les cœurs spirobifluorényles en décrivant la synthèse et l’analyse structurale de molécules avec une unité dispirofluorène-indénofluorényle comme cœur moléculaire. Ce cœur moléculaire exhibe les mêmes caractéristiques structurales que le spirobifluorène, soit une topologie rigide en forme de croix d’Onsager défavorisant l’empilement compact. Nous avons combiné les cœurs dispirofluorène-indénofluorényles avec différents groupements de reconnaissance de façon à étudier l’influence de l’élongation du cœur moléculaire sur le réseau cristallin, en particulier sur le volume accessible aux molécules invitées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des preuves archéopalynologiques directes appuient maintenant l’hypothèse d’une lente adaptation horticole durant la néolithisation amérindienne de la région de Montréal. Les sites archéologiques Hector-Trudel (BhFl-1a) de Pointe-du-Buisson et Séminaire de Saint-Sulpice (BjFj-18) dans le Vieux-Montréal ont été retenus pour élaborer une méthodologie archéopalynologique d’étude des sols archéologiques. Cela a permis de caractériser l’impact de la présence humaine sur l'environnement végétal des sites et d’identifier des indices de culture et de gestion de plantes allogènes et indigènes. Un complexe horticole de production à petite échelle de maïs (Zea mays), de tournesol (Helianthus annuus) et de petit tabac (Nicotiana rustica) et une forme de gestion des arbustes à petits fruits sont identifiés au site Hector-Trudel durant le Sylvicole moyen tardif (500 à 1000 A.D.). Ces cultigènes sont aussi identifiés au site du Séminaire pour la fin du Sylvicole supérieur ancien (1200 à 1300 A.D.), dans des proportions toutefois plus importantes, et une activité de gestion forestière au profit des arbres à noix et du tilleul d’Amérique (Tilia americana), reflet des pratiques d’entretien des champs cultivés, témoignent d’une évolution dans les comportements

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis l’entrée en vigueur du Programme de formation de l’école québécoise en 2001, l’astronomie est à nouveau enseignée dans les classes du Québec. Malheureusement, l’école est mal outillée pour enseigner des concepts astronomiques complexes se déroulant pour la plupart en dehors des heures de classe et sur de longues périodes de temps. Sans compter que bien des phénomènes astronomiques mettent en jeu des astres se déplaçant dans un espace tridimensionnel auquel nous n’avons pas accès depuis notre point de vue géocentrique. Les phases de la Lune, concept prescrit au premier cycle du secondaire, sont de ceux-là. Heureusement, l’école peut compter sur l’appui du planétarium, musée de sciences dédié à la présentation, en accéléré et à toute heure du jour, de simulations ultra réalistes de divers phénomènes astronomiques. Mais quel type de planétarium secondera l’école ? Récemment, les planétariums ont eux aussi subi leur propre révolution : ces institutions sont passées de l’analogique au numérique, remplaçant les projecteurs optomécaniques géocentriques par des projecteurs vidéo qui offrent la possibilité de se déplacer virtuellement dans une simulation de l’Univers tridimensionnel complètement immersive. Bien que la recherche en éducation dans les planétariums se soit peu penchée sur ce nouveau paradigme, certaines de ses conclusions basées sur l’étude des planétariums analogiques peuvent nous aider à concevoir une intervention didactique fructueuse dans ces nouveaux simulateurs numériques. Mais d’autres sources d’inspiration seront invoquées, au premier chef la didactique des sciences, qui conçoit l’apprentissage non plus comme la transmission de connaissances, mais plutôt comme la construction de savoirs par les apprenants eux-mêmes, avec et contre leurs conceptions premières. La conception d’environnements d’apprentissages constructivistes, dont le planétarium numérique est un digne représentant, et l’utilisation des simulations en astronomie, complèteront notre cadre théorique et mèneront à la conception d’une intervention didactique à propos des phases de la Lune dans un planétarium numérique s’adressant à des élèves âgés de 12 à 14 ans. Cette intervention didactique a été mise à l’essai une première fois dans le cadre d’une recherche de développement (ingénierie didactique) visant à l’améliorer, à la fois sur son versant théorique et sur son versant pratique, par le biais de multiples itérations dans le milieu « naturel » où elle se déploie, ici un planétarium numérique gonflable de six mètres de diamètre. Nous présentons les résultats de notre première itération, réalisée en compagnie de six jeunes de 12 à 14 ans (quatre garçons et deux filles) dont nous avons recueilli les conceptions à propos des phases de la Lune avant, pendant et après l’intervention par le biais d’entrevues de groupe, questionnaires, mises en situation et enregistrement des interventions tout au long de l’activité. L'évaluation a été essentiellement qualitative, basée sur les traces obtenues tout au long de la séance, en particulier sous la voûte du planétarium. Ce matériel a ensuite été analysé pour valider les concepts théoriques qui ont mené à la conception de l'intervention didactique, d'une part, mais aussi pour faire émerger des améliorations possibles visant à bonifier l'intervention. Nous avons ainsi constaté que l'intervention provoque effectivement l'évolution des conceptions de la majorité des participants à propos des phases de la Lune, mais nous avons également identifié des façons de rendre l’intervention encore plus efficace à l’avenir.