269 resultados para Problème de conception de réseaux
Resumo:
Peut-on parfois être blâmé pour ses croyances ? Selon les partisans du déontologisme épistémique, la pratique ordinaire consistant à blâmer et critiquer les gens pour leurs croyances est tout à fait légitime. Toutefois, d’autres philosophes soutiennent que malgré son omniprésence dans la vie de tous les jours, le blâme doxastique n’est jamais approprié. En effet, selon l’argument à partir de l’involontarisme doxastique, nous ne pouvons jamais être blâmés pour nos croyances puisque (1) nous pouvons être blâmés pour une croyance seulement si elle est sous notre contrôle volontaire et (2) nos croyances ne sont jamais sous notre contrôle volontaire. Le but de ce mémoire est de déterminer si les déontologistes peuvent répondre de manière convaincante à cet argument. Autrement dit, pouvons-nous parfois être blâmés pour nos croyances malgré ce qu’en disent les anti-déontologistes, ou faut-il leur donner raison et rejeter la pratique du blâme doxastique ? Pour répondre à cette question, je commence par clarifier l’argument anti-déontologiste en précisant la teneur de sa thèse centrale : l’involontarisme doxastique. Par la suite, je passe en revue différentes stratégies qui ont été proposées par des représentants du déontologisme pour défendre le blâme doxastique contre cet argument. Devant l’échec de ces réponses, je suggère une défense alternative du déontologisme selon laquelle l’involontarisme doxastique n’est pas incompatible avec le blâme doxastique. Si cette réponse est concluante, alors nous n’avons pas à donner raison aux anti-déontologistes : nous pouvons parfois être blâmés pour nos croyances.
Resumo:
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.
Resumo:
Essai critique présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en service social (M.Sc.)
Resumo:
Au cours de leur croissance, les jeunes sont exposés à des facteurs de risques de maladies associés aux habitudes de vie, notamment celles alimentaires. Les interventions scolaires mises en place en vue de modifier leurs comportements nutritionnels sont plus efficaces lorsque les parents prennent part aux activités. Toutefois, les travaux réalisés dans ce domaine font état d’un faible taux de participation des parents dans les activités proposées. Les recherches effectuées sur la participation parentale dans les interventions d’éducation nutritionnelle à l’école, révèlent des lacunes importantes quant à la définition du concept. L’investissement parental y est défini par la fréquence d’apparition des parents à l’école et le rôle de ceux-ci dans les interventions; ce qui constitue, à notre avis, une vision réductionniste des dimensions du concept. De plus, ces études répertoriées dans la littérature mettent l’emphase sur la proportion de parents participants et l’influence de celle-ci quant aux effets sur les enfants, sans se préoccuper de ce qui pourrait expliquer leur implication aux activités proposées. L’objectif de cette thèse est de documenter les mécanismes qui sous-tendent la participation des parents dans les programmes de promotion de la santé dispensés en milieu scolaire. Plus spécifiquement, notre étude vise à identifier la relation entre les différentes dimensions de l’implication parentale et les comportements alimentaires des enfants suite à l’exposition de ces derniers à un projet d’éducation à la nutrition mis en place dans huit écoles primaires de milieux défavorisés de Montréal, le Projet PC-PR, tout en appréciant l’influence de certaines caractéristiques familiales sur ce lien. Puis, explorer la relation entre des facteurs qui motivent les parents à participer et l’investissement de ces derniers dans le projet. La présente recherche est conduite grâce à une analyse secondaire de données d’un échantillon de parents d’enfants fréquentant les écoles qui participent au projet PC-PR (N=502). La participation parentale est conceptualisée en quatre dimensions faisant référence à la notion du mésosystème proposée par Bronfenbrenner (1979), alors que les motifs d’implication sont définis en s’inspirant des travaux de Hoover-Dempsey et Sandler (1995, 1997). Des analyses descriptives, bivariées et multivariées sont effectuées. L’analyse du discours des parents montre une association positive entre la participation parentale aux activités (soit l’investissement à la maison, la communication et la connaissance intermilieu) et le développement de comportements alimentaires des enfants. Des effets modérateurs de certaines variables familiales (la langue, le nombre d’enfants à la maison, l’âge et l’opinion du parent sur la nécessité que l’enfant sache faire à manger) sur cette relation sont aussi identifiés. Les raisons qui poussent un parent à participer (la compréhension du rôle, le sentiment de compétence et les occasions offertes par les ateliers) sont liées à la participation de ce dernier aux activités de cuisine-nutrition. Les résultats de cette recherche contribuent non seulement à l’avancement des connaissances dans le domaine, mais servent de prémisses à une réflexion visant à mieux orienter les interventions en promotion de la santé.
Resumo:
L’intégration des soins et des services de santé est vue autant, par les décideurs, par les professionnels que par les usagers, comme une nécessité pour assurer une meilleure accessibilité, pour favoriser la continuité et la coordination et pour améliorer la qualité des soins et services tout en contrôlant les coûts. Depuis près de deux décennies, des réseaux intégrés de soins et de services de santé se développent dans les pays de l’OCDE. Ce phénomène a généré une littérature plutôt abondante sur les conditions organisationnelles supportant l’intégration des soins et plus récemment, sur l’importance du rôle et de la place des professionnels dans ces structures. Les données empiriques et les écrits mettent en évidence que les infirmières ont joué un rôle important dans la mise en place des réseaux intégrés de services depuis leurs débuts. Cette étude vise à identifier les pratiques stratégiques des infirmières qui sont impliquées dans des réseaux intégrés de services de santé et de comprendre comment ces pratiques favorisent des apprentissages organisationnels permettant l’ajustement des pratiques de l’ensemble des intervenants dans le sens de l’intégration clinique. Elle vise aussi à mettre en évidence les facteurs individuels et organisationnels impliqués dans le développement de ces pratiques et dans le processus d’apprentissage organisationnel. Une revue des écrits sur les réseaux de services intégrés et sur l’intégration clinique, ainsi que sur l’apprentissage organisationnel et sur l’analyse stratégique a confirmé que ces écrits, tout en étant complémentaires, soutenaient les objectifs de cette étude. En effet, les écrits sur l’intégration présentent des déterminants de l’intégration sans aborder les pratiques stratégiques et sont discrets sur l’apprentissage organisationnel. Les écrits sur l’apprentissage organisationnel abordent le processus d’apprentissage, mais ne décrivent pas les pratiques favorisant l’apprentissage organisationnel et sont peu loquaces sur les facteurs influençant l’apprentissage organisationnel. Enfin, les écrits sur l’analyse stratégique discutent des systèmes et des processus dynamiques en incluant les conditions individuelles et organisationnelles, mais ne font pas allusion à l’apprentissage organisationnel. Afin de découvrir les pratiques stratégiques ainsi que les apprentissages organisationnels, et de comprendre le processus d’apprentissage et les facteurs impliqués dans celui-ci, nous avons eu recours à un devis d’étude de cas multiples où nous nous sommes attardés à étudier les pratiques d’infirmières évoluant dans quatre situations visant l’intégration clinique. Ces situations faisaient partie de trois réseaux intégrés de services de santé impliquant des professionnels de différentes disciplines rattachés soit, à un centre hospitalier ou à un centre local de services communautaires. Trois études de cas ont été rédigées à partir des informations émanant des différentes sources de données. Dans le cadre de cette étude, quatre sources de données ont été utilisées soit : des entrevues individuelles avec des infirmières, d’autres professionnels et des gestionnaires (n=60), des entrevues de groupe (n=3), des séances d’observations (n=12) et l’étude de documents d’archives (n=96). À l’aide des données empiriques recueillies, il a été possible de découvrir quinze pratiques stratégiques et de préciser la nature des apprentissages qu'elles généraient. L’analyse des cas a également permis de mieux comprendre le rapport entre les pratiques stratégiques et les apprentissages organisationnels et d’apporter des précisions sur le processus d’apprentissage organisationnel. Cette étude contribue à la pratique et à la recherche, car en plus d’offrir un modèle d’apprentissage organisationnel intégré, elle précise que le processus d’apprentissage organisationnel est propulsé grâce à des boucles d’apprentissages stimulées par des pratiques stratégiques, que ces pratiques stratégiques s’actualisent grâce aux ressources individuelles des infirmières et aux facteurs organisationnels et enfin, que ces apprentissages organisationnels favorisent des changements de pratiques soutenant l’intégration clinique.
Resumo:
L'ère numérique dans laquelle nous sommes entrés apporte une quantité importante de nouveaux défis à relever dans une multitude de domaines. Le traitement automatique de l'abondante information à notre disposition est l'un de ces défis, et nous allons ici nous pencher sur des méthodes et techniques adaptées au filtrage et à la recommandation à l'utilisateur d'articles adaptés à ses goûts, dans le contexte particulier et sans précédent notable du jeu vidéo multi-joueurs en ligne. Notre objectif est de prédire l'appréciation des niveaux par les joueurs. Au moyen d'algorithmes d'apprentissage machine modernes tels que les réseaux de neurones profonds avec pré-entrainement non-supervisé, que nous décrivons après une introduction aux concepts nécessaires à leur bonne compréhension, nous proposons deux architectures aux caractéristiques différentes bien que basées sur ce même concept d'apprentissage profond. La première est un réseau de neurones multi-couches pour lequel nous tentons d'expliquer les performances variables que nous rapportons sur les expériences menées pour diverses variations de profondeur, d'heuristique d'entraînement, et des méthodes de pré-entraînement non-supervisé simple, débruitant et contractant. Pour la seconde architecture, nous nous inspirons des modèles à énergie et proposons de même une explication des résultats obtenus, variables eux aussi. Enfin, nous décrivons une première tentative fructueuse d'amélioration de cette seconde architecture au moyen d'un fine-tuning supervisé succédant le pré-entrainement, puis une seconde tentative où ce fine-tuning est fait au moyen d'un critère d'entraînement semi-supervisé multi-tâches. Nos expériences montrent des performances prometteuses, notament avec l'architecture inspirée des modèles à énergie, justifiant du moins l'utilisation d'algorithmes d'apprentissage profonds pour résoudre le problème de la recommandation.
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.
Resumo:
Ce mémoire entend mettre en lumière la solution au problème du mal développée par Philippe le Chancelier dans la Summa de bono (1225-1228). À cet effet, notre analyse se polarise sur la notion du mal qui occupe à la fois le système des transcendantaux et la division du bien créé découlant du principe du souverain bien. La somme est bâtie d’après la primauté de la notion du bien transcendantal, et fut rédigée par opposition avec la doctrine manichéenne des Cathares, en vogue au XIIIe siècle, qui s’appuyait sur la prééminence de deux principes métaphysiques causant le bien et le mal, d’où devaient procéder toutes les choses de la Création. Ceci explique que nous ayons privilégié de seulement examiner les notions du bien et du mal en un sens général, car c’est au stade universel de l’ontologie du bien que l’auteur défait la possibilité du mal de nature, en amont des ramifications du bien créé, déployées, à l’envi, dans les questions de la somme où les réponses sont assignées à des problèmes spécifiques. Nous offrons ici, pour la première fois, une traduction en français d’une série de questions ayant permis de mener à bien ce projet.
Resumo:
Au lendemain de l’adoption de la sphère de sécurité (ou Safe Harbor Principles) entre l’Union européenne et les États-Unis, il convient de revenir sur les principes mis de l’avant, après une longue période de discussion, pour encadrer le traitement des renseignements personnels entre ces deux systèmes juridiques. Ce rappel permettra de mieux mesurer la portée de ladite sphère de sécurité face aux logiques territoriales de protection des renseignements personnels et à l’absence d’homogénéité de celles-ci.
Resumo:
L'adoption des technologies de réseaux sans-fil de type WiFi a connu une croissance impressionnante ces dernières années. Cette vague de popularité ne semble pas vouloir s'estomper, il est estimé que 84 millions d’appareils seront vendus en 2007 totalisant des revenus de 3.7 milliards de dollars. Devant cette forte demande, les fabricants d’appareils de télécommunications ont songés à développer des produits encore plus performants. Appuyé par la norme IEEE 802.16, un consortium du nom de WiMAX Forum a regroupé 350 membres dans le but de promouvoir des produits standardisés portant la marque WiMAX. À l'inverse des premières versions du WiFi, le WiMAX sera doté de mécanismes de sécurité beaucoup plus fiables. L'avantage du WiMAX, comme pour plusieurs de ses concurrents, repose sur sa capacité d'opérer sur une large bande de fréquences, réglementées ou non. Sa portée théorique de 50 Km et son débit escompté de 75 Mbit/s a capté l'attention des fournisseurs de services qui cherchent à réduire leurs coûts d'exploitations mais également de divers organismes gouvernementaux qui espèrent améliorer les services de communications dans les communautés des régions éloignées. Grâce à l'appui du ministre des Affaires indiennes et du nord canadien, le territoire du Nunavut a mis sur pied un réseau à large bande qui dessert actuellement l’ensemble de ses 29 communautés sur tout son territoire. La possibilité de couvrir une superficie de plusieurs kilomètres ramène à la surface le concept d’omniprésence ou de « Pervasive computing ». Cette notion représente l’intégration des technologies dans notre entourage afin de rendre nos interactions avec celle-ci plus naturelles. Nos déplacements dans cet environnement pourraient être facilités puisque les ordinateurs seraient en mesure de détecter et réagir à notre présence pour nous offrir des solutions personnalisées. Les déploiements de réseaux de type WiMAX sont déjà en cours dans plusieurs pays, d'après la situation actuelle du marché, il est envisageable de voir une forte adoption de cette forme de diffusion d’informations dans les prochaines années. Le présent document trace un résumé des applications liées au WiMAX et discute de certaines problématiques engendrées par ce type de réseau.
Resumo:
Les techniques de groupement technologique sont aujourd’hui utilisées dans de nombreux ateliers de fabrication; elles consistent à décomposer les systèmes industriels en sous-systèmes ou cellules constitués de pièces et de machines. Trouver le groupement technologique le plus efficace est formulé en recherche opérationnelle comme un problème de formation de cellules. La résolution de ce problème permet de tirer plusieurs avantages tels que la réduction des stocks et la simplification de la programmation. Plusieurs critères peuvent être définis au niveau des contraintes du problème tel que le flot intercellulaire,l’équilibrage de charges intracellulaires, les coûts de sous-traitance, les coûts de duplication des machines, etc. Le problème de formation de cellules est un problème d'optimisation NP-difficile. Par conséquent les méthodes exactes ne peuvent être utilisées pour résoudre des problèmes de grande dimension dans un délai raisonnable. Par contre des méthodes heuristiques peuvent générer des solutions de qualité inférieure, mais dans un temps d’exécution raisonnable. Dans ce mémoire, nous considérons ce problème dans un contexte bi-objectif spécifié en termes d’un facteur d’autonomie et de l’équilibre de charge entre les cellules. Nous présentons trois types de méthodes métaheuristiques pour sa résolution et nous comparons numériquement ces métaheuristiques. De plus, pour des problèmes de petite dimension qui peuvent être résolus de façon exacte avec CPLEX, nous vérifions que ces métaheuristiques génèrent des solutions optimales.
Resumo:
Depuis l’entrée en vigueur du Programme de formation de l’école québécoise en 2001, l’astronomie est à nouveau enseignée dans les classes du Québec. Malheureusement, l’école est mal outillée pour enseigner des concepts astronomiques complexes se déroulant pour la plupart en dehors des heures de classe et sur de longues périodes de temps. Sans compter que bien des phénomènes astronomiques mettent en jeu des astres se déplaçant dans un espace tridimensionnel auquel nous n’avons pas accès depuis notre point de vue géocentrique. Les phases de la Lune, concept prescrit au premier cycle du secondaire, sont de ceux-là. Heureusement, l’école peut compter sur l’appui du planétarium, musée de sciences dédié à la présentation, en accéléré et à toute heure du jour, de simulations ultra réalistes de divers phénomènes astronomiques. Mais quel type de planétarium secondera l’école ? Récemment, les planétariums ont eux aussi subi leur propre révolution : ces institutions sont passées de l’analogique au numérique, remplaçant les projecteurs optomécaniques géocentriques par des projecteurs vidéo qui offrent la possibilité de se déplacer virtuellement dans une simulation de l’Univers tridimensionnel complètement immersive. Bien que la recherche en éducation dans les planétariums se soit peu penchée sur ce nouveau paradigme, certaines de ses conclusions basées sur l’étude des planétariums analogiques peuvent nous aider à concevoir une intervention didactique fructueuse dans ces nouveaux simulateurs numériques. Mais d’autres sources d’inspiration seront invoquées, au premier chef la didactique des sciences, qui conçoit l’apprentissage non plus comme la transmission de connaissances, mais plutôt comme la construction de savoirs par les apprenants eux-mêmes, avec et contre leurs conceptions premières. La conception d’environnements d’apprentissages constructivistes, dont le planétarium numérique est un digne représentant, et l’utilisation des simulations en astronomie, complèteront notre cadre théorique et mèneront à la conception d’une intervention didactique à propos des phases de la Lune dans un planétarium numérique s’adressant à des élèves âgés de 12 à 14 ans. Cette intervention didactique a été mise à l’essai une première fois dans le cadre d’une recherche de développement (ingénierie didactique) visant à l’améliorer, à la fois sur son versant théorique et sur son versant pratique, par le biais de multiples itérations dans le milieu « naturel » où elle se déploie, ici un planétarium numérique gonflable de six mètres de diamètre. Nous présentons les résultats de notre première itération, réalisée en compagnie de six jeunes de 12 à 14 ans (quatre garçons et deux filles) dont nous avons recueilli les conceptions à propos des phases de la Lune avant, pendant et après l’intervention par le biais d’entrevues de groupe, questionnaires, mises en situation et enregistrement des interventions tout au long de l’activité. L'évaluation a été essentiellement qualitative, basée sur les traces obtenues tout au long de la séance, en particulier sous la voûte du planétarium. Ce matériel a ensuite été analysé pour valider les concepts théoriques qui ont mené à la conception de l'intervention didactique, d'une part, mais aussi pour faire émerger des améliorations possibles visant à bonifier l'intervention. Nous avons ainsi constaté que l'intervention provoque effectivement l'évolution des conceptions de la majorité des participants à propos des phases de la Lune, mais nous avons également identifié des façons de rendre l’intervention encore plus efficace à l’avenir.
Resumo:
Cette thèse comporte trois essais sur les interactions sociales en sciences économiques. Ces essais s’intéressent à la fois au côté théeorique qu’empirique des interactions sociales. Le premier essai (chapitre 2) se concentre sur l’étude (théorique et empirique) de la formation de réseaux sociaux au sein de petites économies lorsque les individus ont des préférences homophilique et une contrainte de temps. Le deuxième essai (chapitre 3) se concentre sur l’étude (principalement empirique) de la formation de réseau sociaux au sein de larges économies où les comportement d’individus très distants sont aproximativement indépendants. Le dernier essai (chapitre 4) est une étude empirique des effets de pairs en éducation au sein des écoles secondaires du Québec. La méthode structurelle utilisée permet l’identification et l’estimation de l’effet de pairs endogène et des effets de pairs exogènes, tout en contrôlant pour la présence de chocs communs.