804 resultados para Saulnier-Blache, M. A. -- Correspondance
Resumo:
Ce mémoire est une étude d’un cas de rapprochement entre deux pays. Pendant la guerre de Crimée, la Grande-Bretagne s’allia à la France du Second Empire. Ennemie traditionnelle, la France est toujours considérée comme une menace. La coopération forcée entre les deux pays, résultat des circonstances, est à la base de la présente recherche. Des milliers de militaires et de civils des deux pays travaillèrent ensemble pendant deux ans. Les correspondances britanniques révèlent une fraternisation plus importante que ce qui est relevé dans l’historiographie. D’après les théories de Gordon Allport sur la diminution des préjugés, toutes les conditions nécessaires à un rapprochement se retrouvaient en Crimée. Les étapes, définies par Allport, qui mènent à cette fraternisation se perçoivent aussi dans les lettres personnelles. Ce rapprochement eut des conséquences sous-estimées : les Britanniques se comparèrent aux Français et leur fierté céda la place à une importante autocritique. Cela déclencha des controverses dans l’armée et dans les journaux dès le début de la guerre, longtemps avant les scandales de l’hiver 1854-1855.
Resumo:
Les polémiques ont joué un rôle important dans la réception des romans de Mordecai Richler au Québec francophone. Contrairement à l’idée reçue voulant que cet antagonisme ait empêché la lecture de l’oeuvre richlérienne, c’est plutôt à partir de la publication des essais sur le nationalisme québécois que la critique commencera à s’intéresser à l’écrivain. En effet, que ce soit avant ou après les polémiques, c’est au nom d’un rapport de correspondance au collectif que sera jugée l’oeuvre de Richler. L’abandon d’une conception restreinte de l’identité québécoise ouvre la porte à la relecture contemporaine des romans de Richler, même si cette relecture ne fait pas pour autant l’économie d’un rapport au collectif et cherche plutôt à opposer une identité québécoise exclusivement francophone à une identité prête à inclure un auteur longtemps identifié comme un ennemi public. Les mécanismes de ce rapatriement peuvent être mis en parallèle avec les conflits identitaires qui marquent le personnage richlérien. Dans Son Of A Smaller Hero (1955), Noah Adler tente de se définir en tant qu’être humain et de trouver une morale qui lui est propre en fuyant ses origines. Toutefois, cette fuite ne peut se solder que par un échec et le héros apprend que son idéal d’émancipation passe par une réinterprétation de son héritage plutôt que par l’abandon de celui-ci. Barney’s Version (1997) est en partie le récit de formation d’un écrivain tardif. Si Barney Panofsky s’en prend aux impostures collectives dans le roman, son incapacité à être totalement honnête par rapport à lui-même et à plonger dans une création et une défense sincères de ce en quoi il croit le poussera à s’aliéner ceux à qui il tient véritablement. Cette situation laisse le narrateur avec une oeuvre inachevée qui ne pourra s’accomplir que par l’intervention de ses héritiers. Dans les deux romans, la définition du personnage passe par une réappropriation herméneutique de son héritage qui rappelle, dans son rapport à la trace, au collectif et à l’illégitimité, les relectures francophones de l’oeuvre richlérienne.
Resumo:
Grâce aux concepts développés par l’histoire du genre et des femmes, ce mémoire cherche à jeter un regard nouveau sur le parcours de la courtisane libertine du XVIIe siècle Anne de Lenclos, surnommée Ninon. C’est que l’image qui a été véhiculée de Ninon depuis le XVIIIe siècle ne rend pas compte de la complexité du personnage : elle ne met l’accent que sur sa liberté sexuelle, ou au contraire, sur son intelligence et son rôle dans la vie littéraire du Grand Siècle. Une relecture de la correspondance de la courtisane et des documents notariés (actes économiques, testament et inventaire après-décès) la concernant permet cependant de mettre au jour le portrait d’une femme de tête bien différente de celle qui avait jusqu’alors été décrite, réussissant à concilier les transgressions qu’elle n’a cessé de commettre contre l’ordre établi jusqu’à la fin de sa vie à la réputation d’une salonnière admirée et respectée.
Resumo:
Cette recherche avait pour objectif d’analyser les évaluations de programmes d’études en langues de spécialité de 1er cycle universitaire afin de dégager les enjeux et la pertinence de ces formations. Trois questions de recherche sont poursuivies : • Quels établissements d’enseignement supérieur canadiens offrent des programmes d’études professionnalisant intégrant des compétences langagières sur objectifs spécifiques et le savoir-faire professionnel? • Compte tenu de la nature et de la fonction des programmes et des cours de langues de spécialité au sein des établissements d’enseignement supérieur, - quels sont les enjeux principaux ? - quelles sont les recommandations les plus fréquentes dans les rapports des évaluateurs externes ? L’analyse révèle que les enjeux principaux sont l’apport des formations aux besoins d’emploi ; la correspondance aux besoins des bénéficiaires ; l’évaluation systématique et justifiée lors de la prise de décisions ; la révision, mise à jour et évaluation systématique des programmes ; la collaboration interdisciplinaire et interuniversitaire ; l’enseignement des compétences langagières de la discipline professionnelle sous-jacente ; l’enseignement de la perspective interculturelle ; l’objectif constitutif ou instrumental de l’acquisition des langues ; la professionnalisation de la discipline au lieu de la fonction « service » ; la promotion de programmes, de collaborations et d’échanges internationaux ; l’intégration des TIC ; et la certification en langue de spécialité. Les évaluateurs externes recommandent la modernisation et la réorganisation des cours, la mise sur pied des collaborations, l’amélioration des formules et de l’offre des échanges internationaux, l’élaboration des stratégies pour étudier et planifier le lancement des initiatives, la promotion des bénéfices des connaissances langagières auprès des autres disciplines et facultés, la création des stratégies de révision de programme, et la mise en place des dispositifs pour profiter de nouvelles ressources technologiques. Ainsi, dans un premier temps, les résultats permettent d’apporter à la didactique des langues un éclairage sur la valeur de la fonction formative des mécanismes d’évaluation de programme. Dans un deuxième temps, ils apportent aux praticiens un éclairage sur la qualité, la pertinence et les enjeux des formations en langue de spécialité et un éclairage sur l’importance et l’impact des pratiques évaluatives sur les décisions prises.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à -dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
Des décisions médicales en fin de vie sont souvent prises pour des patients inaptes. Nous avons souhaité connaître les argumentations éthiques entourant ces décisions difficiles. Notre objectif était de pouvoir comprendre et apprécier ces lignes d’argumentation. Pour atteindre cet objectif, nous avons répertorié et analysé les lignes argumentatives présentes dans des articles scientifiques, incluant les sections de correspondance et commentaires des journaux savants. Afin d’éviter que les résultats de notre analyse soient trop influencés par les caractéristiques d’un problème médical spécifique, nous avons décidé d’analyser des situations cliniques distinctes. Les sujets spécifiques étudiés sont la non-initiation du traitement antibiotique chez des patients déments souffrant de pneumonie, et l’euthanasie de nouveau-nés lourdement hypothéqués selon le protocole de Groningen. Notre analyse des lignes d’argumentation répertoriées à partir des débats entourant ces sujets spécifiques a révélé des caractéristiques communes. D’abord, les arguments avancés avaient une forte tendance à viser la normativité. Ensuite, les lignes d’argumentation répertoriées étaient principalement axées sur les patients inaptes et excluaient largement les intérêts d’autrui. Nous n’avons trouvé aucune des lignes d’argumentation à visée normative répertoriés concluante. De plus, nous avons trouvé que l’exclusion catégorique d’arguments visant l’intérêt d’autrui des considérations entrainait l’impossibilité d’ évaluer leur validité et de les exclure définitivement de l’argumentaire. Leur présence non-explicite et cachée dans les raisonnements motivant les décisions ne pouvait alors pas être exclue non plus. Pour mieux mettre en relief ces conclusions, nous avons rédigé un commentaire inspiré par les argumentaires avancés dans le contexte de l’arrêt de traitement de Terri Schiavo, patiente en état végétatif persistant. Nous pensons que l’utilisation d’un argumentaire qui viserait davantage à rendre les actions intelligibles, et sans visée normative immédiate, pourrait contribuer à une meilleure compréhension réciproque des participants au débat. Une telle argumentation nous semble aussi mieux adaptée à la complexité et l’unicité de chaque cas. Nous pensons qu’elle pourrait mieux décrire les motivations de tous les acteurs participant à la décision, et ainsi contribuer à une plus grande transparence. Cette transparence pourrait renforcer la confiance dans l’authenticité du débat, et ainsi contribuer à une meilleure légitimation de pratiques cliniques.
Resumo:
La vidéosurveillance a pour objectif principal de protéger les personnes et les biens en détectant tout comportement anormal. Ceci ne serait possible sans la détection de mouvement dans l’image. Ce processus complexe se base le plus souvent sur une opération de soustraction de l’arrière-plan statique d’une scène sur l’image. Mais il se trouve qu’en vidéosurveillance, des caméras sont souvent en mouvement, engendrant ainsi, un changement significatif de l’arrière-plan; la soustraction de l’arrière-plan devient alors problématique. Nous proposons dans ce travail, une méthode de détection de mouvement et particulièrement de chutes qui s’affranchit de la soustraction de l’arrière-plan et exploite la rotation de la caméra dans la détection du mouvement en utilisant le calcul homographique. Nos résultats sur des données synthétiques et réelles démontrent la faisabilité de cette approche.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Nous proposons de construire un atlas numérique 3D contenant les caractéristiques moyennes et les variabilités de la morphologie d’un organe. Nos travaux seront appliqués particulièrement à la construction d'un atlas numérique 3D de la totalité de la cornée humaine incluant la surface antérieure et postérieure à partir des cartes topographiques fournies par le topographe Orbscan II. Nous procédons tout d'abord par normalisation de toute une population de cornées. Dans cette étape, nous nous sommes basés sur l'algorithme de recalage ICP (iterative closest point) pour aligner simultanément les surfaces antérieures et postérieures d'une population de cornée vers les surfaces antérieure et postérieure d'une cornée de référence. En effet, nous avons élaboré une variante de l'algorithme ICP adapté aux images (cartes) de cornées qui tient compte de changement d'échelle pendant le recalage et qui se base sur la recherche par voisinage via la distance euclidienne pour établir la correspondance entre les points. Après, nous avons procédé pour la construction de l'atlas cornéen par le calcul des moyennes des élévations de surfaces antérieures et postérieures recalées et leurs écarts-types associés. Une population de 100 cornées saines a été utilisée pour construire l'atlas cornéen normal. Pour visualiser l’atlas, on a eu recours à des cartes topographiques couleurs similairement à ce qu’offrent déjà les systèmes topographiques actuels. Enfin, des observations ont été réalisées sur l'atlas cornéen reflétant sa précision et permettant de développer une meilleure connaissance de l’anatomie cornéenne.
Resumo:
La présente recherche vise à décrire les pratiques d’enseignement de la littératie au premier cycle du primaire en contexte montréalais d’enseignants considérés experts. Plus précisément, les trois objectifs de recherche consistent à décrire les pratiques d’enseignement de la langue écrite au premier cycle du primaire en contexte montréalais privilégiées par certains enseignants considérés experts (N=6) (objectif 1); à décrire les différentes formes de différenciation pédagogique privilégiées pour l’enseignement de la lecture et de l’écriture en contexte montréalais de certains enseignants considérés experts afin de répondre aux besoins variés de tous leurs élèves (objectif 2) et à étudier les liens possibles entre les pratiques d’enseignement de la langue écrite d’enseignants considérés experts et la progression de leurs élèves (N=100) du premier cycle du primaire en contexte montréalais, au regard de leur connaissance des correspondances phonographiques et de la norme orthographique (objectif 3). Afin de répondre aux objectifs, deux entretiens ont été menés auprès des enseignantes, de même que deux observations en classe, une à l’automne et une au printemps. Pour leur part, les élèves ont été soumis à deux tâches d’écriture à deux reprises durant l’année (une tâche de production de mots et une tâche de production de texte) permettant de mesurer leur progression en cours d’année relativement à leurs connaissances des correspondances phonographiques et de la norme orthographique. Nos résultats nous ont permis de recueillir des pratiques très diversifiées et conduites avec une fréquence fort différente d’une enseignante à l’autre. La densité des contenus abordés en classe diffère également beaucoup entre les enseignantes. En lien avec le modèle du multi-agenda de Bucheton et Soulé (2009), les cinq composantes constituant la matrice de l’activité de l’enseignant se retrouvent dans toutes les classes, mais ces préoccupations n’occupent pas toutes la même place dans les pratiques des enseignantes de la recherche. Nos résultats indiquent aussi que toutes les enseignantes différencient leur enseignement, mais de façon variable. Il semble que ce soit la différenciation des processus, des contenus et des structures qui soit la plus aisée à mettre en place en classe. En lien avec notre adaptation du modèle de différenciation pédagogique de Caron (2008), il semble que ce soit la diversification et l’offre de choix qui sont mobilisées le plus fréquemment. Les mesures d’adaptation sont rarement mises en avant dans les pratiques de classe, tandis que les mesures d’individualisation n’ont pas été constatées. En ce qui a trait aux résultats des élèves aux tâches en écriture, nos résultats indiquent que deux groupes se démarquent parmi les six. En effet, c’est dans ces deux classes que la plus forte progression est constatée. Les pratiques des enseignantes de ces deux classes sont très diversifiées et elles sont les seules à mettre en avant dans leurs pratiques tous les dispositifs dont il est question en entretiens. De plus, les contenus enseignés sont denses, ce qui est réputé pour caractériser les pratiques des enseignants efficaces (Hall, 2003). De même, ces deux enseignantes offrent un étayage de grande qualité à leurs élèves et maîtrisent parfaitement le pilotage des tâches. La présente recherche peut servir à apporter un éclairage nouveau sur les pratiques de littératie des enseignants considérés experts afin de mieux comprendre leurs pratiques, de même que la place qu’ils accordent à la différenciation pédagogique.
Resumo:
«Construire hors limite: collisions fantastiques entre corps et machines dans la littérature fin-de-siècle française et anglaise» explore un ensemble de textes qui ont surgi à la fin du dix-neuvième siècle en réponse et en réaction à la fulgurante évolution de l’environnement scientifique et technologique, et qui considèrent la relation entre l’homme et la machine en fantasmant sur la zone grise où ils s’intersectent. Les principaux textes étudiés comprennent L’Ève future de Villiers de l’Isle-Adam, Le Surmâle d’Alfred Jarry, Trilby de George Du Maurier, Le Château des Carpathes de Jules Verne, ainsi qu’une sélection de contes dont nous pouvons qualifier de «contes à appareils», notamment «La Machine à parler» de Marcel Schwob. Utilisant la théorie des systèmes comme base méthodologique, cette dissertation cherche à réinterpréter les textes de la fin du dix-neuvième siècle qui naviguent les limites de l’humain et du mécanique et les surfaces sensibles où ils se touchent et interagissent en les réinscrivant dans un projet plus vaste de construction d’identité qui défie le temps chronologique et les échelles mathématiques. Le lien entre la théorie des systèmes et l’architecture – comme méthode d’organisation d’espace blanc en espace habitable – est exploré dans le but de comprendre la manière dont nous façonnons et interprétons le néant à l’origine de l’identité individuelle, et par association collective, en pratiquant littéralement la schématisation et la construction du corps. Des auteurs tels Villiers et Jarry imaginent la construction du corps comme une entreprise scientifique nécessairement fondée et réalisée avec les matériaux et les technologies disponibles, pour ensuite démanteler cette proposition en condamnant le corps technologique à la destruction. La construction d’une identité amplifiée par la technologie prend donc des proportions prométhéennes perpétuellement redessinées dans des actes cycliques de rasage (destruction) et d’érection (édification), et reflétées dans l’écriture palimpsestique du texte. L’intégrité du corps organique étant mis en question, le noyau même de ce que signifie l’être (dans son sens de verbe infinitif) humain pourrait bien s’avérer, si l’on considère la correspondance entre perte de voix et état pathologique dans les textes de Du Maurier, Verne et Schwob, être une structure des plus précaires, distinctement hors sens (unsound).
Resumo:
Dans l’Europe du 18ème siècle, plusieurs médecins, pédagogues et moralistes conçoivent la maternité comme un enjeu politique. À l’intérieur de leurs discours, l’allaitement maternel devient le ciment reliant bonheur individuel, harmonie sociale et intérêts de l’État. L’examen de traités médicaux et moraux nous permet d’expliciter les significations que les médecins, pédagogues et moralistes rattachent à l’allaitement, et nous pouvons retracer la popularisation de leurs idées dans certains médias de l’époque tels que les périodiques. Toutefois, ces sources ne nous en disent pas long sur les significations que les femmes concernées elles-mêmes accordaient à l’allaitement. C’est précisément ce point que nous tentons d’élucider, à l’aide d’études de cas. Nous nous basons sur la correspondance d’une mère, sa fille et son beau-fils habitant Nuremberg et Munich au tournant du 18ème au 19ème siècle, afin de reconstituer les discours, enjeux, et pratiques autour de l’allaitement. Nous nous intéressons d’abord aux différentes émotions suscitées par plusieurs expériences d’allaitement, heureuses et moins heureuses. Ensuite, nous explicitons les arguments, relations et autorités mises en scène lors de discussions conflictuelles sur l’allaitement et le sevrage. Nous montrons aussi quelles personnes étaient déterminantes dans la pratique de l’allaitement, pour finalement tenter d’atteindre les expériences et représentations du corps allaitant.
Resumo:
Ce mémoire s'inscrit dans le domaine de la vision par ordinateur. Elle s'intéresse à la calibration de systèmes de caméras stéréoscopiques, à la mise en correspondance caméra-projecteur, à la reconstruction 3D, à l'alignement photométrique de projecteurs, au maillage de nuages de points, ainsi qu'au paramétrage de surfaces. Réalisé dans le cadre du projet LightTwist du laboratoire Vision3D, elle vise à permettre la projection sur grandes surfaces arbitraires à l'aide de plusieurs projecteurs. Ce genre de projection est souvent utilisé en arts technologiques, en théâtre et en projection architecturale. Dans ce mémoire, on procède au calibrage des caméras, suivi d'une reconstruction 3D par morceaux basée sur une méthode active de mise en correspondance, la lumière non structurée. Après un alignement et un maillage automatisés, on dispose d'un modèle 3D complet de la surface de projection. Ce mémoire introduit ensuite une nouvelle approche pour le paramétrage de modèles 3D basée sur le calcul efficace de distances géodésiques sur des maillages. L'usager n'a qu'à délimiter manuellement le contour de la zone de projection sur le modèle. Le paramétrage final est calculé en utilisant les distances obtenues pour chaque point du modèle. Jusqu'à maintenant, les méthodes existante ne permettaient pas de paramétrer des modèles ayant plus d'un million de points.