79 resultados para Bernich, Emile -- Correspondance
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Nous proposons de construire un atlas numérique 3D contenant les caractéristiques moyennes et les variabilités de la morphologie d’un organe. Nos travaux seront appliqués particulièrement à la construction d'un atlas numérique 3D de la totalité de la cornée humaine incluant la surface antérieure et postérieure à partir des cartes topographiques fournies par le topographe Orbscan II. Nous procédons tout d'abord par normalisation de toute une population de cornées. Dans cette étape, nous nous sommes basés sur l'algorithme de recalage ICP (iterative closest point) pour aligner simultanément les surfaces antérieures et postérieures d'une population de cornée vers les surfaces antérieure et postérieure d'une cornée de référence. En effet, nous avons élaboré une variante de l'algorithme ICP adapté aux images (cartes) de cornées qui tient compte de changement d'échelle pendant le recalage et qui se base sur la recherche par voisinage via la distance euclidienne pour établir la correspondance entre les points. Après, nous avons procédé pour la construction de l'atlas cornéen par le calcul des moyennes des élévations de surfaces antérieures et postérieures recalées et leurs écarts-types associés. Une population de 100 cornées saines a été utilisée pour construire l'atlas cornéen normal. Pour visualiser l’atlas, on a eu recours à des cartes topographiques couleurs similairement à ce qu’offrent déjà les systèmes topographiques actuels. Enfin, des observations ont été réalisées sur l'atlas cornéen reflétant sa précision et permettant de développer une meilleure connaissance de l’anatomie cornéenne.
Resumo:
«Construire hors limite: collisions fantastiques entre corps et machines dans la littérature fin-de-siècle française et anglaise» explore un ensemble de textes qui ont surgi à la fin du dix-neuvième siècle en réponse et en réaction à la fulgurante évolution de l’environnement scientifique et technologique, et qui considèrent la relation entre l’homme et la machine en fantasmant sur la zone grise où ils s’intersectent. Les principaux textes étudiés comprennent L’Ève future de Villiers de l’Isle-Adam, Le Surmâle d’Alfred Jarry, Trilby de George Du Maurier, Le Château des Carpathes de Jules Verne, ainsi qu’une sélection de contes dont nous pouvons qualifier de «contes à appareils», notamment «La Machine à parler» de Marcel Schwob. Utilisant la théorie des systèmes comme base méthodologique, cette dissertation cherche à réinterpréter les textes de la fin du dix-neuvième siècle qui naviguent les limites de l’humain et du mécanique et les surfaces sensibles où ils se touchent et interagissent en les réinscrivant dans un projet plus vaste de construction d’identité qui défie le temps chronologique et les échelles mathématiques. Le lien entre la théorie des systèmes et l’architecture – comme méthode d’organisation d’espace blanc en espace habitable – est exploré dans le but de comprendre la manière dont nous façonnons et interprétons le néant à l’origine de l’identité individuelle, et par association collective, en pratiquant littéralement la schématisation et la construction du corps. Des auteurs tels Villiers et Jarry imaginent la construction du corps comme une entreprise scientifique nécessairement fondée et réalisée avec les matériaux et les technologies disponibles, pour ensuite démanteler cette proposition en condamnant le corps technologique à la destruction. La construction d’une identité amplifiée par la technologie prend donc des proportions prométhéennes perpétuellement redessinées dans des actes cycliques de rasage (destruction) et d’érection (édification), et reflétées dans l’écriture palimpsestique du texte. L’intégrité du corps organique étant mis en question, le noyau même de ce que signifie l’être (dans son sens de verbe infinitif) humain pourrait bien s’avérer, si l’on considère la correspondance entre perte de voix et état pathologique dans les textes de Du Maurier, Verne et Schwob, être une structure des plus précaires, distinctement hors sens (unsound).
Resumo:
Dans l’Europe du 18ème siècle, plusieurs médecins, pédagogues et moralistes conçoivent la maternité comme un enjeu politique. À l’intérieur de leurs discours, l’allaitement maternel devient le ciment reliant bonheur individuel, harmonie sociale et intérêts de l’État. L’examen de traités médicaux et moraux nous permet d’expliciter les significations que les médecins, pédagogues et moralistes rattachent à l’allaitement, et nous pouvons retracer la popularisation de leurs idées dans certains médias de l’époque tels que les périodiques. Toutefois, ces sources ne nous en disent pas long sur les significations que les femmes concernées elles-mêmes accordaient à l’allaitement. C’est précisément ce point que nous tentons d’élucider, à l’aide d’études de cas. Nous nous basons sur la correspondance d’une mère, sa fille et son beau-fils habitant Nuremberg et Munich au tournant du 18ème au 19ème siècle, afin de reconstituer les discours, enjeux, et pratiques autour de l’allaitement. Nous nous intéressons d’abord aux différentes émotions suscitées par plusieurs expériences d’allaitement, heureuses et moins heureuses. Ensuite, nous explicitons les arguments, relations et autorités mises en scène lors de discussions conflictuelles sur l’allaitement et le sevrage. Nous montrons aussi quelles personnes étaient déterminantes dans la pratique de l’allaitement, pour finalement tenter d’atteindre les expériences et représentations du corps allaitant.
Resumo:
Ce mémoire s'inscrit dans le domaine de la vision par ordinateur. Elle s'intéresse à la calibration de systèmes de caméras stéréoscopiques, à la mise en correspondance caméra-projecteur, à la reconstruction 3D, à l'alignement photométrique de projecteurs, au maillage de nuages de points, ainsi qu'au paramétrage de surfaces. Réalisé dans le cadre du projet LightTwist du laboratoire Vision3D, elle vise à permettre la projection sur grandes surfaces arbitraires à l'aide de plusieurs projecteurs. Ce genre de projection est souvent utilisé en arts technologiques, en théâtre et en projection architecturale. Dans ce mémoire, on procède au calibrage des caméras, suivi d'une reconstruction 3D par morceaux basée sur une méthode active de mise en correspondance, la lumière non structurée. Après un alignement et un maillage automatisés, on dispose d'un modèle 3D complet de la surface de projection. Ce mémoire introduit ensuite une nouvelle approche pour le paramétrage de modèles 3D basée sur le calcul efficace de distances géodésiques sur des maillages. L'usager n'a qu'à délimiter manuellement le contour de la zone de projection sur le modèle. Le paramétrage final est calculé en utilisant les distances obtenues pour chaque point du modèle. Jusqu'à maintenant, les méthodes existante ne permettaient pas de paramétrer des modèles ayant plus d'un million de points.
Resumo:
Les premiers comptes rendus de l’histoire du cinéma ont souvent considéré les premiers dessins animés, ou vues de dessins animés, comme des productions différentes des films en prise de vue réelle. Les dessins animés tirent en effet leurs sources d’inspiration d’une gamme relativement différente d’influences, dont les plus importantes sont la lanterne magique, les jouets optiques, la féérie, les récits en images et les comics. Le dessin animé n’en demeure pas moins fondamentalement cinématographique. Les vues de dessins animés de la décennie 1900 ne se distinguent ainsi guère des scènes à trucs sur le plan de la technique et du style. D’abord le fait de pionniers issus de l’illustration comique et du croquis vivant comme Émile Cohl, James Stuart Blackton et Winsor McCay, le dessin animé s’industrialise au cours de la décennie 1910 sous l’impulsion de créateurs venant du monde des comics, dont John Randolph Bray, Earl Hurd, Paul Terry et Max Fleisher. Le processus d’institutionnalisation par lequel le dessin animé en viendra à être considéré comme une catégorie de film à part entière dépend en grande partie de cette industrialisation. Les studios de dessins animés développent des techniques et pratiques managériales spécifiquement dédiées à la production à grande échelle de films d’animation. Le dessin animé se crée ainsi sa propre niche au sein d’une industrie cinématographique dont il dépend toutefois toujours entièrement. Ce phénomène d’individuation repose sur des formules narratives et des personnages récurrents conçus à partir de modèles issus des comics des années 1910.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de tous les documents visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
Cette recherche s’intéresse à la migration des Mexicains au Canada sous la forme de l’asile, flux migratoire que le Canada a tenté de contrer en resserrant ses frontières. Cette exclusion s’est produite simultanément à celle vécue par les Mexicains vivant ou désirant se rendre aux États-Unis. Ainsi, en Amérique du Nord, dans un contexte de profonde intégration économique, la majorité des Mexicains sont privés d’accès à la mobilité et par conséquent de la possibilité de jouir de droits à travers les frontières. Ce phénomène engendre un régime hiérarchisé de citoyenneté au sein de cet espace. Intimement reliée aux thèmes de l’inclusion / exclusion, la citoyenneté est surtout conceptualisée comme un statut rattaché à l’État ou comme un ensemble de droits dérivant de ce statut. Cette recherche met l’emphase sur de nouvelles manières d’appréhender ce concept, telles la citoyenneté comme un processus hégémonique ou comme une pratique. Ainsi, nous tentons de connaître les raisons pour lesquelles les Mexicains ont demandé l’asile à Montréal (Canada) et de quelles façons ces motifs peuvent être reliés à la citoyenneté. Nous cherchons à vérifier si l’exclusion des Mexicains aux États-Unis a un rôle à jouer dans cette migration. Nous explorons aussi la correspondance entre ce flux migratoire et le concept d’acte de citoyenneté, théorisé par Isin (2008), qui fait référence à une pratique où les individus revendiquent des droits, même s’ils ne possèdent pas le statut de citoyen. Les conclusions de cette recherche nous apprennent que les Mexicains ont demandé l’asile en raison d’une privation de citoyenneté substantielle au Mexique, fortement reliée à la formation de l’espace nord-américain. Par ailleurs, les demandes d’asile sont des conséquences directes de l’exclusion des Mexicains de cet espace. Qui plus est, elles coïncident avec la notion d’« acte de citoyenneté ». Finalement, le résultat de cet acte, qui cherchait l’inclusion et l’acquisition de droits, s’avère mitigé et inégal.
Resumo:
Roman mémoriel, roman familial, roman d’apprentissage, autofiction… Voilà quelques concepts génériques qui m'ont guidé lors de l'élaboration de ce projet en recherche et création. Le point de départ a consisté en une quête identitaire, qui s’est résorbée en une recherche des origines, symbolisée par la figure de mon grand-père inconnu que j’ai tenté de démystifier. Car on m’a toujours dit qu’il avait écrit un roman, intitulé Orage sur mon corps, ce qui a provoqué chez moi diverses impressions et déformations imaginaires. Je croyais par exemple que mon grand-père, Émile, avait partagé les idées et l'état d'esprit qui circulaient durant les années 1940, alors que le Canada français connaissait une première vague de modernisation culturelle. Ces informations, malheureusement, ne se sont pas avérées tout à fait exactes. Et comme cette quête plus personnelle s'est achevée, non sans une certaine insatisfaction, mes recherches se sont poursuivies dans un essai portant essentiellement sur l'œuvre d'André Béland, auteur qui correspond, plus ou moins, à la figure mythique de mon grand-père. Cet essai ne vise pas à juger ni à réhabiliter l’auteur, mais simplement à jeter un peu de lumière sur son œuvre méconnue, parce que la « réappropriation identitaire se centre toujours aussi sur la transmission » (Régine Robin).
Resumo:
En lien avec l’augmentation constante de l’obésité, de plus en plus de personnes sont atteintes de résistance à l’insuline ou de diabète de type 2. Ce projet doctoral s’est surtout intéressé à l’une des conséquences majeures des pathologies cardiométaboliques, soit la dyslipidémie diabétique. À cet égard, les gens présentant une résistance à l’insuline ou un diabète de type 2 sont plus à risque de développer des perturbations lipidiques caractérisées essentiellement par des taux élevés de triglycérides et de LDL-cholestérol ainsi que de concentrations restreintes en HDL-cholestérol dans la circulation. Les risques de maladies cardiovasculaires sont ainsi plus élevés chez ces patients. Classiquement, trois organes sont connus pour développer l’insulino-résistance : le muscle, le tissu adipeux et le foie. Néanmoins, certaines évidences scientifiques commencent également à pointer du doigt l’intestin, un organe critique dans la régulation du métabolisme des lipides postprandiaux, et qui pourrait, conséquemment, avoir un impact important dans l’apparition de la dyslipidémie diabétique. De façon très intéressante, des peptides produits par l’intestin, notamment le GLP-1 (glucagon-like peptide-1), ont déjà démontré leur potentiel thérapeutique quant à l’amélioration du statut diabétique et leur rôle dans le métabolisme intestinal lipoprotéinique. Une autre évidence est apportée par la chirurgie bariatrique qui a un effet positif, durable et radical sur la perte pondérale, le contrôle métabolique et la réduction des comorbidités du diabète de type 2, suite à la dérivation bilio-intestinale. Les objectifs centraux du présent programme scientifique consistent donc à déterminer le rôle de l’intestin dans (i) l’homéostasie lipidique/lipoprotéinique en réponse à des concentrations élevées de glucose (à l’instar du diabète) et à des peptides gastro-intestinaux tels que le PYY (peptide YY); (ii) la coordination du métabolisme en disposant de l’AMPK (AMP-activated protein kinase) comme senseur incontournable permettant l’ajustement précis des besoins et disponibilités énergétiques cellulaires; et (iii) l’ajustement de sa capacité d’absorption des graisses alimentaires en fonction du gain ou de la perte de sa sensibilité à l’insuline démontrée dans les spécimens intestinaux humains prélevés durant la chirurgie bariatrique. Dans le but de confirmer le rôle de l’intestin dans la dyslipidémie diabétique, nous avons tout d’abord utilisé le modèle cellulaire intestinal Caco-2/15. Ces cellules ont permis de démontrer qu’en présence de hautes concentrations de glucose en basolatéral, telle qu’en condition diabétique, l’intestin absorbe davantage de cholestérol provenant de la lumière intestinale par l’intermédiaire du transporteur NPC1L1 (Niemann Pick C1-like 1). L’utilisation de l’ezetimibe, un inhibiteur du NPC1L1, a permis de contrecarrer cette augmentation de l’expression de NPC1L1 tout comme l’élévation de l’absorption du cholestérol, prouvant ainsi que le NPC1L1 est bel et bien responsable de cet effet. D’autre part, des travaux antérieurs avaient identifié certains indices quant à un rôle potentiel du peptide intestinal PYY au niveau du métabolisme des lipides intestinaux. Toutefois, aucune étude n’avait encore traité cet aspect systématiquement. Pour établir définitivement l’aptitude du PYY à moduler le transport et le métabolisme lipidique dans l’intestin, nous avons utilisé les cellules Caco-2/15. Notre étude a permis de constater que le PYY incubé du côté apical est capable de réduire significativement l’absorption du cholestérol et le transporteur NPC1L1. Puisque le rôle de l'AMPK dans l'intestin demeure inexploré, il est important non seulement de définir sa structure moléculaire, sa régulation et sa fonction dans le métabolisme des lipides, mais aussi d'examiner l'impact de l’insulino-résistance et du diabète de type 2 (DT2) sur son statut et son mode d’action gastro-intestinal. En employant les cellules Caco-2/15, nous avons été capables de montrer (i) la présence de toutes les sous-unités AMPK (α1/α2/β1/β2/γ1/γ2/γ3) avec une différence marquée dans leur abondance et une prédominance de l’AMPKα1 et la prévalence de l’hétérotrimère α1/β2/γ1; (ii) l’activation de l’AMPK par la metformine et l’AICAR, résultant ainsi en une phosphorylation accrue de l’enzyme acétylCoA carboxylase (ACC) et sans influence sur l'HMG-CoA réductase; (iii) la modulation négative de l’AMPK par le composé C et des concentrations de glucose élevées avec des répercussions sur la phosphorylation de l’ACC. D’autre part, l’administration de metformine au Psammomys obesus, un modèle animal de diabète et de syndrome métabolique, a conduit à (i) une régulation positive de l’AMPK intestinale (phosphorylation de l’AMPKα-Thr172); (ii) la réduction de l'activité ACC; (iii) l’augmentation de l’expression génique et protéique de CPT1, supportant une stimulation de la β-oxydation; (iv) une tendance à la hausse de la sensibilité à l'insuline représentée par l’induction de la phosphorylation d'Akt et l’inactivation de la phosphorylation de p38; et (v) l’abaissement de la formation des chylomicrons ce qui conduit à la diminution de la dyslipidémie diabétique. Ces données suggèrent que l'AMPK remplit des fonctions clés dans les processus métaboliques de l'intestin grêle. La preuve flagrante de l’implication de l’intestin dans les événements cardiométaboliques a été obtenue par l’examen des spécimens intestinaux obtenus de sujets obèses, suite à une chirurgie bariatrique. L’exploration intestinale nous a permis de constater chez ceux avec un indice HOMA élevé (marqueur d’insulinorésistance) (i) des défauts de signalisation de l'insuline comme en témoigne la phosphorylation réduite d'Akt et la phosphorylation élevée de p38 MAPK; (ii) la présence du stress oxydatif et de marqueurs de l'inflammation; (iii) la stimulation de la lipogenèse et de la production des lipoprotéines riches en triglycérides avec l’implication des protéines clés FABP, MTP et apo B-48. En conclusion, l'intestin grêle peut être classé comme un tissu insulino-sensible et répondant à plusieurs stimuli nutritionnels et hormonaux. Son dérèglement peut être déclenché par le stress oxydatif et l'inflammation, ce qui conduit à l'amplification de la lipogenèse et la synthèse des lipoprotéines, contribuant ainsi à la dyslipidémie athérogène chez les patients atteints du syndrome métabolique et de diabète de type 2.
Resumo:
Les ondes lentes (OL) et les fuseaux de sommeil (FS) caractérisent le sommeil lent. Ces ondes sont particulièrement vulnérables aux effets du vieillissement, et ce, dès le milieu de l’âge adulte. La signification fonctionnelle de ces changements demeure toutefois inconnue. Les OL constituent des marqueurs sensibles de la pression homéostatique au sommeil qui augmente avec la durée de l’éveil et qui diminue avec la durée de sommeil. L’hypothèse que les changements des OL puissent refléter une altération de la régulation homéostatique demeure toujours matière à débat dans la littérature. D’autre part, les FS et les OL ont tous deux été associés à la plasticité cérébrale et à la cognition. La correspondance entre les ondes en sommeil lent et le fonctionnement cognitif au cours du vieillissement normal demeure peu étudiée et les résultats sont inconsistants. L’objectif de cette thèse est de déterminer comment l’âge affecte la réponse homéostatique des OL et d’évaluer l’association entre les caractéristiques des ondes en sommeil lent et les performances cognitives chez des personnes d’âge moyen et âgées. La première étude a évalué l’effet de 25 heures d’éveil sur les OL durant un épisode de sommeil de récupération diurne chez de jeunes adultes et des personnes d’âge moyen. Comparativement aux jeunes, les personnes d’âge moyen ont montré une augmentation atténuée de la densité des OL après la privation de sommeil. Elles ont également montré une augmentation plus faible de la synchronisation neuronale durant une OL dans les régions frontales et préfrontales, mesurée par l’amplitude et la pente des OL. La deuxième étude a évalué le lien prédictif des OL, des FS et de l’architecture du sommeil sur les performances à des tests neuropsychologiques mesurant les capacités attentionnelles, les fonctions exécutives et les capacités d’apprentissage verbal chez des participants d’âge moyen et âgés en bonne santé. Seule la fluence verbale était associée à la densité et à la pente des OL. Les OL ne semblent donc pas constituer un marqueur stable du fonctionnement cognitif. Comparativement aux OL, les caractéristiques des FS étaient associées de façon plus systématique aux performances cognitives et plus particulièrement aux capacités d’apprentissage et aux fonctions attentionnelles. Dans l’ensemble, cette thèse suggère que l’augmentation plus faible de la synchronisation neuronale dans les régions antérieures après une privation de sommeil est expliquée par une plasticité synaptique réduite chez les personnes d’âge moyen comparativement aux jeunes. Par ailleurs, la capacité à générer une activité neuronale synchronisée, mesurée par les OL, ne prédit ni la capacité à maintenir le sommeil durant le jour, ni les fonctions cognitives de façon consistante. Les FS, quant à eux, représentent un meilleur marqueur du fonctionnement cognitif au cours du vieillissement normal. Les FS pourraient refléter une meilleure intégrité anatomique/physiologique des réseaux neuronaux impliqués dans les capacités attentionnelles et d’apprentissage.
Resumo:
Ce mémoire a pour toile de fond Philadelphia à la fin du dix-huitième siècle et couvre les périodes de la Révolution américaine et les débuts de la République. Trois thèmes s’y entrelacent: la culture matérielle, la sociabilité, et l’agentivité des femmes. Ces trois thèmes sont explorés au travers de Elizabeth Willing Powel, une femme éduquée faisant partie de l’élite de Philadelphie, et des moyens avec lesquels elle s’auto-projetait auprès de la société au travers l’environnement matériel de sa maison – la Powel House – and au travers de sa correspondance. Elizabeth Powel était reconnue pour son intelligence, son art de la conversation et ses qualités d’hôtesse. Ce projet explore les interactions entre une femme de l’élite et son environnement matériel durant les périodes révolutionnaires et postrévolutionnaires. Le but est d’observer comment la culture matérielle représentait des positions sociales, culturelles et politiques. Ce mémoire observe les interactions sociales et les façons dont Elizabeth Powel se représente en société par une analyse de sa correspondance, analyse qui porte une attention particulière aux discours de Elizabeth sur les questions du rôle des femmes en société, de l’éducation des femmes. Enfin, ce mémoire explore comment la culture matérielle et l’écriture épistolaire étaient des vecteurs d’agentivité pour Elizabeth, des moyens de participer aux important changements qui transformaient la société américaine de la fin du dix-huitième siècle.
Resumo:
Depuis les Lettres de Madame de Sévigné à sa fille, la pratique épistolaire permet à la mère et à la fille d’entretenir un lien à distance. Outre la valeur communicative à l’origine de ce lien, l’espace de la lettre fait intervenir le moi de l’épistolière dans le mouvement de l’écriture. Cette particularité est propice à l’élaboration d’une image propre aux buts recherchés de la correspondance en adoptant une rhétorique qui crée un effet sur la destinataire incitée à répondre, à prendre position, à construire une image de soi par le biais de l’échange épistolaire. Une forme de littérarité se manifeste dans ce genre de lettres comme nous le démontrons à propos des Lettres à sa fille (1916-1953) de Colette. L’étape de la maternité constitue une fatalité redoutée ou refusée pour certaines femmes qui connaissent un amour tardivement, voire jamais. Colette s’inscrit dans cette lignée de mères atypiques en refusant le rôle maternel pour consacrer sa vie à sa carrière d’écrivaine. Elle entretient néanmoins pendant trente-sept ans une correspondance avec sa fille, Colette de Jouvenel, afin de satisfaire à la représentation sociale voulant que la mère soit religieusement dévouée à son enfant. Mère physiquement absente la plupart du temps, Colette construit un éthos épistolaire qui oscille entre garder sa fille près d’elle grâce aux mots tout en maintenant la distance physique et sentimentale avec celle qui doit trouver sa place dans la correspondance. Colette se défile, mais s’impose aussi par son omniprésence dans l’univers de son enfant en témoignant d’une sévérité propre à sa posture d’auteure. Le déploiement de cette facette de l’écrivaine dans l’échange épistolaire à priori privé est rendu possible en raison du statut générique de la lettre : de fait, l’écriture épistolaire favorise, non seulement un rapport de soi à l’autre, mais également de soi à soi à travers divers effets spéculaires. L’étude de l’éthos maternel nous amène à nous interroger finalement sur l’éthos de la jeune fille contrainte de se construire dans une relation de dépendance avec l’image de la sur-mère.
Resumo:
Cette thèse porte sur la reconstruction active de modèles 3D à l’aide d’une caméra et d’un projecteur. Les méthodes de reconstruction standards utilisent des motifs de lumière codée qui ont leurs forces et leurs faiblesses. Nous introduisons de nouveaux motifs basés sur la lumière non structurée afin de pallier aux manques des méthodes existantes. Les travaux présentés s’articulent autour de trois axes : la robustesse, la précision et finalement la comparaison des patrons de lumière non structurée aux autres méthodes. Les patrons de lumière non structurée se différencient en premier lieu par leur robustesse aux interréflexions et aux discontinuités de profondeur. Ils sont conçus de sorte à homogénéiser la quantité d’illumination indirecte causée par la projection sur des surfaces difficiles. En contrepartie, la mise en correspondance des images projetées et capturées est plus complexe qu’avec les méthodes dites structurées. Une méthode d’appariement probabiliste et efficace est proposée afin de résoudre ce problème. Un autre aspect important des reconstructions basées sur la lumière non structurée est la capacité de retrouver des correspondances sous-pixels, c’est-à-dire à un niveau de précision plus fin que le pixel. Nous présentons une méthode de génération de code de très grande longueur à partir des motifs de lumière non structurée. Ces codes ont l’avantage double de permettre l’extraction de correspondances plus précises tout en requérant l’utilisation de moins d’images. Cette contribution place notre méthode parmi les meilleures au niveau de la précision tout en garantissant une très bonne robustesse. Finalement, la dernière partie de cette thèse s’intéresse à la comparaison des méthodes existantes, en particulier sur la relation entre la quantité d’images projetées et la qualité de la reconstruction. Bien que certaines méthodes nécessitent un nombre constant d’images, d’autres, comme la nôtre, peuvent se contenter d’en utiliser moins aux dépens d’une qualité moindre. Nous proposons une méthode simple pour établir une correspondance optimale pouvant servir de référence à des fins de comparaison. Enfin, nous présentons des méthodes hybrides qui donnent de très bons résultats avec peu d’images.