613 resultados para Réseaux aléatoires continus
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
Contexte: Les champignons mycorhiziens à arbuscules (AMF) établissent des relations symbiotiques avec la plupart des plantes grâce à leurs réseaux d’hyphes qui s’associent avec les racines de leurs hôtes. De précédentes études ont révélé des niveaux de variation génétique extrêmes pour des loci spécifiques permettant de supposer que les AMF peuvent contenir des milliers de noyaux génétiquement divergents dans un même cytoplasme. Si aucun processus de reproduction sexuée n’a jusqu’ici été observé chez ces mycorhizes, on constate cependant que des niveaux élevés de variation génétique peuvent être maintenus à la fois par l’échange de noyaux entre hyphes et par des processus fréquents de recombinaison entre noyaux. Les AMF se propagent par l’intermédiaire de spores qui contiennent chacune un échantillon d’une population initiale de noyaux hétérogènes, directement hérités du mycélium parent. À notre connaissance les AMF sont les seuls organismes qui ne passent jamais par un stade mononucléaire, ce qui permet aux noyaux de diverger génétiquement dans un même cytoplasme. Ces aspects singuliers de la biologie des AMF rendent l’estimation de leur diversité génétique problématique. Ceci constitue un défi majeur pour les écologistes sur le terrain mais également pour les biologistes moléculaires dans leur laboratoire. Au-delà même des problématiques de diversité spécifique, l’amplitude du polymorphisme entre noyaux mycorhiziens est mal connue. Le travail proposé dans ce manuscrit de thèse explore donc les différents aspects de l’architecture génomique singulière des AMF. Résultats L’ampleur du polymorphisme intra-isolat a été déjà observée pour la grande sous-unité d’ARN ribosomal de l’isolat Glomus irregulare DAOM-197198 (précédemment identifié comme G. intraradices) et pour le gène de la polymerase1-like (PLS) de Glomus etunicatum isolat NPI. Dans un premier temps, nous avons pu confirmer ces résultats et nous avons également pu constater que ces variations étaient transcrites. Nous avons ensuite pu mettre en évidence la présence d’un goulot d’étranglement génétique au moment de la sporulation pour le locus PLS chez l’espèce G. etunicatum illustrant les importants effets d’échantillonnage qui se produisaient entre chaque génération de spore. Enfin, nous avons estimé la différentiation génétique des AMF en utilisant à la fois les réseaux de gènes appliqués aux données de séquençage haut-débit ainsi que cinq nouveaux marqueurs génomiques en copie unique. Ces analyses révèlent que la différenciation génomique est présente de manière systématique dans deux espèces (G. irregulare et G. diaphanum). Conclusions Les résultats de cette thèse fournissent des preuves supplémentaires en faveur du scénario d’une différenciation génomique entre noyaux au sein du même isolat mycorhizien. Ainsi, au moins trois membres du genre Glomus, G. irregulare, G. diaphanum and G. etunicatum, apparaissent comme des organismes dont l’organisation des génomes ne peut pas être décrit d’après un modèle Mendélien strict, ce qui corrobore l’hypothèse que les noyaux mycorhiziens génétiquement différenciés forment un pangenome.
Resumo:
Ce mémoire documente l’émergence d’une sous-culture gaie masculine dans la région montréalaise entre 1860 et 1910 et s’intéresse aux discours et à la répression envers les hommes ayant des comportements homosexuels ou d’inversion de genre. Par l’analyse de sources journalistiques, judiciaires et juridiques, il déconstruit une série de préjugés, notamment à l’égard des sources, présumées pauvres; du discours public sur les comportements homosexuels, supposé inexistant; et des hommes qui avaient ces comportements, que plusieurs imaginent invisibles et isolés les uns des autres. Il montre au contraire que des archives variées révèlent une vie « gaie » et le déploiement d’une opinion publique à son égard. Ainsi, l’analyse d’un important corpus d’articles de journaux et une étude de cas portant sur deux des plus anciens clubs homosexuels connus au Québec, démantelés en 1892 et en 1908, confirment l’existence de réseaux de sociabilités « gaies » dans la région montréalaise, dès le XIXe siècle. Ce faisant, il dévoile l’existence de pratiques caractéristiques des sous-cultures gaies telles que l’usage d’un vocabulaire spécifique ou l’adoption de manières efféminées par certains hommes que l’on qualifierait aujourd’hui d’homosexuels.
Resumo:
Les copulas archimédiennes hiérarchiques ont récemment gagné en intérêt puisqu’elles généralisent la famille de copules archimédiennes, car elles introduisent une asymétrie partielle. Des algorithmes d’échantillonnages et des méthodes ont largement été développés pour de telles copules. Néanmoins, concernant l’estimation par maximum de vraisemblance et les tests d’adéquations, il est important d’avoir à disposition la densité de ces variables aléatoires. Ce travail remplie ce manque. Après une courte introduction aux copules et aux copules archimédiennes hiérarchiques, une équation générale sur les dérivées des noeuds et générateurs internes apparaissant dans la densité des copules archimédiennes hiérarchique. sera dérivée. Il en suit une formule tractable pour la densité des copules archimédiennes hiérarchiques. Des exemples incluant les familles archimédiennes usuelles ainsi que leur transformations sont présentés. De plus, une méthode numérique efficiente pour évaluer le logarithme des densités est présentée.
Resumo:
Afin d'enrichir les données de corpus bilingues parallèles, il peut être judicieux de travailler avec des corpus dits comparables. En effet dans ce type de corpus, même si les documents dans la langue cible ne sont pas l'exacte traduction de ceux dans la langue source, on peut y retrouver des mots ou des phrases en relation de traduction. L'encyclopédie libre Wikipédia constitue un corpus comparable multilingue de plusieurs millions de documents. Notre travail consiste à trouver une méthode générale et endogène permettant d'extraire un maximum de phrases parallèles. Nous travaillons avec le couple de langues français-anglais mais notre méthode, qui n'utilise aucune ressource bilingue extérieure, peut s'appliquer à tout autre couple de langues. Elle se décompose en deux étapes. La première consiste à détecter les paires d’articles qui ont le plus de chance de contenir des traductions. Nous utilisons pour cela un réseau de neurones entraîné sur un petit ensemble de données constitué d'articles alignés au niveau des phrases. La deuxième étape effectue la sélection des paires de phrases grâce à un autre réseau de neurones dont les sorties sont alors réinterprétées par un algorithme d'optimisation combinatoire et une heuristique d'extension. L'ajout des quelques 560~000 paires de phrases extraites de Wikipédia au corpus d'entraînement d'un système de traduction automatique statistique de référence permet d'améliorer la qualité des traductions produites. Nous mettons les données alignées et le corpus extrait à la disposition de la communauté scientifique.
Resumo:
L’avénement des réseaux sociaux, tel que Facebook, MySpace et LinkedIn, a fourni une plateforme permettant aux individus de rester facilement connectés avec leurs amis, leurs familles ou encore leurs collègues tout en les encourageant activement à partager leurs données personnelles à travers le réseau. Avec la richesse des activités disponibles sur un réseau social, la quantité et la variété des informations personnelles partagées sont considérables. De plus, de part leur nature numérique, ces informations peuvent être facilement copiées, modifiées ou divulguées sans le consentement explicite de leur propriétaire. Ainsi, l’information personnelle révélée par les réseaux sociaux peut affecter de manière concrète la vie de leurs utilisateurs avec des risques pour leur vie privée allant d’un simple embarras à la ruine complète de leur réputation, en passant par l’usurpation d’identité. Malheureusement, la plupart des utilisateurs ne sont pas conscients de ces risques et les outils mis en place par les réseaux sociaux actuels ne sont pas suffisants pour protéger efficacement la vie privée de leurs utilisateurs. En outre, même si un utilisateur peut contrôler l’accès à son propre profil, il ne peut pas contrôler ce que les autres révèlent à son sujet. En effet, les “amis” d’un utilisateur sur un réseau social peuvent parfois révéler plus d’information à son propos que celui-ci ne le souhaiterait. Le respect de la vie privée est un droit fondamental pour chaque individu. Nous pré- sentons dans cette thèse une approche qui vise à accroître la prise de conscience des utilisateurs des risques par rapport à leur vie privée et à maintenir la souveraineté sur leurs données lorsqu’ils utilisent un réseau social. La première contribution de cette thèse réside dans la classification des risques multiples ainsi que les atteintes à la vie privée des utilisateurs d’un réseau social. Nous introduisons ensuite un cadre formel pour le respect de la vie privée dans les réseaux sociaux ainsi que le concept de politique de vie privée (UPP). Celle-ci définie par l’utilisateur offre une manière simple et flexible de spécifier et communiquer leur attentes en terme de respect de la vie privée à d’autres utilisateurs, tiers parties ainsi qu’au fournisseur du réseau social. Par ailleurs, nous dé- finissons une taxonomie (possiblement non-exhaustive) des critères qu’un réseau social peut intégrer dans sa conception pour améliorer le respect de la vie privée. En introduisant le concept de réseau social respectueux de la vie privée (PSNS), nous proposons Privacy Watch, un réseau social respectueux de la vie privée qui combine les concepts de provenance et d’imputabilité afin d’aider les utilisateurs à maintenir la souveraineté sur leurs données personnelles. Finalement, nous décrivons et comparons les différentes propositions de réseaux sociaux respectueux de la vie privée qui ont émergé récemment. Nous classifions aussi ces différentes approches au regard des critères de respect de la vie privée introduits dans cette thèse.
Resumo:
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.
Resumo:
Les mécanismes neuronaux contrôlant la respiration sont présentement explorés à l’aide de plusieurs modèles animaux incluant le rat et la grenouille. Nous avons utilisé la lamproie comme modèle animal nous permettant de caractériser les réseaux de neurones du tronc cérébral qui génèrent et modulent le rythme respiratoire. Nous avons d’abord caractérisé une nouvelle population de neurones, dans le groupe respiratoire paratrigéminal (pTRG), une région du tronc cérébral essentielle à la genèse du rythme respiratoire chez la lamproie. Les neurones de cette région sont actifs en phase avec le rythme respiratoire. Nous avons montré que ces neurones possèdent une arborisation axonale complexe, incluant des projections bilatérales vers les groupes de motoneurones du tronc cérébral qui activent les branchies ainsi que des connexions reliant les pTRG de chaque côté du tronc cérébral. Ces résultats montrent que le pTRG contient un groupe de cellules qui active les motoneurones respiratoires des deux côtés et qui pourrait être impliqué dans la synchronisation bilatérale du rythme respiratoire. Nous avons ensuite étudié les mécanismes neuronaux par lesquels le rythme respiratoire est augmenté en lien avec l’effort physique. Nous avons montré que la région locomotrice du mésencéphale (MLR), en plus de son rôle dans la locomotion, active les centres respiratoires pendant la nage, et même en anticipation. Les neurones de la MLR projetant vers les centres locomoteurs et respiratoires sont ségrégés anatomiquement, les neurones localisés plus dorsalement étant ceux qui possèdent des projections vers les centres respiratoires. Nous avons aboli la contribution de la partie dorsale de la MLR aux changements respiratoires en injectant des bloqueurs des récepteurs glutamatergiques localement, sur des préparations semi-intactes. Nous avons montré que lors d’épisodes de nage, une majeure partie de l’effet respiratoire est abolie par ces injections, suggérant un rôle prépondérant des neurones de cette région dans l’augmentation respiratoire pendant la locomotion. Nos résultats confirment que le rythme respiratoire est généré par une région rostrolatérale du pons de la lamproie et montrent que des connexions des centres locomoteurs arrivent directement à cette région et pourraient être impliquées dans l’augmentation respiratoire reliée à l’effort physique.
Resumo:
Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.
Resumo:
La stéréopsie est souvent présente, bien qu’altérée, chez les sujets microstrabiques. Cependant, leur seuil de stéréopsie serait différent selon que le test utilisé contient (stéréopsie locale) ou non (stéréopsie globale) des contours définis. Peu d’études ont évalué empiriquement la différence de performance selon le type de tests utilisé. Le premier article est une étude rétrospective de 26 enfants microstrabiques. La majorité des enfants (73 %) possédaient un seuil de stéréopsie locale normal ou légèrement inférieur à la normale. Une absence de stéréopsie locale a été observée chez les 7 autres enfants (27 %). Aucune stéréopsie globale n’était mesurable chez 25 des 26 enfants étudiés. La stéréopsie locale est donc présente chez les enfants microstrabiques, mais ceux-ci montrent généralement une absence de stéréoperception globale. La seconde étude avait pour objectif d'étudier le rôle du scotome de suppression dans la perception stéréoscopique de sujets microstrabiques. Trois tâches psychophysiques de stéréopsie locale et globale ont été effectuées chez 9 enfants microstrabiques et 9 enfants contrôles appariés, en utilisant deux grandeurs de cible (4° et 12°). Aucune amélioration des performances n’a été notée chez les sujets microstrabiques pour la tâche de stéréopsie locale, mais les seuils de stéréopsie globale étaient inférieurs avec la cible de 12°. La zone de suppression semble jouer un rôle dans le déficit de stéréopsie globale des sujets microstrabiques. Le scotome de suppression pourrait être partiellement responsable du déficit stéréoscopique puisque même avec l’augmentation de la taille angulaire des stimuli stéréoscopiques, la stéréoperception des microstrabiques demeurent inférieure à celle des sujets normaux.
Resumo:
Article publié dans le journal « Journal of Information Security Research ». March 2012.
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.
Resumo:
Cette thèse documente, répertorie et analyse les relations entre les femmes auteures en France, en Italie, et entre Françaises et Italiennes, de 1770 à 1840, à partir de l’étude des correspondances et des ouvrages publiés de douze écrivaines (Anne-Marie de Beaufort d’Hautpoul, Sophie Gay, Félicité de Genlis, Marie-Émilie de Montanclos, Constance Pipelet Salm, Germaine de Staël, Teresa Bandettini, Elisabetta Caminer, Carolina Lattanzi, Diodata Saluzzo, Fortunata Sulgher Fantastici et Isabella Teotochi Albrizzi). Au cours d’une période caractérisée par le développement de l’imprimé, par l’importante participation féminine à la querelle des femmes, par le bouleversement politique international issu de la Révolution française et de l’époque napoléonienne, ainsi que par la présence affirmée des auteures, ces dernières font face à une réactivation des attaques contre l’autorat féminin. Dans ce contexte, les relations entre écrivaines illustrent le défi de « l’action commune » conçue dans une optique de défense d’une cause (celle des auteures) avant l’émergence du mouvement féministe. Les écrivaines étant souvent présentées soit comme « sœurs, » soit comme « rivales », notre étude démontre que la nature des relations féminines est infiniment plus complexe dans les faits. D’un côté, les relations entre femmes auteures témoignent d’une certaine cohésion au sein de la communauté : les contacts sont nombreux, celles-ci s’épaulent en temps de crise, construisent des généalogies littéraires féminines, et déconstruisent les discours portant sur la soi-disant « exceptionnalité » et la « rivalité » des femmes de lettres. De l’autre côté, d’importantes divisions traversent leurs réseaux, notamment liées à l’appartenance nationale, aux opinions politiques et au positionnement de chacune dans le milieu littéraire. Outre les divisions sociales et politiques, cette thèse illustre la difficulté éprouvée par les auteures à arrimer leurs intérêts individuels (promotion de leur propre carrière, identités multiples interférant avec l’appartenance de sexe/genre) aux intérêts collectifs (légitimer l’autorat féminin). Ainsi, les écrivaines reconnaissent l’importance de la communauté des femmes auteures, tout en étant confrontées au défi d’en maintenir la cohésion, à une époque où non seulement l’activité littéraire, mais également le contexte culturel et politique, sont en pleine transformation.