42 resultados para second coming
Resumo:
Les systèmes statistiques de traduction automatique ont pour tâche la traduction d’une langue source vers une langue cible. Dans la plupart des systèmes de traduction de référence, l'unité de base considérée dans l'analyse textuelle est la forme telle qu’observée dans un texte. Une telle conception permet d’obtenir une bonne performance quand il s'agit de traduire entre deux langues morphologiquement pauvres. Toutefois, ceci n'est plus vrai lorsqu’il s’agit de traduire vers une langue morphologiquement riche (ou complexe). Le but de notre travail est de développer un système statistique de traduction automatique comme solution pour relever les défis soulevés par la complexité morphologique. Dans ce mémoire, nous examinons, dans un premier temps, un certain nombre de méthodes considérées comme des extensions aux systèmes de traduction traditionnels et nous évaluons leurs performances. Cette évaluation est faite par rapport aux systèmes à l’état de l’art (système de référence) et ceci dans des tâches de traduction anglais-inuktitut et anglais-finnois. Nous développons ensuite un nouvel algorithme de segmentation qui prend en compte les informations provenant de la paire de langues objet de la traduction. Cet algorithme de segmentation est ensuite intégré dans le modèle de traduction à base d’unités lexicales « Phrase-Based Models » pour former notre système de traduction à base de séquences de segments. Enfin, nous combinons le système obtenu avec des algorithmes de post-traitement pour obtenir un système de traduction complet. Les résultats des expériences réalisées dans ce mémoire montrent que le système de traduction à base de séquences de segments proposé permet d’obtenir des améliorations significatives au niveau de la qualité de la traduction en terme de le métrique d’évaluation BLEU (Papineni et al., 2002) et qui sert à évaluer. Plus particulièrement, notre approche de segmentation réussie à améliorer légèrement la qualité de la traduction par rapport au système de référence et une amélioration significative de la qualité de la traduction est observée par rapport aux techniques de prétraitement de base (baseline).
Resumo:
Cette thèse traite de la résistance du VIH-1 aux antirétroviraux, en particulier de l'activité antivirale de plusieurs inhibiteurs non nucléosidiques de la transcriptase inverse (INNTI) ainsi que des inhibiteurs de protéase (IP). Nous avons exploré l’émergence et la spécificité des voies de mutations qui confèrent la résistance contre plusieurs nouveaux INNTI (étravirine (ETR) et rilpivirine (RPV)) (chapitres 2 et 3). En outre, le profil de résistance et le potentiel antirétroviral d'un nouvel IP, PL-100, est présenté dans les chapitres 4 et 5. Pour le premier projet, nous avons utilisé des sous-types B et non-B du VIH-1 pour sélectionner des virus résistants à ETR, et ainsi montré que ETR favorise l’émergence des mutations V90I, K101Q, E138K, V179D/E/F, Y181C, V189I, G190E, H221H/Y et M230L, et ce, en 18 semaines. Fait intéressant, E138K a été la première mutation à émerger dans la plupart des cas. Les clones viraux contenant E138K ont montré un faible niveau de résistance phénotypique à ETR (3,8 fois) et une diminution modeste de la capacité de réplication (2 fois) par rapport au virus de type sauvage. Nous avons également examiné les profils de résistance à ETR et RPV dans les virus contenant des mutations de résistance aux INNTI au début de la sélection. Dans le cas du virus de type sauvage et du virus contenant la mutation unique K103N, les premières mutations à apparaître en présence d’ETR ou de RPV ont été E138K ou E138G suivies d’autres mutations de résistance aux INNTI. À l’inverse, dans les mêmes conditions, le virus avec la mutation Y181C a évolué pour produire les mutations V179I/F ou A62V/A, mais pas E138K/G. L'ajout de mutations à la position 138 en présence de Y181C n'augmente pas les niveaux de résistance à ETR ou RPV. Nous avons également observé que la combinaison de Y181C et E138K peut conduire à un virus moins adapté par rapport au virus contenant uniquement Y181C. Sur la base de ces résultats, nous suggérons que les mutations Y181C et E138K peuvent être antagonistes. L’analyse de la résistance au PL-100 des virus de sous-type C et CRF01_AE dans les cellules en culture est décrite dans le chapitre 4. Le PL-100 sélectionne pour des mutations de résistance utilisant deux voies distinctes, l'une avec les mutations V82A et L90M et l'autre avec T80I, suivi de l’addition des mutations M46I/L, I54M, K55R, L76F, P81S et I85V. Une accumulation d'au moins trois mutations dans le rabat protéique et dans le site actif est requise dans chaque cas pour qu’un haut niveau de résistance soit atteint, ce qui démontre que le PL-100 dispose d'une barrière génétique élevée contre le développement de la résistance. Dans le chapitre 5, nous avons évalué le potentiel du PL-100 en tant qu’inhibiteur de protéase de deuxième génération. Les virus résistants au PL-100 émergent en 8-48 semaines alors qu’aucune mutation n’apparaît avec le darunavir (DRV) sur une période de 40 semaines. La modélisation moléculaire montre que la haute barrière génétique du DRV est due à de multiples interactions avec la protéase dont des liaison hydrogènes entre les groupes di-tétrahydrofuranne (THF) et les atomes d'oxygène des acides aminés A28, D29 et D30, tandis que la liaison de PL-100 est principalement basée sur des interactions polaires et hydrophobes délocalisées à travers ses groupes diphényle. Nos données suggèrent que les contacts de liaison hydrogène et le groupe di-THF dans le DRV, ainsi que le caractère hydrophobe du PL-100, contribuent à la liaison à la protéase ainsi qu’à la haute barrière génétique contre la résistance et que la refonte de la structure de PL-100 pour inclure un groupe di-THF pourrait améliorer l’activité antivirale et le profil de résistance.
Resumo:
Les réseaux sociaux accueillent chaque jour des millions d’utilisateurs. Les usagers de ces réseaux, qu’ils soient des particuliers ou des entreprises, sont directement affectés par leur fulgurante expansion. Certains ont même développé une certaine dépendance à l’usage des réseaux sociaux allant même jusqu’à transformer leurs habitudes de vie de tous les jours. Cependant, cet engouement pour les réseaux sociaux n’est pas sans danger. Il va de soi que leur expansion favorise et sert également l’expansion des attaques en ligne. Les réseaux sociaux constituent une opportunité idéale pour les délinquants et les fraudeurs de porter préjudice aux usagers. Ils ont accès à des millions de victimes potentielles. Les menaces qui proviennent des amis et auxquelles font face les utilisateurs de réseaux sociaux sont nombreuses. On peut citer, à titre d’exemple, la cyberintimidation, les fraudes, le harcèlement criminel, la menace, l’incitation au suicide, la diffusion de contenu compromettant, la promotion de la haine, l’atteinte morale et physique, etc. Il y a aussi un « ami très proche » qui peut être très menaçant sur les réseaux sociaux : soi-même. Lorsqu’un utilisateur divulgue trop d’informations sur lui-même, il contribue sans le vouloir à attirer vers lui les arnaqueurs qui sont à la recherche continue d’une proie. On présente dans cette thèse une nouvelle approche pour protéger les utilisateurs de Facebook. On a créé une plateforme basée sur deux systèmes : Protect_U et Protect_UFF. Le premier système permet de protéger les utilisateurs d’eux-mêmes en analysant le contenu de leurs profils et en leur proposant un ensemble de recommandations dans le but de leur faire réduire la publication d’informations privées. Le second système vise à protéger les utilisateurs de leurs « amis » dont les profils présentent des symptômes alarmants (psychopathes, fraudeurs, criminels, etc.) en tenant compte essentiellement de trois paramètres principaux : le narcissisme, le manque d’émotions et le comportement agressif.
Resumo:
La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.
Resumo:
Le vieillissement de la population est un phénomène démographique auquel est confronté le Québec. Dans ce contexte, la protection des personnes inaptes et vulnérables, prendra de plus en plus d'importance au cours des prochaines années. Ces personnes doivent bénéficier d'une protection adéquate lors de l'ouverture d'un régime de protection à leur égard. Considérant que l'ouverture d'un régime de protection au majeur inapte est toujours le résultat d'une décision judiciaire, le greffier de la Cour supérieure du Québec a un rôle fondamental à jouer à l'occasion dans le processus judiciaire. À titre d'officier de justice, il a compétence pour prononcer le jugement d'ouverture du régime de protection. Par conséquent, le présent mémoire consiste à vérifier si les majeurs inaptes sont bien protégés par le rôle et les pouvoirs de l'officier de justice. Pour ce faire, le sujet à l'étude a fait l'objet d'une double approche. Dans un premier temps, le cadre juridique à l'intérieur duquel le greffier doit exécuter ses fonctions sera étudié. Dans un deuxième temps, les résultats et l'analyse d'une enquête empirique auprès des greffiers de la Cour supérieure du Québec seront exposés. Cette démarche permet une approche comparative entre la théorie et la pratique en la matière et permet de constater qu'il peut y avoir un écart entre les deux.
Resumo:
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.
Resumo:
Initiée par Wolfgang J. Mommsen (1930-2004), la réception dominante de la pensée politique de Max Weber (1864-1920) conclut qu’il aura été un penseur précurseur au fascisme allemand. Ce mémoire revient aux textes politiques de Weber, écrits entre 1895 et 1919, afin de dégager le sens qu’il voulait leur conférer, indépendamment du rôle historique qu’ils purent jouer après sa mort. Il s’agit donc de reconstituer la pensée politique wébérienne dans le contexte social qui l’a vu naître et de saisir l’origine politique de la sociologie wébérienne de l’action. Pour y parvenir, un détour par l’histoire s’impose. Ce n’est que par la mise en relation, proposée dès le chapitre I, entre les écrits politiques et la configuration historique particulière de l’Allemagne wilhelmienne qu’il est possible de concilier deux dimensions dont l’une ou l’autre est souvent écartée des études wébériennes : l’étude d’acteurs historiques précis (Max Weber et ses contemporains) et la pensée wébérienne à proprement parler (les écrits). Nous verrons que Weber craint le processus de bureaucratisation inhérent à la sphère politique moderne de peur qu’il n’en vienne à pétrifier l’existence humaine. Le chapitre II examine l’opposition de Weber à cette « possibilité objective » afin de préserver les conditions d’une liberté individuelle authentique. C’est par la figure du chef charismatique, initialement développée dans le cadre de ses travaux scientifiques et présentée au chapitre III, que Weber croit pouvoir prévenir les pires conséquences du processus de bureaucratisation. Il s’agira alors de produire un édifice institutionnel propice à l’émergence de tels hommes politiques. Le dernier chapitre (IV) du mémoire cherche à démontrer comment Weber tente d’instrumentaliser la césarisation, second processus constitutif de la sphère politique moderne, pour l’opposer à la bureaucratisation. Sous le régime monarchiste, c’est par un renforcement des pouvoirs parlementaires qu’il compte y parvenir, mais la proclamation de la République de Weimar l’oblige à adapter son projet constitutionnel ; il propose alors la démocratie plébiscitaire de chef (Führerdemokratie). Si la conception wébérienne de la démocratie surprend, notamment par l’importance qu’elle accorde au chef, il n’en demeure pas moins que Weber met de l’avant un système politique démocratique. Loin de l’abandon de son projet politique auquel certains critiques ont conclu, la Führerdemokratie se révèle plutôt – c’est la thèse de ce mémoire — le fruit de la fidélité de Weber à ses idéaux politiques, et ce malgré les importants changements sociaux qui marquent la fin de sa vie.
Resumo:
Le réveil de la question de l’Être fut le grand leitmotiv de la pensée de Martin Heidegger. Or cette question ne trouve pas la même formulation de Sein und Zeit jusqu’aux derniers écrits. En effet, si l’œuvre maîtresse du penseur prépare le terrain pour un questionnement sur le langage et la parole authentique, elle ne rattache pas explicitement la problématique de l’Être à celle de la poésie. À partir du milieu des années trente, un tournant se fera jour : la poésie deviendra un partenaire privilégié dans la mise en œuvre de la question de l’Être. Cette tendance de pensée se radicalisera dans les décennies ultérieures, où la compréhension du langage véritable comme poème deviendra de plus en plus centrale. À quoi tient ce rôle imparti au discours poétique dans l’œuvre de Heidegger? Quelle place occupe le dire poétique dans le cadre plus large d’une herméneutique philosophique tournée vers l’aspect langagier de toute existence? Comment comprendre le lien entre une pensée de l’Ereignis, du Quadriparti et de la fondation de l’Être à travers le dire du poète? Enfin, quels parallèles faut-il dresser entre les tâches respectives du penseur et du poète dans le contexte d’un dialogue authentique? Ces questions guideront notre parcours et traceront la voie d’une interprétation dont l’accent portera sur les thèmes privilégiés du dépassement du langage conceptuel de la philosophie, de la place déterminante du Sacré et de la responsabilité insigne du poète et du penseur dans le projet de la garde de l’Être. Notre objectif sera d’éclaircir le sens de ce recours à la poésie afin de mieux comprendre en quoi Heidegger a pu trouver dans un tel dialogue les ressources nécessaires qui alimenteront l’élan de son unique quête : une approche authentique du sens de l’Être, de son alètheia et de son topos. On sait l’importance de ce dialogue : estimant que la métaphysique s’était caractérisée par un « oubli de l’être » (Seinsvergessenheit), Heidegger juge qu’une autre pensée (das andere Denken) reste malgré tout possible, mais qu’elle aurait à se déployer en tant que dialogue entre pensée et poésie.
Resumo:
Ce mémoire propose d’étudier l’articulation entre l’identité ethnique (à l’adolescence) et l’ambition scolaire – ici définie comme l’ensemble des motivations, des moyens de persévérance et du niveau scolaire – notamment à travers les concepts d’assimilation et de la résistance culturelle (McAndrew 2008). Nous nous intéressons aux jeunes issus de l’immigration latino-américaine à Montréal. Il s’agit d’une analyse qualitative, plus précisément d’analyse de discours qui nous a permis de comprendre comment leurs expériences et leurs représentations des Latinos et des Québécois influencent leur identification ethnique ainsi que leurs perceptions et décisions en milieu scolaire. Les résultats de cette étude démontrent que l’identification ethnique, en corrélation avec le statut socio-économique et le genre, semble être liée à l’ambition scolaire. Malgré une certaine confirmation de la relation classique entre statut socio-économique et niveau de scolarité, les discours des participants ont permis de faire ressortir une particularité ethnique susceptible de contribuer à expliquer le choix de continuer aux études supérieures. Cet impact est plus important chez les jeunes femmes de notre échantillon; celles avec le niveau de scolarité le moins élevé, ont un statut socio-économique moindre et s’identifient davantage à la culture latino, en contraste avec celles les plus éduquées ayant aussi un statut socio-économique supérieur et qui s’identifiaient davantage à la culture québécoise.
Resumo:
Cette recherche dresse un portrait de la situation de la relève syndicale au Québec et des tentatives des organisations syndicales pour stimuler la participation de leurs membres de moins de 30 ans. Elle brosse d’abord un aperçu des habitudes sociales, des valeurs et des caractéristiques en emploi des jeunes. Elle nuance et recadre ensuite la problématique des jeunes en ce qui concerne l’identité collective qu’ils partagent instinctivement et les modalités de socialisation à l’interne façonnant leur participation. Cette recherche remet en question la fenêtre de recrutement estimée où les jeunes seraient en mesure d’entâmer leur participation dans les structures syndicales. Au demeurant, elle décrit l’ampleur des innovations syndicales destinées à stimuler la participation des jeunes et démystifie le mandat de l’une d’elle, les comités jeunes, qui peuvent agir à la fois comme porte-parole de leur organisation, comme la voix des jeunes membres et comme pépinière de la relève syndicale. Les données empiriques utilisées pour ce mémoire proviennent d’une vingtaine de groupes de discussion et de huit entretiens semi-dirigés (n=228), tenus dans deux organisations syndicales d’importance au Québec, disposant d’un comité jeunes et organisés par les chercheures d’un projet de recherche plus vaste sur la participation syndicale des jeunes. Nos résultats démontrent en premier lieu une identité collective construite autour de la précarité et des injustices perçues par les nouveaux travailleurs. L’âge ne serait pas significatif dans la construction de l’identité des jeunes qui semblent en phase de conquérir leur identité. En second lieu, le cadre strict de plusieurs modalités de socialisation avait un effet inhibiteur sur la participation, favorisait des relations d’échanges instrumentales et ne tenait pas compte de la sensibilité de cette nouvelle génération pour les interactions réciproques avec leurs représentants syndicaux. Nous avons aussi observé une utilisation limitée des nouvelles technologies, qui présentent des potentialités intéressantes en matière de transfert des connaissances de surcroît. Par ailleurs, nos résultats à l’égard de l’identité collective observée et de la durée du processus de socialisation soulèvent des questionnements sur la pertinence même des structures jeunes dans leurs paramètres actuels. Le parcours d’un jeune vers la militance syndicale apparaît plus tardif qu’escompté. Plus encore, la problématique jeunes met en lumière les tensions intrinsèques au mouvement syndical quant à la libre négociation sociale des intérêts défendus et du consensus interne nécessaire à leur légitimité.
Resumo:
La majorité des études qui ont examiné les effets respiratoires d’une exposition de courte durée à la pollution de l’air ont été réalisées en milieu urbain. En milieu pollué par des sources industrielles, la nature de l’exposition diffère de celle en milieu urbain. Le premier objectif de ce mémoire visait une recension des études traitant de l’association entre les effets respiratoires chez l’enfant et l’exposition aux émissions de polluants industriels. La majorité des études suggèrent que l’exposition aux émissions de polluants émis par des industries est associée à un accroissement des problèmes respiratoires. Dans ces études, l’effet de l’exposition de courte durée a rarement été étudié. L’autre objectif du mémoire était d’évaluer l’association entre une exposition journalière aux émissions de pollution atmosphérique d’un complexe industriel (deux fonderies et une usine de raffinage de l’alumine) du Saguenay, Québec, et les hospitalisations pour problèmes respiratoires des enfants de 0 à 4 ans vivant près de celles-ci (<7.5 km), à l’aide d’une étude épidémiologique de type cas-croisé. Le pourcentage d’heures où le domicile de l’enfant était sous les vents provenant de la direction du complexe industriel et les maxima et moyennes journalières des concentrations de dioxyde de soufre (SO2) et de particules fines (PM2.5) ont été recueillis du 1er janvier 2001 au 31 décembre 2010 afin d’estimer l’exposition. Des régressions logistiques conditionnelles ont été employées pour estimer les rapports de cotes (OR) et les intervalles de confiance à 95%. Les hospitalisations pour asthme et bronchiolite chez les jeunes enfants étaient associées à l’augmentation de l’exposition journalière aux émissions, estimée par le pourcentage d’heures sous les vents. Les résultats de ce mémoire suggèrent que l’exposition aux émissions industrielles de polluants de l’air est associée à des effets respiratoires chez les enfants.
Resumo:
Fondé sur les équivalences entre le code de la déclamation théâtrale et celui de la lecture touchante théorisés en 1707 par Jean-Léonor Le Gallois de Grimarest dans son Traité du récitatif, ainsi que sur les considérations de plusieurs traités de rhétorique et d’art dramatique du XVIIe siècle, cet article cherche à définir quelques éléments clés de la poétique vocale de la nouvelle française de la seconde moitié du XVIIe siècle. À travers l’analyse comparée des nouvelles Floridon (1657) de Segrais et Philadelphe (1687) de Girault de Sainville et de la tragédie Bajazet (1672) de Racine, il met en évidence l’importance et la forte charge pathétique du dialogue et des figures de rhétorique, deux procédés vocaux fondateurs communs aux deux genres, replaçant ainsi la voix au cœur des pratiques d’écriture aussi bien que de lecture de la nouvelle de l’âge classique.