947 resultados para Aloysius Bertrand
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.
Resumo:
Les prothèses myoélectriques modernes peuvent être dotées de plusieurs degrés de liberté ce qui nécessite plusieurs signaux musculaires pour en exploiter pleinement les capacités. Pour obtenir plus de signaux, il nous a semblé prometteur d'expérimenter si les 6 compartiments du biceps brachial pouvaient être mis sous tension de façon volontaire et obtenir ainsi 6 signaux de contrôle au lieu d'un seul comme actuellement. Des expériences ont donc été réalisées avec 10 sujets normaux. Des matrices d'électrodes ont été placées en surface au-dessus du chef court et long du biceps pour recueillir les signaux électromyographiques (EMG) générés par le muscle lors de contractions effectuées alors que les sujets étaient soit assis, le coude droit fléchi ~ 100 ° ou debout avec le bras droit tendu à l'horizontale dans le plan coronal (sur le côté). Dans ces deux positions, la main était soit en supination, soit en position neutre, soit en pronation. L'amplitude des signaux captés au-dessus du chef court du muscle a été comparée à ceux obtenus à partir du chef long. Pour visualiser la forme du biceps sous les électrodes l'imagerie ultrasonore a été utilisée. En fonction de la tâche à accomplir, l'activité EMG a était plus importante soit dans un chef ou dans l'autre. Le fait de pouvoir activer préférentiellement l'un des 2 chefs du biceps, même si ce n'est pas encore de façon complètement indépendante, suggère que l'utilisation sélective des compartiments pourrait être une avenue possible pour faciliter le contrôle des prothèses myoélectriques du membre supérieur.
Resumo:
La reconnaissance d’objets est une tâche complexe au cours de laquelle le cerveau doit assembler de manière cohérente tous les éléments d’un objet accessible à l’œil afin de le reconnaître. La construction d’une représentation corticale de l’objet se fait selon un processus appelé « bottom-up », impliquant notamment les régions occipitales et temporales. Un mécanisme « top-down » au niveau des régions pariétales et frontales, facilite la reconnaissance en suggérant des identités potentielles de l’objet à reconnaître. Cependant, le mode de fonctionnement de ces mécanismes est peu connu. Plusieurs études ont démontré une activité gamma induite au moment de la perception cohérente de stimuli, lui conférant ainsi un rôle important dans la reconnaissance d’objets. Cependant, ces études ont utilisé des techniques d’enregistrement peu précises ainsi que des stimuli répétitifs. La première étude de cette thèse vise à décrire la dynamique spatio-temporelle de l’activité gamma induite à l’aide de l’électroencéphalographie intracrânienne, une technique qui possède des résolutions spatiales et temporelles des plus précises. Une tâche d’images fragmentées a été conçue dans le but de décrire l’activité gamma induite selon différents niveaux de reconnaissance, tout en évitant la répétition de stimuli déjà reconnus. Afin de mieux circonscrire les mécanismes « top-down », la tâche a été répétée après un délai de 24 heures. Les résultats démontrent une puissante activité gamma induite au moment de la reconnaissance dans les régions « bottom-up ». Quant aux mécanismes « top-down », l’activité était plus importante aux régions occipitopariétales. Après 24 heures, l’activité était davantage puissante aux régions frontales, suggérant une adaptation des procédés « top-down » selon les demandes de la tâche. Très peu d’études se sont intéressées au rythme alpha dans la reconnaissance d’objets, malgré qu’il soit bien reconnu pour son rôle dans l’attention, la mémoire et la communication des régions neuronales distantes. La seconde étude de cette thèse vise donc à décrire plus précisément l’implication du rythme alpha dans la reconnaissance d’objets en utilisant les techniques et tâches identiques à la première étude. Les analyses révèlent une puissante activité alpha se propageant des régions postérieures aux régions antérieures, non spécifique à la reconnaissance. Une synchronisation de la phase de l’alpha était, quant à elle, observable qu’au moment de la reconnaissance. Après 24 heures, un patron similaire était observable, mais l’amplitude de l’activité augmentait au niveau frontal et les synchronies de la phase étaient davantage distribuées. Le rythme alpha semble donc refléter des processus attentionnels et communicationnels dans la reconnaissance d’objets. En conclusion, cette thèse a permis de décrire avec précision la dynamique spatio-temporelle de l’activité gamma induite et du rythme alpha ainsi que d’en apprendre davantage sur les rôles potentiels que ces deux rythmes occupent dans la reconnaissance d’objets.
Resumo:
Travail réalisé à l'EBSI, Université de Montréal, sous la direction de M. Yvon Lemay dans le cadre du cours SCI6111 - Politique de gestion des archives, à l'automne 2012.
Resumo:
Bertrand du Marais, Conseiller d'État en France et professeur associé Université de Paris X (Nanterre), a présenté dans le cadre du panel Vérification environnementale et rapport, une conférence intitulée « Agence de notation extra-financière et financière : essai de comparaison et prospective ».
Resumo:
La protection des renseignements personnels est au cœur des préoccupations de tous les acteurs du Web, commerçants ou internautes. Si pour les uns trop de règles en la matière pourraient freiner le développement du commerce électronique, pour les autres un encadrement des pratiques est essentiel à la protection de leur vie privée. Même si les motivations de chacun sont divergentes, le règlement de cette question apparaît comme une étape essentielle dans le développement du réseau. Le Platform for Privacy Preference (P3P) propose de contribuer à ce règlement par un protocole technique permettant la négociation automatique, entre l’ordinateur de l’internaute et celui du site qu’il visite, d’une entente qui encadrera les échanges de renseignements. Son application pose de nombreuses questions, dont celle de sa capacité à apporter une solution acceptable à tous et surtout, celle du respect des lois existantes. La longue et difficile élaboration du protocole, ses dilutions successives et sa mise en vigueur partielle témoignent de la difficulté de la tâche à accomplir et des résistances qu’il rencontre. La première phase du projet se limite ainsi à l’encodage des politiques de vie privée des sites et à leur traduction en termes accessibles par les systèmes des usagers. Dans une deuxième phase, P3P devrait prendre en charge la négociation et la conclusion d’ententes devant lier juridiquement les parties. Cette tâche s’avère plus ardue, tant sous l’angle juridique que sous celui de son adaptation aux us et coutumes du Web. La consolidation des fonctions mises en place dans la première version apparaît fournir une solution moins risquée et plus profitable en écartant la possible conclusion d’ententes incertaines fondées sur une technique encore imparfaite. Mieux éclairer le consentement des internautes à la transmission de leurs données personnelles par la normalisation des politiques de vie privée pourrait être en effet une solution plus simple et efficace à court terme.
Resumo:
L’objet de cette intervention présentée pour partie en novembre 2001 au colloque « Droit de l’Internet : approches européennes et internationales » est d’étudier quel est le mode de régulation, sinon le plus efficace, du moins le plus justifié, dans le « cybermonde ». On y décrit le contexte général de la problématique de la régulation de l’Internet dans le but d’évaluer l’adéquation des modes institutionnels utilisés. On rappelle ensuite quelles sont les instances qui, d’ores et déjà, sont chargées de tout ou de partie de la « gestion » du réseau, et qui, en pratique, assurent une fonction de régulation. Suivent des propositions relatives à l’organisation, dans ce contexte, des pouvoirs publics français.
Un état des lieux des archives audiovisuelles : comparaison entre la France, le Québec et le Canada.
Resumo:
Travail de recherche réalisé à l'EBSI, Université de Montréal, sous la direction de M. Yvon Lemay dans le cadre du cours SCI6850 - Recherche individuelle, à l'automne 2012 et hiver 2013.
Resumo:
Résumé Cette thèse de doctorat porte sur le cinéma envisagé comme un agent de réappropriation culturelle pour les Premières Nations du Québec et les Inuit du Nunavut. De manière plus spécifique, nous avons cherché à comprendre comment les peuples autochtones et inuit se servent d’un médium contemporain pour prendre la parole, revendiquer leurs droits politiques et réécrire une histoire ayant été jusqu’à récemment racontée selon le point du vue de médiateurs externes. À cet effet, l’emprunt d’éléments propres aux méthodologies autochtones, autant dans la forme que dans le contenu, auront permis de faire ressortir un aspect particulier des cultures autochtones, soit la manifestation d’une pensée orale centrée autour de la notion du sacré. La première partie de cette recherche est ainsi consacrée à la théorisation d’un sacré autochtone omniprésent dans toutes les sphères de leur quotidien, et qui se transpose à l’écran sous la forme d’une esthétique particulière, que nous nommons esthétique du sacré. En outre, le visionnement et l’analyse de courts et de long-métrages autochtones et inuit ont fait ressortir avec force les principaux éléments d’une esthétique du sacré qui s’exprime entre autres à travers une éthique de travail privilégiant la collaboration communautaire et une écoute attentive de la parole de l’interlocuteur, ainsi qu’à travers la remédiation des récits issus de la tradition orale. Ainsi, l’exploration de l’œuvre documentaire d’Alanis Obomsawin met de l’avant l’importance du rôle joué par les femmes autochtones au sein de leurs communautés, celles-ci se présentant comme les principaux agents de changement et médiatrices de leur culture. Dans la même veine, l’étude du projet Wapikoni Mobile nous a permis d’esquisser un portrait nouveau de la jeunesse autochtone, les œuvres réalisées par ces cinéastes néophytes reflétant l’importance pour eux de réactualiser la tradition tout en nourrissant des liens de confiance avec leurs aînés, ces gardiens de la mémoire. Enfin, le dernier chapitre portant sur l’élaboration d’une nouvelle cinématographie inuit démontre comment le cinéma est un outil apte à traduire avec justesse les subtilités présentes dans les récits issus de la tradition orale.
Resumo:
Les personnes ayant un trouble du spectre autistique (TSA) manifestent des particularités perceptives. En vision, des travaux influents chez les adultes ont mené à l’élaboration d’un modèle explicatif du fonctionnement perceptif autistique qui suggère que l’efficacité du traitement visuel varie en fonction de la complexité des réseaux neuronaux impliqués (Hypothèse spécifique à la complexité). Ainsi, lorsque plusieurs aires corticales sont recrutées pour traiter un stimulus complexe (e.g., modulations de texture; attributs de deuxième ordre), les adultes autistes démontrent une sensibilité diminuée. À l’inverse, lorsque le traitement repose principalement sur le cortex visuel primaire V1 (e.g., modulations locales de luminance; attributs de premier ordre), leur sensibilité est augmentée (matériel statique) ou intacte (matériel dynamique). Cette dissociation de performance est spécifique aux TSA et peut s’expliquer, entre autre, par une connectivité atypique au sein de leur cortex visuel. Les mécanismes neuronaux précis demeurent néanmoins méconnus. De plus, on ignore si cette signature perceptuelle est présente à l’enfance, information cruciale pour les théories perceptives de l’autisme. Le premier volet de cette thèse cherche à vérifier, à l’aide de la psychophysique et l’électrophysiologie, si la double dissociation de performance entre les attributs statiques de premier et deuxième ordre se retrouve également chez les enfants autistes d’âge scolaire. Le second volet vise à évaluer chez les enfants autistes l’intégrité des connexions visuelles descendantes impliquées dans le traitement des textures. À cet effet, une composante électrophysiologique reflétant principalement des processus de rétroaction corticale a été obtenue lors d’une tâche de ségrégation des textures. Les résultats comportementaux obtenus à l’étude 1 révèlent des seuils sensoriels similaires entre les enfants typiques et autistes à l’égard des stimuli définis par des variations de luminance et de texture. Quant aux données électrophysiologiques, il n’y a pas de différence de groupe en ce qui concerne le traitement cérébral associé aux stimuli définis par des variations de luminance. Cependant, contrairement aux enfants typiques, les enfants autistes ne démontrent pas une augmentation systématique d’activité cérébrale en réponse aux stimuli définis par des variations de texture pendant les fenêtres temporelles préférentiellement associées au traitement de deuxième ordre. Ces différences d’activation émergent après 200 ms et engagent les aires visuelles extrastriées des régions occipito-temporales et pariétales. Concernant la connectivité cérébrale, l’étude 2 indique que les connexions visuelles descendantes sont fortement asymétriques chez les enfants autistes, en défaveur de la région occipito-temporale droite. Ceci diffère des enfants typiques pour qui le signal électrophysiologique reflétant l’intégration visuo-corticale est similaire entre l’hémisphère gauche et droit du cerveau. En somme, en accord avec l’hypothèse spécifique à la complexité, la représentation corticale du traitement de deuxième ordre (texture) est atypiquement diminuée chez les enfants autistes, et un des mécanismes cérébraux impliqués est une altération des processus de rétroaction visuelle entre les aires visuelles de haut et bas niveau. En revanche, contrairement aux résultats obtenus chez les adultes, il n’y a aucun indice qui laisse suggérer la présence de mécanismes supérieurs pour le traitement de premier ordre (luminance) chez les enfants autistes.
Resumo:
Introduction: L’arthrose est une maladie fréquente chez le chien. Même si des traitements palliatifs ont prouvé leur efficacité pour soulager les signes cliniques associés, aucun n’a permis de restaurer la structure des cartilages ou la fonction des patients. De nouvelles modalités de traitement sont proposées mais très peu d’évidences existent quant à leur efficacité. Un problème récurrent pour apporter plus d’évidence est le manque d’outils d’évaluation dûment validés. Objectif: Evaluer l’efficacité d’une diète contenant de la moule verte, ainsi que la validité de différentes méthodes pour évaluer les effets de ce traitement sur la condition arthrosique de chiens de propriétaire. Méthodes: Une étude prospective croisée contrôlée en aveugle a été conduite sur 30 chiens de propriétaires. Leur condition était stable et non traitée. Ils ont reçu une diète contrôle pendant 30 jours puis la diète thérapeutique pendant 60 jours. A J0 (inclusion), J30 (fin de la période contrôle) et J90 (fin du traitement), les concentrations plasmatiques en acides gras ω–3 (EPA et DHA), le pic de force verticale (PVF – critère de référence), un questionnaire multifactoriel standardisé (MFQ), et la conductance électrodermique (EDA) ont été mesurés. Deux fois par semaine, les propriétaires remplissaient un questionnaire sur la fonction spécifique à leur animal (CODI). L’activité locomotrice (actimétrie) a été enregistrée en continu sur 7 chiens. Résultats: Aucun effet secondaire n’a été documenté excepté une augmentation du poids des chiens durant la période traitement. La localisation -thoracique ou pelvienne- du membre étudié et le poids ont interagi avec PVF. Les taux d’EPA et DHA ont augmenté durant la période traitement (p=0.026 et p<0.001, respectivement), tout comme PVF corrigé pour l’effet du poids et de la localisation du membre (p=0.003). La validité technique de PVF a été vérifiée. La validité technique et selon-critère du CODI ont été vérifiées. MFQ n’a pas montré d’homogénéité suffisante entre ses différents composants, bien que les résultats du composite convergent partiellement avec PVF. L’EDA n’a pas montré de validité technique suffisante. L’actimétrie a montré une validité technique satisfaisante ainsi que des résultats convergeant avec ceux de PVF. Conclusions: La méthode choisie comme référence a montré un effet bénéfique de la diète testée et sa validité technique a été vérifiée. À la fois, CODI et l’actimétrie ont été validés. La validité d’EDA et de MFQ a été remise en question. L’actimétrie a donné des résultats prometteurs, probablement complémentaires de PVF.
Resumo:
Nous soutenons dans ce mémoire qu'il existe, en français québécois, deux sous-types de constructions exclamatives. Située dans un cadre théorique qui participe à la fois de la philosophie du langage (la théorie des actes de langage, Austin, 1962; Searle 1969, Searle, 1979; Searle et Vanderveken 1985) et de la linguistique (la théorie des types de phrase, Sadock et Zwicky, 1985; Reis, 1999), notre analyse porte sur un ensemble de constructions exclamatives en apparence synonymes qui impliquent respectivement les morphèmes -tu, donc et assez (1). (1) Elle est-tu/donc/assez belle! Nous démontrons que si ces exclamatives satisfont aux critères d'identification des constructions exclamatives donnés par Zanuttini et Portner (2003) (factivité, évaluativité/implicature scalaire, expressivité/orientation vers le locuteur et incompatibilité avec les paires de question/réponse), les actes de langage exclamatifs servis par les exclamatives en -tu/donc n'ont pas les mêmes conditions de félicité que les actes de langage exclamatifs servis par les exclamatives en assez. En effet, les exclamatives en -tu/donc imposent une contrainte sur leur contexte d'énonciation par rapport à la position épistémique de l'interlocuteur, lequel doit être en mesure de corroborer le jugement exprimé par le locuteur au moyen de l'exclamative. Les exclamatives en assez n'imposent pas de telle contrainte. Nous démontrons que cette distinction pragmatique peut être corrélée avec des distinctions sémantiques et syntaxiques et concluons qu'il existe bien deux sous-types de constructions exclamatives en français québécois. En ce sens, notre recherche ouvre de nouvelles perspectives empiriques et théoriques pour la description et l'analyse de la grammaire des actes de langage exclamatifs.
Resumo:
Ce cahier de recherche fait état des travaux menés au cours de la première étape (2013-2014) du projet « Archives et création : nouvelles perspectives sur l’archivistique ». Il comprend les textes suivants : Yvon Lemay et Anne Klein, « Introduction », p. 4-6; Yvon Lemay, « Archives et création : nouvelles perspectives sur l’archivistique », p. 7-19; Anne-Marie Lacombe, « Exploitation des archives à des fins de création : un aperçu de la littérature », p. 20-59; Simon Côté-Lapointe, « Archives sonores et création : une pratique à la croisée des chemins », p. 60-83; Hélène Brousseau, « Fibres, archives et société », p. 84-104; Annie Lecompte-Chauvin, « Comment les archives entrent dans nos vies par le biais de la littérature », p. 105-120; Aude Bertrand, « Valeurs, usages et usagers des archives », p. 121-150; Laure Guitard, « Indexation, émotions, archives », p. 151-168; Anne Klein, Denis Lessard et Anne-Marie Lacombe, « Archives et mise en archives dans le champ culturel. Synthèse du colloque « Archives et création, regards croisés : tournant archivistique, courant artistique », p. 169-178. De plus, dans le but de situer le projet dans un contexte plus large, le cahier inclut une bibliographie des travaux effectués sur les archives et la création depuis 2007, p. 179-182.
Resumo:
Les hétérojonctions formées de deux matériaux, un donneur et un accepteur (D/A), sont la base de la majorité des mélanges photovoltaïques organiques. Les mécanismes de séparation des charges dans ces systèmes représentent aujourd'hui l'un des sujets les plus chauds et les plus débattus dans ce domaine. Nous entrons au coeur de ce débat en choisissant un système D/A à base de phtalocyanine de cuivre (CuPc) et de fullerène (C60). Pour sonder les états excités de nos molécules et obtenir de l'information sur les phénomènes à l'interface D/A, nous réalisons une expérience pompe-sonde, appelée absorption photoinduite (PIA). Nous y mesurons le changement fractionnaire de transmission au travers de l'échantillon. Les mesures de PIA sont réalisées à l'état de quasi équilibre, à T=10K. Nous observons une modulation prononcée dans la région du photoblanchiment de l'état fondamental qui nous indique que la pompe induit un décalage du spectre d'absorption de l'état fondamental. Ce décalage peut être expliqué par deux processus : soit l'échantillon est chauffé par la pompe (effet thermique) ou bien des charges sont créées à l'interface entre les deux matériaux (effet Stark). La dépendance en température du spectre d'absorption entre 10K et 290K montre une signature thermique pour un changement de température de 80K. Grâce au ratio des raies Raman anti-Stokes et Stokes, nous démontrons que la pompe chauffe l'échantillon de 34 K, température insuffisante pour attribuer notre signal à un effet thermique. Nous évaporons ensuite la bicouche CuPc/C60 sur de l'ITO et du saphir, substrats qui possèdent des conductivités thermiques différentes et nous observons le même signal de PIA, excluant par le fait même l'hypothèse de l'effet thermique. Puisque notre étude est comparable à la spectroscopie à effet Stark, nous procédons à une analyse similaire en comparant notre signal de PIA au spectre de la transmittance et à ses dérivés première et seconde. Nous observons alors que notre signal reproduit presque parfaitement la dérivée seconde de la transmittance. Ces résultats sont conformes à une signature optique d'effet Stark due à la création de charges à l'interface D/A.
Resumo:
Plusieurs études ont démontré l’impact de divers facteurs sur l’espérance de vie, dont les caractéristiques liées à l’environnement dans l’enfance et à l’âge adulte. L’objectif principal de ce mémoire est de déterminer si l’exposition à une épidémie durant la période fœtale ou pendant la première année de vie a un impact sur la survie après 40 ans pour les Québécois nés entre 1885 et 1901. Durant cette période, nous avons relevé des épidémies de variole et de scarlatine, ainsi qu’une pandémie de grippe, la grippe russe. L’influence d’autres facteurs sur l’âge au décès est également étudiée, celle du sexe, de l’année et de la saison de naissance, du lieu de résidence à la naissance (urbain ou rural) et des régions d’habitation dans l’enfance et à l’âge adulte. Les données sur les Canadiens français nés au Québec à la fin du XIXe siècle, soit l’échantillon de 5% des ménages du recensement canadien de 1901 (Sager 2001) recueilli par le Canadian Families Project, jumelées aux dates de décès à partir de l’index des décès de 1926 à 1996 de l’Institut de la statistique du Québec (ISQ) et de la Société de généalogie du Québec (Pilon-Marien et al. 2009; Gagnon et Bohnert 2012) ont été analysées. Plus spécifiquement, nous avons effectué une analyse descriptive de la population étudiée, puis une analyse multivariée à l’aide de modèles de Cox et de modèles de Gompertz. Il en résulte qu’une exposition à une épidémie avant l’âge d’un an augmente significativement le risque de décéder après l’âge de 40 ans. L’exposition pendant la période fœtale a également un effet négatif sur la longévité, toutefois cet effet n’est pas significatif dans les modèles fournissant le meilleur ajustement aux données. Enfin, une naissance pendant une épidémie, donc une exposition in utero et durant la première année de vie n’a pas d’impact négatif significatif sur l’âge au décès pour ceux qui survivent jusqu’à 40 ans.