932 resultados para FREQUENCY DISCRIMINATION
Resumo:
Human telomeres play a major role in stabilizing chromosome ends and preventing fusions. Chromosomes bearing a broken end are rescued by the acquisition of a new telomeric cap without any subtelomeric sequences being present at the breakpoint, a process referred to as chromosome healing. Conversely, a loss of telomeric function or integrity can lead to the presence of interstitial telomeres at the junction site in translocations or ring chromosomes. In order to determine the frequency at which interstitial telomeres or chromosome healing events are observed in target chromosome abnormalities, we conducted a retrospective FISH study using pan-telomeric and chromosome-specific subtelomeric probes on archival material from 40 cases of terminal deletions, translocations or ring chromosomes. Of the 19 terminal deletions investigated, 17 were negative for the subtelomeric probe specific to the deleted arm despite being positive for the pan-telomeric probe. These 17 cases were thus considered as been rescued through chromosome healing, suggesting that this process is frequent in terminal deletions. In addition, as two of these cases were inherited from a parent bearing the same deletion, chromosomes healed by this process are thus stable through mitosis and meiosis. Regarding the 13 cases of translocations and eight ring chromosomes, four and two cases respectively demonstrated pan-telomeric sequences at the interstitial junction point. Furthermore, two cases of translocations and one ring chromosome had both interstitial pan-telomeres and subtelomeres, whereas two other cases of ring chromosomes and one case of translocation only showed interstitial subtelomeres. Therefore, interstitial (sub)telomeric sequences in translocations and ring chromosomes are more common than previously thought, as we found a frequency of 43% in this study. Moreover, our results illustrate the necessity of performing FISH with both subtelomeric and pan-telomeric probes when investigating these rearrangements, as the breakpoints can be either in the distal part of the pan-telomeres, or in between the two types of sequences.
Resumo:
On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
La matière sombre est un mystère dans le domaine de l’astrophysique depuis déjà plusieurs années. De nombreuses observations montrent que jusqu’à 85 % de la masse gravitationnelle totale de l’univers serait composée de cette matière de nature inconnue. Une théorie expliquant cette masse manquante considérerait les WIMPs (Weakly Interacting Massive Particles), particules stables, non chargées, prédites par des extensions du modèle standard, comme candidats. Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques à la matière Sombre) est une expérience qui tente de détecter directement le WIMP. Le projet utilise des détecteurs à gouttelettes de fréon (C4F10) surchauffées. La collision entre un WIMP et le noyau de fluor crée un recul nucléaire qui cause à son tour une transition de phase de la gouttelette liquide à une bulle gazeuse. Le bruit de ce phénomène est alors capté par des senseurs piézoélectriques montés sur les parois des détecteurs. Le WIMP n’est cependant pas la seule particule pouvant causer une telle transition de phase. D’autres particules environnantes peuvent former des bulles, telles les particules alpha où même des rayons gamma . Le système d’acquisition de données (DAQ) est aussi en proie à du bruit électronique qui peut être enregistré, ainsi que sensible à du bruit acoustique extérieur au détecteur. Finalement, des fractures dans le polymère qui tient les gouttelettes en place peut également causer des transitions de phase spontanées. Il faut donc minimiser l’impact de tous ces différents bruit de fond. La pureté du matériel utilisé dans la fabrication des détecteurs devient alors très importante. On fait aussi appel à des méthodes qui impliquent l’utilisation de variables de discrimination développées dans le but d’améliorer les limites d’exclusion de détection du WIMP.
Resumo:
Ce mémoire est une analyse socio-juridique de la discrimination en milieu de travail et de son impact sur le devoir juridique de représentation syndicale, ou plus précisément, sur la responsabilité syndicale en contexte de diversité. Partant d’une première approche sociométrique du phénomène, suivie d’une deuxième davantage socio-juridique, le constat est à l’effet que la discrimination en milieu de travail a des répercussions jusque dans les milieux syndiqués,où les flux d’immigration semblent, à plusieurs égards, bousculer l’ordre établi. La revue de littérature permet de dégager deux grands axes de recherche : un premier concernant les forums : dans l’état actuel du droit, ce sont les Tribunaux des droits de la personne qui élaborent les normes applicables au devoir juridique de représentation syndicale dans les cas allégués de discrimination au travail, les Commissions des relations de travail s’adaptant mais lentement, sinon avec réticence, à la nouvelle donne ; le deuxième concernant spécifiquement la partie syndicale : cette dernière pondère l’effet des normes applicables en matière de discrimination au travail tant en fonction de ses propres intérêts stratégiques, que de l’attente des membres, que des préjugés et stéréotypes présents dans le milieu de travail. L’analyse globale porte sur 689 décisions en provenance de quatre Commissions des relations de travail — Québec, Fédéral, Ontario et Colombie-Britannique — et ainsi que des quatre Tribunaux des droits de la personne correspondants, sur une période de dix ans, allant du 1er janvier 2000 au 31 décembre 2009. Quant aux forums, la conclusion est à l’effet qu’au cours de la période étudiée, aucune institution n’a de préséance sur l’autre en ce qui a trait aux motifs illicites de discrimination. Les deux se complétent sans presque se chevaucher, et chacune à leur manière, contribuent fortement à faire progresser les droits de la personne. Par contre, les Commissions des relations de travail ont préséance quant au harcèlement, tandis que les Tribunaux des droits de la personne sont prépondérants face aux mesures d’accommodement. Quant à la partie syndicale, si elle a toujours agi, pour des raisons historiques, en fonction de ses intérêts stratégiques, de l’attente des membres, et des préjugés et stéréotypes présents sur les lieux de travail. Mais, ce qui change au fil du temps, c’est tout ce qui entoure le devoir juridique de représentation syndicale, c’est-à-dire tout le climat général d’application, ainsi que tout le contexte d’analyse et d’évaluation des situations. Quel est donc l’impact de la discrimination en milieu de travail sur le devoir juridique de représentation syndicale ? Dans la mesure où le contexte d’analyse et d’évaluation des situations est la lecture que font les agents, du climat général d’application, et des changements qu’ils y apportent en fonction de leurs propres intérêts stratégiques, du point de vue syndical, cet impact est triple : d’abord, devant chaque cas d’espèce, (1) l’acteur syndical doit désormais jongler avec beaucoup plus de facteurs qu’auparavant ; deuxièmement, (2) envers les salariés de l’unité de négociation, la marge de manoeuvre est beaucoup plus restreinte en contexte de lutte contre la discrimination ; enfin, et c’est le point le plus important, (3) l’économie générale des droits de la personne a pour effet d’introduire une hiérarchie dans les normes applicables, ce qui oblige l’acteur syndical à s’adapter, de façon constante, à un climat général d’application sans cesse changeant, auquel tous les agents contribuent, y compris lui-même.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
En 1985, la Charte des droits et libertés de la personne (L.R.Q., ch. C-12) du Québec était amendée afin d’inclure une nouvelle section consacrée aux programmes d’accès à l’égalité (PAE). Cet ajout résulte du constat d’une situation d’inégalité sur le marché du travail québécois pour les membres de certains groupes, en raison de motifs illicites de discrimination. Concrètement, on observe une certaine ségrégation professionnelle, de faibles revenus moyens et des conditions précaires d’emploi. L’objectif des PAE est de redresser la situation de groupes victimes de discrimination; pour réaliser cet objectif, ils autorisent la mise en œuvre de mesures spécifiques à l’intention de ces derniers. Plusieurs types de PAE ont été mis en place par les gouvernements québécois successifs afin d’élargir leur champ d’application. Parmi ces différents types de PAE, cette étude se concentre sur ceux associés à l’obligation contractuelle qui obligent toutes les organisations qui emploient 100 employés ou plus et qui obtiennent un contrat ou une subvention du gouvernement du Québec d’une valeur de 100 000 $ et plus, à développer et à mettre en œuvre un PAE. Il s’agit de la principale forme de PAE touchant les organisations privées. Quatre groupes cibles sont identifiés dans ces PAE : les femmes, les membres des minorités visibles, les Autochtones et les personnes handicapées. Parmi ceux-ci, compte tenu de la croissance importante de ce groupe et des situations souvent aiguës de discrimination qu’ils vivent sur le marché du travail québécois, l’attention sera portée sur le groupe des minorités visibles. Très peu de recherches ont été réalisées sur ces PAE en raison d’une obligation de confidentialité de résultats complète. Les rares études effectuées jusqu’à présent ont constaté des progrès très inégaux entre les employeurs : alors qu’un petit nombre d’organisations semblaient progresser rapidement dans l’atteinte de leurs objectifs, la vaste majorité stagnait ou encore progressait très lentement. Ce constat menait à s’interroger sur les facteurs, autres que le cadre juridique, qui peuvent expliquer le niveau de conformité aux objectifs. En se basant sur une analyse de contenu d’entrevues semi-dirigées menées auprès de gestionnaires responsables des PAE dans 31 organisations privées de la région de Montréal, plusieurs facteurs des environnements externes et internes des organisations, ont été identifiés pour expliquer les niveaux de conformité aux objectifs qualitatifs. Parmi les facteurs positivement reliés, on remarque l’engagement des membres de la haute direction en faveur des PAE, la mise en place d’un système d’imputabilité et la perception de certains bénéfices liés à la diversification des effectifs. Au contraire, la confusion entre l’égalité et l’équité, le fait de privilégier les mouvements internes de personnel et les biais des gestionnaires de première ligne semblent être négativement reliés à l’atteinte des objectifs qualitatifs. Ces résultats démontrent l’importance que prennent les facteurs liés à l’environnement interne, surtout lorsque le cadre juridique est peu contraignant et que les gestionnaires croient que les probabilités de sanctions sont faibles. En se basant sur ces résultats, une série de recommandations est proposée, afin d’améliorer les PAE, mais aussi afin d’améliorer la compréhension des gestionnaires des ressources humaines sur ce qu’est la discrimination en emploi et les moyens les plus appropriés pour la combattre.
Resumo:
La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.
Resumo:
"L'intersection entre la sécurité de l'État et corollairement celle de ses ressortissants d’un côté, et la protection des droits des personnes qui se trouvent sur son territoire de l’autre, génère une situation antagonique : les prérogatives régaliennes et wébériennes d'utilisation de la force au nom de la sécurité nationale entrent en collision avec le respect des dispositions juridiques, telles que prescrites dans de nombreux instruments du droit international. Terre d’immigration, les États-Unis sont le reflet de ce paradoxe qui existe entre une vision qui place l’individu et ses libertés au centre de ses préoccupations, versus une conceptualisation étato-centrique de la sécurité. Mais le renvoi de l’immigration dans le registre sécuritaire ne relève pas forcément d’une réalité objective. L’analyse critique des manifestations d’(in)sécurité considère en effet ce concept comme n’étant plus exclusivement stato-centrée, élargissement conceptuel auquel s'associe une autre mutation conceptuelle : la securitization, qui postule que la menace n'est pas uniquement objective mais également subjective. Considérant cette ""évolution"" théorique, l’auteur analyse dans cet article l’immigration aux États-Unis au travers d’un processus de périodisation des mythes fondateurs aux mesures prises dans la foulée du 11 septembre 2001- pour démontrer que la gestion des flux migratoires en direction des États-Unis a toujours été considérée comme une question de sécurité nationale. Retenant à titre illustratif trois groupes de personnes, les Périls Jaune, puis Rouge et aujourd’hui Vert, vont permettre d’illustrer que les mesures restrictives règlementant l’immigration prisent au nom de la sacro-sainte sécurité nationale- constituent de facto, si ce n’est de jure, des atteintes au principe de non-discrimination. Mais tout en soulignant la pérennité du lien qui est effectué entre immigration et sécurité nationale, l’instrumentalisation de ce lien contribue à un renforcement des pratiques régulatrices et à la criminalisation accrue des mouvements transfrontaliers, qui risquent bien d’être contreproductifs par rapport à l’objectif de sécurité recherché !"
Resumo:
"De plus en plus, la recherche en génétique s'attarde à identifier les mutations de gènes qui prédisposent les porteurs de ces mutations à des maladies complexes. La recherche tente également d'établir un lien entre le développement de la maladie pour certains porteurs en fonction de leur contexte socio-économique et de leur interaction avec l'environnement. Compte tenu de ces nombreux facteurs d'analyse, l'interprétation des caractéristiques génétiques d'un individu et du risque qui en découle s'avère particulièrement complexe. Or, cette complexité croissante se produit alors même que l'accès aux données génétiques se banalise et qu'il est maintenant possible pour quiconque d'obtenir une analyse personnalisée de son génome via l'internet. La discrimination génétique n'est pas définie en droit canadien ; il est généralement acquis que, dans le contexte de l'assurance-vie, celle-ci est susceptible d'avoir des conséquences désastreuses. Cependant, nous ne croyons pas que l'information d'ordre génétique doive être l'objet d'une approche exceptionnelle causant accrocs au droit général des assurances. D'autant plus, les conséquences du risque de discrimination génétique semblent davantage relevées de la crainte que de l'exercice d'une discrimination réelle. Dans ce contexte, il s'avère nécessaire d'évaluer les mesures de protection contre la discrimination génétique dans le contexte de l'assurance-vie. Pour ce faire, nous abordons, d'une part, les normes d'application générale en matière de protection contre la discrimination; normes parmi lesquelles la Charte des droits et libertés de la personne offre une protection intéressante. D'autre part, nous nous intéressons aux normes visant la discrimination spécifiquement génétique, notamment le nouvel Genetic Information Nondiscrimination Act et l'affaire Audet c. Industrielle-Alliance. Enfin, nous proposons des mesures minimales qui sauraient s'avérer utile pour préserver un juste équilibre."
Resumo:
En dépit et à travers des difficultés et carences comme celles soulevées par les recherches de la Professeure Andrée Lajoie, le Canada est réputé un champion du monde en ce qui concerne l’égalité entre hommes et femmes. L’Europe pourra-t-elle suivre les exemples du Canada ? L’Union européenne n’a pas (ou pas encore) de constitution européenne, bien qu’une charte des droits fondamentaux ait été proclamée et qu’un traité établissant une constitution pour l’Europe ait été proposé, texte apportant des amendements aux traités constitutifs de l’Union. L’Union suivra-t-elle les expériences du Canada concernant la condition des femmes ? Pour voir plus clair, il faut considérer et évaluer le cadre de la réglementation en Europe, son influence sur les politiques variées des États membres, ainsi que les perspectives offertes par l’évolution sociale, tout en prenant en compte aussi les élargissements de l’Union européenne de 2004 et 2007 qui ont admis 12 nouveaux États membres.
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.