1000 resultados para test du ratio des variances
Resumo:
In this paper, we propose several finite-sample specification tests for multivariate linear regressions (MLR) with applications to asset pricing models. We focus on departures from the assumption of i.i.d. errors assumption, at univariate and multivariate levels, with Gaussian and non-Gaussian (including Student t) errors. The univariate tests studied extend existing exact procedures by allowing for unspecified parameters in the error distributions (e.g., the degrees of freedom in the case of the Student t distribution). The multivariate tests are based on properly standardized multivariate residuals to ensure invariance to MLR coefficients and error covariances. We consider tests for serial correlation, tests for multivariate GARCH and sign-type tests against general dependencies and asymmetries. The procedures proposed provide exact versions of those applied in Shanken (1990) which consist in combining univariate specification tests. Specifically, we combine tests across equations using the MC test procedure to avoid Bonferroni-type bounds. Since non-Gaussian based tests are not pivotal, we apply the “maximized MC” (MMC) test method [Dufour (2002)], where the MC p-value for the tested hypothesis (which depends on nuisance parameters) is maximized (with respect to these nuisance parameters) to control the test’s significance level. The tests proposed are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995. Our empirical results reveal the following. Whereas univariate exact tests indicate significant serial correlation, asymmetries and GARCH in some equations, such effects are much less prevalent once error cross-equation covariances are accounted for. In addition, significant departures from the i.i.d. hypothesis are less evident once we allow for non-Gaussian errors.
Resumo:
In this paper we propose exact likelihood-based mean-variance efficiency tests of the market portfolio in the context of Capital Asset Pricing Model (CAPM), allowing for a wide class of error distributions which include normality as a special case. These tests are developed in the frame-work of multivariate linear regressions (MLR). It is well known however that despite their simple statistical structure, standard asymptotically justified MLR-based tests are unreliable. In financial econometrics, exact tests have been proposed for a few specific hypotheses [Jobson and Korkie (Journal of Financial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gib-bons, Ross and Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)], most of which depend on normality. For the gaussian model, our tests correspond to Gibbons, Ross and Shanken’s mean-variance efficiency tests. In non-gaussian contexts, we reconsider mean-variance efficiency tests allowing for multivariate Student-t and gaussian mixture errors. Our framework allows to cast more evidence on whether the normality assumption is too restrictive when testing the CAPM. We also propose exact multivariate diagnostic checks (including tests for multivariate GARCH and mul-tivariate generalization of the well known variance ratio tests) and goodness of fit tests as well as a set estimate for the intervening nuisance parameters. Our results [over five-year subperiods] show the following: (i) multivariate normality is rejected in most subperiods, (ii) residual checks reveal no significant departures from the multivariate i.i.d. assumption, and (iii) mean-variance efficiency tests of the market portfolio is not rejected as frequently once it is allowed for the possibility of non-normal errors.
Resumo:
Rapport de recherche
Resumo:
Rapport de recherche
Resumo:
Une mort cellulaire par apoptose impliquant un processus inflammatoire est observée dans le système limbique, suite à un infarctus du myocarde. Les oméga-3 et ses métabolites, en plus de leurs propriétés bénéfiques pour le système cardiovasculaire, réduisent l’inflammation, contrairement aux oméga-6 qui sont plus pro-inflammatoires. Comme le métabolisme de ces deux acides gras essentiels impliquent les mêmes enzymes, le ratio alimentaire oméga-3/6 aurait donc des impacts importants sur l'état inflammatoire et ainsi indirectement sur l'apoptose. Conséquemment, cette étude a pour but d'évaluer l'effet de différents ratios oméga-3/6 sur la taille de l’infarctus, l’inflammation et l’apoptose dans le système limbique suite à un infarctus du myocarde. Des rats Sprague-Dawley ont été aléatoirement distribués dans trois groupes contenant des ratios 1:1, 1:5 et 5:1 oméga-3/6. Ils ont été nourris pendant 2 semaines, suivie d’une occlusion de l’artère coronaire gauche descendante pendant 40 minutes et d’une période de reperfusion (15 min et 24 h). De hauts ratios d’oméga-3 (5:1 et 1:1) diminuent significativement la taille de l’infarctus de 32 % et augmentent l’activité d’Akt, impliquée dans la voie cardioprotectrice RISK, comparativement au ratio 1:5. Ils diminuent aussi la concentration plasmatique de TNF-D. Dans le système limbique, l’activité de la caspase-3 est augmentée dans la région CA1, après 15 min, et dans les régions du CA1 et du gyrus dentelé (Gd), après 24 h, avec la diète 1:5 en comparaison aux diètes 1:1 et 5:1. L’activité enzymatique de la caspase-8 est augmentée dans le Gd, alors que dans le CA1, il y a une activité plus importante de la caspase-9 aux temps de reperfusion étudiés. Conclusion: Les diètes élevées en oméga-3/oméga-6 réduisent la taille de l'infarctus, l’inflammation et diminuent l’apoptose dans le système limbique après un infarctus du myocarde.
Resumo:
Depuis les années 1990, de nombreuses recherches ont porté sur le dévoilement de l’agression sexuelle chez l’enfant et sur les caractéristiques y étant associées. Outre les facteurs liés à l’enfant et au contexte, le type de questions utilisé par l’intervieweur (notamment les invitations et les questions ouvertes) est une variable déterminante pour le dévoilement de l’enfant et la quantité de détails qui sera fournie entourant l’agression sexuelle. Bien que plusieurs enquêteurs reçoivent une formation sur l’utilisation des questions ouvertes dans les entrevues avec les enfants, peu d’entre eux utilisent un style de question approprié une fois sur le terrain. L’objectif de cette recherche vise à déterminer si certaines caractéristiques personnelles des enquêteurs sont associées à leur adhésion à un protocole d’entrevue structuré pour lequel ils ont été formés, à l’utilisation de questions ouvertes dans des entrevues d’enquête auprès d’enfants soupçonnés d’avoir vécu une agression sexuelle et à la quantité de détails dévoilés par l’enfant lors de ces entrevues. Deux études ont été menées pour répondre à cette question. La première étude a été effectuée à l'École nationale de police du Québec auprès de 24 enquêteurs de police ayant suivi une formation d'une semaine visant l’apprentissage du protocole d’entrevue structuré du National Institute of Child Health and Human Development (NICHD). Le genre féminin, les habiletés cognitives et le trait de personnalité Ouverture à l’expérience sont trois caractéristiques personnelles qui ont été reliées positivement à la performance des enquêteurs lors d’une entrevue simulée avec un comédien jouant le rôle d’un enfant victime d’agression sexuelle, tandis que le nombre d’années d’expérience et la capacité de gestion du stress de ces enquêteurs ont montré une relation négative avec cette performance. Dans la seconde étude effectuée sur le terrain auprès de 13 enquêteurs du Service de police de la Ville de Montréal, 114 entrevues conduites auprès d’enfants ayant dévoilé une agression sexuelle ont été recueillies et cotées pour mesurer l’adhésion au protocole d’entrevue du NICHD, le ratio de questions ouvertes et la quantité de détails dévoilés par l’enfant par question posée par l’enquêteur. L’intelligence émotionnelle et les traits de personnalité Extraversion, Esprit consciencieux et Agréabilité ont été trouvés comme des caractéristiques personnelles positivement associées à l’adhésion au protocole d’entrevue et à l’utilisation de questions ouvertes, tandis que le nombre d’années d’expérience et le trait de personnalité Névrosisme ont été négativement associés à ces deux critères de performance. Le niveau d’habiletés cognitives des enquêteurs a quant à lui montré une association positive avec la quantité de détails dévoilés par l’enfant. La signification et l’interprétation de ces résultats, de même que les implications potentielles pour la sélection et la formation des enquêteurs sont finalement discutées.
Resumo:
Dans ce mémoire de maîtrise, nous utilisons les microdonnées de l’Enquête sur les dépenses des ménages de Statistique Canada en 2009 pour tester la validité empirique du modèle unitaire de dépense des ménages. En s’inspirant de l’étude conduite par Phipps et Burton en 1998, nous tentons une actualisation de leurs résultats ainsi qu’une analyse de l’évolution du comportement des ménages canadiens entre 1992 et 2009. La nouveauté présentée dans ce mémoire de maîtrise tient justement dans ces résultats. Dans la majorité des catégories de dépenses, nous ne rejetons plus le modèle unitaire et nous en mesurons les implications. Entre ces deux études, les différences entre l’homme et la femme dans les couples canadiens se sont atténuées, ils ont de plus en plus les mêmes préférences en terme de consommation. Enfin, nous poursuivons en apportant un test du modèle coopératif développé par Browning, Bourguignon, Chiappori et Lechene (1994) sur la demande en biens exclusifs. Nous en déduisons un aperçu de la répartition du pouvoir de dépense au sein des ménages canadiens.
Resumo:
From a technical standpoint the most widely used tests for serology include the ELISA (enzyme linked immunosorbent assay), the IFA (indirect fluorescence assay), and the immunoblot. ELISA tests are widely used as screening assays since they harbor a high sensitivity. The main pitfall of serologies is the frequency of cross-reactions, especially between the different helminths. This is why positive results should be confirmed by a second test method with a higher specificity. Results need also to be put in the perspective of the patient history, clinical signs and laboratory findings. Serological tests are most appropriate when the parasite cannot be documented by direct examination (by eye or under the microscope) and during the pre-patent period. Serologies for parasites are also useful when an unexplained eosinophilia is present.
Resumo:
«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-‐variabilité) et entre les traces digitales de donneurs différents (inter-‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-‐variabilité des résidus était significativement plus basse que l'inter-‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-‐variability) and between fingermarks of different donors (inter-‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-‐variability of the fingermark residue was significantly lower than the inter-‐variability, but that it was possible to reduce both kind of variability using different statistical pre-‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.
Resumo:
Dans les pays africains en général et au Niger en particulier, l’ordinateur commence à trouver sa place au sein de l’école. Ce processus d’intégration pédagogique des technologies de l’information et de la communication est fortement dépendant des paramètres technologiques, pédagogiques et humains. Réussir ce processus, c’est connaitre les jugements et les attitudes des acteurs de cette école vis-à-vis de ces technologies. À partir des représentations sociales, nous pouvons connaître la manière de penser, de s'approprier, d'interpréter la réalité quotidienne d’un groupe d’individus vis-à-vis d’un objet, en l’occurrence ici, les TIC. Le premier objectif de notre recherche est de connaitre les représentations sociales que les enseignants du secondaire ont de l’ordinateur. Pour cela, nous avons mené une investigation auprès de vingt enseignants. À l’issue des entrevues, nous avons identifié des représentations sociales sur les attitudes des enseignants à l’égard de l’ordinateur, sur les risques de l’ordinateur à l’école et enfin sur les avantages de l’ordinateur à l’école. L’ensemble de ces représentations sociales met en évidence une attitude positive des enseignants vis-à-vis de l’ordinateur à l’école même si pour certains enseignants, l’ordinateur est un outil qui favorise la démotivation des élèves et qui est vu comme un concurrent potentiel. Notre second objectif est de connaître les représentations sociales des TIC chez des élèves. Cinquante élèves provenant de deux écoles ont constitué la population de notre étude. Après avoir soumis les entretiens recueillis à une analyse de contenu, nous sommes parvenu à des résultats qui mettent en évidence des représentations sociales sur les connaissances des TIC et sur son utilisation dans le cadre de l’apprentissage. Notre recherche devait aussi déterminer si les représentations sociales étaient fonction de la formation aux TIC. Les résultats du test d’hypothèse du Khi-carré montrent que la formation aux TIC n’influence pas l’émergence des représentations sociales. Le troisième objectif de notre recherche porte sur la construction d’une échelle de mesure des représentations sociales des TIC chez des élèves. Après avoir été élaborée l’échelle de mesure a été administrée à 265 élèves de deux lycées. Les résultats de l’analyse factorielle exploratoire montrent que l’échelle a une assez bonne cohérence interne. L’ensemble des résultats garantit la validité et la fidélité de l’échelle. L’ensemble des résultats montre que, bien que son utilisation soit très récente dans les écoles nigériennes, des représentations sociales ont été engendrées à l’endroit des TIC. Les contenus de ces représentations montrent des attitudes favorables aux TIC dans l’apprentissage.
Resumo:
Le but de ce mémoire est de comprendre l’influence de la satisfaction intrinsèque et de la satisfaction extrinsèque sur l’intention de quitter des travailleurs. Afin d’étudier ce sujet, nous avons formulé trois hypothèses basées sur la théorie des attentes et la théorie des deux facteurs d’Herzberg. La première hypothèse stipule que la satisfaction intrinsèque fait diminuer l’intention de quitter des travailleurs. La seconde hypothèse est formulée à l’effet que la satisfaction extrinsèque fait diminuer l’intention de quitter des travailleurs. La dernière hypothèse stipule que la satisfaction intrinsèque a une influence plus importante sur l’intention de quitter des travailleurs que la satisfaction extrinsèque. Les données utilisées afin de tester nos hypothèses de recherche ont été collectées dans le cadre d’une étude plus vaste portant sur « les liens entre la rémunération, la formation et le développement des compétences et l’attraction et la rétention d’employés clés ». L’entreprise au sein de laquelle les données ont été collectées est dans le domaine des technologies de l’information et des communications (TIC) à Montréal. Les employés interrogés sont les nouveaux employés embauchés par l’entreprise. Les résultats de notre mémoire confirment deux de nos hypothèses. Ainsi, nos résultats ont démontré que la satisfaction intrinsèque fait diminuer l’intention de quitter des travailleurs d’ici six mois, un an et deux ans. De plus, nos résultats ont démontré que la satisfaction intrinsèque a une influence plus importante sur l’intention de quitter que la satisfaction extrinsèque. Par contre, une de nos hypothèses est partiellement confirmée. En effet, nos résultats ont démontré que la satisfaction extrinsèque fait seulement diminuer l’intention de quitter d’ici un an et deux ans et n’a aucune influence significative sur l’intention de quitter d’ici six mois. Le soutien organisationnel perçu est une variable qui a également une forte influence sur l’intention de quitter des travailleurs. Pour terminer, la conclusion de ce mémoire présente en quoi nos résultats peuvent être utiles aux gestionnaires des ressources humaines et des relations industrielles.
Resumo:
La stabilité génomique des organelles de plantes suscite un grand intérêt dans le domaine de la biologie végétale. En effet, plusieurs études récentes suggèrent que ce type d’instabilité génomique pourrait mener à l’isolation de traits intéressants en l’agronomie. Plusieurs protéines sont d’ailleurs déjà été identifiés comme étant impliqués dans le maintien de la stabilité de ces génomes, tels que MSH1, la famille des POLI, OSB1, les protéines Whirly et les Recombinases A (RECA). Le génome nucléaire d’Arabidopsis thaliana encode trois protéines s’apparentant à la Recombinase A bactérienne et qui sont ciblées à la mitochondrie et/ou au chloroplaste, soit RECA1, RECA2 et RECA3. Globalement, ces gènes partagent une similarité de séquence de 61% avec leur homologue bactérien chez Escherichia coli. Chez les bactéries ces protéines jouent un rôle essentiel dans la recombinaison homologue et sont impliquées dans la réparation de l’ADN. Chez Arabidopsis, il a été démontré que RECA2 et RECA3 sont nécessaires au maintien de l’intégrité du génome mitochondriale. Toutefois leur contribution à la stabilité du génome chloroplastique ainsi que le rôle de RECA1 restent obscures. Le but de ce projet est donc de déterminer la contribution éventuelle des protéines RECA d’Arabidopsis dans la réparation de l’ADN chloroplastique et plus précisément le rôle du gène RECA1. Nous énonçons l’hypothèse que les RECA de plantes se comportent effectivement comme leurs orthologues bactériens en étant impliqués dans la recombinaison homologue. Dans le cadre de ce projet, nous avons tenté d’isoler des lignées mutantes pour chacun des gènes RECA d’Arabidopsis. En somme, nous avons pu obtenir des lignées convenables pour notre étude que dans le cas du gène RECA1. Ces lignées ont été utilisées pour évaluer la contribution de ce gène à la stabilité du génome du chloroplaste. Ensuite, pour étudier la relation épistatique des gènes RECA1, WHY1 et WHY3, un croisement des différentes lignées mutantes pour ces gènes a été réalisé. Nous avons ensuite étudié la sensibilité de toutes ces lignées mutantes à la ciprofloxacine, un agent causant des bris double brin exclusivement dans les organelles de plantes. Finalement, iii nous avons testé la présence de réarrangements dans le génome du chloroplaste en condition normal ou en présence de stress génotoxique. Nos résultats démontrent que les protéines Whirly et RECA1 sont impliquées dans deux voies de réparation de l’ADN différentes et que les Whirly sont suffisantes pour s’occuper des bris d’ADN double brin en l’absence de RECA1. Nous démontrons également que l’absence de Whirly et RECA1 entraine une forte augmentation de la quantité de réarrangements dans le génome du chloroplaste. De plus nous proposons que la polymérase POLIB est impliquée dans la même voie de réparation que RECA1. Finalement nous proposons un modèle pour expliquer nos résultats et impliquons RECA1 dans un mécanisme de réparation d’ADN et aussi un rôle potentiel dans la réplication.