19 resultados para Fama French
em Université de Montréal, Canada
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
We provide a theoretical framework to explain the empirical finding that the estimated betas are sensitive to the sampling interval even when using continuously compounded returns. We suppose that stock prices have both permanent and transitory components. The permanent component is a standard geometric Brownian motion while the transitory component is a stationary Ornstein-Uhlenbeck process. The discrete time representation of the beta depends on the sampling interval and two components labelled \"permanent and transitory betas\". We show that if no transitory component is present in stock prices, then no sampling interval effect occurs. However, the presence of a transitory component implies that the beta is an increasing (decreasing) function of the sampling interval for more (less) risky assets. In our framework, assets are labelled risky if their \"permanent beta\" is greater than their \"transitory beta\" and vice versa for less risky assets. Simulations show that our theoretical results provide good approximations for the means and standard deviations of estimated betas in small samples. Our results can be perceived as indirect evidence for the presence of a transitory component in stock prices, as proposed by Fama and French (1988) and Poterba and Summers (1988).
Resumo:
Affiliation: Faculté de médicine, Université de Montréal
Resumo:
Affiliation: Louise Lafortune: Faculté de médecine, Université de Montréal
Resumo:
Corporate law integrates a stakeholder conception through the comprehensive meaning of the best interests of the corporation. In this paper, I address criticisms about classical definition of the firm’s purpose. Even if American law is more discreet and uncertain, it is possible to defend a broad conception of the best interests of the corporation. The interests of Canadian and French firms include their partners. While the notion of intérêt social is debatable in France, Canada has recently modified its point of view regarding the purpose of the firm. Indeed, the decision of the Supreme Court of Canada Magasins à rayons Peoples Inc. (Syndic de) v. Wise in 2004 changed the concept of corporate law. With respect to fiduciary duties, the Supreme Court set aside the traditional interpretation of the “best interests of the corporation” which gave primacy to shareholders’ interests. The Court held that the expression “best interests of the corporation” refers to the maximization of the corporation’s value. This innovative vision of the best interest of the corporation introduces stakeholder theory and corporate social responsibility (CSR) into corporate law and provides a new field for the firm’s management to frame their responsibilities. This paper concludes with an extended discussion of the implications of stakeholder and CSR influence for the future of corporate law, economy and financial researches.
Resumo:
This article examines the firms’practices in the French tourist sector. By confronting the concepts defined in the literature on the social responsibility and what really happens in companies, the current research shows that the studied firms implement a minimal social responsibility which remains well below the expectation level of some stakeholders. This situation is explained by several factors, namely structural. Finally, the paper suggests ways to improve the concept of social responsibility.
Resumo:
This paper provides a comparative analysis of corporate law and CSR and asks whether there are lessons for Australia from corporate law and CSR developments in France. This presentation presents a summary of the provisions of the new French Act Number 2010-788 passed on 12 July 2010 – called “Grenelle 2” –. Firstly, article 225 of Law’s Grenelle 2 changes the Commercial Code to extend the reach of non-financial reporting and to ensure its pertinence. Secondly, article 227 Law’s Grenelle 2 amends certain provisions of the Commercial and Environmental Codes and incorporates into substantive law the liability of parent companies for their subsidiaries. In fine, article 224 of Law’s Grenelle 2 reinforces the pressure on the market to act in a responsible manner. It modifies article 214-12 of the Monetary and Financial Code in order to compel institutional investors (mutual funds and fund management companies) to take social, environmental and governance criteria into account in their investment policy.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Éditorial / Editorial
Resumo:
«Construire hors limite: collisions fantastiques entre corps et machines dans la littérature fin-de-siècle française et anglaise» explore un ensemble de textes qui ont surgi à la fin du dix-neuvième siècle en réponse et en réaction à la fulgurante évolution de l’environnement scientifique et technologique, et qui considèrent la relation entre l’homme et la machine en fantasmant sur la zone grise où ils s’intersectent. Les principaux textes étudiés comprennent L’Ève future de Villiers de l’Isle-Adam, Le Surmâle d’Alfred Jarry, Trilby de George Du Maurier, Le Château des Carpathes de Jules Verne, ainsi qu’une sélection de contes dont nous pouvons qualifier de «contes à appareils», notamment «La Machine à parler» de Marcel Schwob. Utilisant la théorie des systèmes comme base méthodologique, cette dissertation cherche à réinterpréter les textes de la fin du dix-neuvième siècle qui naviguent les limites de l’humain et du mécanique et les surfaces sensibles où ils se touchent et interagissent en les réinscrivant dans un projet plus vaste de construction d’identité qui défie le temps chronologique et les échelles mathématiques. Le lien entre la théorie des systèmes et l’architecture – comme méthode d’organisation d’espace blanc en espace habitable – est exploré dans le but de comprendre la manière dont nous façonnons et interprétons le néant à l’origine de l’identité individuelle, et par association collective, en pratiquant littéralement la schématisation et la construction du corps. Des auteurs tels Villiers et Jarry imaginent la construction du corps comme une entreprise scientifique nécessairement fondée et réalisée avec les matériaux et les technologies disponibles, pour ensuite démanteler cette proposition en condamnant le corps technologique à la destruction. La construction d’une identité amplifiée par la technologie prend donc des proportions prométhéennes perpétuellement redessinées dans des actes cycliques de rasage (destruction) et d’érection (édification), et reflétées dans l’écriture palimpsestique du texte. L’intégrité du corps organique étant mis en question, le noyau même de ce que signifie l’être (dans son sens de verbe infinitif) humain pourrait bien s’avérer, si l’on considère la correspondance entre perte de voix et état pathologique dans les textes de Du Maurier, Verne et Schwob, être une structure des plus précaires, distinctement hors sens (unsound).
Resumo:
PROBLÉMATIQUE: L’Organisation Mondiale de la Santé (OMS) considère les maladies cardiovasculaires (MCVs) comme l'hypertension, la maladie coronarienne (par exemple, infarctus du myocarde), l'insuffisance cardiaque ainsi que les accidents cérébrovasculaires, parmi les principales causes de mortalité dans le monde. Les MCVs sont des maladies multifactorielles caractérisées par des interactions complexes entre le génome et l'environnement et dont la prévalence augmente rapidement dans toutes les populations du globe, ce qui vient compliquer d'autant l'étude de leurs bases héréditaires. Nos études précédentes sur la population fondatrice des familles Canadiennes-françaises de la région du Saguenay-Lac-Saint-Jean (SLSJ) au Québec ont permis d’obtenir une carte des loci significativement liés à des déterminants qualitatifs et quantitatifs de l’hypertension et ses déterminants métaboliques [1, 2]. HYPOTHÈSE ET OBJECTIF: Puisque nos données préliminaires nous suggèrent que la mort prématurée consécutive aux MCVs possède des composantes génétique et environnementale, notre hypothèse de départ est que les maladies avec occurrences fatales et non fatales (OF et ONF, respectivement) ont des caractéristiques distinctes, surtout lorsqu’en lien avec le système CV. Pour réaliser ce projet, nos objectifs sont d’analyser les causes de morbidité/mortalité d’hypertendus avec ou sans obésité chez des familles de la région du SLSJ. Nous accomplirons ceci en interrogeant les registres des hôpitaux et de l'état civil de même que les données généalogiques de 1950 jusqu'à maintenant. Nous voulons décrire et étudier les OF pour les comparer aux NFO. RÉSULTATS: Nous avons identifié un total de 3,654 diagnostiques appartenant aux OF et ONF chez les 343 sujets étudiés. Pour les OF, nous avons trouvé que: (1) un grand total de 1,103 diagnostiques du système circulatoire ont affecté 299 sujets avec 555 occurrences et 247 premières occurrences; (2) 333 des sujets participants ont reçu 1,536 diagnostiques non-CV avec 195 occurrences et 107 premières occurrences; (3) 62 diagnostiques de toutes autres causes chez 62 des sujets participants avec 81 occurrences et 11 premières occurrences. Pour les ONF: (1) 156 diagnostiques du système circulatoire ont affecté 105 sujets; (2) 60 diagnostiques de causes non-CV chez 53 des sujets; (3) et 718 diagnostiques de toutes autres causes chez 252 des sujets. Pour les OF, 109 des 333 sujets affectés par les maladies non-CV et 58 des 62 par toutes autres maladies étaient atteints simultanément par des MCV. Nous avons décrit les caractéristiques des maladies avec occurrences fatales et non fatales. Les MCVs prédominaient dans les résultats des premières occurrences et occurrences totales tandis que les maladies non-CV étaient les plus élevées pour les diagnostiques. De plus, les OF CV ont affecté 67.1% de notre échantillon de population, incluant les sujets co-affectés par les maladies non-CV ou de toutes autres causes. En fait, nos sujets ont un risque trois fois plus élevé de développer des MCVs (p<0.0001; χ2=1,575.348), tandis qu’il diminue de moitié pour les maladies non-CV comparativement au reste de la population du SLSJ (p=0.0006; χ2=11.834). Enfin, le risque de développer des tumeurs malignes est diminué de moitié dans notre échantillon comparativement à l’incidence régionale. CONCLUSION: Cette étude a apporté une nouvelle perspective sur les OF et ONF chez nos sujets de la région SLSJ du Québec après 11 ans. Quand on observe ces résultats en conjonction avec les MCVs, ce risque double.
Resumo:
Cette recherche vise à documenter l’expérience scolaire des élèves québécois d’origine chinoise à l’école secondaire de langue française et à examiner les dynamiques qui influencent la réussite scolaire de ces élèves. Elle s’intéresse plus précisément aux impacts des facteurs relatifs à l’école, à la famille immigrante, et à ceux de la communauté ethnique sur l’intégration de ces jeunes dans un contexte francophone. Les données ont été principalement recueillies à travers des entretiens semi-structurés approfondis auprès d’élèves d’origine chinoise et de différents acteurs du paradigme éducatif (parents, acteurs scolaires et intervenants communautaires). D’autres instruments, tels que l’analyse du contenu de documents et de médias, ont également été utilisés afin de fournir des informations contextuelles et d’enrichir les données d’entrevues. Les données ont été analysées selon un cadre théorique ouvert et inclusif où la réussite scolaire des élèves issus de l’immigration est mesurée en mettant l’accent sur l’influence de la maîtrise de la langue d’enseignement, du capital culturel et social de la famille et de la communauté immigrante, ainsi que des facteurs systémiques au niveau de l’école. Les résultats de cette étude dans trois écoles cibles montrent qu’en général les élèves d’origine chinoise connaissent une expérience positive, surtout en ce qui concerne leur performance scolaire en mathématiques et sciences. Cependant, les nouveaux arrivants ont tendance à éprouver des difficultés dans l’apprentissage du français et pour leur intégration sociale. En effet, le processus d’intégration socioscolaire des jeunes chinois est sous l’influence des différents milieux qu’ils fréquentent. À propos de l’influence des dynamiques scolaires, les résultats de la recherche indiquent qu’une relation maître-élève positive joue un rôle important dans la réussite éducative de ces élèves. Toutefois, l’insuffisance du soutien à l’apprentissage défavorise l’intégration linguistique et sociale des élèves nouvellement arrivés. Les données de cette étude soulignent notamment le rôle de la famille immigrante et de la communauté ethnique dans l’expérience scolaire de ces jeunes. D’une part, sous l’impact des dynamiques familiales, notamment ce qui à trait au projet migratoire, à la culture chinoise et à l’expérience pré- et post-migratoire, les parents immigrants chinois s’impliquent activement dans les études de leurs enfants, malgré des barrières linguistiques et culturelles. D’autre part, afin de surmonter les effets négatifs des faibles liens entretenus avec l’école de langue française, les parents chinois ont largement recours aux ressources au sein de la communauté ethnique, tels que les médias de langue chinoise, les organismes ethnospécifiques de services aux immigrants, l’école du samedi et les institutions religieuses ethniques. Ces institutions sociales ethniques contribuent à soutenir les valeurs culturelles, échanger des informations, établir des modèles pour les jeunes et à fournir des services appropriés en matière culturelle et linguistique.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
La fête nationale française, décrétée en 1880, vise à consolider l’adhésion à la Troisième République, régime né dix ans auparavant et toujours en déficit de légitimité. Malgré les efforts du gouvernement pour rejoindre les Français de toutes allégeances, des discordes idéologiques persistent et la fête nationale du 14-Juillet ne parvient pas à faire l'unanimité. Telle est la situation sociale et politique de la France à l’aube de la Grande Guerre. Alors que se multiplient les batailles et les pertes militaires, la conviction d'une guerre courte fait place à la réalité d'une guerre aussi destructrice qu’interminable. Les 14-Juillet de ces années-là démontrent la nécessité d'adapter les célébrations nationales à la réalité de la guerre totale et des besoins qu'elle engendre. Parallèlement, le deuil et la souffrance de la guerre ravivent les oppositions sociales et politiques d'avant-guerre, remettant en question les capacités du gouvernement à faire face à la situation, menaçant tant l'Union Sacrée que la République. L'entrée en guerre des États-Unis, en avril 1917, offre l'occasion à quelques hommes politiques prévoyants de rétablir la cohésion sociale autour des valeurs républicaines. En 1917, puis en 1918, le gouvernement mise sur l'union des fêtes nationales républicaines française et américaine pour ranimer l'espoir, le courage et le patriotisme de tous les Français. Au-delà de l'hommage rendu à un allié que l'on espérait plus, l'union des deux fêtes devient le symbole de la solidarité et de la fraternité qui unit les deux Républiques-sœurs, et réaffirme la force et la légitimité du régime français en place. Le 14-Juillet, emblème du parcours social et politique français, connaît donc, à l’occasion de la Grande Guerre, une mutation, une redéfinition de sens. À l'image de la France, « moderne », le 14-Juillet tel que développé lors du conflit, ne cesse de s'adapter aux besoins et à l'image d'une société en constante évolution.
Resumo:
Le syndrome de Joubert est une maladie récessive caractérisée par une malformation congénitale distincte du tronc cérébral et du cervelet, associée à une anomalie des mouvements oculaires (apraxie oculomotrice), une respiration irrégulière, un retard de développement, et une ataxie à la démarche. Au cours de la dernière décennie, plus de 20 gènes responsables ont été identifiés, tous ayant un rôle important dans la structure et la fonction des cils primaires. Ainsi, le syndrome de Joubert est considéré une ciliopathie. Bien que le Syndrome de Joubert ait été décrit pour la première fois dans une famille canadienne-française en 1969, le(s) gène(s) causal demeurait inconnu dans presque tous les cas de syndrome de Joubert recensés en 2010 dans la population canadienne-française, soit début de mon projet doctoral. Nous avons identifié un total de 43 individus canadiens-français (35 familles) atteints du syndrome de Joubert. Il y avait un regroupement de familles dans la région du Bas-Saint-Laurent de la province de Québec, suggérant la présence d'un effet fondateur. L’objectif de ce projet était de caractériser la génétique du syndrome de Joubert dans la population canadienne-française. Notre hypothèse était qu’il existait un effet fondateur impliquant au moins un nouveau gène JBTS. Ainsi, dans un premier temps, nous avons utilisé une approche de cartographie par homozygotie. Cependant, nous n’avons pas identifié de région d’homozygotie partagée parmi les individus atteints, suggérant la présence d’une hétérogénéité génétique ou allélique. Nous avons donc utilisé le séquençage exomique chez nos patients, ce qui représente une approche plus puissante pour l’étude de conditions génétiquement hétérogènes. Nos travaux ont permis l’identification de deux nouveaux gènes responsables du syndrome de Joubert: C5orf42 et TMEM231. Bien que la localisation cellulaire et la fonction de C5orf42 soient inconnus au moment de cette découverte, nos résultats génétiques combinés avec des études ultérieures ont établi un rôle important de C5orf42 dans la structure et la fonction ciliaire, en particulier dans la zone de transition, qui est une zone de transition entre le cil et le reste de la cellule. TMEM231 avait déjà un rôle établi dans la zone de transition ciliaire et son interaction avec d’autres protéines impliquées dans le syndrome de Joubert était connu. Nos études ont également identifié des variants rares délétères chez un patient JBTS dans le gène ciliaire CEP104. Nous proposons donc CEP104 comme un gène candidat JBTS. Nous avons identifié des mutations causales dans 10 gènes, y compris des mutations dans CC2D2A dans 9 familles et NPHP1 dans 3 familles. Au total, nous avons identifié les mutations causales définitives chez 32 des 35 familles étudiées (91% des cas). Nous avons documenté un effet fondateur complexe dans la population canadienne-française avec de multiples mutations récurrentes dans quatre gènes différents (C5orf42, CC2D2A, TMEM231, NPHP1). Au début de ce projet de recherche, l’étiologie génétique était inconnue chez les 35 familles touchées du syndrome de Joubert. Maintenant, un diagnostique moléculaire définitif est identifié chez 32 familles, et probable chez les 3 autres. Nos travaux ont abouti à la caractérisation génétique du syndrome de Joubert dans la population canadienne-française grâce au séquençage exomique, et révèlent la présence d'un effet fondateur complexe avec une l'hétérogénéité allélique et intralocus importante. Ces découvertes ont éclairé la physiologie de cette maladie. Finalement, l’identification des gènes responsables ouvre de nouvelles perspectives diagnostiques ante-natales, et de conseils génétique, très précieuses pour les familles.