999 resultados para [JEL:C15] Mathématiques et méthodes quantitatives - Économétrie et méthodes statistiques
Resumo:
Essai cinique randomisé
Resumo:
Dans ce mémoire, nous étudierons quelques propriétés algébriques, géométriques et topologiques des surfaces de Riemann compactes. Deux grand sujets seront traités. Tout d'abord, en utilisant le fait que toute surface de Riemann compacte de genre g plus grand ou égal à 2 possède un nombre fini de points de Weierstrass, nous allons pouvoir conclure que ces surfaces possèdent un nombre fini d'automorphismes. Ensuite, nous allons étudier de plus près la formule de trace d'Eichler. Ce théorème nous permet de trouver le caractère d'un automorphisme agissant sur l'espace des q-différentielles holomorphes. Nous commencerons notre étude en utilisant la quartique de Klein. Nous effectuerons un exemple de calcul utilisant le théorème d'Eichler, ce qui nous permettra de nous familiariser avec l'énoncé du théorème. Finalement, nous allons démontrer la formule de trace d'Eichler, en prenant soin de traiter le cas où l'automorphisme agit sans point fixe séparément du cas où l'automorphisme possède des points fixes.
Resumo:
La construction d'un quotient, en topologie, est relativement simple; si $G$ est un groupe topologique agissant sur un espace topologique $X$, on peut considérer l'application naturelle de $X$ dans $X/G$, l'espace d'orbites muni de la topologie quotient. En géométrie algébrique, malheureusement, il n'est généralement pas possible de munir l'espace d'orbites d'une structure de variété. Dans le cas de l'action d'un groupe linéairement réductif $G$ sur une variété projective $X$, la théorie géométrique des invariants nous permet toutefois de construire un morphisme de variété d'un ouvert $U$ de $X$ vers une variété projective $X//U$, se rapprochant autant que possible d'une application quotient, au sens topologique du terme. Considérons par exemple $X\subseteq P^{n}$, une $k$-variété projective sur laquelle agit un groupe linéairement réductif $G$ et supposons que cette action soit induite par une action linéaire de $G$ sur $A^{n+1}$. Soit $\widehat{X}\subseteq A^{n+1}$, le cône affine au dessus de $\X$. Par un théorème de la théorie classique des invariants, il existe alors des invariants homogènes $f_{1},...,f_{r}\in C[\widehat{X}]^{G}$ tels que $$C[\widehat{X}]^{G}= C[f_{1},...,f_{r}].$$ On appellera le nilcone, que l'on notera $N$, la sous-variété de $\X$ définie par le locus des invariants $f_{1},...,f_{r}$. Soit $Proj(C[\widehat{X}]^{G})$, le spectre projectif de l'anneau des invariants. L'application rationnelle $$\pi:X\dashrightarrow Proj(C[f_{1},...,f_{r}])$$ induite par l'inclusion de $C[\widehat{X}]^{G}$ dans $C[\widehat{X}]$ est alors surjective, constante sur les orbites et sépare les orbites autant qu'il est possible de le faire; plus précisément, chaque fibre contient exactement une orbite fermée. Pour obtenir une application régulière satisfaisant les mêmes propriétés, il est nécessaire de jeter les points du nilcone. On obtient alors l'application quotient $$\pi:X\backslash N\rightarrow Proj(C[f_{1},...,f_{r}]).$$ Le critère de Hilbert-Mumford, dû à Hilbert et repris par Mumford près d'un demi-siècle plus tard, permet de décrire $N$ sans connaître les $f_{1},...,f_{r}$. Ce critère est d'autant plus utile que les générateurs de l'anneau des invariants ne sont connus que dans certains cas particuliers. Malgré les applications concrètes de ce théorème en géométrie algébrique classique, les démonstrations que l'on en trouve dans la littérature sont généralement données dans le cadre peu accessible des schémas. L'objectif de ce mémoire sera, entre autres, de donner une démonstration de ce critère en utilisant autant que possible les outils de la géométrie algébrique classique et de l'algèbre commutative. La version que nous démontrerons est un peu plus générale que la version originale de Hilbert \cite{hilbert} et se retrouve, par exemple, dans \cite{kempf}. Notre preuve est valide sur $C$ mais pourrait être généralisée à un corps $k$ de caractéristique nulle, pas nécessairement algébriquement clos. Dans la seconde partie de ce mémoire, nous étudierons la relation entre la construction précédente et celle obtenue en incluant les covariants en plus des invariants. Nous démontrerons dans ce cas un critère analogue au critère de Hilbert-Mumford (Théorème 6.3.2). C'est un théorème de Brion pour lequel nous donnerons une version un peu plus générale. Cette version, de même qu'une preuve simplifiée d'un théorème de Grosshans (Théorème 6.1.7), sont les éléments de ce mémoire que l'on ne retrouve pas dans la littérature.
Resumo:
L’objectif de ce mémoire est de décrire et expliquer le traitement des jeunes filles traduites devant la Cour des jeunes délinquants de Montréal durant toute la période de son existence, soit de 1912 à 1950. Une analyse statistique a tout d’abord été utilisée sur un échantillon de 1 465 jeunes filles pour lesquelles nous avions des données quantitatives provenant du plumitif de la cour. Une analyse documentaire a ensuite été utilisée sur un sous-échantillon de 126 mineures pour lesquelles nous avions accès aux divers documents contenus dans leur dossier judiciaire. L’analyse met particulièrement en évidence la différence d’application de la loi en fonction du sexe des mineurs traduits devant la cour. Les jeunes filles sont poursuivies pour des motifs différents de ceux pour lesquels on poursuit les garçons : elles sont particulièrement poursuivies pour des infractions spécifiques aux mineurs telles que l’incorrigibilité, les infractions à caractère sexuel, la désertion ou la protection. Les garçons, quant à eux, sont davantage poursuivis pour des infractions prévues au Code criminel (notamment le vol). Les mineures sont plus souvent amenées devant la cour par leurs parents plutôt que par les officiers de la cour et se voient imposer des mesures différentes de celles qu’on impose aux garçons pour une même infraction. Le placement est ainsi plus fréquemment utilisé chez les filles que chez les garçons et la probation plus fréquemment utilisée chez ces derniers. La définition de ce qui pose problème chez ces mineures et les solutions souhaitables pour y remédier varient en fonction des différents acteurs (les agents de probation, les officiers de la cour, les parents et les mineures elles-mêmes).
Resumo:
Eurybia et ses proches parents Oreostemma, Herrickia et Triniteurybia sont appelés le grade des eurybioïdes. Comprenant 31 espèces vivaces, ce grade appartient au clade Nord-américain de la tribu des Astereae. Les analyses moléculaires antérieures ont montré que ce groupe est à la fois paraphylétique aux Machaerantherinae et un groupe frère aux Symphyotrichinae. Les relations infragénériques partiellement résolues et faiblement supportées empêchent d’approfondir l'histoire évolutive des groupes et ce, particulièrement dans le genre principal Eurybia. Le but de cette étude est de reconstruire les relations phylogénétiques au sein des eurybioïdes autant par l'inclusion de toutes les espèces du grade que par l’utilisation de différents types de régions et de méthodes d'inférence phylogénétique. Cette étude présente des phylogénies basées sur l'ADN ribosomal nucléaire (ITS, ETS), de l'ADN chloroplastique (trnL-F, trnS-G, trnC-ycf6) et d’un locus du génome nucléaire à faible nombre de copie (CNGC4). Les données sont analysées séparément et combinées à l’aide des approches de parcimonie, bayesienne et de maximum de vraisemblance. Les données ADNnr n’ont pas permis de résoudre les relations entre les espèces polyploïdes des Eurybia. Les analyses combinées avec des loci d’ADNnr et d’ADNnr+cp ont donc été limitées à des diploïdes. Les analyses combinées ont montré une meilleure résolution et un meilleur support que les analyses séparées. La topologie de l’ADNnr+cp était la mieux résolue et supportée. La relation phylogénétique de genres appartenant au grade des eurybioïdes est comme suit : Oreostemma (Herrickia s.str. (Herrickia kingii (Eurybia (Triniteurybia - Machaerantherinae)))). Basé sur la topologie combinée de l’ADNnr+cp, nous avons effectué des analyses de biogéographie à l’aide des logiciels DIVA et LaGrange. Ces analyses ont révélé une première radiation des eurybioïdes dans l’Ouest de l’Amérique du Nord, suivi de deux migrations indépendantes dans l’Est de l’Amérique du Nord chez les Eurybia. Due au relatif manque de variabilité de l’ADNnr, l’ADNcp et CNGC4, où le triage de lignés incomplet était dominant, l'origine du grade est interprétée comme récente, possiblement du Pliocène. La diversification du groupe a été probablement favorisée par les glaciations Pléistocènes.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
Inscrite dans la tradition monographique en sociologie et en anthropologie, cette thèse prend pour objet la diversité des pratiques et des idéologies caractéristiques des différents types de populations rurales distingués en fonction de l'enracinement territorial, afin d'apporter un nouvel éclairage sur les conflits sociaux actuels dans tous les milieux ruraux québécois qui surgissent notamment de l'accroissement du nombre des néo-ruraux dont les visions du monde s'opposent à celles des agriculteurs, dont le nombre diminue sans cesse. Prenant un village comme observatoire, il s'agit de rendre compte du mouvement totalisant de l'expérience de la vie en société à la fois dans ses dimensions « matérielles » et « symboliques ». L'étude des principales formes de vie sociale (religieuse, économique et politique) se fait grâce à des méthodes diversifiées: l'observation participante, l'analyse statistique, l'analyse du discours, le travail sur les archives municipales et l'histoire orale. L'analyse des différentes formes de vie sociale montre que leur organisation est structurée par deux principaux modèles. Le modèle public et communautaire comprend les personnes qui valorisent l'implication de l'État et des professionnels dans la gestion collective de la redistribution des richesses et dans le développement des milieux ruraux. Ces personnes occupent une position économique « marginale » à l'intérieur de la localité et sont plus près des milieux urbains tant par leurs positions que par leurs visions du monde. Quant au modèle privé et familial, il comprend les personnes défendant le rôle prépondérant des réseaux familiaux dans le développement local et la fermeture de la localité face à la concurrence des marchés extérieurs et aux interventions politiques exogènes. Les représentants de ce modèle occupent une position économique locale dominante, mais se sentent de plus en plus dominés politiquement face aux interventions extérieures des représentants politiques régionaux et des professionnels ainsi qu'économiquement à l'échelle mondiale où ils occupent une position dominée. Les oppositions sous-jacentes à ces deux modèles s'inscrivent dans une histoire ancienne qui met en scène d'une part les élites traditionnelles liées à l'Église et les notables francophones scolarisées et d'autre part les élites industrielles et commerciales qui succèdent aux anglophones dès les années 1920. Le sens et le contenu des modèles varient légèrement avec les transformations récentes de la structure familiale et la régionalisation des pouvoirs politiques et religieux.
Resumo:
Le principe de contraction de Banach, qui garantit l'existence d'un point fixe d'une contraction d'un espace métrique complet à valeur dans lui-même, est certainement le plus connu des théorèmes de point fixe. Dans plusieurs situations concrètes, nous sommes cependant amenés à considérer une contraction qui n'est définie que sur un sous-ensemble de cet espace. Afin de garantir l'existence d'un point fixe, nous verrons que d'autres hypothèses sont évidemment nécessaires. Le théorème de Caristi, qui garantit l'existence d'un point fixe d'une fonction d'un espace métrique complet à valeur dans lui-même et respectant une condition particulière sur d(x,f(x)), a plus tard été généralisé aux fonctions multivoques. Nous énoncerons des théorèmes de point fixe pour des fonctions multivoques définies sur un sous-ensemble d'un espace métrique grâce, entre autres, à l'introduction de notions de fonctions entrantes. Cette piste de recherche s'inscrit dans les travaux très récents de mathématiciens français et polonais. Nous avons obtenu des généralisations aux espaces de Fréchet et aux espaces de jauge de quelques théorèmes, dont les théorèmes de Caristi et le principe variationnel d'Ekeland. Nous avons également généralisé des théorèmes de point fixe pour des fonctions qui sont définies sur un sous-ensemble d'un espace de Fréchet ou de jauge. Pour ce faire, nous avons eu recours à de nouveaux types de contractions; les contractions sur les espaces de Fréchet introduites par Cain et Nashed [CaNa] en 1971 et les contractions généralisées sur les espaces de jauge introduites par Frigon [Fr] en 2000.
Resumo:
Introduction : La Vitamine A (rétinol, ROL) et son métabolite l’acide rétinoïque (AR) sont essentielles pour l’embryogénèse. L’excès comme l’insuffisance d’AR sont nocives. L’AR est régularisé dans l’embryon par des gènes spécifiques (ALDH, CRABP, CYP). Hypothèse : Les grandes variations d’AR dans le plasma des adultes normaux, nous ont orienté à mesurer les rétinoïdes (ROL et RA) dans le sang de cordon ombilical, pour évaluer des corrélations avec des polymorphismes des gènes impliquées dans le métabolisme de l’AR et le développement rénal-(RALDH2, CRABP2, CYP26A1; B1). Vérifier pour des corrélations entre ces rétinoïdes et/ou avec la taille de reins à la naissance. Méthodes : Extraction du ROL et RA du sang de cordon ombilical de 145 enfants et analyse par HPLC. Le volume des reins a été mesuré par ultrasonographie et l’ADN génomique leucocytaire extrait (FlexiGene DNA-Kit). 10 échantillons d’ADN ont été exclus (qualité). Les htSNP : ALDH1A2, CRABP2, CYP26A1;B1 du génome humain (HapMap) ont été séquencés et génotypés (Sequenom iPlex PCR).Des testes bio-statistiques des fréquences génotypiques et alléliques ont été effectués (Single-Locus, χ2, Kruskal-Wallis, Allelic-Exact).Des corrélations (ROL, RA, SNPs, V-reins) ont été analysés (Kendall-tau /Oakes). Résultats : La Δ RA (0.07-550.27 nmol/l) non corrélé avec la Δ ROL (51.39-3892.70 nmol/l). Il n’y a pas d’association ROL ou RA avec les volumes des reins ou avec les SNPs/ CYP21A1;B1. Corrélations trouvées : 1. (p=0.035), polymorphisme génétique ALDH1A2-SNP (rs12591551:A/C) hétérozygote/CA, (25enfants, 19%) avec moyennes d’AR (62.21nmol/l). 2. (p=0.013), polymorphisme CRABP2-SNP (rs12724719:A/G) homozygote/AA (4 enfants, 3%) avec hautes valeurs moyennes d’AR (141,3 nmol/l). Discussion-Conclusion : Les grandes ΔRA suggèrent une variabilité génique individuelle du métabolisme de ROL. Les génotypes (CA)-ALDH1A2/ SNP (rs12591551:A/C) et (AA) -CRABP2/SNP (rs12724719:A/G) sont associés à des valeurs moyennes hautes d’AR, pouvant protéger l’embryogénèse lors d’une hypovitaminose A maternelle.
Resumo:
Ce travail présente une technique de simulation de feux de forêt qui utilise la méthode Level-Set. On utilise une équation aux dérivées partielles pour déformer une surface sur laquelle est imbriqué notre front de flamme. Les bases mathématiques de la méthode Level-set sont présentées. On explique ensuite une méthode de réinitialisation permettant de traiter de manière robuste des données réelles et de diminuer le temps de calcul. On étudie ensuite l’effet de la présence d’obstacles dans le domaine de propagation du feu. Finalement, la question de la recherche du point d’ignition d’un incendie est abordée.
Resumo:
Cette recherche porte sur la lexicologie, la lexicographie et l’enseignement/apprentissage du lexique. Elle s’inscrit dans le cadre du projet Modélisation ontologique des savoirs lexicographiques en vue de leur application en linguistique appliquée, surnommé Lexitation, qui est, à notre connaissance, la première tentative d’extraction des savoirs lexicographiques — i.e. connaissances déclaratives et procédurales utilisées par des lexicographes — utilisant une méthode expérimentale. Le projet repose sur le constat que les savoirs lexicographiques ont un rôle crucial à jouer en lexicologie, mais aussi en enseignement/apprentissage du lexique. Dans ce mémoire, nous décrirons les méthodes et les résultats de nos premières expérimentations, effectuées à l’aide du Think Aloud Protocol (Ericsson et Simon, 1993). Nous expliquerons l’organisation générale des expérimentations et comment les savoirs lexicographiques extraits sont modélisés pour former une ontologie. Finalement, nous discuterons des applications possibles de nos travaux en enseignement du lexique, plus particulièrement pour la formation des maîtres.
Resumo:
Le pouvoir de détenir une personne à des fins d'enquête n'est pas une technique d'investigation nouvelle et tire son origine du droit anglais. Mais cette méthode d'enquête, qui consiste à restreindre temporairement la liberté de mouvement d'une personne que l'on soupçonne pour des motifs raisonnables d'être impliquée dans une activité criminelle, ne fut reconnue officiellement au Canada qu'en juillet 2004 suite au jugement rendu par la Cour suprême dans l'affaire R. c. Mann. Au moment d'écrire ces lignes, cette stratégie d'enquête policière ne fait toujours pas l'objet d'une réglementation spécifique au Code criminel. L'approbation de cette technique d'enquête, en l'absence de toute forme de législation, ne s'est pas faite sans critiques de la part des auteurs et des commentateurs judiciaires qui y voient une intrusion dans un champ de compétences normalement réservé au Parlement. L'arrêt Mann laisse également en suspens une question cruciale qui se rapporte directement aux droits constitutionnels des citoyens faisant l'objet d'une détention semblable: il s'agit du droit d'avoir recours sans délai à l'assistance d'un avocat. Le présent travail se veut donc une étude approfondie du concept de la détention à des fins d'enquête en droit criminel canadien et de son impact sur les droits constitutionnels dont bénéficient les citoyens de notre pays. Pour accomplir cette tâche, l'auteur propose une analyse de la question en trois chapitres distincts. Dans le premier chapitre, l'auteur se penche sur le rôle et les fonctions dévolus aux agents de la paix qui exécutent leur mission à l'intérieur d'une société libre et démocratique comme celle qui prévaut au Canada. Cette étude permettra au lecteur de mieux connaître les principaux acteurs qui assurent le maintien de l'ordre sur le territoire québécois, les crimes qu'ils sont le plus souvent appelés à combattre ainsi que les méthodes d'enquête qu'ils emploient pour les réprimer. Le deuxième chapitre est entièrement dédié au concept de la détention à des fins d'enquête en droit criminel canadien. En plus de l'arrêt R. c. Mann qui fera l'objet d'une étude détaillée, plusieurs autres sujets en lien avec cette notion seront abordés. Des thèmes tels que la notion de «détention» au sens des articles 9 et 10b) de la Charte canadienne des droits et libertés, la différence entre la détention à des fins d'enquête et l'arrestation, les motifs pouvant légalement justifier une intervention policière de même que les limites et l'entendue de la détention d'une personne pour fins d'enquête, seront aussi analysés. Au troisième chapitre, l'auteur se consacre à la question du droit d'avoir recours sans délai à l'assistance d'un avocat (et d'être informé de ce droit) ainsi que du droit de garder le silence dans des circonstances permettant aux agents de la paix de détenir une personne à des fins d'enquête. Faisant l'analogie avec d'autres jugements rendus par nos tribunaux, l'auteur suggère quelques pistes de solutions susceptibles de combler les lacunes qui auront été préalablement identifiées dans les arrêts Mann et Clayton.
Resumo:
Ce mémoire s'intéresse à la vision par ordinateur appliquée à des projets d'art technologique. Le sujet traité est la calibration de systèmes de caméras et de projecteurs dans des applications de suivi et de reconstruction 3D en arts visuels et en art performatif. Le mémoire s'articule autour de deux collaborations avec les artistes québécois Daniel Danis et Nicolas Reeves. La géométrie projective et les méthodes de calibration classiques telles que la calibration planaire et la calibration par géométrie épipolaire sont présentées pour introduire les techniques utilisées dans ces deux projets. La collaboration avec Nicolas Reeves consiste à calibrer un système caméra-projecteur sur tête robotisée pour projeter des vidéos en temps réel sur des écrans cubiques mobiles. En plus d'appliquer des méthodes de calibration classiques, nous proposons une nouvelle technique de calibration de la pose d'une caméra sur tête robotisée. Cette technique utilise des plans elliptiques générés par l'observation d'un seul point dans le monde pour déterminer la pose de la caméra par rapport au centre de rotation de la tête robotisée. Le projet avec le metteur en scène Daniel Danis aborde les techniques de calibration de systèmes multi-caméras. Pour son projet de théâtre, nous avons développé un algorithme de calibration d'un réseau de caméras wiimotes. Cette technique basée sur la géométrie épipolaire permet de faire de la reconstruction 3D d'une trajectoire dans un grand volume à un coût minime. Les résultats des techniques de calibration développées sont présentés, de même que leur utilisation dans des contextes réels de performance devant public.
Resumo:
Les dérivés cyclopropaniques 1,2,3-substitutés sont des composés intéressants dans de nombreux domaines de la chimie. Au cours de cet ouvrage, nous nous sommes intéressés à la synthèse, tout d’abord diastéréosélective puis énantiosélective de ces composés. Nous nous sommes en particulier intéressés à l’utilisation de la zinciocyclopropanation pour l’obtention de ces dérivés cyclopropaniques 1,2,3-substitutés. Cette méthode consiste en l’utilisation d’un carbénoïde gem-dizincique pour effectuer une réaction de type Simmons-Smith. Cette stratégie a l’avantage d’être diastéréosélective favorisant la formation du zinciocyclopropane dont l’atome de zinc est dans une configuration cis avec le groupement directeur qu’est l’oxygène allylique basique. Lors de cette réaction, l’existence d’une réaction compétitive avec un réactif monozincique diminuait l’utilité de la zinciocyclopropanation. L’issue de la réaction s’est avérée dépendre fortement de la nature du carbénoïde utilisé, de la température réactionnelle et de la présence de ZnI2 dans le milieu. L’étude par GCMS de nombreuses conditions pour la formation des différents carbénoïdes a permis d’identifier les paramètres clés conduisant à la zinciocyclopropanation. Ces découvertes ont notamment permis d’étendre la réaction de zinciocyclopropanation aux alcools allyliques portant un seul groupement directeur (ie. non dérivé du 1,4-buténediol). Dans ces conditions, la réaction s’est avérée extrêmement diastéréosélective favorisant la formation du zinciocyclopropane dont l’atome de zinc est dans une configuration cis avec le groupement directeur. Afin de fonctionnaliser les zinciocyclopropanes ainsi obtenus, plusieurs réactions de fonctionnalisation in situ ont été développées. Chacune de ces méthodes a montré une conservation totale de la diastéréosélectivité obtenue lors de la réaction de zinciocyclopropanation. La versatilité de la zinciocyclopropanation a donc été démontrée. Avec une méthode diastéréosélective efficace pour la formation de zinciocyclopropanes à partir d’alcools allyliques ne portant qu’un seul groupement directeur, il est devenu possible d’envisager le développement énantiosélectif de la réaction. L’utilisation d’un dioxaborolane énantiopur a permis la zinciocyclopropanation avec de très bons excès énantiomères de divers alcools allyliques chiraux. La présence sur la même molécule d’un lien C–Zn nucléophile est d’un atome de bore électrophile a conduit à un échange bore-zinc in situ, formant un cyclopropylborinate énantioenrichi. La formation de ce composé bicyclique a permis d’obtenir une diastéréosélectivité parfaite. De nombreux alcools allyliques ont pu ainsi être convertis en cyclopropylborinates. Une réaction de Suzuki subséquente a permis la formation de dérivés cyclopropaniques 1,2,3-trisubstitués avec de très bons excès énantiomères et une excellente diastéréosélectivité. Les cyclopropylborinates obtenus à l’issue de la zinciocyclopropanation énantiosélective se sont avérés être des unités très versatiles puisque de nombreuses méthodes ont pu être développés pour leur fonctionnalisation.
Resumo:
Les interneurones GABAergiques constituent une population mineure de cellules par rapport aux neurones glutamatergiques dans le néocortex. Cependant ils contrôlent fortement l'excitabilité neuronale, la dynamique des réseaux neuronaux et la plasticité synaptique. L'importance des circuits GABAergiques dans le processus fonctionnel et la plasticité des réseaux corticaux est soulignée par des résultats récents qui montrent que des modifications très précises et fiables des circuits GABAergiques sont associées à divers troubles du développement neurologique et à des défauts dans les fonctions cérébrales. De ce fait, la compréhension des mécanismes cellulaires et moléculaires impliquant le développement des circuits GABAergiques est la première étape vers une meilleure compréhension de la façon dont les anomalies de ces processus peuvent se produire. La molécule d’adhésion cellulaire neurale (NCAM) appartient à la super-famille des immunoglobulines de reconnaissance cellulaire et est impliquée dans des interactions homophiliques et hétérophiliques avec d’autres molécules. Même si plusieurs rôles de NCAM ont été démontrés dans la croissance neuronale, la fasciculation axonale, la formation et la maturation de synapses, de même que dans la plasticité cellulaire de plusieurs systèmes, le rôle de NCAM dans la formation des synapses GABAergiques reste inconnu. Ce projet visait donc à déterminer le rôle précis de NCAM dans le processus de maturation des synapses GABAergiques dans le néocortex, en modulant son expression à différentes étapes du développement. L’approche choisie a été de supprimer NCAM dans des cellules GABAergiques à paniers avant la maturation des synapses (EP12-18), pendant la maturation (EP16-24), ou durant le maintien de celles-ci (EP24-32). Les méthodes utilisées ont été le clonage moléculaire, l’imagerie confocale, la culture de coupes organotypiques et des techniques morphométriques de quantification de l’innervation GABAergique. Nos résultats montrent que l’inactivation de NCAM durant la phase de maturation des synapses périsomatiques (EP16-24) cause une réduction du nombre de synapses GABAergiques périsomatiques et du branchement de ces axones. En revanche, durant la phase de maintien (EP26-32), l’inactivation de NCAM n’a pas affecté ces paramètres des synapses GABAergiques. Or, il existe trois isoformes de NCAM (NCAM120, 140 et 180) qui pourraient jouer des rôles différents dans les divers types cellulaires ou à des stades développementaux différents. Nos données montrent que NCAM120 et 140 sont nécessaires à la maturation des synapses périsomatiques GABAergiques. Cependant, NCAM180, qui est l’isoforme la plus étudiée et caractérisée, ne semble pas être impliquée dans ce processus. De plus, l’inactivation de NCAM n’a pas affecté la densité des épines dendritiques ou leur longueur. Elle est donc spécifique aux synapses périsomatiques GABAeriques. Finalement, nos résultats suggèrent que le domaine conservé C-terminal KENESKA est essentiel à la maturation des synapses périsomatiques GABAergiques. Des expériences futures nous aiderons à mieux comprendre la mécanistique et les différentes voies de signalisation impliquées.