912 resultados para Higher-order functions
Resumo:
This thesis will introduce a new strongly typed programming language utilizing Self types, named Win--*Foy, along with a suitable user interface designed specifically to highlight language features. The need for such a programming language is based on deficiencies found in programming languages that support both Self types and subtyping. Subtyping is a concept that is taken for granted by most software engineers programming in object-oriented languages. Subtyping supports subsumption but it does not support the inheritance of binary methods. Binary methods contain an argument of type Self, the same type as the object itself, in a contravariant position, i.e. as a parameter. There are several arguments in favour of introducing Self types into a programming language (11. This rationale led to the development of a relation that has become known as matching [4, 5). The matching relation does not support subsumption, however, it does support the inheritance of binary methods. Two forms of matching have been proposed (lJ. Specifically, these relations are known as higher-order matching and I-bound matching. Previous research on these relations indicates that the higher-order matching relation is both reflexive and transitive whereas the f-bound matching is reflexive but not transitive (7]. The higher-order matching relation provides significant flexibility regarding inheritance of methods that utilize or return values of the same type. This flexibility, in certain situations, can restrict the programmer from defining specific classes and methods which are based on constant values [21J. For this reason, the type This is used as a second reference to the type of the object that cannot, contrary to Self, be specialized in subclasses. F-bound matching allows a programmer to define a function that will work for all types of A', a subtype of an upper bound function of type A, with the result type being dependent on A'. The use of parametric polymorphism in f-bound matching provides a connection to subtyping in object-oriented languages. This thesis will contain two main sections. Firstly, significant details concerning deficiencies of the subtype relation and the need to introduce higher-order and f-bound matching relations into programming languages will be explored. Secondly, a new programming language named Win--*Foy Functional Object-Oriented Programming Language has been created, along with a suitable user interface, in order to facilitate experimentation by programmers regarding the matching relation. The construction of the programming language and the user interface will be explained in detail.
Resumo:
Formal verification of software can be an enormous task. This fact brought some software engineers to claim that formal verification is not feasible in practice. One possible method of supporting the verification process is a programming language that provides powerful abstraction mechanisms combined with intensive reuse of code. In this thesis we present a strongly typed functional object-oriented programming language. This language features type operators of arbitrary kind corresponding to so-called type protocols. Sub classing and inheritance is based on higher-order matching, i.e., utilizes type protocols as basic tool for reuse of code. We define the operational and axiomatic semantics of this language formally. The latter is the basis of the interactive proof assistant VOOP (Verified Object-Oriented Programs) that allows the user to prove equational properties of programs interactively.
Resumo:
Researchers have conceptualized repetitive behaviours in individuals with Autism Spectrum Disorder (ASD) on a continuum oflower-Ievel, motoric, repetitive behaviours and higher-order, repetitive behaviours that include symptoms ofOCD (Hollander, Wang, Braun, & Marsh, 2009). Although obsessional, ritualistic, and stereotyped behaviours are a core feature of ASD, individuals with ASD frequently experience obsessions and compulsions that meet DSM-IV-TR (American Psychiatric Association, 2000) criteria for Obsessive-Compulsive Disorder (OCD). Given the acknowledged difficulty in differentiating between OCD and Autism-related obsessive-compulsive phenomena, the present study uses the term Obsessive Compulsive Behaviour (OCB) to represent both phenomena. This study used a multiple baseline design across behaviours and ABC designs (Cooper, Heron, & Heward, 2007) to investigate if a 9-week Group Function-Based Cognitive Behavioural Therapy (CBT) decreased OCB in four children (ages 7 - 11 years) with High Functioning Autism (HFA). Key treatment components included traditional CBT components (awareness training, cognitive-behavioural skills training, exposure and response prevention) as well as function-based assessment and intervention. Time series data indicated significant decreases in OCBs. Standardized assessments showed decreases in symptom severity, and increases in quality of life for the participants and their families. Issues regarding symptom presentation, assessment, and treatment of a dually diagnosed child are discussed.
Resumo:
Heyting categories, a variant of Dedekind categories, and Arrow categories provide a convenient framework for expressing and reasoning about fuzzy relations and programs based on those methods. In this thesis we present an implementation of Heyting and arrow categories suitable for reasoning and program execution using Coq, an interactive theorem prover based on Higher-Order Logic (HOL) with dependent types. This implementation can be used to specify and develop correct software based on L-fuzzy relations such as fuzzy controllers. We give an overview of lattices, L-fuzzy relations, category theory and dependent type theory before describing our implementation. In addition, we provide examples of program executions based on our framework.
Resumo:
Several Authors Have Discussed Recently the Limited Dependent Variable Regression Model with Serial Correlation Between Residuals. the Pseudo-Maximum Likelihood Estimators Obtained by Ignoring Serial Correlation Altogether, Have Been Shown to Be Consistent. We Present Alternative Pseudo-Maximum Likelihood Estimators Which Are Obtained by Ignoring Serial Correlation Only Selectively. Monte Carlo Experiments on a Model with First Order Serial Correlation Suggest That Our Alternative Estimators Have Substantially Lower Mean-Squared Errors in Medium Size and Small Samples, Especially When the Serial Correlation Coefficient Is High. the Same Experiments Also Suggest That the True Level of the Confidence Intervals Established with Our Estimators by Assuming Asymptotic Normality, Is Somewhat Lower Than the Intended Level. Although the Paper Focuses on Models with Only First Order Serial Correlation, the Generalization of the Proposed Approach to Serial Correlation of Higher Order Is Also Discussed Briefly.
Resumo:
The GARCH and Stochastic Volatility paradigms are often brought into conflict as two competitive views of the appropriate conditional variance concept : conditional variance given past values of the same series or conditional variance given a larger past information (including possibly unobservable state variables). The main thesis of this paper is that, since in general the econometrician has no idea about something like a structural level of disaggregation, a well-written volatility model should be specified in such a way that one is always allowed to reduce the information set without invalidating the model. To this respect, the debate between observable past information (in the GARCH spirit) versus unobservable conditioning information (in the state-space spirit) is irrelevant. In this paper, we stress a square-root autoregressive stochastic volatility (SR-SARV) model which remains true to the GARCH paradigm of ARMA dynamics for squared innovations but weakens the GARCH structure in order to obtain required robustness properties with respect to various kinds of aggregation. It is shown that the lack of robustness of the usual GARCH setting is due to two very restrictive assumptions : perfect linear correlation between squared innovations and conditional variance on the one hand and linear relationship between the conditional variance of the future conditional variance and the squared conditional variance on the other hand. By relaxing these assumptions, thanks to a state-space setting, we obtain aggregation results without renouncing to the conditional variance concept (and related leverage effects), as it is the case for the recently suggested weak GARCH model which gets aggregation results by replacing conditional expectations by linear projections on symmetric past innovations. Moreover, unlike the weak GARCH literature, we are able to define multivariate models, including higher order dynamics and risk premiums (in the spirit of GARCH (p,p) and GARCH in mean) and to derive conditional moment restrictions well suited for statistical inference. Finally, we are able to characterize the exact relationships between our SR-SARV models (including higher order dynamics, leverage effect and in-mean effect), usual GARCH models and continuous time stochastic volatility models, so that previous results about aggregation of weak GARCH and continuous time GARCH modeling can be recovered in our framework.
Resumo:
Recent work shows that a low correlation between the instruments and the included variables leads to serious inference problems. We extend the local-to-zero analysis of models with weak instruments to models with estimated instruments and regressors and with higher-order dependence between instruments and disturbances. This makes this framework applicable to linear models with expectation variables that are estimated non-parametrically. Two examples of such models are the risk-return trade-off in finance and the impact of inflation uncertainty on real economic activity. Results show that inference based on Lagrange Multiplier (LM) tests is more robust to weak instruments than Wald-based inference. Using LM confidence intervals leads us to conclude that no statistically significant risk premium is present in returns on the S&P 500 index, excess holding yields between 6-month and 3-month Treasury bills, or in yen-dollar spot returns.
Resumo:
L'utilisation des méthodes formelles est de plus en plus courante dans le développement logiciel, et les systèmes de types sont la méthode formelle qui a le plus de succès. L'avancement des méthodes formelles présente de nouveaux défis, ainsi que de nouvelles opportunités. L'un des défis est d'assurer qu'un compilateur préserve la sémantique des programmes, de sorte que les propriétés que l'on garantit à propos de son code source s'appliquent également au code exécutable. Cette thèse présente un compilateur qui traduit un langage fonctionnel d'ordre supérieur avec polymorphisme vers un langage assembleur typé, dont la propriété principale est que la préservation des types est vérifiée de manière automatisée, à l'aide d'annotations de types sur le code du compilateur. Notre compilateur implante les transformations de code essentielles pour un langage fonctionnel d'ordre supérieur, nommément une conversion CPS, une conversion des fermetures et une génération de code. Nous présentons les détails des représentation fortement typées des langages intermédiaires, et les contraintes qu'elles imposent sur l'implantation des transformations de code. Notre objectif est de garantir la préservation des types avec un minimum d'annotations, et sans compromettre les qualités générales de modularité et de lisibilité du code du compilateur. Cet objectif est atteint en grande partie dans le traitement des fonctionnalités de base du langage (les «types simples»), contrairement au traitement du polymorphisme qui demande encore un travail substantiel pour satisfaire la vérification de type.
Resumo:
Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.
Resumo:
La découverte dans le cerveau du singe macaque de cellules visuo-motrices qui répondent de façon identique à la production et la perception d’actes moteurs soutient l’idée que ces cellules, connues sous le nom de neurones-miroirs, encoderaient la représentation d’actes moteurs. Ces neurones, et le système qu’ils forment, constitueraient un système de compréhension moteur; par delà la simple représentation motrice, il est également possible que ce système participe à des processus de haut niveau en lien avec la cognition sociale. Chez l’humain adulte, des études d’imagerie récentes montrent d’importants chevauchements entre les patrons d’activité liés à l’exécution d’actes moteurs et ceux associés à la perception d’actions. Cependant, malgré le nombre important d’études sur ce système de résonance motrice, étonnamment peu se sont penchées sur les aspects développementaux de ce mécanisme, de même que sa relation avec certaines habiletés sociales dans la population neurotypique. De plus, malgré l’utilisation répandue de certaines techniques neurophysiologiques pour quantifier l’activité de ce système, notamment l’électroencéphalographie et la stimulation magnétique transcrânienne, on ignore en grande partie la spécificité et la convergence de ces mesures dans l’étude des processus de résonance motrice. Les études rassemblées ici visent à combler ces lacunes, c'est-à-dire (1) définir l’existence et les propriétés fonctionnelles du système de résonance motrice chez l’enfant humain, (2) établir le lien entre ce système et certaines habiletés sociales spécifiques et (3) déterminer la validité des outils d’investigation couramment utilisés pour mesurer son activité. Dans l’article 1, l’électroencéphalographie quantitative est utilisée afin de mesurer l’activité des régions sensorimotrices chez un groupe d’enfants d’âge scolaire durant la perception d’actions de la main. On y démontre une modulation de l’activité du rythme mu aux sites centraux non seulement lors de l’exécution de tâches motrices, mais également lors de l’observation passive d’actions. Ces résultats soutiennent l’hypothèse de l’existence d’un système de résonance motrice sensible aux représentations visuelles d’actes moteurs dans le cerveau immature. L’article 2 constitue une étude de cas réalisée chez une jeune fille de 12 ans opérée pour épilepsie réfractaire aux médicaments. L’électroencéphalographie intracrânienne est utilisée afin d’évaluer le recrutement du cortex moteur lors de la perception de sons d’actions. On y montre une modulation de l’activité du cortex moteur, visible dans deux périodes distinctes, qui se reflètent par une diminution de la puissance spectrale des fréquences beta et alpha. Ces résultats soutiennent l’hypothèse de l’existence d’un système de résonance motrice sensible aux représentations auditives d’actions chez l’enfant. L’article 3 constitue une recension des écrits portant sur les données comportementales et neurophysiologiques qui suggèrent la présence d’un système de compréhension d’action fonctionnel dès la naissance. On y propose un modèle théorique où les comportements d’imitation néonataux sont vus comme la résultante de mécanismes d’appariement moteurs non inhibés. Afin de mesurer adéquatement la présence de traits empathiques et autistique dans le but de les mettre en relation avec l’activité du système de résonance motrice, l’article 4 consiste en une validation de versions françaises des échelles Empathy Quotient (Baron-Cohen & Wheelwright, 2004) et Autism Spectrum Quotient (Baron-Cohen et al., 2001) qui seront utilisées dans l’article 5. Les versions traduites de ces échelles ont été administrées à 100 individus sains et 23 personnes avec un trouble du spectre autistique. Les résultats répliquent fidèlement ceux obtenus avec les questionnaires en version anglaise, ce qui suggère la validité des versions françaises. Dans l’article 5, on utilise la stimulation magnétique transcrânienne afin d’investiguer le décours temporel de l’activité du cortex moteur durant la perception d’action et le lien de cette activité avec la présence de traits autistiques et empathiques chez des individus normaux. On y montre que le cortex moteur est rapidement activé suivant la perception d’un mouvement moteur, et que cette activité est corrélée avec les mesures sociocognitives utilisées. Ces résultats suggèrent l’existence d’un système d’appariement moteur rapide dans le cerveau humain dont l’activité est associée aux aptitudes sociales. L’article 6 porte sur la spécificité des outils d’investigation neurophysiologique utilisés dans les études précédentes : la stimulation magnétique transcrânienne et l’électroencéphalographie quantitative. En utilisant ces deux techniques simultanément lors d’observation, d’imagination et d’exécution d’actions, on montre qu’elles évaluent possiblement des processus distincts au sein du système de résonance motrice. En résumé, cette thèse vise à documenter l’existence d’un système de résonance motrice chez l’enfant, d’établir le lien entre son fonctionnement et certaines aptitudes sociales et d’évaluer la validité et la spécificité des outils utilisés pour mesurer l’activité au sein de ce système. Bien que des recherches subséquentes s’avèrent nécessaires afin de compléter le travail entamé ici, les études présentées constituent une avancée significative dans la compréhension du développement et du fonctionnement du système de résonance motrice, et pourraient éventuellement contribuer à l’élaboration d’outils diagnostiques et/ou de thérapeutiques chez des populations où des anomalies de ce système ont été répertoriées.
Resumo:
Bien qu’il soit largement reconnu dans différents milieux d’intervention au Québec que l’intervenant est un des agents actifs les plus importants de l’efficacité d’une intervention – et c’est un des postulats centraux de l’intervention psychoéducative –, il existe encore très peu d’instruments de mesure validés empiriquement permettant l’évaluation du fonctionnement d’un groupe d’intervenants. Néanmoins, il existe un instrument pouvant mesurer le climat social d’une équipe, soit le Questionnaire du climat social d’une équipe d’intervenants (QCSÉI; Le Blanc, Trudeau-Le Blanc, & Lanctôt, 1999; Moos 1987). Le QCSÉI compte 10 échelles de premier niveau. Dans ses écrits théoriques, Moos (2003) a suggéré que le climat social est un construit hiérarchique et que l’ensemble des instruments mesurant différentes dimensions du climat social d’un groupe ou d’une équipe devrait se regrouper en trois facteurs d’ordre supérieur, soit les relations interpersonnelles, la découverte de soi et le maintien de l’ordre et du changement. Un examen conceptuel des échelles du QCSÉI suggère que ce modèle théorique est problématique. Cette étude visait à déterminer si la structure hiérarchique proposée par Moos était adéquate pour le QCSÉI dans un échantillon d’intervenants québécois. L’échantillon utilisé était composé d’intervenants faisant partie de Boscoville2000, un projet d’intervention cognitivecomportementale en milieu résidentiel pour les adolescents en difficulté. Des analyses factorielles exploratoires ont d’abord démontré que la structure de premier niveau est bien reproduite. Deux échelles jugées importantes pour mesurer le climat social ont ensuite été ajoutées. Par la suite, des analyses factorielles exploratoires et confirmatoires ont démontré que la structure théorique hiérarchique en trois dimensions d’ordre supérieur de Moos ne représente pas bien les données. Les analyses ont révélé une structure alternative plus intéressante sur le plan conceptuel et qui représentait mieux les données. Des corrélations entre les échelles de climat social de l’équipe et les traits de personnalité des intervenants ainsi que différentes variables sociodémographiques et liées à la pratique professionnelle ont procuré un appui qui suggère que le QCSÉI possède une validité de critère acceptable.
Resumo:
Les plantes doivent assurer la protection de trois génomes localisés dans le noyau, les chloroplastes et les mitochondries. Si les mécanismes assurant la réparation de l’ADN nucléaire sont relativement bien compris, il n’en va pas de même pour celui des chloroplastes et des mitochondries. Or il est important de bien comprendre ces mécanismes puisque des dommages à l’ADN non ou mal réparés peuvent entraîner des réarrangements dans les génomes. Chez les plantes, de tels réarrangements dans l’ADN mitochondrial ou dans l’ADN chloroplastique peuvent conduire à une perte de vigueur ou à un ralentissement de la croissance. Récemment, notre laboratoire a identifié une famille de protéines, les Whirly, dont les membres se localisent au niveau des mitochondries et des chloroplastes. Ces protéines forment des tétramères qui lient l’ADN monocaténaire et qui accomplissent de nombreuses fonctions associées au métabolisme de l’ADN. Chez Arabidopsis, deux de ces protéines ont été associées au maintien de la stabilité du génome du chloroplaste. On ignore cependant si ces protéines sont impliquées dans la réparation de l’ADN. Notre étude chez Arabidopsis démontre que des cassures bicaténaires de l’ADN sont prises en charge dans les mitochondries et les chloroplastes par une voie de réparation dépendant de très courtes séquences répétées (de cinq à cinquante paires de bases) d’ADN. Nous avons également montré que les protéines Whirly modulent cette voie de réparation. Plus précisément, leur rôle serait de promouvoir une réparation fidèle de l’ADN en empêchant la formation de réarrangements dans les génomes de ces organites. Pour comprendre comment les protéines Whirly sont impliquées dans ce processus, nous avons élucidé la structure cristalline d’un complexe Whirly-ADN. Nous avons ainsi pu montrer que les Whirly lient et protègent l’ADN monocaténaire sans spécificité de séquence. La liaison de l’ADN s’effectue entre les feuillets β de sous-unités contiguës du tétramère. Cette configuration maintient l’ADN sous une forme monocaténaire et empêche son appariement avec des acides nucléiques de séquence complémentaire. Ainsi, les protéines Whirly peuvent empêcher la formation de réarrangements et favoriser une réparation fidèle de l’ADN. Nous avons également montré que, lors de la liaison de très longues séquences d’ADN, les protéines Whirly peuvent s’agencer en superstructures d’hexamères de tétramères, formant ainsi des particules sphériques de douze nanomètres de diamètre. En particulier, nous avons pu démontrer l’importance d’un résidu lysine conservé chez les Whirly de plantes dans le maintien de la stabilité de ces superstructures, dans la liaison coopérative de l’ADN, ainsi que dans la réparation de l’ADN chez Arabidopsis. Globalement, notre étude amène de nouvelles connaissances quant aux mécanismes de réparation de l’ADN dans les organites de plantes ainsi que le rôle des protéines Whirly dans ce processus.
Resumo:
Ce mémoire s’applique à étudier d’abord, dans la première partie, la mesure de Mahler des polynômes à une seule variable. Il commence en donnant des définitions et quelques résultats pertinents pour le calcul de telle hauteur. Il aborde aussi le sujet de la question de Lehmer, la conjecture la plus célèbre dans le domaine, donne quelques exemples et résultats ayant pour but de résoudre la question. Ensuite, il y a l’extension de la mesure de Mahler sur les polynômes à plusieurs variables, une démarche semblable au premier cas de la mesure de Mahler, et le sujet des points limites avec quelques exemples. Dans la seconde partie, on commence par donner des définitions concernant un ordre supérieur de la mesure de Mahler, et des généralisations en passant des polynômes simples aux polynômes à plusieurs variables. La question de Lehmer existe aussi dans le domaine de la mesure de Mahler supérieure, mais avec des réponses totalement différentes. À la fin, on arrive à notre objectif, qui sera la démonstration de la généralisation d’un théorème de Boyd-Lawton, ce dernier met en évidence une relation entre la mesure de Mahler des polynômes à plusieurs variables avec la limite de la mesure de Mahler des polynômes à une seule variable. Ce résultat a des conséquences en termes de la conjecture de Lehmer et sert à clarifier la relation entre les valeurs de la mesure de Mahler des polynômes à une variable et celles des polynômes à plusieurs variables, qui, en effet, sont très différentes en nature.
Resumo:
Les récepteurs couplés aux protéines G (RCPGs) représentent la plus grande famille de cibles thérapeutiques pour le traitement d’une panoplie de pathologies humaines. Bien que plusieurs décennies de recherche aient permis de façonner nos connaissances sur ces protéines membranaires, notre compréhension des déterminants moléculaires de leur activité signalétique reste encore limitée. De ces domaines de recherche, une avancée récente a mis à jour un nouveau phénomène, appelé sélectivité fonctionnelle des ligands, qui a bouleversé les paradigmes décrivant leu fonctionnement de ces récepteurs. Ce concept émane d’observations montrant que l’activité pharmacologique de certains ligands n’est pas nécessairement conservée sur tout le répertoire signalétiques connu du récepteur et peu se restreindre à l'activation sélective d’un sous-groupe de voies de signalisation.Ce nouveau modèle pharmacologique de l'activation des RCPG ouvre de nouvelles possibilités pour la découverte de médicaments plus efficace et sûr, ciblant les RCPGs. En effet, il permet la conception de molécules modulant spécifiquement les voies signalétiques d’intérêt thérapeutique, sans engager les autres voies qui pourraient mener à des effets secondaires indésirables ou de la tolérance. Cette thèse décrit l'utilisation d'une nouvelle approche sans marquage, basée sur la mesure du changement l'impédance cellulaire. Par la mesure des changements cellulaires, comme la morphologie, l’adhésion et/ou la redistribution des macromolécules, cette approche permet de mesurer de façon simultanée l'activité de plusieurs voies de signalisation impliqués dans ces réponses. Utilisant le récepteur β2-adrénergique (β2AR) comme modèle, nous avons démontré que les variations dans l’impédance cellulaire étaient directement liées à l’activation de multiples voies de signalisation suite à la stimulation du récepteur par son ligand. L’agoniste type du β2AR, l’isoprotérénol, s’est avéré induire une réponse d’impédance dose-dépendante constituée, dans le temps, de plusieurs caractéristiques distinctes pouvant être bloquées de façon compétitive par l’antagoniste ICI118,551 Par l’utilisation d’inhibiteurs sélectifs, nous avons été en mesure de déterminer la contribution de plusieurs voies signalétiques canoniques, comme les voies dépendantes de Gs et Gi, la production d’AMPc et l’activation de ERK1/2, sur ces changements. De plus, la dissection de la réponse d’impédance a permis d’identifier une nouvelle voie de mobilisation du Ca2+ contribuant à la réponse globale des changements initiés par la stimulation du β2AR. Dans une autre étude, nous avons rapporté que la réponse calcique induite par le β2AR serait attribuable à une transactivation Gs-dépendant du récepteur purinergique P2Y11, lui-même couplé à la protéine Gq. La mesure d’impédance permettant de distinguer et de décrire une pléiade d’activités signalétiques, nous avons émis l’hypothèse que des ligands arborant des profils signalétiques différents généreraient des réponses d’impédance distinctes. Le criblage d’une librairie de ligands spécifiques au β2AR a révélé une grande variété de signatures d’impédance. Grâce au développement d’une approche computationnelle innovatrice, nous avons été en mesure de regrouper ces signatures en cinq classes de composés, un regroupement qui s’est avéré hautement corrélé avec le profil signalétique des différents ligands. Nous avons ensuite combiné le criblage de composés par impédance avec l’utilisation d’inhibiteurs sélectifs de voies signalétiques afin d’augmenter la résolution du regroupement. En évaluant l’impact d’une voie signalétique donnée sur la signature d’impédance, nous avons été en mesure de révéler une plus grande variété de textures parmi les ligands. De plus, cette méthode s’est avérée efficace pour prédire le profil signalétique d’une librairie de composés non caractérisés, ciblant le β2AR. Ces travaux ont mené à l’élaboration d’une méthode permettant d’exprimer visuellement la sélectivité fonctionnelle de ligands et ont révélé de nouvelles classes de composés pour ce récepteur. Ces nouvelles classes de composés ont ensuite été testées sur des cardiomyocytes humains, confirmant que les composés regroupés dans différentes classes produisent des effets distincts sur la contractilité de ces cellules. Globalement, ces travaux démontrent la pertinence de l’utilisation de l’impédance cellulaire pour une évaluation précise des différences fonctionnelles parmi les composés ciblant les RCPGs. En fournissant une représentation pluridimensionnelle de la signalisation émanant des RCPGs à l’aide d’un seul essai ne requérant pas de marquage, les signatures d’impédance représentent une stratégie simple et innovante pour l’évaluation de la fonctionnalité sélective des ligands. Cette méthode pourrait être d’une grande utilité dans le processus de découverte de nouveaux médicaments.
Resumo:
La division cellulaire est un processus fondamental des êtres vivants. À chaque division cellulaire, le matériel génétique d'une cellule mère est dupliqué et ségrégé pour produire deux cellules filles identiques; un processus nommé la mitose. Tout d'abord, la cellule doit condenser le matériel génétique pour être en mesure de séparer mécaniquement et également le matériel génétique. Une erreur dans le niveau de compaction ou dans la dynamique de la mitose occasionne une transmission inégale du matériel génétique. Il est suggéré dans la littérature que ces phénomènes pourraient causé la transformation des cellules cancéreuses. Par contre, le mécanisme moléculaire générant la coordination des changements de haut niveau de la condensation des chromosomes est encore incompris. Dans les dernières décennies, plusieurs approches expérimentales ont identifié quelques protéines conservées dans ce processus. Pour déterminer le rôle de ces facteurs dans la compaction des chromosomes, j'ai effectué un criblage par ARNi couplé à de l'imagerie à haute-résolution en temps réel chez l'embryon de C. elegans. Grâce à cette technique, j'ai découvert sept nouvelles protéines requises pour l'assemblage des chromosomes mitotiques, incluant la Ribonucléotide réductase (RNR) et Topoisomérase II (topo-II). Dans cette thèse, je décrirai le rôle structural de topo-II dans l'assemblage des chromosomes mitotiques et ces mécanismes moléculaires. Lors de la condensation des chromosomes, topo-II agit indépendamment comme un facteur d'assemblage local menant par la suite à la formation d'un axe de condensation tout au long du chromosome. Cette localisation est à l'opposé de la position des autres facteurs connus qui sont impliqués dans la condensation des chromosomes. Ceci représente un nouveau mécanisme pour l'assemblage des chromosomes chez C. elegans. De plus, j'ai découvert un rôle non-enzymatique à la protéine RNR lors de l'assemblage des chromosomes. Lors de ce processus, RNR est impliqué dans la stabilité des nucléosomes et alors, permet la compaction de haut niveau de la chromatine. Dans cette thèse, je rapporte également des résultats préliminaires concernant d'autres nouveaux facteurs découverts lors du criblage ARNi. Le plus important est que mon analyse révèle que la déplétion des nouvelles protéines montre des phénotypes distincts, indiquant la fonction de celles-ci lors de l'assemblage des chromosomes. Somme toute, je conclus que les chromosomes en métaphase sont assemblés par trois protéines ayant des activités différentes d'échafaudage: topoisomérase II, les complexes condensines et les protéines centromériques. En conclusion, ces études prouvent le mécanisme moléculaire de certaines protéines qui contribuent à la formation des chromosomes mitotiques.