25 resultados para Logic of many
Resumo:
This Paper Intends to Develop a Coherent Methodological Framework Concerned with the Appraisal of Scientific Theories in Economics, and Which Is Based on a Postulated Aim of Science. We First Define the Scope of a Methodological Inquiry (Precise Definition of What Is Meant by the Logic of Appraisal of Scientific Theories) and Review the Work of Popper and Lakatos in the Philosophy of Science. We Then Use Their Results to Develop a Rational Structure of Scientific Activity. We Identify and Analyse Both a Micro and Macro Framework for the Process of Appraisal and Single Out the Importance of So-Called 'Fundamental Assumptions' in Creating Externalities in the Appraisal Process Which Forces Us to Adop a Multi-Level Analysis. Special Attention Is Given to the Role and Significance of the Abstraction Process and the Use of Assumptions in General. the Proposed Structure of Scientific Activity Is Illustrated with Examples From Economics.
Resumo:
Conditional heteroskedasticity is an important feature of many macroeconomic and financial time series. Standard residual-based bootstrap procedures for dynamic regression models treat the regression error as i.i.d. These procedures are invalid in the presence of conditional heteroskedasticity. We establish the asymptotic validity of three easy-to-implement alternative bootstrap proposals for stationary autoregressive processes with m.d.s. errors subject to possible conditional heteroskedasticity of unknown form. These proposals are the fixed-design wild bootstrap, the recursive-design wild bootstrap and the pairwise bootstrap. In a simulation study all three procedures tend to be more accurate in small samples than the conventional large-sample approximation based on robust standard errors. In contrast, standard residual-based bootstrap methods for models with i.i.d. errors may be very inaccurate if the i.i.d. assumption is violated. We conclude that in many empirical applications the proposed robust bootstrap procedures should routinely replace conventional bootstrap procedures for autoregressions based on the i.i.d. error assumption.
Resumo:
Il existe somme toute peu de théories du projet offrant une modélisation construite à partir de la complexité et de la diversité du projet d’architecture. Pourtant,certaines situations rassemblant parfois plusieurs dizaines de projets s’offrent d’elles-mêmes comme des situations comparatives et expérimentales : les concours d’architecture, d’urbanisme et de paysage. Le Laboratoire d’étude de l’architecture potentielle de l’Université de Montréal (Aménagement), après avoir développé un système d’archivage numérique des concours canadiens, a entrepris, avec le soutien du Groupement d’intérêt public « Europe des projets architecturaux et urbains », de développer la base de données documentaire des concours d’idées Europan. Au-delà des questions d’archivage numérique, se profilent clairement des possibilités de théorisation s’appuyant sur les logiques d’une base de données, en particulier sur la constitution du diagramme entités et relations, modélisation indispensable à sa traduction informatique. Cette recherche entreprend une première mise à jour de ces éléments conceptuels et tend à montrer que la base de données est un véritable modèle théorique du projet ouvrant sur de nouvelles avenues de recherche et de connaissance.
Resumo:
Une préoccupation essentielle traverse cette thèse: l'indifférence systémique de la Loi internationale sur la propriété intellectuelle a l'égard des savoirs traditionnels autochtones. De manière générale, un écart semble d'ailleurs croissant entre l'importance des accords internationaux sur les questions d'intérêt commercial et ceux de nature sociale. Les savoirs traditionnels autochtones sur les plantes médicinales sont particulièrement désavantagés dans ce système dichotomique puisqu'ils sont non seulement à l'origine d'énormes profits commerciaux mais se trouvent aussi au cœur de multiples croyances propres à ces sociétés. L'Accord sur les aspects des droits de propriété intellectuelle qui touchent au commerce (ADPIC) de l'Organisation mondiale du commerce (OMC) a cristallisé le souci de la législation internationale à l'égard d'une protection efficace des intérêts commerciaux. Deux années auparavant, la Convention sur la diversité biologique (CDB) était signée, traduisant une préoccupation à l'égard du développement durable, et elle devenait le premier accord international à tenir compte des savoirs traditionnels autochtones. On considère souvent que ces deux accords permettent l'équilibre du développement commercial et durable, requis par l'économie internationale. Après plus ample examen, on a plutôt l'impression que l'idée d'une CDB défendant, avec succès et efficacité, la nécessité du développement durable et des savoirs traditionnels autochtones contre les pressions opposées de l'ADPIC et de l'OMC est, au mieux, simpliste. La thèse explore également la fonction de la Loi sur les brevets dans la création d’industries, notamment pharmaceutique, et la manière dont ces industries influencent la législation nationale et en particulier internationale. De même, elle traite du rôle que jouent les brevets dans l'affaiblissement et la dépossession des peuples autochtones dotés de savoirs traditionnels sur les plantes médicinales, conduisant à une situation ou ces savoirs sont marginalisés ainsi que leurs détenteurs. La thèse aborde les failles institutionnelles du système juridique international qui permet une telle situation et indique l'urgente nécessité d'examiner attentivement les inégalités économiques et sociales au Nord comme au Sud, et non seulement entre eux. Finalement, la thèse suggère que la législation internationale gagnerait à s'inspirer des diverses traditions juridiques présentes à travers le monde et, dans ce cas particulier, peut être les détenteurs des connaissances traditionnelles concernant les plantes médicinales seront mieux servi par le droit des obligations.
Resumo:
De récentes découvertes montrent le rôle important que joue l’acide ribonucléique (ARN) au sein des cellules, que ce soit le contrôle de l’expression génétique, la régulation de plusieurs processus homéostasiques, en plus de la transcription et la traduction de l’acide désoxyribonucléique (ADN) en protéine. Si l’on veut comprendre comment la cellule fonctionne, nous devons d’abords comprendre ses composantes et comment ils interagissent, et en particulier chez l’ARN. La fonction d’une molécule est tributaire de sa structure tridimensionnelle (3D). Or, déterminer expérimentalement la structure 3D d’un ARN s’avère fort coûteux. Les méthodes courantes de prédiction par ordinateur de la structure d’un ARN ne tiennent compte que des appariements classiques ou canoniques, similaires à ceux de la fameuse structure en double-hélice de l’ADN. Ici, nous avons amélioré la prédiction de structures d’ARN en tenant compte de tous les types possibles d’appariements, dont ceux dits non-canoniques. Cela est rendu possible dans le contexte d’un nouveau paradigme pour le repliement des ARN, basé sur les motifs cycliques de nucléotides ; des blocs de bases pour la construction des ARN. De plus, nous avons dévelopées de nouvelles métriques pour quantifier la précision des méthodes de prédiction des structures 3D des ARN, vue l’introduction récente de plusieurs de ces méthodes. Enfin, nous avons évalué le pouvoir prédictif des nouvelles techniques de sondage de basse résolution des structures d’ARN.
Investigation of femtosecond laser technology for the fabrication of drug nanocrystals in suspension
Resumo:
La technique du laser femtoseconde (fs) a été précédemment utilisée pour la production de nanoparticules d'or dans un environnement aqueux biologiquement compatible. Au cours de ce travail de maîtrise, cette méthode a été investiguée en vue d'une application pour la fabrication de nanocristaux de médicament en utilisant le paclitaxel comme modèle. Deux procédés distincts de cette technologie à savoir l'ablation et la fragmentation ont été étudiés. L'influence de la puissance du laser, de point de focalisation, et de la durée du traitement sur la distribution de taille des particules obtenues ainsi que leur intégrité chimique a été évaluée. Les paramètres ont ainsi été optimisés pour la fabrication des nanoparticules. L’évaluation morphologique et chimique a été réalisée par microscopie électronique et spectroscopie infrarouge respectivement. L'état cristallin des nanoparticules de paclitaxel a été caractérisé par calorimétrie differentielle et diffraction des rayons X. L'optimisation du procédé de production de nanoparticules par laser fs a permis d'obtenir des nanocristaux de taille moyenne (400 nm, polydispersité ≤ 0,3). Cependant une dégradation non négligeable a été observée. La cristallinité du médicament a été maintenue durant la procédure de réduction de taille, mais le paclitaxel anhydre a été transformé en une forme hydratée. Les résultats de cette étude suggèrent que le laser fs peut générer des nanocristaux de principe actif. Cependant cette technique peut se révéler problématique pour des médicaments sensibles à la dégradation. Grâce à sa facilité d'utilisation et la possibilité de travailler avec des quantités restreintes de produit, le laser fs pourrait représenter une alternative valable pour la production de nanoparticules de médicaments peu solubles lors des phases initiales de développement préclinique. Mots-clés: paclitaxel, nanocristaux, laser femtoseconde, ablation, fragmentation
Resumo:
Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.
Resumo:
Primary cilia are microtubule-rich hair-like extensions protruding from the surface of most post-mitotic cells. They act as sensory organelles that help interpret various environmental cues. Mutations in genes encoding proteins involved in ciliogenesis or protein transport to the primary cilia lead to a wide variety of diseases commonly referred to as ciliopathies,which include primary ciliary dyskinesia, situs invertus, hydrocephalus, kidney diseases, respiratory diseases, and retinal degenerations. In the retina, the photoreceptor cells have a highly specialized primary cilium called the outer segment (OS), which is essential for photosensation. Development of the photoreceptor OS shares key regulatory mechanisms with ciliogenesis in other cell types. Accumulating evidence indicates that mutations that affect OS development and/or protein transport to the OS generally lead to photoreceptor degeneration, which can be accompanied by a range of other clinical manifestations due to the dysfunction of primary cilia in different cell types. Here, we review the general mechanisms regulating ciliogenesis, and present different examples of mutations affecting OS ciliogenesis and protein transport that lead to photoreceptor degeneration. Overall, we conclude that the genetic and molecular evidence accumulated in recent years suggest a clear link between the development and function of the primary cilium and various clinical conditions. Future studies aimed at uncovering the cellular and molecular mechanisms implicated in ciliogenesis in a wide variety of animal models should greatly increase our understanding of the pathophysiology of many human diseases, including retinal degenerations.
Resumo:
Le long bio-polymère d'ADN est condensé à l’intérieur du noyau des cellules eukaryotes à l'aide de petites protéines appelées histones. En plus de leurs fonctions condensatrices,ces histones sont également la cible de nombreuses modifications post-traductionnelles(MPT), particulièrement au niveau de leur section N-terminale. Ces modifications réversibles font partie d’un code d’histones épi-génétique transmissible qui orchestre et module dynamiquement certains événements impliquant la chromatine, tels l’activation et la désactivation de gènes ainsi que la duplication et la réparation d’ADN. Ces modifications sont impliquées subséquemment dans la signalisation et la progression de cancers, tels que la leucémie. En conséquence, l'élucidation des modifications d’histones est importante pour comprendre leurs fonctions biologiques. Une méthodologie analytique a été mise au point en laboratoire pour isoler, détecter, et quantifier les MPT d’histones en utilisant une approche rapide à deux volets à l’aide d’outils bioinformatiques spécialisés. La méthodologie développée en laboratoire a été validée en utilisant des histones de souche sauvage ainsi que deux types d’histones mutants déficients en enzymes acétyltransferase. Des trois sources d’histones utilisées, la seule MPT qui a démontré un changement significatif est l’acétylation de l’histone H3 à lysine 56 (H3K56ac). L’expression et la stoechiométrie de cette MPT, issue de cellules de souche sauvage et de cellules mutantes, ont été déterminées avec précision et comparées. Les fonctions de balayage polyvalentes d'un instrument à trappe ionique quadrupôle linéaire hybride ont été utilisées pour améliorer la détection de protéines intactes. Le mode de balayage « enhanced multiply charged » (EMC) a été modifié pour contenir et détecter les ions de protéines intactes situées dans la trappe ionique linéaire. Ce mode de balayage nommé « targeted EMC » (tEMC) a permis de quadrupler le niveau de sensibilité (signal/interférence), et quintupler la résolution du mode de balayage conventionnel. De plus, la capacité de séparation des charges du tEMC a réduit de façon significative les effets de « space charge » dans la trappe ionique linéaire. La résolution supérieure du mode tEMC a permis de différencier plusieurs isoformes modifiées, particulièrement pour l’histone H3. L’analyse des peptides d’histones trypsiques à l’aide du mode de balayage « MRM » a permis le séquençage et la quantification de MPT avec un haut degré de précision. La seule MPT qui était sous-exprimée entre l’histone de souche sauvage et le mutant DOT1L fut la méthylation de l’histone H3 lysine 79(H3K79me1). Les effets de deux inhibiteurs d’enzymes HDAC (HDACi) sur l’expression de MPT d’histone ont été évalués en utilisant la méthodologie analytique mentionnée. Les histones extraites de cellules normales et cancéreuses ont été exposées à du Vorinostat(SAHA) ou du Entinostat (MS-275) pour une période de 24 à 72 heures. Deux histones furent principalement affectées, soit H3 et H4. Étonnamment, les mêmes effets n'ont pas été détectés lorsque les cellules normales ont été traitées avec le HDACi pour une période de 48 à 72 heures. Une méthode absolue de quantification avec une courbe d’étalonnage a été développée pour le peptide H3K56ac. Contrairement à certaines publications, nos résultats démontrent que cette MPT est présente dans les cellules mammifères avec une stoechiométrie très basse (< 0,1%) et n'est pas surexprimée de façon significative après le traitement au HDACi.
Resumo:
Les habitudes de consommation de substances psychoactives, le stress, l’obésité et les traits cardiovasculaires associés seraient en partie reliés aux mêmes facteurs génétiques. Afin d’explorer cette hypothèse, nous avons effectué, chez 119 familles multi-générationnelles québécoises de la région du Saguenay-Lac-St-Jean, des études d’association et de liaison pangénomiques pour les composantes génétiques : de la consommation usuelle d’alcool, de tabac et de café, de la réponse au stress physique et psychologique, des traits anthropométriques reliés à l’obésité, ainsi que des mesures du rythme cardiaque (RC) et de la pression artérielle (PA). 58000 SNPs et 437 marqueurs microsatellites ont été utilisés et l’annotation fonctionnelle des gènes candidats identifiés a ensuite été réalisée. Nous avons détecté des corrélations phénotypiques significatives entre les substances psychoactives, le stress, l’obésité et les traits hémodynamiques. Par exemple, les consommateurs d’alcool et de tabac ont montré un RC significativement diminué en réponse au stress psychologique. De plus, les consommateurs de tabac avaient des PA plus basses que les non-consommateurs. Aussi, les hypertendus présentaient des RC et PA systoliques accrus en réponse au stress psychologique et un indice de masse corporelle (IMC) élevé, comparativement aux normotendus. D’autre part, l’utilisation de tabac augmenterait les taux corporels d’épinéphrine, et des niveaux élevés d’épinéphrine ont été associés à des IMC diminués. Ainsi, en accord avec les corrélations inter-phénotypiques, nous avons identifié plusieurs gènes associés/liés à la consommation de substances psychoactives, à la réponse au stress physique et psychologique, aux traits reliés à l’obésité et aux traits hémodynamiques incluant CAMK4, CNTN4, DLG2, DAG1, FHIT, GRID2, ITPR2, NOVA1, NRG3 et PRKCE. Ces gènes codent pour des protéines constituant un réseau d’interactions, impliquées dans la plasticité synaptique, et hautement exprimées dans le cerveau et ses tissus associés. De plus, l’analyse des sentiers de signalisation pour les gènes identifiés (P = 0,03) a révélé une induction de mécanismes de Potentialisation à Long Terme. Les variations des traits étudiés seraient en grande partie liées au sexe et au statut d’hypertension. Pour la consommation de tabac, nous avons noté que le degré et le sens des corrélations avec l’obésité, les traits hémodynamiques et le stress sont spécifiques au sexe et à la pression artérielle. Par exemple, si des variations ont été détectées entre les hommes fumeurs et non-fumeurs (anciens et jamais), aucune différence n’a été observée chez les femmes. Nous avons aussi identifié de nombreux traits reliés à l’obésité dont la corrélation avec la consommation de tabac apparaît essentiellement plus liée à des facteurs génétiques qu’au fait de fumer en lui-même. Pour le sexe et l’hypertension, des différences dans l’héritabilité de nombreux traits ont également été observées. En effet, des analyses génétiques sur des sous-groupes spécifiques ont révélé des gènes additionnels partageant des fonctions synaptiques : CAMK4, CNTN5, DNM3, KCNAB1 (spécifique à l’hypertension), CNTN4, DNM3, FHIT, ITPR1 and NRXN3 (spécifique au sexe). Ces gènes codent pour des protéines interagissant avec les protéines de gènes détectés dans l’analyse générale. De plus, pour les gènes des sous-groupes, les résultats des analyses des sentiers de signalisation et des profils d’expression des gènes ont montré des caractéristiques similaires à celles de l’analyse générale. La convergence substantielle entre les déterminants génétiques des substances psychoactives, du stress, de l’obésité et des traits hémodynamiques soutiennent la notion selon laquelle les variations génétiques des voies de plasticité synaptique constitueraient une interface commune avec les différences génétiques liées au sexe et à l’hypertension. Nous pensons, également, que la plasticité synaptique interviendrait dans de nombreux phénotypes complexes influencés par le mode de vie. En définitive, ces résultats indiquent que des approches basées sur des sous-groupes et des réseaux amélioreraient la compréhension de la nature polygénique des phénotypes complexes, et des processus moléculaires communs qui les définissent.
Resumo:
Scénarios d’aveuglement dans la littérature d’Orhan Pamuk, d’Ernesto Sábato, et de José Saramago analyse trois œuvres importantes de trois auteurs contemporains : Mon nom est Rouge d’Orhan Pamuk ; « Rapport sur les aveugles » du roman Héros et tombes d’Ernesto Sábato ; et L’aveuglement de José Saramago. Malgré leurs différences, ces romans ont des points communs évidents, synthétisés dans la figure de l’aveuglement. Cette figure signale l’avènement, dans les textes, d’un régime de connaissance alternatif, centré moins sur le primat de la raison et du visuel que sur une nouvelle capacité cognitive, basée sur une logique spéciale du destin. L’aveuglement s’ouvre également sur une nouvelle compréhension de l’histoire, grâce à une capacité du récit de fiction qui passe par le point de fuite de la cécité. Pour Pamuk, l’aveuglement est le couronnement paradoxal d’une vision du monde, gravement mise en crise à la fin du XVIe siècle par le perspectivisme et le réalisme de la Renaissance, la voie d’entrée vers un monde imaginal qui n’est plus accessible à l’imaginaire occidental. Pour Sábato, il représente la variante renversée d’une quête de l’absolu qui passe par les antres de l’inceste, de l’enfer et du crime, tandis que le monde décrit par Saramago est un monde qui sombre sur la pente de la déchéance, en suivant une logique implacable. Il est l’équivalent de plusieurs formes de cécité qui menacent le monde contemporain, comme le fondamentalisme religieux, l’homogénéité préconisée par la société de masse, l’exclusion raciale, l’oppression idéologique. La thèse se divise en trois parties, La violente beauté du monde, Un mythe hérétique de la caverne et Une épidémie à cause inconnue, chacune d’entre elles analysant l’œuvre d’un auteur, mais établissant également des liens avec les autres chapitres. L’approche adoptée est interdisciplinaire, un croisement entre études littéraires, philosophie et histoire de l’art. Dans leur quête de nouveaux concepts et de nouvelles formes de pensée qui s’écartent du modèle rationnel dominant de la modernité, les trois auteurs partent de la présupposition que regarder les choses n’est pas du tout l’équivalent de voir les choses. Ils tentent d’articuler une logique du voir qui ressemble plutôt à la vision et à la clairvoyance qu’à la conformité logique. La figure de l’aveuglement sert de tremplin vers le monde imaginal (Pamuk), la pensée magique (Sábato) et la vision dystopique (Saramago) – des espaces ontologiquement différents où les auteurs mènent leurs attaques contre la rationnalité à tout prix. C’est précisément ces espaces que nous avons choisi d’explorer dans les trois romans. Nous soutenons également que ces trois textes proposent un nouveau régime de « connaissance » qui met en question les règles de pensée héritées de la Renaissance et surtout des Lumières, qui constituent un discours dominant dans la culture visuelle et philosophique moderne.
Resumo:
Ce mémoire propose une analyse critique du discours de l’enregistrement sonore à domicile (home recording). Dans la foulée des propos mettant de l’avant l’ «accessibilité» et la «démocratisation» de l’enregistrement sonore, ce mémoire analyse les relations de savoir/pouvoir produites et légitimées par le discours, ce qu’elles permettent et contraignent, autorisent et excluent. Le corpus à l’étude est issu de la presse musicale ainsi que de forums de discussion en ligne relevant de sites spécialisés. Les méthodes utilisées sont inspirées de l’approche du discours développées par Michel Foucault et de ce que Johnson et. al. (2004) appellent l’interprétation critique. L’analyse met en évidence les deux principaux sujets du discours de l’enregistrement sonore à la maison : les professionnels de l’enregistrement et les «pros» de l’enregistrement à domicile, deux groupes constitués d’hommes financièrement aisés. Les règles qui régissent l’enregistrement à domicile semblent reprendre, en les adaptant, celles régissant les studios professionnels. Ce mémoire suggère que la «démocratisation» telle qu'énoncée dans ce discours articule l'«accessibilité contemporaine» à certains savoirs et certaines technologies à des exclusions singulières – comme des femmes et des personnes de moyens limités – qui rendent ce discours possible. Être dans le vrai, dans ce discours, c’est échanger, argumenter, discuter et prescrire des façons de faire et de dire qui font des studios professionnels l’espace des normes et des légitimités. Mots clés: enregistrement, musique, maison, domicile, studio, démocratisation, technologie, l'analyse du discours, relations de pouvoir/savoir, Michel Foucault.
Resumo:
Afin d’adresser la variabilité interindividuelle observée dans la réponse pharmacocinétique à de nombreux médicaments, nous avons créé un panel de génotypage personnalisée en utilisant des méthodes de conception et d’élaboration d’essais uniques. Celles-ci ont pour but premier de capturer les variations génétiques présentent dans les gènes clés impliqués dans les processus d'absorption, de distribution, de métabolisme et d’excrétion (ADME) de nombreux agents thérapeutiques. Bien que ces gènes et voies de signalement sont impliqués dans plusieurs mécanismes pharmacocinétiques qui sont bien connues, il y a eu jusqu’à présent peu d'efforts envers l’évaluation simultanée d’un grand nombre de ces gènes moyennant un seul outil expérimental. La recherche pharmacogénomique peut être réalisée en utilisant deux approches: 1) les marqueurs fonctionnels peuvent être utilisés pour présélectionner ou stratifier les populations de patients en se basant sur des états métaboliques connus; 2) les marqueurs Tag peuvent être utilisés pour découvrir de nouvelles corrélations génotype-phénotype. Présentement, il existe un besoin pour un outil de recherche qui englobe un grand nombre de gènes ADME et variantes et dont le contenu est applicable à ces deux modèles d'étude. Dans le cadre de cette thèse, nous avons développé un panel d’essais de génotypage de 3,000 marqueurs génétiques ADME qui peuvent satisfaire ce besoin. Dans le cadre de ce projet, les gènes et marqueurs associés avec la famille ADME ont été sélectionnés en collaboration avec plusieurs groupes du milieu universitaire et de l'industrie pharmaceutique. Pendant trois phases de développement de cet essai de génotypage, le taux de conversion pour 3,000 marqueurs a été amélioré de 83% à 97,4% grâce à l'incorporation de nouvelles stratégies ayant pour but de surmonter les zones d'interférence génomiques comprenant entre autres les régions homologues et les polymorphismes sous-jacent les régions d’intérêt. La précision du panel de génotypage a été validée par l’évaluation de plus de 200 échantillons pour lesquelles les génotypes sont connus pour lesquels nous avons obtenu une concordance > 98%. De plus, une comparaison croisée entre nos données provenant de cet essai et des données obtenues par différentes plateformes technologiques déjà disponibles sur le marché a révélé une concordance globale de > 99,5%. L'efficacité de notre stratégie de conception ont été démontrées par l'utilisation réussie de cet essai dans le cadre de plusieurs projets de recherche où plus de 1,000 échantillons ont été testés. Nous avons entre autre évalué avec succès 150 échantillons hépatiques qui ont été largement caractérisés pour plusieurs phénotypes. Dans ces échantillons, nous avons pu valider 13 gènes ADME avec cis-eQTL précédemment rapportés et de découvrir et de 13 autres gènes ADME avec cis eQTLs qui n'avaient pas été observés en utilisant des méthodes standard. Enfin, à l'appui de ce travail, un outil logiciel a été développé, Opitimus Primer, pour aider pour aider au développement du test. Le logiciel a également été utilisé pour aider à l'enrichissement de cibles génomiques pour d'expériences séquençage. Le contenu ainsi que la conception, l’optimisation et la validation de notre panel le distingue largement de l’ensemble des essais commerciaux couramment disponibles sur le marché qui comprennent soit des marqueurs fonctionnels pour seulement un petit nombre de gènes, ou alors n’offre pas une couverture adéquate pour les gènes connus d’ADME. Nous pouvons ainsi conclure que l’essai que nous avons développé est et continuera certainement d’être un outil d’une grande utilité pour les futures études et essais cliniques dans le domaine de la pharmacocinétique, qui bénéficieraient de l'évaluation d'une longue liste complète de gènes d’ADME.
Resumo:
Cette thèse, intitulée Le pohète initié : Illumination et esthétique ésotérique dans l’œuvre de Gellu Naum, analyse trois œuvres importantes de Gellu Naum, le roman Zenobia, les proses La voie du serpent et Medium, ainsi que le rapport entre la poésie picturale de Gellu Naum et la peinture narrative de Victor Brauner. Les œuvres de Gellu Naum que nous analysons possèdent des points communs synthétisés dans la figure de l’illumination, qui signale l’existence d’un régime de connaissance refondé. L’illumination se base sur des théories ésotériques et surréalistes et s’ouvre également sur une nouvelle interprétation du sacré, dénouée de tout caractère religieux. L’illumination institue et entretient un climat mystique à travers les écrits de Gellu Naum et les productions plastiques de Victor Brauner et consolide en même temps leurs doctrines esthétiques. Pour Gellu Naum, l’illumination est le but suprême de l’existence. Elle a affaire avec la capacité de voir avec les yeux du dedans. Dans ce registre ésotérique, la possibilité d’arriver de l’autre côté, c’est-à-dire dans la part invisible de la réalité, stratifiée jusqu’à son niveau archaïque, est réelle et révélatrice. Selon Gellu Naum, l’artiste doit mettre son œil à l’état sauvage pour décrire l’état transcendantal dans lequel résident ses héros; ceci en essayant de contrecarrer un grave bouleversement historique, puisque le totalitarisme roumain a éclipsé à tout jamais l’espace de l’existence. L’écriture de Naum porte les traces noires de cette incidence néfaste. Pour Victor Brauner, l’illumination a une fonction initiatrice. Elle cristallise l’art du peintre et l’éclaire tout au long de sa quête identitaire. L’illumination entretient et provoque une catharsis aux connotations inattendues dans la production artistique, s’articulant avec une consécration de l’ésotérisme. Partant d’une perspective interdisciplinaire, la thèse se divise en trois parties, Le roman Zenobia et la question de la pensée illuminée, L’état transcendantal et ses variables ou De la logique occulte de l’écriture et Les expressions de la poésie picturale et de la peinture narrative à travers les œuvres de Gellu Naum et de Victor Brauner, chacune d’entre elles analysant la figure de l’illumination et établissant aussi les invariantes esthétiques des deux Surréalistes. Dans leur quête de nouvelles formes de représentations artistiques, Gellu Naum et Victor Brauner ont recours à un surréalisme essentiellement cognitif. Les deux font appel à la rationalité, à la lucidité accrue, ce que les Surréalistes rejetaient parfois avec véhémence.
Resumo:
La multiplication des formations professionnelles universitaires (FPU) a poussé plusieurs chercheurs à s’intéresser aux caractéristiques de ces formations, leur perméabilité à une multitude de pressions étant l’une des plus fréquemment relevées. Ainsi, les unités responsables de FPU sont confrontées à des pressions diverses et souvent contradictoires. Si les écrits scientifiques sur les FPU témoignent bien de cette réalité, ceux-ci nous informent moins bien de la manière dont les unités responsables de ce type de formation répondent à ces pressions. Cette thèse a donc fait appel à plusieurs concepts de l’approche institutionnelle issue de la sociologie des organisations pour analyser l’évolution récente de la FPU destinée aux directions d’établissement scolaire (DES) du Québec, un champ qui a connu d’importantes transformations au cours des vingt-cinq dernières années. Construite sur une étude de cas interprétative dite à « unités enchâssées » (Yin, 2003), cette thèse s’est intéressée à l’évolution de cette formation dans deux unités universitaires francophones : le Département d’administration et fondements de l’éducation de l’Université de Montréal et le Département de gestion de l’éducation et de la formation de l’Université de Sherbrooke. Couvrant la période allant des années universitaires 1988-1989 à 2008-2009, elle repose sur une analyse du discours produit par les deux unités sélectionnées, et, dans une moindre mesure, par les organisations qui composent le champ organisationnel de la formation des DES au Québec. Pour ce faire, trois corpus documentaires distincts ont été assemblés et une série d’entrevues (dix par unités) ont été réalisées auprès d’informateurs-clés (doyens, directeurs de département/section, responsables de formation). Les résultats montrent comment ces unités tendent à se rendre isomorphes à leur environnement, et comment cela se fait en réponse à des pressions institutionnelles et de compétition diverses émanant d’un champ organisationnel en pleine transformation. En fait, poussée par des changements plus profonds touchant l’administration scolaire, cette transformation amène un champ organisationnel plus structuré, où les attentes concernant la FPU destinée aux DES sont plus explicites. Cela n’est pas sans conséquence sur l’évolution de la formation dans les deux unités. En effet, celle-ci connaît des changements importants, dont plusieurs convergent autour d’une logique de professionnalisation, d’un archétype spécifique de formation (un continuum de formation de 2e cycle, au cœur duquel se trouve un diplôme de deuxième cycle) et d’outils conséquents (conditions d’admission et populations étudiantes élargies; flexibilité dans la structure du programme et professionnalisation des activités; équipes enseignantes plus diversifiées). Les deux unités n’apparaissent cependant pas impuissantes devant ces pressions. Les résultats témoignent d’un certain niveau d’agence des deux unités, qui déploient un éventail de stratégies en réaction à ces pressions. Ces stratégies évoluent au cours de la période observée et visent surtout à gérer la situation de « pluralisme institutionnel » à laquelle elles sont confrontées, notamment entre les pressions externes de nature plus professionnalisantes, et les pressions intraorganisationnelles de nature plus académisantes. Ainsi, plusieurs des stratégies et tactiques composant la typologie d’Oliver (1991) ont été observées, les stratégies de compromis et de manipulation occupant, dans les deux unités, une place de plus en plus importante au gré de l’évolution du champ. La mise en œuvre de ces stratégies vise surtout à maintenir la légitimité de leur offre de formation devant des pressions plurielles et parfois contradictoires. Les résultats montrent aussi que la nature de l’entrepreneuriat institutionnel en place détermine en grande partie les stratégies qu’elles déploient. Cet « entrepreneuriat » est au cœur de l’évolution de la formation. Cependant, les résultats montrent aussi comment celui-ci est en partie contraint ou, a contrario, stimulé par les choix historiques qui ont été faits par les unités et leur université, et par l’empreinte et les dépendances de sentier qui en découlent. Ces résultats apportent un éclairage « institutionnaliste » sur la manière dont deux unités universitaires ont réagi, à une période donnée, aux pressions diverses provenant de leur environnement. Ils brossent un portrait complexe et nuancé qui vient à la fois (1) approfondir notre compréhension de cette spécificité des FPU, (2) approfondir notre compréhension de l’évolution récente de la FPU destinée aux DES québécoises, et (3) confirmer la puissance d’analyse de plusieurs concepts tirés de l’approche institutionnelle.