927 resultados para Paradigm of complexity


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Brazil (1955-2005): 25 years of catching-up, 25 years of falling behind. The present paper discusses the Brazilian industrial development under a neo-schumpeterian perspective in the period after 1955. The hypothesis is that, in the last 50 years, Brazil spent the first 25 years catching up and, next, the following 25 years falling behind. The 1955-1980 period, by means of international funding, allowed catching up with the paradigm in maturation within the fourth technological revolution. However, in this period, it was determined the main debilitating elements for the country's entrance in the new techno-economical paradigm of the fifth technological revolution which emerged in the middle of the 70s. It is in the strategy to internationalize the economy, granting the mutinational companies the key-sectors of the national economy dynamics during the catching up period, the main element of dependence in the journey that conditions the current performance, responsible for technology subordination and keeps the Brazilian economy with low dynamism.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Complexity and constructivism in economics. This paper attempts to show and summarize the concept of rules, order and complexity introduced around the mid-twentieth century by Friedrich August von Hayek. It also attempts to create a current parallel between those concepts and the field of complexity economics. At the time of his writings, the author sought to present arguments against the Cartesian rationality. Nowadays, the concepts presented by him could also serve as arguments against the way of thought used in mainstream microeconomics. A debate can now be seen between the mainstream microeconomics and the authors of the complexity theory applied to the economy, which can be understood as explanations guided by generic assumptions versus natural explanations guided in a computational approach.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mesoporous metal oxides are nowadays widely used in various technological applications, for instance in catalysis, biomolecular separations and drug delivery. A popular technique used to synthesize mesoporous metal oxides is the nanocasting process. Mesoporous metal oxide replicas are obtained from the impregnation of a porous template with a metal oxide precursor followed by thermal treatment and removal of the template by etching in NaOH or HF solutions. In a similar manner to the traditional casting wherein the product inherits the features of the mold, the metal oxide replicas are supposed to have an inverse structure of the starting porous template. This is however not the case, as broken or deformed particles and other structural defects have all been experienced during nanocasting experiments. Although the nanocasting technique is widely used, not all the processing steps are well understood. Questions over the fidelity of replication and morphology control are yet to be adequately answered. This work therefore attempts to answer some of these questions by elucidating the nanocasting process, pin pointing the crucial steps involved and how to harness this knowledge in making wholesome replicas which are a true replication of the starting templates. The rich surface chemistry of mesoporous metal oxides is an important reason why they are widely used in applications such as catalysis, biomolecular separation, etc. At times the surface is modified or functionalized with organic species for stability or for a particular application. In this work, nanocast metal oxides (TiO2, ZrO2 and SnO2) and SiO2 were modified with amino-containing molecules using four different approaches, namely (a) covalent bonding of 3-aminopropyltriethoxysilane (APTES), (b) adsorption of 2-aminoethyl dihydrogen phosphate (AEDP), (c) surface polymerization of aziridine and (d) adsorption of poly(ethylenimine) (PEI) through electrostatic interactions. Afterwards, the hydrolytic stability of each functionalization was investigated at pH 2 and 10 by zeta potential measurements. The modifications were successful except for the AEDP approach which was unable to produce efficient amino-modification on any of the metal oxides used. The APTES, aziridine and PEI amino-modifications were fairly stable at pH 10 for all the metal oxides tested while only AZ and PEI modified-SnO2 were stable at pH 2 after 40 h. Furthermore, the functionalized metal oxides (SiO2, Mn2O3, ZrO2 and SnO2) were packed into columns for capillary liquid chromatography (CLC) and capillary electrochromatography (CEC). Among the functionalized metal oxides, aziridinefunctionalized SiO2, (SiO2-AZ) showed good chemical stability, and was the most useful packing material in both CLC and CEC. Lastly, nanocast metal oxides were synthesized for phosphopeptide enrichment which is a technique used to enrich phosphorylated proteins in biological samples prior to mass spectrometry analysis. By using the nanocasting technique to prepare the metal oxides, the surface area was controlled within a range of 42-75 m2/g thereby enabling an objective comparison of the metal oxides. The binding characteristics of these metal oxides were compared by using samples with different levels of complexity such as synthetic peptides and cell lysates. The results show that nanocast TiO2, ZrO2, Fe2O3 and In2O3 have comparable binding characteristics. Furthermore, In2O3 which is a novel material in phosphopeptide enrichment applications performed comparably with standard TiO2 which is the benchmark for such phosphopeptide enrichment procedures. The performance of the metal oxides was explained by ranking the metal oxides according to their isoelectric points and acidity. Overall, the clarification of the nanocasting process provided in this work will aid the synthesis of metal oxides with true fidelity of replication. Also, the different applications of the metal oxides based on their surface interactions and binding characteristics show the versatility of metal oxide materials. Some of these results can form the basis from which further applications and protocols can be developed.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A good teacher was once described as being like a candle; consuming itself to light the way for others (Author unknown). But as Knox (2005) says, far too many yoimg flames flicker out before they ever get the opportvmity to bum their brightest. This self-study explores the phenomenon of teacher attrition through the stories and lived experiences of one elementary teacher. I strive throughout this self-study to delve deeper into the significance of my story and lived experiences in order to enhance our understanding of why teachers exit the profession. As a result, the guiding question throughout the study is, "Why do teachers, particularly those who have only taught for a few years, leave the classrooms they worked so hard to enter?" Through the writing of a narrative entitled Sarah 's Story, I was able to identify and give voice to a story openly sharing the feelings of despair; disappointment, frustration and disillusionment. This study has identified areas of tension that lead to dissatisfaction, discontent, and teacher disillusionment. It confronts the issues of complexity, uncertainty, and conflict that are experienced in teaching. It discusses the puzzling, powerfiil and upsetting experiences, highlighting the importance of talk between all members of the education system.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This thesis has been produced to meet the requirements of Brock University's Masters of Education program. It is the result of many peoples' reflections on and beliefs about the act of teaching in today's world. This manuscript is intended to provide the reader with an engaged interpretation of the dynamic field of teaching. In recognizing the ever-changing demands of the profession, this paper serves to provide the reader with a gathering of strategies or paradigm of action which an educator may employ to respond to the demands of his/her complex vocation. This gathering of strategies represents the phenomenon I have examined throughout this study: responsivity. What is it? Is it important for a practitioner to develop? If so, how can it be developed? In no way is this an "answer book" for teachers to adhere to. It is a collection of thoughts and ideas from an array of "insiders" who have experienced the phenomenon of responsivity. It will not provide the reader with immediate answers. What it will offer the reader is a deeper understanding of the related issues and concerns surrounding responsivity.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Sustainable design is fundamentally a subset of good design.The description of good design will eventually include criteria for the creation of a healthy environment and energy efficiency. These goals will be achieved by an emergent paradigm of design practice:integration.At every level design interests will come together to facilitate common goals for the creation of a rewarding present and a healthy future. Interdisciplinary design teams will flourish. Inter-accommodating and fluidly communicating political structures will grow. Coalescing social values and economic forces will propel integrated strategies. Unique and innovative solutions will increasingly become the objective. One eventual outcome of this integrated or sustainable design practice will be the development of buildings that produce more energy than they consume.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Deux thématiques importantes des technologies de la santé: la pratique médicale fondée sur des preuves probantes et l’évaluation des interventions en médecine sont fondées sur une approche positiviste et une conception mécaniste des organisations en santé. Dans ce mémoire, nous soulevons l’hypothèse selon laquelle les théories de la complexité et la systémique permettent une conceptualisation différente de ces deux aspects de la gouvernance clinique d’une unité de Soins Intensifs Chirurgicaux (SIC), qui est considérée comme un système adaptatif dynamique non linéaire qui nécessite une approche systémique de la cognition. L’étude de cas d’une unité de SIC, permet de démontrer par de nombreux exemples et des analyses de micro-situations, toutes les caractéristiques de la complexité des patients critiques et instables et de la structure organisationnelle des SIC. Après une critique épistémologique de l’Evidence-Based Medicine nous proposons une pratique fondée sur des raisonnements cliniques alliant l’abduction, l’herméneutique et la systémique aux SIC. En nous inspirant des travaux de Karl Weick, nous suggérons aussi de repenser l’évaluation des modes d’interventions cliniques en s’inspirant de la notion d’organisation de haute fiabilité pour mettre en place les conditions nécessaires à l’amélioration des pratiques aux SIC.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les différents commentateurs de Lovecraft se sont au fil du XXe siècle jusqu’à nos jours entendus sur un point : l’originalité de son oeuvre. Impossible à cataloguer dans un genre littéraire précis, offrant de multiples couches d’interprétation, celle-ci fut analysée à la fois sous l’angle psychanalytique et sous l’angle philosophique et scientifique. Cependant, la dimension purement esthétique semble, peut-être par négligence, avoir été oubliée. Notre mémoire propose une investigation de l’esthétique dans l’oeuvre de Lovecraft. Notre hypothèse de recherche repose sur les analogies évidentes et pourtant peu approfondies par la critique entre l’esthétique de celle-ci et l’esthétique cosmogonique de l’Antiquité. Dans un premier temps, nous situerons l’œuvre dans son contexte littéraire, c’est-à-dire que nous nous pencherons sur les rapports évidents qu’elle entretient avec des auteurs tels que J.R.R. Tolkien et Arthur Conan Doyle et sur les différences moins évidentes qui la distinguent d’autres d’auteurs tels que H.G. Wells et William Hope Hodgson. Ensuite, nous mettrons en perspective les différences qui la séparent logiquement de la cosmogonie hébraïque et de la tradition théologique et philosophique qu’elle inaugure, entre autres, tel qu’elle se cristallise dans La Divine Comédie de Dante. Finalement, nous démontrerons à partir d’une comparaison serrée de motifs analogues, présents dans la longue nouvelle de Lovecraft, At the Mountains of Madness et dans le poème d’Hésiode, La Théogonie, le parallèle révélateur entre leurs esthétiques respectives; leurs esthétiques qui découlent de paradigmes du réel historiquement et essentiellement distincts, mais non pas opposés ou contradictoires.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La somme romanesque que représente À la recherche du temps perdu se constitue au prix d’une « recherche » qui est à prendre au pied de la lettre, et qui instaure le sujet connaissant en savant-chercheur face à son objet de savoir. Proust fait en effet du « savoir » la condition même du talent, et fait entreprendre à son héros une exploration qui se présente en priorité comme étant une quête de savoirs. Ce travail se situe dans le sillage de l’épistémocritique qui étudie l’inscription dans le texte littéraire des savoirs en général, tout en insistant sur les savoirs qui relèvent de la science. Notre but est de dégager la posture épistémique qui caractérise le narrateur de la Recherche face aux divers savoirs qu’il récolte au cours de ses observations. Le parcours cognitif du narrateur est examiné suivant les quatre grandes étapes de sa recherche, que nous redéfinissons en termes de paradigmes : le paradigme de l’Exploration, qui définit une « épistémologie de l’observateur » ; le paradigme de la Communication, qui définit une « épistémologie de l’homme social » et une « épistémologie de l’homme moderne » ; le paradigme de l’Introspection, qui prépare à l’élaboration d’une « épistémologie du personnage intérieur » ; et enfin, le paradigme de la Vocation, qui rassemble les réponses trouvées par le narrateur à la plupart des questionnements qui auront jalonné son parcours cognitif. Ce dernier paradigme se présente sous la forme d’une « épistémologie de la création », d’une « épistémologie du réel » et d’une « épistémologie du hasard ». Car en dépit d’une démarche qui apparaît soumise aux médiations culturelles, la recherche du héros proustien se présente comme une « pensée de l’imprévisible » : fortement déterminée par la recherche cognitive du protagoniste, elle demeure pourtant irréductible à cette seule recherche. Nous dégageons, pour terminer, le statut réservé à la science et aux savoirs positifs en regard de la découverte de la vocation, mais aussi par rapport à l’élaboration d’une théorie de la création littéraire : ces deux grands domaines du savoir sont-ils considérés par Proust comme inconciliables avec une priorité évidente de l’un sur l’autre ou, au contraire, participent-ils tous deux d’une manière égale à la connaissance et à la création artistique ?

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Depuis les années 1990, les formations à visée professionnelle, comme l’enseignement, adoptent le paradigme du praticien réflexif. Au Québec, le référentiel de compétences proposé par le ministère de l’Éducation introduit l’idée que tout futur enseignant doit apprendre à « réfléchir sur sa pratique » (MEQ, 2001). Malgré de nombreuses études sur la réflexion, le concept reste flou et polysémique. Comment, dans ces conditions, « faire réfléchir » ? Des chercheurs contemporains, dans la mouvance éducative, humaniste et pragmatique de Dewey (1933), aboutissent à des conceptions convergentes de l’apprentissage par réflexion sur l’expérience (Osterman et Kottkamp, 2004; Brouwer et Korthagen, 2005; Loughran, 2006; Brockbank et McGill, 2007; Donnay et Charlier, 2008, entre autres). De leurs points communs est synthétisée une définition de la réflexion qui peut aider à clarifier son rôle en formation. La recherche se donne comme objectif de « saisir » des événements réflexifs pour élucider comment des formations universitaires contribuent à développer des mécanismes de réflexion favorables à un autorenouvellement professionnel à long terme. La démarche est qualitative, l’approche interprétative-compréhensive. Des entrevues semi-structurées ont permis de recueillir des données auprès de finissants en enseignement du français langue seconde (FLS), en coopération internationale, à l’Université de Montréal, ainsi que d’enseignants de FLS expérimentés d’une université québécoise. Du corpus d’« occurrences de réflexion » ont émergé les significations que les acteurs donnaient à leur expérience d’apprentissage ou de travail. Les résultats sont présentés en trois articles. Le premier décrit la méthodologie construite pour repérer des occurrences de réflexion. Le second révèle deux grandes caractéristiques de dispositifs qui la stimulent particulièrement: 1) l’agir en situation de travail authentique ou vraisemblable; 2) la confrontation interactive à l’altérité (pairs, clientèle). Le troisième article aborde les représentations plus riches, nuancées et critiques de la profession, l’Autre et soi-même sur lesquelles débouche la réflexion. L’étude documente aussi les effets de ces reconceptualisations sur l’acteur et l’action, et produit des typologies des préoccupations des (futurs) professionnels et des objets réfléchis Des pistes de recherche et d’application sont dégagées pour les formations professionnalisantes et le développement professionnel en milieu de travail.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'université Montpellier2 dans le laboratoire de pharmacologie moléculaire de Jean-Philippe Pin à l'institut de génomique fonctionnelle (IGF), Montpellier, France.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La découverte du système des peptides natriurétiques (NP), au début des années 80, fut une découverte majeure qui révéla le rôle endocrinien du cœur. Les connaissances sur la relaxation vasculaire, la diurèse et la natriurèse provoquées par ce système ont évolué vers un niveau de complexité insoupçonné à cette époque. Nous savons à présent que les NP sont impliqués dans plusieurs autres mécanismes dont la prolifération cellulaire, l’apoptose, l’inhibition du système rénine-angiotensine-aldostérone (RAAS) et le métabolisme des adipocytes. Le métabolisme des lipides est maintenant devenu une cible de choix dans la lutte contre l’obésité. Cette condition aux proportions pandémiques est un facteur de risque majeur dans l’apparition de l’hypertension et du syndrome métabolique (MetS). La compréhension des mécanismes et des défauts de la voie des NP pourrait avoir un impact positif sur le contrôle du MetS et de l’hypertension. L’expression du récepteur des peptides natriuretiques de type 1 (NPR1/GCA) est contrôlée par plusieurs agents incluant son propre ligand, le peptide natriurétique de l’oreillette (ANP). La découverte d’une boucle de retro-inhibition, dans les années 90, a été un événement majeur dans le domaine des NP. En effet, suite à une stimulation à l’ANP, le NPR1/GCA peut inhiber l’activité transcriptionnelle de son propre gène par un mécanisme dépendant du cGMP. Notre groupe a identifié un élément cis-régulateur responsable de cette sensibilité au cGMP et mon projet consistait à identifier la ou les protéine(s) liant cet élément de réponse au cGMP (cGMP-RE). Nous avons identifié un clone liant le cGMP-RE en utilisant la technique du simple hybride chez la levure et une banque d’ADN complémentaire (ADNc) de rein humain. Ce clone provient d’un ADNc de 1083-bp dont le gène est localisé sur le chromosome 1 humain (1p33.36) et codant pour une protéine dont la fonction était inconnue jusqu’ici. Nous avons nommé cette nouvelle protéine GREBP en raison de sa fonction de cGMP Response Element Binding Protein. Des essais de liaison à l’ADN ont montré que cette protéine possède une affinité 18 fois plus élevée pour le cGMP-RE que le contrôle, tandis que des expériences de retard sur gel (EMSA) ont confirmé la spécificité des interactions protéine-ADN. De plus, l’immuno-précipitation de la chromatine (ChIP) a prouvé que GREBP lie le cGMP-RE dans des conditions physiologiques. La liaison de GREBP au cGMP-RE inhibe l’expression du gène rapporteur luciférase sous contrôle du promoteur de npr1/gca. L’inhibition de GREBP à l’aide d’ARN interférant active le promoteur de npr1/gca. Dans les cellules NCI-H295R, l’ANP stimule l’expression de grebp de 60% après seulement 3 heures et inhibe l’expression de npr1/gca de 30%. GREBP est une protéine nucléaire surtout exprimée dans le cœur et ayant le facteur eIF3F comme partenaire. Les variations nucléotidiques du gène sont plus fréquentes chez les patients hypertendus que chez des patients normotendus ou hypertendus souffrant de MetS. Nous rapportons ici l’existence d’un gène spécifique à l’humain qui agit comme répresseur transcriptionnel de npr1/gca et potentiellement impliqué dans le développement de l’hypertension.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Des recherches, autant chez l’homme que chez l’animal, proposent qu’il existerait, au sein des réseaux cérébraux, une organisation anatomique parallèle de circuits qui coordonne l’activité des structures qui participent à la planification et à l’exécution d’une action. Dans cette foulée, un modèle émerge qui attribue au cortex préfrontal (CPF) latéral une spécificité anatomo-fonctionnelle basée sur les niveaux de traitement en mémoire de travail (MT). Il s’agit du modèle « niveaux de traitement-dépendant », qui accorde un rôle important au CPF latéral dans l’acquisition et la représentation de règles guidant nos comportements. Des études en neuroimagerie fonctionnelle, utilisant le Wisconsin Card Sorting Task (WCST) ont permis de corroborer ce modèle et de dissocier trois niveaux de traitement en MT non seulement au sein du CPF latéral mais encore aux structures sous- corticales, les ganglions de la base (GB). Ces études suggèrent que certains noyaux des GB seraient topographiquement organisés avec le CPF latéral et contriburaient, sous certaines conditions, à des processus cognitifs et moteurs semblables à leur homologue cortical. Le but de notre étude est d'explorer la généralisation de la contribution des GB et du CPF au modèle niveaux de traitement-dépendant afin de voir si ce dernier est indépendant de la nature des stimuli en mémoire de travail. À cet effet, nous avons modifié le WCST en l’appliquant à un autre domaine, celui du langage. Nous avons remplacé les pictogrammes par des mots et modifié les règles formes, couleurs, nombres, par des règles sémantiques et phonologiques. L’analyse des résultats a démontré que différentes parties des GB de concert avec différentes régions du CPF se différencient quant aux niveaux de traitement en MT et ce, indépendamment de la nature des stimuli. Une deuxième analyse a permis d’évaluer les patrons d’activations liés aux conditions sémantiques et phonologiques. Ces résultats ont mis en évidence que les réseaux préfrontaux semblent liés aux processus exécutifs nécessaires à la réalisation de la tâche, indépendamment de la condition tandis que les aires associatives se dissocient davantage et contiennent des réseaux propres à la sémantique et à la phonologie.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’aménagement des systèmes d’assainissement conventionnel des eaux usées domestiques entraine actuellement la déplétion de ressources naturelles et la pollution des milieux récepteurs. L’utilisation d’une approche écosystémique plus globale telle que l’Assainissement Écologique, visant la fermeture du cycle de l’eau et des éléments nutritifs (phosphore et azote), contenus dans les excréments, par leur réutilisation à travers l’agriculture, permettrait d’améliorer de façon écologique cette situation. Toutefois, ce paradigme émergent est peu enseigné aux professionnels de l’aménagement responsables de sa planification, surtout au niveau de son application dans les pays développés nordiques. C’est pourquoi, afin d’améliorer la planification de ce type de système, il faut informer ces derniers des pratiques les plus adéquates à adopter. Pour y arriver, un scénario d’aménagement type a été développé à partir d’une revue exhaustive de la littérature et de l’analyse des données en se basant sur les recommandations de l’approche en fonction du contexte étudié. Ce scénario aidera les professionnels à mieux comprendre l’Assainissement Écologique et son aménagement. Il représente alors un point de départ pour les discussions interdisciplinaires et participatives que celui-ci requiert. En conclusion, il y a encore de nombreux manques d’informations concernant l’utilisation de traitements alternatifs dans les climats nordiques et l’acceptation de ceux-ci par les usagers. De plus, les cadres législatifs demeurent un obstacle considérable à l’aménagement d’un tel système. Cette recherche permet cependant de démystifier l’approche auprès des professionnels et pourrait aider à modifier certains cadres législatifs afin d’y intégrer sa philosophie.