951 resultados para Kuhn-Tucker type necessary optimality conditions
Resumo:
It is our intention in the course of the development of this thesis to give an account of how intersubjectivity is "eidetically" constituted by means of the application of the phenomenological reduction to our experience in the context of the thought of Edmund Husserl; contrasted with various representative thinkers in what H. Spiegelberg refers to as "the wider scene" of phenomenology. That is to say, we intend to show those structures of both consciousness and the relation which man has to the world which present themselves as the generic conditions for the possibility of overcoming our "radical sol itude" in order that we may gain access to the mental 1 ife of an Other as other human subject. It is clear that in order for us to give expression to these accounts in a coherent manner, along with their relative merits, it will be necessary to develop the common features of any phenomenological theory of consdousness whatever. Therefore, our preliminary inquiry, subordinate to the larger theme, shall be into some of the epistemological results of the application of the phenomenological method used to develop a transcendental theory of consciousness. Inherent in this will be the deliniation of the exigency for making this an lIintentional ll theory. We will then be able to see how itis possible to overcome transcendentally the Other as an object merely given among other merely given objects, and further, how this other is constituted specifically as other ego. The problem of transcendental intersubjectivity and its constitution in experience can be viewed as one of the most compelling, if not the most polemical of issues in phenomenology. To be sure, right from the beginning we are forced to ask a number of questions regarding Husserl's responses to the problem within the context of the methodological genesis of the Cartesian Meditations, and The Crisis of European Sciences and Transcendental Phenomenology. This we do in order to set the stage for amplification. First, we ask, has Husserl lived up to his goal, in this connexion, of an apodictic result? We recall that in his Logos article of 1911 he adminished that previous philosophy does not have at its disposal a merely incomplete and, in particular instances, imperfect doctrinal system; it simply has none whatever. Each and every question is herein controverted, each position is a matter of individual conviction, of the interpretation given byaschool, of a "point of view". 1. Moreover in the same article he writes that his goal is a philosophical system of doctrine that, after the gigantic preparatory work. of generations, really be- . gins from the ground up with a foundation free from doubt and rises up like any skilful construction, wherein stone is set upon store, each as solid as the other, in accord with directive insights. 2. Reflecting upon the fact that he foresaw "preparatory work of generations", we perhaps should not expect that he would claim that his was the last word on the matter of intersubjectivity. Indeed, with 2. 'Edmund Husserl, lIPhilosophy as a Rigorous Science" in Phenomenology and theCrisis6fPhilosophy, trans". with an introduction by Quentin Lauer (New York.: Harper & Row, 1965) pp. 74 .. 5. 2Ibid . pp. 75 .. 6. 3. the relatively small amount of published material by Husserl on the subject we can assume that he himself was not entirely satisfied with his solution. The second question we have is that if the transcendental reduction is to yield the generic and apodictic structures of the relationship of consciousness to its various possible objects, how far can we extend this particular constitutive synthetic function to intersubjectivity where the objects must of necessity always remain delitescent? To be sure, the type of 'object' here to be considered is unlike any other which might appear in the perceptual field. What kind of indubitable evidence will convince us that the characteristic which we label "alter-ego" and which we attribute to an object which appears to resemble another body which we have never, and can never see the whole of (namely, our own bodies), is nothing more than a cleverly contrived automaton? What;s the nature of this peculiar intentional function which enables us to say "you think just as I do"? If phenomenology is to take such great pains to reduce the takenfor- granted, lived, everyday world to an immanent world of pure presentation, we must ask the mode of presentation for transcendent sub .. jectivities. And in the end, we must ask if Husserl's argument is not reducible to a case (however special) of reasoning by analogy, and if so, tf this type of reasoning is not so removed from that from whtch the analogy is made that it would render all transcendental intersubjective understandtng impos'sible? 2. HistoticalandEidetic Priority: The Necessity of Abstraction 4. The problem is not a simple one. What is being sought are the conditions for the poss ibili:ty of experi encing other subjects. More precisely, the question of the possibility of intersubjectivity is the question of the essence of intersubjectivity. What we are seeking is the absolute route from one solitude to another. Inherent in this programme is the ultimate discovery of the meaning of community. That this route needs be lIabstract" requires some explanation. It requires little explanation that we agree with Husserl in the aim of fixing the goal of philosophy on apodictic, unquestionable results. This means that we seek a philosophical approach which is, though, not necessarily free from assumptions, one which examines and makes explicit all assumptions in a thorough manner. It would be helpful at this point to distinguish between lIeidetic ll priority, and JlhistoricallJpriority in order to shed some light on the value, in this context, of an abstraction.3 It is true that intersubjectivity is mundanely an accomplished fact, there havi.ng been so many mi.llions of years for humans to beIt eve in the exi s tence of one another I s abili ty to think as they do. But what we seek is not to study how this proceeded historically, but 3Cf• Maurice Natanson;·TheJburne in 'Self, a Stud in Philoso h and Social Role (Santa Cruz, U. of California Press, 1970 . rather the logical, nay, "psychological" conditions under which this is possible at all. It is therefore irrelevant to the exigesis of this monograph whether or not anyone should shrug his shoulders and mumble IIwhy worry about it, it is always already engaged". By way of an explanation of the value of logical priority, we can find an analogy in the case of language. Certainly the language 5. in a spoken or written form predates the formulation of the appropriate grammar. However, this grammar has a logical priority insofar as it lays out the conditions from which that language exhibits coherence. The act of formulating the grammar is a case of abstraction. The abstraction towards the discovery of the conditions for the poss; bi 1 ity of any experiencing whatever, for which intersubjective experience is a definite case, manifests itself as a sort of "grammar". This "grammar" is like the basic grammar of a language in the sense that these "rulesil are the ~ priori conditions for the possibility of that experience. There is, we shall say, an "eidetic priority", or a generic condition which is the logical antecedent to the taken-forgranted object of experience. In the case of intersubjectivity we readily grant that one may mundanely be aware of fellow-men as fellowmen, but in order to discover how that awareness is possible it is necessary to abstract from the mundane, believed-in experience. This process of abstraction is the paramount issue; the first step, in the search for an apodictic basis for social relations. How then is this abstraction to be accomplished? What is the nature of an abstraction which would permit us an Archimedean point, absolutely grounded, from which we may proceed? The answer can be discovered in an examination of Descartes in the light of Husserl's criticism. 3. The Impulse for Scientific Philosophy. The Method to which it Gives Rise. 6. Foremost in our inquiry is the discovery of a method appropriate to the discovery of our grounding point. For the purposes of our investigations, i.e., that of attempting to give a phenomenological view of the problem of intersubjectivity, it would appear to be of cardinal importance to trace the attempt of philosophy predating Husserl, particularly in the philosophy of Descartes, at founding a truly IIscientific ll philosophy. Paramount in this connexion would be the impulse in the Modern period, as the result of more or less recent discoveries in the natural sciences, to found philosophy upon scientific and mathematical principles. This impulse was intended to culminate in an all-encompassing knowledge which might extend to every realm of possible thought, viz., the universal science ot IIMathexis Universalis ll •4 This was a central issue for Descartes, whose conception of a universal science would include all the possible sciences of man. This inclination towards a science upon which all other sciences might be based waS not to be belittled by Husserl, who would appropriate 4This term, according to Jacab Klein, was first used by Barocius, the translator of Proclus into Latin, to designate the highest mathematical discipline. . 7. it himself in hopes of establishing, for the very first time, philosophy as a "rigorous science". It bears emphasizing that this in fact was the drive for the hardening of the foundations of philosophy, the link between the philosophical projects of Husserl and those of the philosophers of the modern period. Indeed, Husserl owes Descartes quite a debt for indicating the starting place from which to attempt a radical, presupositionless, and therefore scientific philosophy, in order not to begin philosophy anew, but rather for the first time.5 The aim of philosophy for Husserl is the search for apodictic, radical certitude. However while he attempted to locate in experience the type of necessity which is found in mathematics, he wished this necessity to be a function of our life in the world, as opposed to the definition and postulation of an axiomatic method as might be found in the unexpurgated attempts to found philosophy in Descartes. Beyond the necessity which is involved in experiencing the world, Husserl was searching for the certainty of roots, of the conditi'ons which underl ie experience and render it pOssible. Descartes believed that hi~ MeditatiOns had uncovered an absolute ground for knowledge, one founded upon the ineluctable givenness of thinking which is present even when one doubts thinking. Husserl, in acknowledging this procedure is certainly Cartesian, but moves, despite this debt to Descartes, far beyond Cartesian philosophy i.n his phenomenology (and in many respects, closer to home). 5Cf. Husserl, Philosophy as a Rigorous Science, pp. 74ff. 8 But wherein lies this Cartesian jumping off point by which we may vivify our theme? Descartes, through inner reflection, saw that all of his convictions and beliefs about the world were coloured in one way or another by prejudice: ... at the end I feel constrained to reply that there is nothing in a all that I formerly believed to be true, of which I cannot in some measure doubt, and that not merely through want of thought or through levity, but for reasons which are very powerful and maturely considered; so that henceforth I ought not the less carefully to refrain from giving credence to these opinions than to that which is manifestly false, if I desire to arrive at any certainty (in the sciences). 6 Doubts arise regardless of the nature of belief - one can never completely believe what one believes. Therefore, in order to establish absolutely grounded knowledge, which may serve as the basis fora "universal Science", one must use a method by which one may purge oneself of all doubts and thereby gain some radically indubitable insight into knowledge. Such a method, gescartes found, was that, as indicated above by hi,s own words, of II radical doubt" which "forbids in advance any judgemental use of (previous convictions and) which forbids taking any position with regard to their val idi'ty. ,,7 This is the method of the "sceptical epoche ll , the method of doubting all which had heretofor 6Descartes,Meditations on First Philosophy, first Med., (Libera 1 Arts Press, New York, 1954) trans. by L. LaFl eur. pp. 10. 7Husserl ,CrisiS of Eliroeari SCiences and Trariscendental Phenomenology, (Northwestern U. Press, Evanston, 1 7 ,p. 76. 9. been considered as belonging to the world, including the world itself. What then is left over? Via the process of a thorough and all-inclusive doubting, Descartes discovers that the ego which performs the epoche, or "reduction", is excluded from these things which can be doubted, and, in principle provides something which is beyond doubt. Consequently this ego provides an absolute and apodictic starting point for founding scientific philosophy. By way of this abstention. of bel ief, Desca'rtes managed to reduce the worl d of everyday 1 ife as bel ieved in, to mere 'phenomena', components of the rescogitans:. Thus:, having discovered his Archimedean point, the existence of the ego without question, he proceeds to deduce the 'rest' of the world with the aid of innate ideas and the veracity of God. In both Husserl and Descartes the compelling problem is that of establ ishing a scientific, apodictic phi'losophy based upon presuppos itionless groundwork .. Husserl, in thi.s regard, levels the charge at Descartes that the engagement of his method was not complete, such that hi.S: starting place was not indeed presupositionless, and that the validity of both causality and deductive methods were not called into question i.'n the performance of theepoche. In this way it is easy for an absolute evidence to make sure of the ego as: a first, "absolute, indubitablyexisting tag~end of the worldll , and it is then only a matter of inferring the absolute subs.tance and the other substances which belon.g to the world, along with my own mental substance, using a logically val i d deductive procedure. 8 8Husserl, E.;' Cartesian 'Meditation;, trans. Dorion Cairns (Martinus Nijhoff, The Hague, 1970), p. 24 ff.
Resumo:
Adenoviruses are nonenveloped icosahedral shaped particles. The double stranded DNA viral genome is divided into 5 major early transcription units, designated E1 A, E1 B, and E2 to E4, which are expressed in a regulated manner soon after infection. The gene products of the early region 3 (E3), shown to be nonessential for viral replication in vitro, are believed to be involved in counteracting host immunosurveillance. In order to sequence the E3 region of Bovine adenovirus type 2 (BAV2) it was necessary to determine the restriction map for the plasmid pEA48. A physical restriction endonuclease map for BamHl, Clal, Eco RI, Hindlll, Kpnl, Pstt, Sail, and Xbal was constructed. The DNA insert in pEA48 was determined to be viral in origin using Southern hybridization. A human adenovirus type 5 recombinant plasmid, containing partial DNA fragments of the two transcription units L4 and L5 that lie just outside the E3, was used to localize this region. The recombinant plasmid pEA was subcloned to facilitate sequencing. The DNA sequences between 74.8 and 90.5 map units containing the E3, the hexon associated protein (pVIII), and the fibre gene were determined. Homology comparison revealed that the genes for the hexon associated pV11I and the fibre protein are conserved. The last 70 amino acids of the BAV2 pV11I were the most conserved, showing a similarity of 87 percent with Ad2 pV1I1. A comparison between the predicted amino acid sequences of BAV2 and Ad40, Ad41 , Ad2 and AdS, revealed that they have an identical secondary structure consisting of a tail, a shaft and a knob. The shaft is composed of 22, 15 amino acid motifs, with periodic glycines and hydrophobic residues. The E3 region was found to consist of about 2.3 Kbp and to encode four proteins that were greater than 60 amino acids. However, these four open reading frames did not show significant homology to any other known adenovirus DNA or protein sequence.
Resumo:
The original objective of this work was to provide a simple generator w.hich would produce hydrogen torLfuel-cell feed and which could be operated under remote or northern conditions. A secondary objective was to maximize the yield of hydrogen and carbon monoxide from available feed-stocks. A search of the patent literature has indicated that the concept of a small Wulff-type generator is essentially sound and that hydrogen may be recovered from a wide variety of hydrocarbon feed-stocks. A simple experimental set-up has been devised, patterned after ~~t originally used by R. G. Wulff for producing acetylene. This provides a supply of feed-stock, with or Without a carrier gas, which may be passed directly through a heated tube, which may contain a catalyst. A suitable procedure has been devised for analysi~ effluent gases for hydrogen, oxygen, nitrogen, methane and carbon monoxide by gas chromatography with the column packed with .Molecular .:>ieve .5 4. Athanol with air a.s carrier gas and at the same time as oxidant o was thermolyzed at temperatures in the ra~e 700-1100 C, with or Wi~lout catalyst. Methanol with or without nitrogen as a carrier gas was also cracked with • the same type of reactor refractory tube, but the temperature range was lower t down to ,300 " C when a catalyst was used. The problems of converting methane to hydrogen and carbon monoxide effiCiently, using air and/or water as oxidants were also studied.
Resumo:
Infection of hUlnan cells by bovine adenovirlls type 2 (BAV2) is abortive. To obtain a better understanding of this pllenomel1011, and in particular to identify Wllich steps in the viral replicative cycles are altered dllring this virlls-host cells interaction, we have llndertaken a detailed study of BAV2 infections of the nonpennissive hUlnan IIeLa cells. Using autoradiography and 3H-thymidine-labeled vvhole virus particles for infection of HeLa cells, vve determined that viral attachluent appears normal. Furthermore, Southern analysis revealed that internalization and transport to the nuclells occurs in BAV2 infected HeLa cells. To investigate viral DNi\ synthesis, infectivity assays involving hydroxyllrea, a viral DN-A synthesis inhibitor, were carried out. The results revealed that Bft:LV2 DNA synthesis does not occur in HeLa cells. Fllrtller investigations into viral early gene expression by northern blotting analyses indicated that HeLa cells fail to support expression of EIA. This suggested that abortive infection by BAV2 could be attributed to faiiure of EIA to express. To test the possibility that the failure to express ElA was due to the inability of the host cell to recognize the E lA prOlTIoter, ,ve carried out transient expression transfection experiments using plaslnids \vith the bacterial lacZ linder the control of either BAV2 or i\d5 EIA promoter. X-gal histochelIlical assays sho\ved expression of lacZ from the Ad5 ElA prOlnoter but no expression of lacZ [rOln the BAV2 EIA prOlTIoter. This further suggests that the abortive infection b:y BAV2 could be attributed to failure of EIA to express dlle to a nonfllnctional prOlTIoter in hlunan cells. Thus we speClllated that abortive infection of HeLa cells by adenoviruses may be averted by providing EtA functions in trans. To demonstrate this, we coinfected HeLa cells with Ad5 and BAV2, reasoning that Ad5 could cOlnpensate for EIA deficiency in BAV2. OUf results showed that BAV2 DNA synthesis was indeed Sllpported in HeLa cells coinfected with Ad5dlE3 as revealed by Southern analysis. In contrast, coinfection of HeLa cells \vith BAV2 and Ad5dlElE3 mutallt did not support BLt\V2 DNA synthesis. Interestingly, BAV2 failed to replicate in 293 cells which are constitlltively expressing the El genes. This could ilnply that El is necessary but not sufficient to avert the failllre ofBAV2 to undergo productive infection ofhulnan cells.
Resumo:
Human adenoviruses (Ads), members of the family adenoviridae, are medium-sized DNA viruses which have been used as valuable research tools for the study of RNA processing, oncogenic transformation, and for the development of viral vectors for use in gene delivery and immunization technology. The left 12% of the linear Ad genollle codes for products which are necessary for the efficient replication of the virus, as well as being responsible for the forlllation of tumors in animallllodels. The establishlllent of the 293 cell line, by immortalization of human embryonic kidney cells with th~ E1 region of Ad type S (AdS), has facilitated extensive manipulation of the Ads and the development of recombinant Ad vectors. The study of bovine adenoviruses (BAVs), which cause mild respiratory and gastrointestinal infections in cattle has, on the other hand, been limited primarily to that of infectivity, immunology and clinicallllanifestations. As a result, any potential as gene delivery vehicles has not yet been realized. Continued research into the molecular biolo~gy of BAVs and the development of recolllbinant vectors would benefit from the development of a cell line analogous to that of the 293 cells. In an attelllpt to establish such a cell line, the recombinant plaslllid pKC-neo was constructed, containing the left 0-19.7% of the BAV type 3 (BAV3) genome, and the selectable marker for resistance to the aminoglycoside G418, a neomycin derivative. The plasmid construct was then used to transfect both the Madin-Darby bovine kidney (MDBK) -iicell line and primary bovine lung cells, after which G418-resistant foci were selected for analysis. Two cell lines, E61 (MDBK) and E24 (primary lung), were subsequently selected and analysed for DNA content, revealing the presence of the pKC-neo sequences in their respective genomes. In addition, BAV3 RNA transcripts were detected in the E61 cells. Although the presence of E1 products has yet to be confirmed in both cell lines, the E24 cells exhibit a phenotype characteristic of partial transformation by E1. The apparent immortalization of the primary lung cells will permit exploitation of their ability to take up exogenous DNA at high efficiency.
Resumo:
3-alkyl-2-methoxypyrazines (MPs) are grape- and insect-derived odor-active compounds responsible for vegetative percepts that are detrimental to wine quality when elevated. This study tested both the effect of closure/packaging types and light/temperature storage conditions on MPs (isopropyl-, secbutyl-, and isobutyl-MP) in wine. An MP-emiched wine rapidly (after 140 hours) and significantly decreased in MP concentration after natural and synthetic cork contact (immersion of closures in wine). This decrease was greatest with synthetic closures (70% - 89% reduction) and secbutyl-MP. Subsequently storage trials tested the effects of commercial closure/packaging options (natural cork, agglomerate cork, synthetic corks, screwcaps and TetraPak® cartons) on MPs in MP-emiched Riesling and Cabernet Franc over 18 months. Regardless of packaging, isobutyl-MP was the most altered from bottling. Notably, all MP levels tended to decrease to the greatest extent in TetraPak® cartons (~34% for all MPs) and there was evidence of contribution ofisoproyl- and secbutyl-MP from cork-based closures (i.e. ~30% increase in secbutyl-MP after 6 months) or from an unidentified wine constituent. To test the effects of various light/temperature conditions (light exposed at ambient temperature in three different bottle hues, light excluded at ambient temperature and light excluded at a "cellar" temperature (14°C)), MP-emiched Riesling and Cabernet Franc were also analyzed for MP concentrations over 12 months. MPs did not vary consistently with light or temperature. Other odorants and physico-chemical properties were tested in all wines during storage trials and closely agree with previous literature. These results provide novel insights into MPs during ageing, interactions with packaging and storage conditions, and assist in the selection of storage conditions/packaging for optimal wine quality.
Resumo:
Type 1 Diabetes Mellitus (T1DM) is an autoimmune disease that destroys pancreatic beta cells, affecting glucose homeostasis. In T1DM, glucoregulation and carbohydrate oxidation may be altered in different ambient temperatures; however, current literature has yet to explore these mechanisms. This study examines the effects of 30 minutes of exercise at 65% VO2max in 5ºC, 20ºC and 35ºC in individuals with T1DM. No significant differences were observed for blood glucose across the 3 conditions (p = 0.442), but significance was found for core temperature, heat storage, and sweat rate (p < 0.01). Blood glucose was also shown to vary greatly between individuals among conditions. The mechanisms behind the differences in blood glucose may be due to the lack of significant glucagon production among conditions. These findings suggest that T1DM individuals may exercise submaximally for 30 minutes in different ambient temperatures without significant differences in glucoregulation.
The new blockbuster film sequel : changing cultural and economic conditions within the film industry
Resumo:
Film sequels are a pervasive part of film consumption practices and have become an important part of the decision making process for Hollywood studios and producers. This thesis indicates that sequels are not homogenous groups of films, as they are often considered, but offer a variety of story construction and utilize a variety of production methods. Three types of blockbuster sequel sets are identified and discussed in this thesis. The Traditional Blockbuster Sequel Set, as exemplified by Back to the Future (1985, 1989, 1990) films, is the most conventional type of sequel set and capitalizes on the winning formula of the first film in the franchise. The MultiMedia Sequel Set, such as The Matrix (1999,2003) trilogy, allows the user/viewer to experience and consume the story as well as the world of the film through many different media. The Lord a/ the Rings (2001, 2002, 2003) set of films is an illustration of The Saga Sequel Set where plot lines are continuous over the entire franchise thus allowing the viewer to see the entire set as a unified work. The thesis also demonstrates how the blockbuster sequel sets, such as the Pirates a/ the Caribbean (2003, 2006, 2007) franchise, restructure the production process of the Hollywood film industry.
Resumo:
Brand harm crisis often result in negative consumer responses. This thesis addresses the buffering and amplifying theoretical perspectives of brand equity effects. We theorize that brand equity may interplay with the nature of brand-harm crisis in shaping consumer reactions. Results from focus group studies provide interesting insights into the amplifying and buffering effects. Moreover, research findings from two experiment studies show that brand equity amplifies consumer negative responses in a performance-related crisis but only when the crisis is extremely severe. When the crisis becomes less severe, the amplifying effect diminishes from outset. However, in a value-related crisis, the amplifying effect of brand equity is pervasive regardless of the level of crisis severity. The current thesis adds to the extant literature by demonstrating that brand equity can have very complex effects on consumer responses, which are contingent on the severity and domain of a crisis. Theoretical and managerial implications are discussed.
Resumo:
This paper develops a general stochastic framework and an equilibrium asset pricing model that make clear how attitudes towards intertemporal substitution and risk matter for option pricing. In particular, we show under which statistical conditions option pricing formulas are not preference-free, in other words, when preferences are not hidden in the stock and bond prices as they are in the standard Black and Scholes (BS) or Hull and White (HW) pricing formulas. The dependence of option prices on preference parameters comes from several instantaneous causality effects such as the so-called leverage effect. We also emphasize that the most standard asset pricing models (CAPM for the stock and BS or HW preference-free option pricing) are valid under the same stochastic setting (typically the absence of leverage effect), regardless of preference parameter values. Even though we propose a general non-preference-free option pricing formula, we always keep in mind that the BS formula is dominant both as a theoretical reference model and as a tool for practitioners. Another contribution of the paper is to characterize why the BS formula is such a benchmark. We show that, as soon as we are ready to accept a basic property of option prices, namely their homogeneity of degree one with respect to the pair formed by the underlying stock price and the strike price, the necessary statistical hypotheses for homogeneity provide BS-shaped option prices in equilibrium. This BS-shaped option-pricing formula allows us to derive interesting characterizations of the volatility smile, that is, the pattern of BS implicit volatilities as a function of the option moneyness. First, the asymmetry of the smile is shown to be equivalent to a particular form of asymmetry of the equivalent martingale measure. Second, this asymmetry appears precisely when there is either a premium on an instantaneous interest rate risk or on a generalized leverage effect or both, in other words, whenever the option pricing formula is not preference-free. Therefore, the main conclusion of our analysis for practitioners should be that an asymmetric smile is indicative of the relevance of preference parameters to price options.
Resumo:
Selon la tradition, seulement trois régimes purs — monarchie, aristocratie et démocratie — sont identifiés comme étant capables, sous certaines conditions, de permettre l’atteinte du « bien commun ». Ce texte suggère qu’une typologie complète des régimes politiques doit inclure l’anarchie non pas en tant que forme dévoyée de la démocratie, mais bien comme un idéal type de régime pur. La nouvelle typologie devrait inclure la monarchie (le règne d’un seul), l’aristocratie (le règne d’une minorité), la démocratie (le règne de la majorité) et l’anarchie (l’auto-gouvernement de tous, par consensus). Au final, il est nécessaire de se rappeler que la vie politique ne se limite pas à l’État, et que l’anarchie peut s’incarner — ici et maintenant — dans des communautés et des groupes politiques locaux et de petite dimension. Le rejet radical de l’anarchie par les philosophes qui prétendent que sa réalisation est impossible dans notre monde moderne est donc trompeuse et appauvrit nécessairement notre pensée politique.
Resumo:
Le paysage sonore est une forme de perception de notre environnement qui nous permet d’identifier les composantes sonores de notre quotidien. Ce projet de recherche porte sur une thématique particulière, les sons produits par les végétaux et leurs rôles dans les ambiances sonores paysagères. C’est la perspective que nous avons explorée in situ, en comparant les différentes espèces végétales; cette collection d’informations nous permet de proposer une typologie d’ambiances sonores des végétaux. Dans la première partie, des notions rattachées au « monde sonore » telles que l’objet sonore, le paysage sonore et les effets sonores justifient d’établir, dans la méthodologie, une grille d’analyse comportant différentes échelles d’écoute. Une lecture multidisciplinaire propose, d’une part, de réunir de l’information sur le son et les végétaux, la morphologie de ces derniers, l’aménagement au site, les conditions climatiques et, d’autre part, de retrouver ce qui a trait au son dans l’histoire des jardins, dont les jardins sensoriels, thérapeutiques, technologiques, et des sentiers d’interprétation sonore, sous l’angle du son comme projet. De plus, une liste de végétaux recevant les chants et cris de la faune vient introduire la notion de biodiversité sonore. Une enquête sociale de terrain, par la méthode des parcours commentés, et une enquête « experte » ont été réalisées au Jardin botanique de Montréal. Ces deux enquêtes nous ont permis de constituer une grille d’analyse croisée comprenant plusieurs échelles d’écoute : textures, actions sonores, effets sonores... De là, des générateurs d’ambiance (morphologie, organisation, climat) ont été relevés pour déterminer les aspects de récurrences et de différenciations d’un type d’ambiance sonore à l’autre. Des associations se sont formées en fonction de onze types de végétaux, chacun comprenant plusieurs sous-catégories. Celles-ci proposent des ambiances sonores spécifiques, des échelles d’écoute à considérer pour chaque type d’ambiance et l’énumération d’espèces à utiliser. Cette recherche ouvre la voie à un autre type de lecture sonore, par thématique d’ambiance (les sons du végétal dans notre cas), afin d’offrir de nouveaux outils de conception pour les professionnels, en profonde relation avec les perceptions sonores d’usagers sur le terrain et l’agencement spécifique d’un site.
Resumo:
De nombreuses études ont établi que la majorité des neurones libèrent plus qu’une substance chimique. Il est bien connu que les neurones peuvent co-exprimer et co-libérer des neuropeptides en plus de leur neurotransmetteur, mais des évidences de la co-libération de deux petits neurotransmetteurs à action rapide se sont accumulées récemment. Des enregistrements électrophysiologiques ont aussi montré que des neurones sérotoninergiques et dopaminergiques isolés peuvent libérer du glutamate quand ils sont placés en culture. De plus, la présence de glutamate et de glutaminase a été détectée dans des neurones sérotoninergiques, dopaminergiques et noradrénergiques par immunomarquage sur des tranches de cerveau. Malheureusement, en considérant le rôle métabolique du glutamate, sa détection immunologique n’est pas suffisante pour assurer le phénotype glutamatergique d’un neurone. Récemment, la découverte de trois transporteurs vésiculaires du glutamate (VGLUT1-3) a grandement facilité l’identification des neurones glutamatergiques. Ces transporteurs sont nécessaires pour la libération de glutamate et constituent les premiers marqueurs morphologiques du phénotype glutamatergique. Il a été démontré que des neurones noradrénergiques expriment VGLUT2 et que des neurones sérotoninergiques expriment VGLUT3. Mais aucune évidence d’expression d’un des sous-types de VGLUT n’a été reportée pour les neurones dopaminergiques. Le but de notre travail était d’identifier quel sous-type de VGLUT est exprimé par les neurones dopaminergiques mésencéphaliques, et de déterminer si le phénotype glutamatergique de ces neurones peut être modulé dans des conditions particulières. Premièrement, nous avons utilisé des microcultures pour isoler les neurones dopaminergiques et des doubles marquages immunocytochimiques pour observer l’expression de VGLUT dans les neurones positifs pour la tyrosine hydroxylase (TH). Nous avons montré que la majorité (80%) des neurones TH+ isolés exprime spécifiquement VGLUT2. Cette expression est précoce au cours du développement in vitro et limitée aux projections axonales des neurones dopaminergiques. Toutefois, cette forte expression in vitro contraste avec la non-détection de ce transporteur dans les rats adultes in vivo. Nous avons décidé ensuite de regarder si l’expression de VGLUT2 pouvait être régulée pendant le développement cérébral de jeunes rats et sous des conditions traumatiques, par double hybridation in situ. Entre 14 et 16 jours embryonnaires, les marquages de VGLUT2 et de TH montraient une superposition significative qui n’était pas retrouvée à des stades ultérieurs. Dans le mésencéphale de jeunes rats postnataux, nous avons détecté l’ARNm de VGLUT2 dans environs 1-2% des neurones exprimant l’ARNm de TH dans la substance noire et l’aire tegmentaire ventrale (ATV). Pour explorer la régulation de l’expression de VGLUT2 dans des conditions traumatiques, nous avons utilisé la 6-hydroxydopamine (6-OHDA) pour léser les neurones dopaminergiques dans les jeunes rats. Dix jours après la chirurgie, nous avons trouvé que 27% des neurones dopaminergiques survivants dans l’ATV exprimaient l’ARNm de VGLUT2 dans les rats 6-OHDA. Finalement, nous avons observé la colocalisation de la protéine VGLUT2 dans les terminaisons TH positives par microscopie électronique. Dans les rats normaux, la protéine VGLUT2 est retrouvée dans 28% des terminaisons axonales TH dans le noyau accumbens. Dans les rats lésés à la 6-OHDA, nous avons observé une diminution considérable des terminaisons TH positives, et une augmentation dans la proportion (37%) des terminaisons dopaminergiques présentant du VGLUT2. Nos résultats suggèrent que le phénotype glutamatergique des neurones dopaminergiques est régulé au cours du développement, peut être réactivé dans des états pathologiques, et que ces neurones peuvent libérer du glutamate dans conditions spécifiques.
Resumo:
Un certain nombre de théories pédagogiques ont été établies depuis plus de 20 ans. Elles font appel aux réactions de l’apprenant en situation d’apprentissage, mais aucune théorie pédagogique n’a pu décrire complètement un processus d’enseignement en tenant compte de toutes les réactions émotionnelles de l’apprenant. Nous souhaitons intégrer les émotions de l’apprenant dans ces processus d’apprentissage, car elles sont importantes dans les mécanismes d’acquisition de connaissances et dans la mémorisation. Récemment on a vu que le facteur émotionnel est considéré jouer un rôle très important dans les processus cognitifs. Modéliser les réactions émotionnelles d’un apprenant en cours du processus d’apprentissage est une nouveauté pour un Système Tutoriel Intelligent. Pour réaliser notre recherche, nous examinerons les théories pédagogiques qui n’ont pas considéré les émotions de l’apprenant. Jusqu’à maintenant, aucun Système Tutoriel Intelligent destiné à l’enseignement n’a incorporé la notion de facteur émotionnel pour un apprenant humain. Notre premier objectif est d’analyser quelques stratégies pédagogiques et de détecter les composantes émotionnelles qui peuvent y être ou non. Nous cherchons à déterminer dans cette analyse quel type de méthode didactique est utilisé, autrement dit, que fait le tuteur pour prévoir et aider l’apprenant à accomplir sa tâche d’apprentissage dans des conditions optimales. Le deuxième objectif est de proposer l’amélioration de ces méthodes en ajoutant les facteurs émotionnels. On les nommera des « méthodes émotionnelles ». Le dernier objectif vise à expérimenter le modèle d’une théorie pédagogique améliorée en ajoutant les facteurs émotionnels. Dans le cadre de cette recherche nous analyserons un certain nombre de théories pédagogiques, parmi lesquelles les théories de Robert Gagné, Jerome Bruner, Herbert J. Klausmeier et David Merrill, pour chercher à identifier les composantes émotionnelles. Aucune théorie pédagogique n’a mis l’accent sur les émotions au cours du processus d’apprentissage. Ces théories pédagogiques sont développées en tenant compte de plusieurs facteurs externes qui peuvent influencer le processus d’apprentissage. Nous proposons une approche basée sur la prédiction d’émotions qui est liée à de potentielles causes déclenchées par différents facteurs déterminants au cours du processus d’apprentissage. Nous voulons développer une technique qui permette au tuteur de traiter la réaction émotionnelle de l’apprenant à un moment donné au cours de son processus d’apprentissage et de l’inclure dans une méthode pédagogique. Pour atteindre le deuxième objectif de notre recherche, nous utiliserons un module tuteur apprenant basé sur le principe de l’éducation des émotions de l’apprenant, modèle qui vise premièrement sa personnalité et deuxièmement ses connaissances. Si on défini l’apprenant, on peut prédire ses réactions émotionnelles (positives ou négatives) et on peut s’assurer de la bonne disposition de l’apprenant, de sa coopération, sa communication et l’optimisme nécessaires à régler les problèmes émotionnels. Pour atteindre le troisième objectif, nous proposons une technique qui permet au tuteur de résoudre un problème de réaction émotionnelle de l’apprenant à un moment donné du processus d’apprentissage. Nous appliquerons cette technique à une théorie pédagogique. Pour cette première théorie, nous étudierons l’effet produit par certaines stratégies pédagogiques d’un tuteur virtuel au sujet de l’état émotionnel de l’apprenant, et pour ce faire, nous développerons une structure de données en ligne qu’un agent tuteur virtuel peut induire à l’apprenant des émotions positives. Nous analyserons les résultats expérimentaux en utilisant la première théorie et nous les comparerons ensuite avec trois autres théories que nous avons proposées d’étudier. En procédant de la sorte, nous atteindrons le troisième objectif de notre recherche, celui d’expérimenter un modèle d’une théorie pédagogique et de le comparer ensuite avec d’autres théories dans le but de développer ou d’améliorer les méthodes émotionnelles. Nous analyserons les avantages, mais aussi les insuffisances de ces théories par rapport au comportement émotionnel de l’apprenant. En guise de conclusion de cette recherche, nous retiendrons de meilleures théories pédagogiques ou bien nous suggérerons un moyen de les améliorer.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.