857 resultados para cash-in-advance
Resumo:
Perinteisesti suuri osa yritysten hankkimista palveluista on laskutettu kuluneiden työtuntien mukaan tuntiperusteina laskutuksena. Yleistymässä on myös palveluiden tarjonta suoritteina, joilla on etukäteen määritelty sisältö ja hinta. Tämän tutkimuksen tavoitteena oli selvittää näiden hinnoittelumallien välisiä eroja kokonaiskustannusten näkökulmasta. Tutkimukseen kerättiin tietoja kohdeyrityksen palveluhankinnoista; prosessiputkistojen korjaus- ja muutostyöt sekä sähkömoottorien huollot. Laskutietojen lisäksi yksittäisistä töistä saatiin käyttöön myös mm. työtuntimäärät. Palvelutoimittajien hinnastoja hyödyntäen luotiin laskennallinen vertailuhinta-aineisto vaihtoehtoisella hinnoittelumallilla. Muut kokonaiskustannuksiin vaikuttavat elementit arvioitiin kokemukseen perustuen. Tutkimuksen mukaan suoritepohjainen hinnoittelu näyttää sopivan samankaltaisina toistuviin hankintoihin kuten sähkömoottorihuoltoihin. Putkistotöiden hankinnassa sen sijaan vaativan työn sisällön etukäteen määrittelyn ja lisätöiden takia tuntiperusteinen hinnoittelu arvioitiin kokonaiskustannusiltaan edullisemmaksi. Hinnoittelumallien välinen paremmuus siis riippuu hankittavan palvelun sisällöstä.
Resumo:
Tutkimuksessa tarkastellaan hevoskauppaa ja sen erityispiirteitä suhtees-sa irtaimen kauppaa säätelevään lainsäädäntöön. Tavoitteena on tuoda esiin hevosesta johtuvia erityispiirteitä ja pohtia sovellettavan lainsäädän-nön soveltuvuutta hevosen kauppaan. Tarkastelu kohdentuu erityisesti hevoselle ominaisiin laatuvirheen muotoihin, kuten sairauksiin ja fyysisiin vikoihin. Lisäksi tarkastellaan, miten esiin nostettuihin erityispiirteisiin on varauduttu hevoskauppaan tarkoitetuissa kauppasopimusmalleissa. Hevoskauppaan pätee sama lainsäädäntö kuin minkä tahansa muun ir-taimen tavaran kauppaan. Virheeseen varautuminen yksityiskohtaisesti sopimalla korostuu hevoskaupassa, koska täydellistä ja virheetöntä hevosta ei ole olemassakaan. Myyjän näkökulmasta onnistuneessa kauppaprosessissa neuvotellaan virheen mahdollisuus niin pieneksi kuin se on mahdollista. Tähän instrumentit antavat lainsäädäntö ja erityisesti sopimusoikeudelliset keinot. Ostajan näkökulmasta onnistuneessa kaupassa hän on kyennyt asiantuntijoihin tukeutuen tunnistamaan ennalta hevosen viat ja muut epämieluisat ominaisuudet. Nämä tiedostaen ostaja määrittää, mitä virheitä on valmis hyväksymään. Hevoskaupassa riidan välittömät ja välilliset kustannukset suhteessa maksettuun kauppahintaan voivat nousta korkeiksi. Hevoskaupassa usein ainoa kirjallinen dokumentti on omistajanvaihdosilmoitus, eikä kauppasopimuksen laatiminen kirjallisena ole itsestäänselvyys. Yksinomaan hevoskauppaan liittyvien juridisten kysymysten tekeminen näkyväksi on tärkeää. Irtaimen kauppaa säätelevä lainsäädäntö ei kuitenkaan tunnista riittävällä tarkkuudella hevosen erityispiirteitä persoonaesineenä, vaan väliin tarvi-taan vakiosopimusten kaltaisia apuvälineitä kaupan osapuolten tueksi.
Resumo:
JÄKÄLA-algoritmi (Jatkuvan Äänitehojakautuman algoritmi Käytävien Äänikenttien LAskentaan) ja sen NUMO- ja APPRO-laskentayhtälöt perustuvat käytävällä olevan todellisen äänilähteen kuvalähteiden symmetriaan. NUMO on algoritmin numeerisen ratkaisun ja APPRO likiarvoratkaisun laskentayhtälö. Algoritmia johdettaessa oletettiin, että absorptiomateriaali oli jakautunut tasaisesti käytävän ääntä heijastaville pinnoille. Suorakaiteen muotoisen käytävän kuvalähdetason muunto jatkuvaksi äänitehojakautumaksi sisältää kolme muokkausvaihetta. Aluksi suorakaiteen kuvalähdetaso muunnetaan neliön muotoiseksi. Seuraavaksi neliön muotoisen kuvalähdetason samanarvoiset kuvalähteet siirretään koordinaattiakselille diskreetiksi kuvalähdejonoksi. Lopuksi kuvalähdejono muunnetaan jatkuvaksi äänitehojakautumaksi, jolloin käytävän vastaanottopisteen äänenpainetaso voidaan laskea integroimalla jatkuvan äänitehojakautuman yli. JÄKÄLA-algoritmin validiteetin toteamiseksi käytettiin testattua kaupallista AKURI-ohjelmaa. AKURI-ohjelma antoi myös hyvän käsityksen siitä, miten NUMO- ja APPRO-yhtälöillä lasketut arvot mahdollisesti eroavat todellisilla käytävillä mitatuista arvoista. JÄKÄLA-algoritmin NUMO- ja APPRO-yhtälöitä testattiin myös vertaamalla niiden antamia tuloksia kolmen erityyppisen käytävän äänenpainetasomittauksiin. Tässä tutkimuksessa on osoitettu, että akustisen kuvateorian pohjalta on mahdollista johtaa laskenta-algoritmi, jota voidaan soveltaa pitkien käytävien äänikenttien pika-arvioinnissa paikan päällä. Sekä teoreettinen laskenta että käytännön äänenpainetasomittaukset todellisilla käytävillä osoittivat, että JÄKÄLA-algoritmin yhtälöiden ennustustarkkuus oli erinomainen ideaalikäytävillä ja hyvä niillä todellisilla käytävillä, joilla ei ollut ääntä heijastavia rakenteita. NUMO- ja APPRO-yhtälöt näyttäisivät toimivan hyvin käytävillä, joiden poikkileikkaus oli lähes neliön muotoinen ja joissa pintojen suurin absorptiokerroin oli korkeintaan kymmenen kertaa pienintä absorptiokerrointa suurempi. NUMO- ja APPRO-yhtälöiden suurin puute on, etteivät ne ota huomioon pintojen erilaisia absorptiokertoimia eivätkä esineistä heijastuvia ääniä. NUMO- ja APPRO- laskentayhtälöt poikkesivat mitatuista arvoista eniten käytävillä, joilla kahden vastakkaisen pinnan absorptiokerroin oli hyvin suuri ja toisen pintaparin hyvin pieni, ja käytävillä, joissa oli massiivisia, ääntä heijastavia pilareita ja palkkeja. JÄKÄLA-algoritmin NUMO- ja APPRO-yhtälöt antoivat tutkituilla käytävillä kuitenkin selvästi tarkempia arvoja kuin Kuttruffin likiarvoyhtälö ja tilastollisen huoneakustiikan perusyhtälö. JÄKÄLA-algoritmin laskentatarkkuutta on testattu vain neljällä todellisella käytävällä. Algoritmin kehittämiseksi tulisi jatkossa käytävän vastakkaisia pintoja ja niiden absorptiokertoimia käsitellä laskennassa pareittain. Algoritmin validiteetin varmistamiseksi on mittauksia tehtävä lisää käytävillä, joiden absorptiomateriaalien jakautumat poikkeavat toisistaan.
Resumo:
Wastes and side streams in the mining industry and different anthropogenic wastes often contain valuable metals in such concentrations their recovery may be economically viable. These raw materials are collectively called secondary raw materials. The recovery of metals from these materials is also environmentally favorable, since many of the metals, for example heavy metals, are hazardous to the environment. This has been noticed in legislative bodies, and strict regulations for handling both mining and anthropogenic wastes have been developed, mainly in the last decade. In the mining and metallurgy industry, important secondary raw materials include, for example, steelmaking dusts (recoverable metals e.g. Zn and Mo), zinc plant residues (Ag, Au, Ga, Ge, In) and waste slurry from Bayer process alumina production (Ga, REE, Ti, V). From anthropogenic wastes, waste electrical and electronic equipment (WEEE), among them LCD screens and fluorescent lamps, are clearly the most important from a metals recovery point of view. Metals that are commonly recovered from WEEE include, for example, Ag, Au, Cu, Pd and Pt. In LCD screens indium, and in fluorescent lamps, REEs, are possible target metals. Hydrometallurgical processing routes are highly suitable for the treatment of complex and/or low grade raw materials, as secondary raw materials often are. These solid or liquid raw materials often contain large amounts of base metals, for example. Thus, in order to recover valuable metals, with small concentrations, highly selective separation methods, such as hydrometallurgical routes, are needed. In addition, hydrometallurgical processes are also seen as more environmental friendly, and they have lower energy consumption, when compared to pyrometallurgical processes. In this thesis, solvent extraction and ion exchange are the most important hydrometallurgical separation methods studied. Solvent extraction is a mainstream unit operation in the metallurgical industry for all kinds of metals, but for ion exchange, practical applications are not as widespread. However, ion exchange is known to be particularly suitable for dilute feed solutions and complex separation tasks, which makes it a viable option, especially for processing secondary raw materials. Recovering valuable metals was studied with five different raw materials, which included liquid and solid side streams from metallurgical industries and WEEE. Recovery of high purity (99.7%) In, from LCD screens, was achieved by leaching with H2SO4, extracting In and Sn to D2EHPA, and selectively stripping In to HCl. In was also concentrated in the solvent extraction stage from 44 mg/L to 6.5 g/L. Ge was recovered as a side product from two different base metal process liquors with Nmethylglucamine functional chelating ion exchange resin (IRA-743). Based on equilibrium and dynamic modeling, a mechanism for this moderately complex adsorption process was suggested. Eu and Y were leached with high yields (91 and 83%) by 2 M H2SO4 from a fluorescent lamp precipitate of waste treatment plant. The waste also contained significant amounts of other REEs such as Gd and Tb, but these were not leached with common mineral acids in ambient conditions. Zn was selectively leached over Fe from steelmaking dusts with a controlled acidic leaching method, in which the pH did not go below, but was held close as possible to, 3. Mo was also present in the other studied dust, and was leached with pure water more effectively than with the acidic methods. Good yield and selectivity in the solvent extraction of Zn was achieved by D2EHPA. However, Fe needs to be eliminated in advance, either by the controlled leaching method or, for example, by precipitation. 100% Pure Mo/Cr product was achieved with quaternary ammonium salt (Aliquat 336) directly from the water leachate, without pH adjustment (pH 13.7). A Mo/Cr mixture was also obtained from H2SO4 leachates with hydroxyoxime LIX 84-I and trioctylamine (TOA), but the purities were 70% at most. However with Aliquat 336, again an over 99% pure mixture was obtained. High selectivity for Mo over Cr was not achieved with any of the studied reagents. Ag-NaCl solution was purified from divalent impurity metals by aminomethylphosphonium functional Lewatit TP-260 ion exchange resin. A novel preconditioning method, named controlled partial neutralization, with conjugate bases of weak organic acids, was used to control the pH in the column to avoid capacity losses or precipitations. Counter-current SMB was shown to be a better process configuration than either batch column operation or the cross-current operation conventionally used in the metallurgical industry. The raw materials used in this thesis were also evaluated from an economic point of view, and the precipitate from a waste fluorescent lamp treatment process was clearly shown to be the most promising.
Resumo:
Tämän Pro Gradu –tutkielman aiheena on strategisten reaalioptioiden tunnistamiskyky suomalaisissa pk-yrityksissä. Tunnistamiskykyä tutkitaan kolmen alakysymyksen kautta ja näiden myötä voidaan muodostaa näkemys tunnistamiskyvyn merkityksestä, haasteista ja käytännöstä. Tutkimusstrategiana on kvalitatiivinen tutkimus ja tutkimusmetodina puolistrukturoimaton haastattelu. Tutkimus suoritetaan ilman selkeitä ennakkohypoteeseja. Laajan viitekehyksen tutkimukselle antaa reaalioptioajattelun teoria. Tutkimuksessa johdetaan strategisten reaalioptioiden tunnistamiskyvyn määritelmä taustateoriaan pohjautuen. Empiiristen tutkimustulosten mukaan strategisten reaalioptioiden tunnistamiskyvyn käytäntö ja haasteet nivoutuvat kolmen laajan teeman sisään. Näitä teemoja ovat yritysjohdon jatkuva valppaus mielentilana, tunnistamiskyky asiakas-, verkosto- ja kumppanuussuhteissa sekä henkilöstön kompetenssien rakentaminen. Tutkimuksen myötä vahvistuu näkemys, jonka mukaan reaalioptioajattelun omaksuminen voi kehittää merkittävästi yritysjohdon strategista ajattelukykyä sekä koko yrityksessä vallitsevaa toimeenpanokykyä. Strategisten reaalioptioiden tunnistamiskyky on puolestaan reaalioptioajattelun yksi tärkeä osa-alue, koska sillä mitä päädymme tunnistamaan, on tyypillisesti kauaskantoiset seuraukset.
Resumo:
The objective of this Master´s Thesis was to conduct a wide scale preliminary survey regarding the package requirements of a cultured dairy package, and to compare the currently used material polystyrene to other suitable packaging materials. Polystyrene has a long history of use in dairy cups, but in recent years its price has increased significantly compared to other common packaging materials. The overall environmental effects of a package and a package material are today a part of designing a sustainable product life cycle. In addition, in certain contexts there has been discussion of the risks posed by styrene polymer for the environment and for humans. These risks are also discussed in this thesis. Polystyrene (PS) is still the most widely used material in dairy cups. In recent years, polypropylene (PP) cups have appeared in increasing numbers on market shelves. This study focuses on the differences of the suitable polymers and examines the suitability of alternative “suitable” polymers with regards to dairy packaging. Aside from focusing on the cup manufacturer, this thesis also examines its subject matter from the viewpoint of the dairy customer, as well as observing the concrete implications of material changes in the overall value chain. It was known in advance that material permeability would be one of the determining factors and that gas transmission testing would be a significant part of the thesis. Mechanical tests were the second part of the testing process, providing information regarding package strength and protectiveness during the package’s life cycle. Production efficiency, along with uninterrupted stable production, was another important factor that was taken into consideration. These two issues are sometimes neglected in similar contexts due to their self-evident nature. In addition, materials used in production may have a surprising significance to the production and efficiency. Consistent high quality is also partly based on material selection. All of the aforementioned factors have been documented and the results have been analyzed by the development team at Coveris Rigid Finland. Coveris is now calculating the total finance effects and capacities should the material changes be implemented in practice. There are many factors in favor of switching to polypropylene at the moment. The overall production costs, as well as the environmental effects of resin production are the primary influences for said switch from the converters’ perspective.
Resumo:
This study investigated the influence of cueing on the performance of untrained and trained complex motor responses. Healthy adults responded to a visual target by performing four sequential movements (complex response) or a single movement (simple response) of their middle finger. A visual cue preceded the target by an interval of 300, 1000, or 2000 ms. In Experiment 1, the complex and simple responses were not previously trained. During the testing session, the complex response pattern varied on a trial-by-trial basis following the indication provided by the visual cue. In Experiment 2, the complex response and the simple response were extensively trained beforehand. During the testing session, the trained complex response pattern was performed in all trials. The latency of the untrained and trained complex responses decreased from the short to the medium and long cue-target intervals. The latency of the complex response was longer than that of the simple response, except in the case of the trained responses and the long cue-target interval. These results suggest that the preparation of untrained complex responses cannot be completed in advance, this being possible, however, for trained complex responses when enough time is available. The duration of the 1st submovement, 1st pause and 2nd submovement of the untrained and the trained complex responses increased from the short to the long cue-target interval, suggesting that there is an increase of online programming of the response possibly related to the degree of certainty about the moment of target appearance.
Resumo:
Different axioms underlie efficient market theory and Keynes's liquidity preference theory. Efficient market theory assumes the ergodic axiom. Consequently, today's decision makers can calculate with actuarial precision the future value of all possible outcomes resulting from today's decisions. Since in an efficient market world decision makers "know" their intertemporal budget constraints, decision makers never default on a loan, i.e., systemic defaults, insolvencies, and bankruptcies are impossible. Keynes liquidity preference theory rejects the ergodic axiom. The future is ontologically uncertain. Accordingly systemic defaults and insolvencies can occur but can never be predicted in advance.
Resumo:
The aim of this study was to examine how to support breastfeeding of preterm infants immediately after birth in the delivery ward, during their hospital stay in a neonatal intensive care unit (NICU), and at home after hospital discharge. Specifically, the role of early physical contact, maternal breastfeeding attitude, and an internet-based peer support group were investigated. The delivery ward practices concerning the implementation of early physical contact between a mother and her infant admitted to a NICU were examined by a structured survey in two hospitals. An Internet-based, breastfeeding peer-support intervention for the mothers of preterm infants was developed and tested in a randomized controlled design with one year follow-up. The main outcomes were the duration of exclusive and overall breastfeeding, expressing milk, and maternal attitude. In addition, the perceptions of mothers of preterm infants were investigated by analyzing the peer-support group discussions with a qualitative approach. The implementation of early physical contact was different between the two hospitals studied and was based more on hospital routines than the physiological condition of the infant. Preterm infants, who were born before a gestational age (GA) of 32 weeks, were hardly ever allowed to have early contact with their mothers. Both, a higher GA and early physical contact predicted earlier initiation and increased frequency of breastfeeding in the NICU. A maternal breastfeeding-favorable attitude predicted increased frequency of breastfeeding in the NICU and also a longer duration of overall breastfeeding. The actual duration of breastfeeding was, however, shorter than the mothers intended in advance. The internet-based, peer-support intervention had no effect on the duration of breastfeeding, expressing milk, or maternal attitude. The participating mothers enjoyed the possibility of sharing their experiences of preterm infants with other mothers in similar situations. Some of the mothers also experienced being given useful advice for breastfeeding. Based on the mothers’ discussions, a process of breastfeeding preterm infants was created. This included some paradoxical elements in the NICU where, for example, breast milk was emphasized over breastfeeding and support in the hospital varied. Hospital discharge was a critical point, when the mothers faced breastfeeding in reality. Over time, the mothers assimilated their breastfeeding experience into part of being a mother. The care practices related to early physical contact in delivery wards need to be re-evaluated to allow more infants to have a moment with the mother. Maternal attitude could be screened prenatally and attitude-focused interventions developed. Breastfeeding support in the NICU should be standardized. Internet-based breastfeeding peer-support intervention was feasible but additional research is needed.
Resumo:
Tässä työssä tutkitaan verkossa tehtävän vakiosopimuksen ehtoja sopimuksen ollessa elinkeinonharjoittajien välinen. Kun sopimuksen on laatinut neuvotteluasemaltaan vahvempi osapuoli, ei toisella osapuolella ole muuta mahdollisuutta kuin hyväksyä tai hylätä sopimus. Tällainen sopimus on nimeltään liittymissopimus. Epätasaisen neuvotteluvoiman johdosta vahvempi osapuoli voi sopimuksen ehtoja laatiessaan pyrkiä puoltamaan omaa etuaan. Tämä voi johtaa tilanteeseen, jossa sopimuksen ehtoihin sisältyy yllättäviä ja ankaria ehtoja. Tarkoituksena on selvittää oikeuskirjallisuuden perusteella millaiset ehdot voivat olla lähtökohtaisesti yllättäviä ja ankaria. Jotta tällaiset ehdot tulisivat sitovasti sopimuksen osaksi, niitä tulee korostaa. Empiirisen tutkimuksen avulla halutaan selvittää miten edellä mainittujen ehtojen korostaminen onnistuu mobiilisovelluskehittäjien jakelusopimuksissa. Verkossa toteutettu kyselytutkimus suunnattiin suomalaisille mobiilisovelluskehittäjille. Tutkimuksen mukaan on selvää, ettei suurin ongelma ole sopimusehdoissa, vaan suurin ongelma on sopimuksen lukemisen transaktiokustannus. Tämän seurauksena liityntäsopimuksen hyväksyjät ovat tietämättömiä sopimuksen solmimisen seurauksena heihin kohdistuneista vastuista ja velvoitteista. Koska sovelluskehittäjät näkevät itsensä jo lähtökohtaisesti sopimuksen osapuolina ilman neuvotteluvoimaa, eivät he koe hyötyvänsä sopimuksen lukemisesta. Johtopäätöksenä todetaan, että tiedon epäsymmetrisyyteen tulisi vaikuttaa. Järjestäytymällä sovelluskehittäjien olisi mahdollista kasvattaa neuvotteluvoimaa, mutta myös lisätä tietoisuuttaan sopimusehtojen sisällöstä. Sopimusehtoihin vaikuttaminen ei ole mahdollista tällä hetkellä ennen kuin useammat sopimuksen hyväksyjät lukevat sopimuksen.
Resumo:
It is our intention in the course of the development of this thesis to give an account of how intersubjectivity is "eidetically" constituted by means of the application of the phenomenological reduction to our experience in the context of the thought of Edmund Husserl; contrasted with various representative thinkers in what H. Spiegelberg refers to as "the wider scene" of phenomenology. That is to say, we intend to show those structures of both consciousness and the relation which man has to the world which present themselves as the generic conditions for the possibility of overcoming our "radical sol itude" in order that we may gain access to the mental 1 ife of an Other as other human subject. It is clear that in order for us to give expression to these accounts in a coherent manner, along with their relative merits, it will be necessary to develop the common features of any phenomenological theory of consdousness whatever. Therefore, our preliminary inquiry, subordinate to the larger theme, shall be into some of the epistemological results of the application of the phenomenological method used to develop a transcendental theory of consciousness. Inherent in this will be the deliniation of the exigency for making this an lIintentional ll theory. We will then be able to see how itis possible to overcome transcendentally the Other as an object merely given among other merely given objects, and further, how this other is constituted specifically as other ego. The problem of transcendental intersubjectivity and its constitution in experience can be viewed as one of the most compelling, if not the most polemical of issues in phenomenology. To be sure, right from the beginning we are forced to ask a number of questions regarding Husserl's responses to the problem within the context of the methodological genesis of the Cartesian Meditations, and The Crisis of European Sciences and Transcendental Phenomenology. This we do in order to set the stage for amplification. First, we ask, has Husserl lived up to his goal, in this connexion, of an apodictic result? We recall that in his Logos article of 1911 he adminished that previous philosophy does not have at its disposal a merely incomplete and, in particular instances, imperfect doctrinal system; it simply has none whatever. Each and every question is herein controverted, each position is a matter of individual conviction, of the interpretation given byaschool, of a "point of view". 1. Moreover in the same article he writes that his goal is a philosophical system of doctrine that, after the gigantic preparatory work. of generations, really be- . gins from the ground up with a foundation free from doubt and rises up like any skilful construction, wherein stone is set upon store, each as solid as the other, in accord with directive insights. 2. Reflecting upon the fact that he foresaw "preparatory work of generations", we perhaps should not expect that he would claim that his was the last word on the matter of intersubjectivity. Indeed, with 2. 'Edmund Husserl, lIPhilosophy as a Rigorous Science" in Phenomenology and theCrisis6fPhilosophy, trans". with an introduction by Quentin Lauer (New York.: Harper & Row, 1965) pp. 74 .. 5. 2Ibid . pp. 75 .. 6. 3. the relatively small amount of published material by Husserl on the subject we can assume that he himself was not entirely satisfied with his solution. The second question we have is that if the transcendental reduction is to yield the generic and apodictic structures of the relationship of consciousness to its various possible objects, how far can we extend this particular constitutive synthetic function to intersubjectivity where the objects must of necessity always remain delitescent? To be sure, the type of 'object' here to be considered is unlike any other which might appear in the perceptual field. What kind of indubitable evidence will convince us that the characteristic which we label "alter-ego" and which we attribute to an object which appears to resemble another body which we have never, and can never see the whole of (namely, our own bodies), is nothing more than a cleverly contrived automaton? What;s the nature of this peculiar intentional function which enables us to say "you think just as I do"? If phenomenology is to take such great pains to reduce the takenfor- granted, lived, everyday world to an immanent world of pure presentation, we must ask the mode of presentation for transcendent sub .. jectivities. And in the end, we must ask if Husserl's argument is not reducible to a case (however special) of reasoning by analogy, and if so, tf this type of reasoning is not so removed from that from whtch the analogy is made that it would render all transcendental intersubjective understandtng impos'sible? 2. HistoticalandEidetic Priority: The Necessity of Abstraction 4. The problem is not a simple one. What is being sought are the conditions for the poss ibili:ty of experi encing other subjects. More precisely, the question of the possibility of intersubjectivity is the question of the essence of intersubjectivity. What we are seeking is the absolute route from one solitude to another. Inherent in this programme is the ultimate discovery of the meaning of community. That this route needs be lIabstract" requires some explanation. It requires little explanation that we agree with Husserl in the aim of fixing the goal of philosophy on apodictic, unquestionable results. This means that we seek a philosophical approach which is, though, not necessarily free from assumptions, one which examines and makes explicit all assumptions in a thorough manner. It would be helpful at this point to distinguish between lIeidetic ll priority, and JlhistoricallJpriority in order to shed some light on the value, in this context, of an abstraction.3 It is true that intersubjectivity is mundanely an accomplished fact, there havi.ng been so many mi.llions of years for humans to beIt eve in the exi s tence of one another I s abili ty to think as they do. But what we seek is not to study how this proceeded historically, but 3Cf• Maurice Natanson;·TheJburne in 'Self, a Stud in Philoso h and Social Role (Santa Cruz, U. of California Press, 1970 . rather the logical, nay, "psychological" conditions under which this is possible at all. It is therefore irrelevant to the exigesis of this monograph whether or not anyone should shrug his shoulders and mumble IIwhy worry about it, it is always already engaged". By way of an explanation of the value of logical priority, we can find an analogy in the case of language. Certainly the language 5. in a spoken or written form predates the formulation of the appropriate grammar. However, this grammar has a logical priority insofar as it lays out the conditions from which that language exhibits coherence. The act of formulating the grammar is a case of abstraction. The abstraction towards the discovery of the conditions for the poss; bi 1 ity of any experiencing whatever, for which intersubjective experience is a definite case, manifests itself as a sort of "grammar". This "grammar" is like the basic grammar of a language in the sense that these "rulesil are the ~ priori conditions for the possibility of that experience. There is, we shall say, an "eidetic priority", or a generic condition which is the logical antecedent to the taken-forgranted object of experience. In the case of intersubjectivity we readily grant that one may mundanely be aware of fellow-men as fellowmen, but in order to discover how that awareness is possible it is necessary to abstract from the mundane, believed-in experience. This process of abstraction is the paramount issue; the first step, in the search for an apodictic basis for social relations. How then is this abstraction to be accomplished? What is the nature of an abstraction which would permit us an Archimedean point, absolutely grounded, from which we may proceed? The answer can be discovered in an examination of Descartes in the light of Husserl's criticism. 3. The Impulse for Scientific Philosophy. The Method to which it Gives Rise. 6. Foremost in our inquiry is the discovery of a method appropriate to the discovery of our grounding point. For the purposes of our investigations, i.e., that of attempting to give a phenomenological view of the problem of intersubjectivity, it would appear to be of cardinal importance to trace the attempt of philosophy predating Husserl, particularly in the philosophy of Descartes, at founding a truly IIscientific ll philosophy. Paramount in this connexion would be the impulse in the Modern period, as the result of more or less recent discoveries in the natural sciences, to found philosophy upon scientific and mathematical principles. This impulse was intended to culminate in an all-encompassing knowledge which might extend to every realm of possible thought, viz., the universal science ot IIMathexis Universalis ll •4 This was a central issue for Descartes, whose conception of a universal science would include all the possible sciences of man. This inclination towards a science upon which all other sciences might be based waS not to be belittled by Husserl, who would appropriate 4This term, according to Jacab Klein, was first used by Barocius, the translator of Proclus into Latin, to designate the highest mathematical discipline. . 7. it himself in hopes of establishing, for the very first time, philosophy as a "rigorous science". It bears emphasizing that this in fact was the drive for the hardening of the foundations of philosophy, the link between the philosophical projects of Husserl and those of the philosophers of the modern period. Indeed, Husserl owes Descartes quite a debt for indicating the starting place from which to attempt a radical, presupositionless, and therefore scientific philosophy, in order not to begin philosophy anew, but rather for the first time.5 The aim of philosophy for Husserl is the search for apodictic, radical certitude. However while he attempted to locate in experience the type of necessity which is found in mathematics, he wished this necessity to be a function of our life in the world, as opposed to the definition and postulation of an axiomatic method as might be found in the unexpurgated attempts to found philosophy in Descartes. Beyond the necessity which is involved in experiencing the world, Husserl was searching for the certainty of roots, of the conditi'ons which underl ie experience and render it pOssible. Descartes believed that hi~ MeditatiOns had uncovered an absolute ground for knowledge, one founded upon the ineluctable givenness of thinking which is present even when one doubts thinking. Husserl, in acknowledging this procedure is certainly Cartesian, but moves, despite this debt to Descartes, far beyond Cartesian philosophy i.n his phenomenology (and in many respects, closer to home). 5Cf. Husserl, Philosophy as a Rigorous Science, pp. 74ff. 8 But wherein lies this Cartesian jumping off point by which we may vivify our theme? Descartes, through inner reflection, saw that all of his convictions and beliefs about the world were coloured in one way or another by prejudice: ... at the end I feel constrained to reply that there is nothing in a all that I formerly believed to be true, of which I cannot in some measure doubt, and that not merely through want of thought or through levity, but for reasons which are very powerful and maturely considered; so that henceforth I ought not the less carefully to refrain from giving credence to these opinions than to that which is manifestly false, if I desire to arrive at any certainty (in the sciences). 6 Doubts arise regardless of the nature of belief - one can never completely believe what one believes. Therefore, in order to establish absolutely grounded knowledge, which may serve as the basis fora "universal Science", one must use a method by which one may purge oneself of all doubts and thereby gain some radically indubitable insight into knowledge. Such a method, gescartes found, was that, as indicated above by hi,s own words, of II radical doubt" which "forbids in advance any judgemental use of (previous convictions and) which forbids taking any position with regard to their val idi'ty. ,,7 This is the method of the "sceptical epoche ll , the method of doubting all which had heretofor 6Descartes,Meditations on First Philosophy, first Med., (Libera 1 Arts Press, New York, 1954) trans. by L. LaFl eur. pp. 10. 7Husserl ,CrisiS of Eliroeari SCiences and Trariscendental Phenomenology, (Northwestern U. Press, Evanston, 1 7 ,p. 76. 9. been considered as belonging to the world, including the world itself. What then is left over? Via the process of a thorough and all-inclusive doubting, Descartes discovers that the ego which performs the epoche, or "reduction", is excluded from these things which can be doubted, and, in principle provides something which is beyond doubt. Consequently this ego provides an absolute and apodictic starting point for founding scientific philosophy. By way of this abstention. of bel ief, Desca'rtes managed to reduce the worl d of everyday 1 ife as bel ieved in, to mere 'phenomena', components of the rescogitans:. Thus:, having discovered his Archimedean point, the existence of the ego without question, he proceeds to deduce the 'rest' of the world with the aid of innate ideas and the veracity of God. In both Husserl and Descartes the compelling problem is that of establ ishing a scientific, apodictic phi'losophy based upon presuppos itionless groundwork .. Husserl, in thi.s regard, levels the charge at Descartes that the engagement of his method was not complete, such that hi.S: starting place was not indeed presupositionless, and that the validity of both causality and deductive methods were not called into question i.'n the performance of theepoche. In this way it is easy for an absolute evidence to make sure of the ego as: a first, "absolute, indubitablyexisting tag~end of the worldll , and it is then only a matter of inferring the absolute subs.tance and the other substances which belon.g to the world, along with my own mental substance, using a logically val i d deductive procedure. 8 8Husserl, E.;' Cartesian 'Meditation;, trans. Dorion Cairns (Martinus Nijhoff, The Hague, 1970), p. 24 ff.
Resumo:
Au Québec, la compétence professionnelle à intégrer les technologies de l’information et de la communication (TIC) est une compétence professionnelle à acquérir par les étudiants en enseignement. Cependant, son acquisition est problématique à plusieurs niveaux. Afin d’évaluer et mieux comprendre la compétence, cette thèse présente trois objectifs : 1) décrire le degré de maitrise des TIC et leurs usages dans les salles de classe 2) identifier les facteurs qui influencent l’intégration des TIC en fonction de la compétence professionnelle, et finalement 3) décrire le niveau d’atteinte des composantes de la compétence. Pour atteindre les objectifs de l’étude, une méthodologie mixte fut employée. Ce sont 2065 futurs enseignants du Québec provenant de neuf universités québécoises qui ont complété le questionnaire en plus de 34 participants à des groupes de discussion (n = 5). Cette thèse rédigée sous forme d’articles, répondra à chacun des objectifs visés. Dans le but de mieux comprendre l’utilisation actuelle des TIC par les futurs maitres, le premier article fournira un aperçu de la maitrise d’outils technologiques susceptibles d’être utilisés lors des stages. Le deuxième article visera à identifier les variables externes ainsi que les différentes composantes de la compétence qui ont une influence sur l’intégration des TIC lors des stages. Dans le troisième article, afin de comprendre où se situent les forces et les faiblesses des futurs maitres quant à la compétence professionnelle à intégrer les TIC, une description du niveau d’atteinte de chacune des composantes sera réalisée afin d’en dégager une appréciation globale. Les principaux résultats montrent que pour la moitié des répondants, seuls cinq outils sur 12 sont intégrés en stage et ce sont principalement les outils peu complexes qui sont bien maitrisés. Le logiciel de présentation Power Point, est le plus fréquemment utilisé. Les données considérées dans le premier article suggèrent aussi l’importance d’augmenter, de façon générale, la maitrise technique des futurs enseignants. Les résultats du second article ont permis de constater que la « prévision d’activités faisant appel aux TIC » est une variable prédictive majeure pour l’intégration des TIC. L’analyse des résultats suggèrent le besoin d’enseigner aux futurs maitres comment développer le réflexe d’inclure les TIC dans leurs plans de leçons. De plus, l’appropriation de la sixième composante de la compétence joue un rôle important sur la probabilité d’intégrer les TIC. Les résultats du troisième article indiquent que les composantes 2, 4, 5 et 6 de la compétence sont partiellement maitrisées. La mieux maitrisée est la première composante. Finalement, la troisième composante de la compétence s’est avérée être encore non atteinte et reste à être développer par les futurs enseignants. Cette thèse nous apprend que des efforts considérables restent encore à accomplir quant à la maitrise de la compétence professionnelle à intégrer les TIC. Ces efforts doivent être accomplis à la fois par les futurs enseignants ainsi que par les universités au niveau de la structure des cours de TIC en formation initiale des maitres.
Resumo:
La progression d’un individu au travers d’un environnement diversifié dépend des informations visuelles qui lui permettent d’évaluer la taille, la forme ou même la distance et le temps de contact avec les obstacles dans son chemin. Il peut ainsi planifier en avance les modifications nécessaires de son patron locomoteur afin d’éviter ou enjamber ces entraves. Ce concept est aussi applicable lorsque le sujet doit atteindre une cible, comme un prédateur tentant d’attraper sa proie en pleine course. Les structures neurales impliquées dans la genèse des modifications volontaires de mouvements locomoteurs ont été largement étudiées, mais relativement peu d’information est présentement disponible sur les processus intégrant l’information visuelle afin de planifier ces mouvements. De nombreux travaux chez le primate suggèrent que le cortex pariétal postérieur (CPP) semble jouer un rôle important dans la préparation et l’exécution de mouvements d’atteinte visuellement guidés. Dans cette thèse, nous avons investigué la proposition que le CPP participe similairement dans la planification et le contrôle de la locomotion sous guidage visuel chez le chat. Dans notre première étude, nous avons examiné l’étendue des connexions cortico-corticales entre le CPP et les aires motrices plus frontales, particulièrement le cortex moteur, à l’aide d’injections de traceurs fluorescents rétrogrades. Nous avons cartographié la surface du cortex moteur de chats anesthésiés afin d’identifier les représentations somatotopiques distales et proximales du membre antérieur dans la partie rostrale du cortex moteur, la représentation du membre antérieur située dans la partie caudale de l’aire motrice, et enfin la représentation du membre postérieur. L’injection de différents traceurs rétrogrades dans deux régions motrices sélectionnées par chat nous a permis de visualiser la densité des projections divergentes et convergentes pariétales, dirigées vers ces sites moteurs. Notre analyse a révélé une organisation topographique distincte de connexions du CPP avec toutes les régions motrices identifiées. En particulier, nous avons noté que la représentation caudale du membre antérieur reçoit majoritairement des projections du côté rostral du sillon pariétal, tandis que la partie caudale du CPP projette fortement vers la représentation rostrale du membre antérieur. Cette dernière observation est particulièrement intéressante, parce que le côté caudal du sillon pariétal reçoit de nombreux inputs visuels et sa cible principale, la région motrice rostrale, est bien connue pour être impliquée dans les fonctions motrices volontaires. Ainsi, cette étude anatomique suggère que le CPP, au travers de connexions étendues avec les différentes régions somatotopiques du cortex moteur, pourrait participer à l’élaboration d’un substrat neural idéal pour des processus tels que la coordination inter-membre, intra-membre et aussi la modulation de mouvements volontaires sous guidage visuel. Notre deuxième étude a testé l’hypothèse que le CPP participe dans la modulation et la planification de la locomotion visuellement guidée chez le chat. En nous référant à la cartographie corticale obtenue dans nos travaux anatomiques, nous avons enregistré l’activité de neurones pariétaux, situés dans les portions des aires 5a et 5b qui ont de fortes connexions avec les régions motrices impliquées dans les mouvements de la patte antérieure. Ces enregistrements ont été effectués pendant une tâche de locomotion qui requiert l’enjambement d’obstacles de différentes tailles. En dissociant la vitesse des obstacles de celle du tapis sur lequel le chat marche, notre protocole expérimental nous a aussi permit de mettre plus d’emphase sur l’importance de l’information visuelle et de la séparer de l’influx proprioceptif généré pendant la locomotion. Nos enregistrements ont révélé deux groupes de cellules pariétales activées en relation avec l’enjambement de l’obstacle: une population, principalement située dans l’aire 5a, qui décharge seulement pendant le passage du membre au dessus del’entrave (cellules spécifiques au mouvement) et une autre, surtout localisée dans l’aire 5b, qui est activée au moins un cycle de marche avant l’enjambement (cellules anticipatrices). De plus, nous avons observé que l’activité de ces groupes neuronaux, particulièrement les cellules anticipatrices, était amplifiée lorsque la vitesse des obstacles était dissociée de celle du tapis roulant, démontrant l’importance grandissante de la vision lorsque la tâche devient plus difficile. Enfin, un grand nombre des cellules activées spécifiquement pendant l’enjambement démontraient une corrélation soutenue de leur activité avec le membre controlatéral, même s’il ne menait pas dans le mouvement (cellules unilatérales). Inversement, nous avons noté que la majorité des cellules anticipatrices avaient plutôt tendance à maintenir leur décharge en phase avec l’activité musculaire du premier membre à enjamber l’obstacle, indépendamment de sa position par rapport au site d’enregistrement (cellules bilatérales). Nous suggérons que cette disparité additionnelle démontre une fonction diversifiée de l’activité du CPP. Par exemple, les cellules unilatérales pourraient moduler le mouvement du membre controlatéral au-dessus de l’obstacle, qu’il mène ou suive dans l’ordre d’enjambement, tandis que les neurones bilatéraux sembleraient plutôt spécifier le type de mouvement volontaire requis pour éviter l’entrave. Ensembles, nos observations indiquent que le CPP a le potentiel de moduler l’activité des centres moteurs au travers de réseaux corticaux étendus et contribue à différents aspects de la locomotion sous guidage visuel, notamment l’initiation et l’ajustement de mouvements volontaires des membres antérieurs, mais aussi la planification de ces actions afin d’adapter la progression de l’individu au travers d’un environnement complexe.
Resumo:
La vectorisation des médicaments est une approche très prometteuse tant sur le plan médical qu’économique pour la livraison des substances actives ayant une faible biodisponibilité. Dans ce contexte, les polymères en étoile et les dendrimères, macromolécules symétriques et branchées, semblent être les solutions de vectorisation les plus attrayantes. En effet, ces structures peuvent combiner efficacement une stabilité élevée dans les milieux biologiques à une capacité d’encapsulation des principes actifs. Grâce à leur architecture bien définie, ils permettent d’atteindre un très haut niveau de reproductibilité de résultats, tout en évitant le problème de polydispersité. Bien que des nombreuses structures dendritiques aient été proposées ces dernières années, il est cependant à noter que la conception de nouveaux nanovecteurs dendritiques efficaces est toujours d’actualité. Ceci s’explique par des nombreuses raisons telles que celles liées à la biocompatibilité, l’efficacité d’encapsulation des agents thérapeutiques, ainsi que par des raisons économiques. Dans ce projet, de nouvelles macromolécules branchées biocompatibles ont été conçues, synthétisées et évaluées. Pour augmenter leur efficacité en tant qu’agents d’encapsulations des principes actifs hydrophobes, les structures de ces macromolécules incluent un coeur central hydrophobe à base de porphyrine, décanediol ou trioléine modifié et, également, une couche externe hydrophile à base d’acide succinique et de polyéthylène glycol. Le choix des éléments structuraux de futures dendrimères a été basé sur les données de biocompatibilité, les résultats de nos travaux de synthèse préliminaires, ainsi que les résultats de simulation in silico réalisée par une méthode de mécanique moléculaire. Ces travaux ont permis de choisir des composés les plus prometteurs pour former efficacement et d’une manière bien contrôlable des macromolécules polyesters. Ils ont aussi permis d’évaluer au préalable la capacité de futurs dendrimères de capter une molécule médicamenteuse (itraconazole). Durant cette étape, plusieurs nouveaux composés intermédiaires ont été obtenus. L’optimisation des conditions menant à des rendements réactionnels élevés a été réalisée. En se basant sur les travaux préliminaires, l’assemblage de nouveaux dendrimères de première et de deuxième génération a été effectué, en utilisant les approches de synthèse divergente et convergente. La structure de nouveaux composés a été prouvée par les techniques RMN du proton et du carbone 13C, spectroscopie FTIR, UV-Vis, analyse élémentaire, spectrométrie de masse et GPC. La biocompatibilité de produits a été évaluée par les tests de cytotoxicité avec le MTT sur les macrophages murins RAW-262.7. La capacité d’encapsuler les principes actifs hydrophobes a été étudiée par les tests avec l’itraconazole, un antifongique puissant mais peu biodisponible. La taille de nanoparticules formées dans les solutions aqueuses a été mesurée par la technique DLS. Ces mesures ont montré que toutes les structures dendritiques ont tendance à former des micelles, ce qui exclue leurs applications en tant que nanocapsules unimoléculaires. L’activité antifongique des formulations d’itraconazole encapsulé avec les dendrimères a été étudiée sur une espèce d’un champignon pathogène Candida albicans. Ces tests ont permis de conclure que pour assurer l’efficacité du traitement, un meilleur contrôle sur le relargage du principe actif était nécessaire.
Resumo:
L’hypertension artérielle essentielle (HTA) est une pathologie complexe, multifactorielle et à forte composante génétique. L’impact de la variabilité dans le nombre de copies sur l’HTA est encore peu connu. Nous envisagions que des variants dans le nombre de copies (CNVs) communs pourraient augmenter ou diminuer le risque pour l’HTA. Nous avons exploré cette hypothèse en réalisant des associations pangénomiques de CNVs avec l’HTA et avec l’HTA et le diabète de type 2 (DT2), chez 21 familles du Saguenay-Lac-St-Jean (SLSJ) caractérisées par un développement précoce de l’HTA et de la dyslipidémie. Pour la réplication, nous disposions, d’une part, de 3349 sujets diabétiques de la cohorte ADVANCE sélectionnés pour des complications vasculaires. D’autre part, de 187 sujets de la cohorte Tchèque Post-MONICA (CTPM), choisis selon la présence/absence d’albuminurie et/ou de syndrome métabolique. Finalement, 134 sujets de la cohorte CARTaGENE ont été analysés pour la validation fonctionnelle. Nous avons détecté deux nouveaux loci, régions de CNVs (CNVRs) à effets quantitatifs sur 17q21.31, associés à l’hypertension et au DT2 chez les sujets SLSJ et associés à l’hypertension chez les diabétiques ADVANCE. Un modèle statistique incluant les deux variants a permis de souligner le rôle essentiel du locus CNVR1 sur l’insulino-résistance, la précocité et la durée du diabète, ainsi que sur le risque cardiovasculaire. CNVR1 régule l’expression du pseudogène LOC644172 dont le dosage est associé à la prévalence de l’HTA, du DT2 et plus particulièrement au risque cardiovasculaire et à l’âge vasculaire (P<2×10-16). Nos résultats suggèrent que les porteurs de la duplication au locus CNVR1 développent précocement une anomalie de la fonction bêta pancréatique et de l’insulino-résistance, dues à un dosage élevé de LOC644172 qui perturberait, en retour, la régulation du gène paralogue fonctionnel, MAPK8IP1. Nous avons également avons identifié six CNVRs hautement hérités et associés à l'HTA chez les sujets SLSJ. Le score des effets combinés de ces CNVRs est apparu positivement et étroitement relié à la prévalence de l’HTA (P=2×10-10) et à l’âge de diagnostic de l’HTA. Dans la population SLSJ, le score des effets combinés présente une statistique C, pour l’HTA, de 0.71 et apparaît aussi performant que le score de risque Framingham pour la prédiction de l’HTA chez les moins de 25 ans. Un seul nouveau locus de CNVR sur 19q13.12, où la délétion est associée à un risque pour l’HTA, a été confirmé chez les Caucasiens CTPM. Ce CNVR englobe le gène FFAR3. Chez la souris, il a été démontré que l’action hypotensive du propionate est en partie médiée par Ffar3, à travers une interférence entre la flore intestinale et les systèmes cardiovasculaire et rénal. Les CNVRs identifiées dans cette étude, affectent des gènes ou sont localisées dans des QTLs reliés majoritairement aux réponses inflammatoires et immunitaires, au système rénal ainsi qu’aux lésions/réparations rénales ou à la spéciation. Cette étude suggère que l’étiologie de l’HTA ou de l’HTA associée au DT2 est affectée par des effets additifs ou interactifs de CNVRs.