932 resultados para thrombocyte concentrate


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vie et la mission de Sainte Faustyna Kowalska (1905-1938) ont donné naissance à une grande dévotion envers la Divine Miséricorde à Cracovie en Pologne. La nouveauté du message de la Miséricorde par rapport aux autres dévotions de l’Église Catholique se situe notamment sur le plan du visuel, du langage et des rituels. C’est dans le contexte de la Seconde Guerre mondiale qu’il faut situer sa propagation à travers le monde. Elle fut introduite au Canada en 1957 par deux dames de la noblesse polonaise immigrées. C’est dans la paroisse de Notre-Dame des Sept Douleurs à Verdun où se situe l’Œuvre de Jésus Miséricordieux que nous nous intéressons au développement de la vie spirituelle des dévots de la Divine Miséricorde; c’est-à-dire aux différentes croyances, rituels et pratiques religieuses qui mettent l’accent sur le corps, la pensée, les émotions et l’esprit. Les pratiques du corps, les postures, les mouvements, les manières de se concentrer, sont autant de moyens qui conduisent les dévots à des expériences spirituelles et des moyens qui y mènent à travers des rituels de prière qui mobilisent le corps qui est une dimension essentielle de l’expérience religieuse. On parle notamment de certains visuels, de prières et de gestes qui évoquent ces expériences spirituelles significatives. Ces expressions religieuses engagent les dévots dans leur quotidien et dans leur vécu. Pour ces croyants, cette dévotion représente un point de repère dans un monde qui leur apparaît souvent comme privé de sens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La recherche portera sur la montée des vidéos de gay bashing depuis 2013. Par vidéo de gay bashing, nous entendons des vidéos documentant l’abus physique ou verbal d’individus perçus par les agresseurs comme étant gais, lesbiennes, bisexuels, transgenres ou queer, mais nous nous concentrerons spécifiquement sur des vidéos montrant des agressions envers des hommes. Ces vidéos peuvent être enregistrées par les agresseurs eux-mêmes ou par des témoins de la scène. Il s’agira de situer cette montée dans un contexte politique de retour de lois et sentiments anti-LGBT dans les pays d’où proviennent certaines des vidéos étudiées et par rapport aux différentes théories anthropologiques et socio-historiques concernant les sources et motivations derrière les actes de violence homophobe. Le corpus se composera de trois vidéos venant de Russie («Putin’s Crackdown on LGBT Teens un Russia»), de Lybie («Gay torture and violent in Lybia») et des États-Unis («Attack at gay pride event in Detroit»). L’analyse du corpus se fera en trois temps : d’abord l’analyse de la forme et du contenu des vidéos en tant que tels, ensuite, l’analyse de leur circulation et des différents utilisateurs qui distribuent les vidéos en ligne, et, finalement, l’analyse de la réception des vidéos en portant attention aux commentaires des utilisateurs. Il s’agira de montrer comment les vidéos de gay-bashing effectuent une rupture par rapport à une vision de YouTube, et autres médias sociaux, comme libérateurs et comme lieux d’expression de soi (particulièrement pour les membres des communautés LGBT) et les transforment en lieux d’une humiliation triplée par l’enregistrement de l’humiliation physique et sa diffusion sur le web. Il s’agira ensuite de voir comment la circulation et la redistribution de ces vidéos par différents groupes et utilisateurs les instrumentalisent selon différents agendas politiques et idéologiques, pour finalement se questionner, en s’inspirant du triangle de l’humiliation de Donald Klein, sur le rôle ambivalent du témoin (physique ou virtuel) dont la présence est nécessaire pour qu’il y ait humiliation. Finalement, nous nous intéresserons aux vidéos de témoignages de gay-bashing, vidéos faites par les victimes elles-mêmes, racontant leur traumatisme à la caméra, renouant ainsi avec les vidéos de coming out sous la forme de l’aveu et de la spectacularisation du soi. La présente recherche sera également l’occasion de développer des outils théoriques et méthodologiques propres aux nouveaux médias et aux nouvelles formes et contenus qui s’y développent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rare earth elements have occupied an important role in marine geochemical research, particularly as used in the format of REE abundance patterns to describe the geochemical pathways in marine sedimentation and authigenesis. This study concentrates on the distribution pattern of Rare earth elements in the sediments, behavior of Eu and Ce with respect to their occurrence in multiple oxidation states. It also concentrate the depth wise variation of sediment REEs from near shore areas (30m) to deeper depths 200m) in the Arabian Sea. It includes the downcore variation of REEs and other trace elements in the sediment cores and a comparison between the REE distributions of Arabian Sea sediment with the sediments of Andaman Sea. The study gives a general introduction regarding the importance of RRE studies, its occurrence and abundance, electronic configuration, lanthanide contraction, oxidations states and REE supply to the ocean, seawater and sediments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

School of Industrial Fisheries, Cochin University of Science and Technology

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Material synthesizing and characterization has been one of the major areas of scientific research for the past few decades. Various techniques have been suggested for the preparation and characterization of thin films and bulk samples according to the industrial and scientific applications. Material characterization implies the determination of the electrical, magnetic, optical or thermal properties of the material under study. Though it is possible to study all these properties of a material, we concentrate on the thermal and optical properties of certain polymers. The thermal properties are detennined using photothermal beam deflection technique and the optical properties are obtained from various spectroscopic analyses. In addition, thermal properties of a class of semiconducting compounds, copper delafossites, arc determined by photoacoustic technique.Photothermal technique is one of the most powerful tools for non-destructive characterization of materials. This forms a broad class of technique, which includes laser calorimetry, pyroelectric technique, photoacollstics, photothermal radiometric technique, photothermal beam deflection technique etc. However, the choice of a suitable technique depends upon the nature of sample and its environment, purpose of measurement, nature of light source used etc. The polynler samples under the present investigation are thermally thin and optically transparent at the excitation (pump beam) wavelength. Photothermal beam deflection technique is advantageous in that it can be used for the detennination of thermal diffusivity of samples irrespective of them being thermally thick or thennally thin and optically opaque or optically transparent. Hence of all the abovementioned techniques, photothemlal beam deflection technique is employed for the successful determination of thermal diffusivity of these polymer samples. However, the semi conducting samples studied are themlally thick and optically opaque and therefore, a much simpler photoacoustic technique is used for the thermal characterization.The production of polymer thin film samples has gained considerable attention for the past few years. Different techniques like plasma polymerization, electron bombardment, ultra violet irradiation and thermal evaporation can be used for the preparation of polymer thin films from their respective monomers. Among these, plasma polymerization or glow discharge polymerization has been widely lIsed for polymer thin fi Im preparation. At the earlier stages of the discovery, the plasma polymerization technique was not treated as a standard method for preparation of polymers. This method gained importance only when they were used to make special coatings on metals and began to be recognized as a technique for synthesizing polymers. Thc well-recognized concept of conventional polymerization is based on molecular processcs by which thc size of the molecule increases and rearrangemcnt of atoms within a molecule seldom occurs. However, polymer formation in plasma is recognized as an atomic process in contrast to the above molecular process. These films are pinhole free, highly branched and cross linked, heat resistant, exceptionally dielectric etc. The optical properties like the direct and indirect bandgaps, refractive indices etc of certain plasma polymerized thin films prepared are determined from the UV -VIS-NIR absorption and transmission spectra. The possible linkage in the formation of the polymers is suggested by comparing the FTIR spectra of the monomer and the polymer. The thermal diffusivity has been measured using the photothermal beam deflection technique as stated earlier. This technique measures the refractive index gradient established in the sample surface and in the adjacent coupling medium, by passing another optical beam (probe beam) through this region and hence the name probe beam deflection. The deflection is detected using a position sensitive detector and its output is fed to a lock-in-amplifIer from which the amplitude and phase of the deflection can be directly obtained. The amplitude and phase of the deflection signal is suitably analyzed for determining the thermal diffusivity.Another class of compounds under the present investigation is copper delafossites. These samples in the form of pellets are thermally thick and optically opaque. Thermal diffusivity of such semiconductors is investigated using the photoacoustic technique, which measures the pressure change using an elcctret microphone. The output of the microphone is fed to a lock-in-amplificr to obtain the amplitude and phase from which the thermal properties are obtained. The variation in thermal diffusivity with composition is studied.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work mainly concentrate to understand the optical and electrical properties of amorphous zinc tin oxide and amorphous zinc indium tin oxide thin films for TFT applications. Amorphous materials are promising in achieving better device performance on temperature sensitive substrates compared to polycrystalline materials. Most of these amorphous oxides are multicomponent and as such there exists the need for an optimized chemical composition. For this we have to make individual targets with required chemical composition to use it in conventional thin film deposition techniques like PLD and sputtering. Instead, if we use separate targets for each of the cationic element and if separately control the power during the simultaneous sputtering process, then we can change the chemical composition by simply adjusting the sputtering power. This is what is done in co-sputtering technique. Eventhough there had some reports about thin film deposition using this technique, there was no reports about the use of this technique in TFT fabrication until very recent time. Hence in this work, co-sputtering has performed as a major technique for thin film deposition and TFT fabrication. PLD were also performed as it is a relatively new technique and allows the use high oxygen pressure during deposition. This helps to control the carrier density in the channel and also favours the smooth film surface. Both these properties are crucial in TFT.Zinc tin oxide material is interesting in the sense that it does not contain costly indium. Eventhough some works were already reported in ZTO based TFTs, there was no systematic study about ZTO thin film's various optoelectronic properties from a TFT manufacturing perspective. Attempts have made to analyse the ZTO films prepared by PLD and co-sputtering. As more type of cations present in the film, chances are high to form an amorphous phase. Zinc indium tin oxide is studied as a multicomponent oxide material suitable for TFT fabrication.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the present thesis we have formulated the Dalgarno-Lewis procedure for two-and three-photon processes and an elegant alternate expressions are derived. Starting from a brief review on various multiphoton processes we have discussed the difficulties coming in the perturbative treatment of multiphoton processes. A small discussion on various available methods for studying multiphoton processes are presented in chapter 2. These theoretical treatments mainly concentrate on the evaluation of the higher order matrix elements coming in the perturbation theory. In chapter 3 we have described the use of Dalgarno-Lewis procedure and its implimentation on second order matrix elements. The analytical expressions for twophoton transition amplitude, two-photon ionization cross section, dipole dynamic polarizability and Kramers-Heiseberg are obtained in a unified manner. Fourth chapter is an extension of the implicit summation technique presented in chapter 3. We have clearly mentioned the advantage of our method, especially the analytical continuation of the relevant expressions suited for various values of radiation frequency which is also used for efficient numerical analysis. A possible extension of the work is to study various multiphoton processcs from the stark shifted first excited states of hydrogen atom. We can also extend this procedure for studying multiphoton processes in alkali atoms as well as Rydberg atoms. Also, instead of going for analytical expressions, one can try a complete numerical evaluation of the higher order matrix elements using this procedure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Data centre is a centralized repository,either physical or virtual,for the storage,management and dissemination of data and information organized around a particular body and nerve centre of the present IT revolution.Data centre are expected to serve uniinterruptedly round the year enabling them to perform their functions,it consumes enormous energy in the present scenario.Tremendous growth in the demand from IT Industry made it customary to develop newer technologies for the better operation of data centre.Energy conservation activities in data centre mainly concentrate on the air conditioning system since it is the major mechanical sub-system which consumes considerable share of the total power consumption of the data centre.The data centre energy matrix is best represented by power utilization efficiency(PUE),which is defined as the ratio of the total facility power to the IT equipment power.Its value will be greater than one and a large value of PUE indicates that the sub-systems draw more power from the facility and the performance of the data will be poor from the stand point of energy conservation. PUE values of 1.4 to 1.6 are acievable by proper design and management techniques.Optimizing the air conditioning systems brings enormous opportunity in bringing down the PUE value.The air conditioning system can be optimized by two approaches namely,thermal management and air flow management.thermal management systems are now introduced by some companies but they are highly sophisticated and costly and do not catch much attention in the thumb rules.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Latex protein allergy is a serious problem faced by users of natural rubber latex products. This is severe in health care workers, who are constantly using latex products like examination gloves, surgical gloves etc. Out of the total proteins only a small fraction is extractable and only these proteins cause allergic reactions in sensitized people. Enzymic deproteinisation of latex and leaching and chlorination of latex products are the common methods used to reduce the severity of the problem.Enzyme deproteinisation is a cubersome process involving high cost and process loss.Physical properties of such films are poor. Leaching is a lengthy process and in leached latex products presence of extractable proteins is observed on further storing. Chlorination causes yellowing of latex products and reduction in tensile properties.In this context a more simple process of removal of extractable proteins from latex itself was investigated. This thesis reports the application of poly propylene glycol (PPG) to displace extractable proteins from natural latex. PPG is added to 60 % centrifuged natural latex to the extent of 0.2 % m/rn, subssequently diluted to 30 % dry rubber content and again concentrated to obtain a low protein latex.Dilution of concentrated latex and subsequent concentration lead to a total reduction in non - rubber solids in the concentrate, especially proteins and reduction in the ionic concentration in the aqueous phase of the latex. It has been reported that proteins in natural rubber / latex affect its behaviour in the vulcanisation process. Ionic concentration in the aqueous phase of latex influence the stability, viscosity and flow behaviour of natural latex. Hence, a detailed technological evaluation was carried out on this low protein latex. In this study, low protein latex was compared with single centrifuged latex ( the raw material to almost every latex product), double centrifuged latex ( because dilution and second concentration of latex is accompanied by protein removal to some extent and reduction in the ionic concentration of the aqueous phase of latex.). Studies were conducted on Sulphur cure in conventional and EV systems under conditions of post ~ cure and prevulcanisation of latex. Studies were conducted on radiation cure in latex stage. Extractable protein content in vulcanised low protein latex films are observed to be very low. lt is observed that this low protein latex is some what slower curing than single centrifuged latex, but faster than double centrifuged latex. Modulus of low protein latex films were slightly low. In general physical properties of vulcanised low protein latex films are only siightly lower than single centrifuged latex. Ageing properties of the low protein latex films were satisfactory. Viscosity and flow behaviour of low protein latex is much better than double centrifuged latex and almost comparable to single centrifuged latex. On observing that the physical properties and flow behaviour of low protein latex was satisfactory, it was used for the preparation of examination gloves and the gloves were evaluated. It is observed that the properties are conforming to the Indian Standard Specifications. It is thus observed that PPG treatment of natural latex is a simple process of preparing low protein latex. Extractable protein content in these films are very low.The physical properties of the films are comparable to ordinary centrifuged latex and better than conventionally deprotenized latex films. This latex can be used for the production of examination gloves.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The standard separable two dimensional wavelet transform has achieved a great success in image denoising applications due to its sparse representation of images. However it fails to capture efficiently the anisotropic geometric structures like edges and contours in images as they intersect too many wavelet basis functions and lead to a non-sparse representation. In this paper a novel de-noising scheme based on multi directional and anisotropic wavelet transform called directionlet is presented. The image denoising in wavelet domain has been extended to the directionlet domain to make the image features to concentrate on fewer coefficients so that more effective thresholding is possible. The image is first segmented and the dominant direction of each segment is identified to make a directional map. Then according to the directional map, the directionlet transform is taken along the dominant direction of the selected segment. The decomposed images with directional energy are used for scale dependent subband adaptive optimal threshold computation based on SURE risk. This threshold is then applied to the sub-bands except the LLL subband. The threshold corrected sub-bands with the unprocessed first sub-band (LLL) are given as input to the inverse directionlet algorithm for getting the de-noised image. Experimental results show that the proposed method outperforms the standard wavelet-based denoising methods in terms of numeric and visual quality

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seit gut zehn Jahren erlebt die Windenergienutzung in Deutschland einen in der Mitte der 80er Jahre nicht für möglich gehaltenen Aufschwung. Anlagenanzahl und installierte Leistung haben in diesem Zeitraum mit durchschnittlichen jährlichen Wachstumsraten von mehr als 30 Prozent zugenommen, die mittlere installierte Leistung pro neu errichteter Anlage stieg dabei um das Zehnfache und die technische Verfügbarkeit der Anlagen liegt mittlerweile bei über 98 Prozent. Mit größer werdenden Anlagen zeigt sich weiterhin ein klarer Trend zu Blattwinkel verstellbaren Konzepten, mit zunehmend drehzahlvariabler Betriebsweise. Vor dem von Vielen für die kommenden drei bis sechs Jahre prognostizierten Einstieg in die großtechnische Offshore- Windenergienutzung mit den damit verbundenen immensen technologischen und strukturellen Herausforderungen erscheint es sinnvoll, einen kritischen Blick zurückzuwerfen auf die 90er Jahre mit den ihnen zugrunde liegenden förderpolitischen Rahmenbedingungen. Dabei soll die Frage beantwortet werden, welchen konkreten Einfluss die staatlichen Forschungs- und Förderprogramme, besonders das "250 MW Wind"-Programm, auf die Entwicklung der Windenergienutzung hatten, das heißt, unter welchen Bedingungen sich bestimmte Techniklinien durchsetzten, wie der Einfluss eines geschützten Marktes durch gesetzlich garantierte Einspeisetarife auf diese Entwicklung zu bewerten ist und schließlich, welche Fehlentwicklungen möglicher Weise eingetreten sind. Dazu wird mit Hilfe von Lernkurven gezeigt, welche Kostenreduktionen insgesamt erzielt wurden, wie hoch die dazu notwendigen staatlichen Finanzmittel waren und welche Schlussfolgerungen daraus für die Zukunft abgeleitet werden können. Die Arbeit soll insgesamt dazu beitragen, die erreichten technischen Entwicklungsschritte vor dem Hintergrund der förderpolitischen Gegebenheiten besser zu verstehen, Chancen für gezielte Änderungen in der Förderpraxis zu ergreifen und Hinweise auf die Ausgestaltung von zukünftigen Forschungsprogrammen und Entwicklungsschwerpunkten im Bereich der Windenergie zu geben, um weitere Kostensenkungspotenziale auszuschöpfen. Dabei wird sich die zukünftige Schwerpunktsetzung in der programmatischen Ausrichtung der Forschung stärker auf die drei wichtigsten Anwendungsfelder für Windenergieanlagen konzentrieren müssen, die großtechnische Offshore- Anwendung, die netzgebundene, dezentrale Energieversorgung sowie auf Windenergieanlagen zur ländlichen Elektrifizierung in autonomen Versorgungssystemen für Schwellen- und Entwicklungsländer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The rise of the English novel needs rethinking after it has been confined to the "formal realism" of Defoe, Richardson, and Fielding (Watt, 1957), to "antecedents, forerunners" (Schlauch, 1968; Klein, 1970) or to mere "prose fiction" (McKillop, 1951; Davis, Richetti, 1969; Fish, 1971; Salzman, 1985; Kroll, 1998). My paper updates a book by Jusserand under the same title (1890) by proving that the social and moral history of the long prose genre admits no strict separation of "novel" and "romance", as both concepts are intertwined in most fiction (Cuddon, Preston, 1999; Mayer, 2000). The rise of the novel, seen in its European context, mainly in France and Spain (Kirsch, 1986), and equally in England, was due to the melting of the nobility and high bourgeoisie into a "meritocracy", or to its failure, to become the new bearer of the national culture, around 1600. (Brink, 1998). My paper will concentrate on Euphues (1578), a negative romance, Euphues and His England (1580), a novel of manners, both by Lyly; Arcadia (1590-93) by Sidney, a political roman à clef in the disguise of a Greek pastoral romance; The Unfortunate Traveller (1594) by Nashe, the first English picaresque novel, and on Jack of Newbury (1596-97) by Deloney, the first English bourgeois novel. My analysis of the central values in these novels will prove a transition from the aristocratic cardinal virtues of WISDOM, JUSTICE, COURAGE, and HONOUR to the bourgeois values of CLEVERNESS, FAIR PLAY, INDUSTRY, and VIRGINITY. A similar change took place from the Christian virtues of LOVE, FAITH, HOPE to business values like SERVICE, TRUST, and OPTIMISM. Thus, the legacy of history proves that the main concepts of the novel of manners, of political romance, of picaresque and middle-class fiction were all developed in the time of Shakespeare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ausgehend von dem von Friedrich Edding geprägten Begriff der Schlüsselfähigkeit entwickelte Dieter Mertens Anfang der 1970er Jahre sein Konzept der Schlüsselqualifikationen. Damit suchte er Wege, Menschen so zu qualifizieren, dass sie ihnen übertragene berufliche Aufgaben, auch in einem sich rasch verändernden Umfeld, bewältigen können. In der vorliegenden Arbeit wird gezeigt, dass die Rezeption des Begriffs in verschiedenen Bildungsbereichen mit unterschiedlichen Intensitäten und Resultaten verlief. Am folgenreichsten war die Rezeption in der Berufsbildung. Von wenigen skeptischen Stimmen abgesehen, stieß das Konzept der Schlüsselqualifikationen auf positive Zustimmung und mehrere Umsetzungsversuche wurden unternommen. Diese führten allerdings zu einer Verlängerung der Liste der Schlüsselqualifikationen (die ursprünglich von Mertens als abschließbar angedacht war). Ein Konsens, was in der Berufsbildung als Schlüsselqualifikationen zu gelten hat, ist immer noch nicht in Sicht. In den allgemeinbildenden Schulen hingegen fand das Konzept keine große Beachtung. Zwar wurde hin und wieder auf den Begriff zurückgegriffen, um beispielsweise allgemein verbindliche Standards in der Schule zu thematisieren oder neuen Inhalten eine Legitimation zu verschaffen, dennoch griff die Debatte in der Schulpädagogik nicht nachhaltig. Gründe dafür liegen zum einen in der dem Konzept inhärenten berufsvorbereitenden Funktion, die der Idealvorstellung einer zweckfreien Bildung widerspricht, zum anderen in der relativ straffen und zentralisierten Gestaltung der Lehrpläne. Die vorliegende Arbeit setzt sich mit dem Konzept der Schlüsselqualifikationen im Hochschulbereich auseinander. Eine Untersuchung von ca. 130 deutsch- und englischsprachigen Arbeiten, die Schlüsselqualifikationen im Hochschulbereich zum Thema haben, belegt eine sehr große Heterogenität der zugrunde liegenden Vorstellungen und konkreten Modelle. Es wird gezeigt, dass die zwei wichtigsten Ordnungsschemata, die gelegentlich zur Abgrenzung der Schlüsselqualifikationen gegenüber anderen Bildungskomponenten herangezogen werden (nämlich die Taxonomie der Lernziele von Bloom und das Handlungskompetenzmodell von Roth in der Weiterentwicklung von Reetz) mit keinem kohärenten Rahmenwerk, das der Fülle der Modelle von Schlüsselqualifikationen im Hochschulbereich gerecht wäre, aufwarten können. Eine Alternative bietet eine diskursanalytische Perspektive foucaultscher Prägung. Begriffen als eine diskursive Formation, haben Modelle der Schlüsselqualifikationen ihre Gemeinsamkeit nicht in dem vermeintlich gemeinsamen Gegenstand. Demnach sind Schlüsselqualifikationen in der heutigen Hochschuldebatte keine Qualifikationen suis generis, die eine eigene Kategorie bilden, sondern eine Antwort auf die Herausforderungen, die die verschiedenartigen Veränderungen in und um Hochschulen mit sich bringen. Es lassen sich drei Kontexte identifizieren, in denen die Modelle der Schlüsselqualifikationen der Herausforderung zu begegnen versuchen: in der Gesellschaft im Allgemeinen, in der vor-universitären Bildung sowie in der Hochschulbildung und in der Berufswelt. In diesen Kontexten artikulieren die Modelle der Schlüsselqualifikationen verschiedene Dimensionen, um Gesellschafts-, Studier und Beschäftigungsfähigkeit der Studierenden zu fördern. Eine vergleichende Analyse der Debatten und Modelle der Schlüsselqualifikationen in der BRD und in England zeigt, dass diese drei Kontexte in beiden Ländern vorfindbar sind, jedoch deren inhaltliche Vorstellung und konkrete Umsetzung aufgrund der Partikularitäten des jeweiligen Hochschulsystems unterschiedliche Akzentuierungen erfahren. Anders als in der BRD betonen die Modelle der Förderung der Studierfähigkeit in England die Brückenkurse als Hilfestellung bei der Vorbereitung auf das Studium. Das hängt mit den uneinheitlichen Zugangsregelungen zum Hochschulstudium und der hierarchischen Struktur im englischen Hochschulsystem zusammen. Bei der Förderung der Beschäftigungsfähigkeit setzen die Modelle der Schlüsselqualifikationen in Deutschland, wo traditionell ein Hochschulstudium als berufsvorbereitend angesehen wird, den Akzent auf Praxisbezug des Studiums und auf Flexibilität. In England hingegen, wo sich das Studium per se nicht als berufsqualifizierend versteht, rücken die Modelle der Schlüsselqualifikationen den Übergang in den Arbeitsmarkt und das Karrieremanagement - subsumiert unter dem Konzept der employability - in den Vordergrund.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit befasst sich mit der Innovations- und Globalisierungspolitik in kleinen Transformationsländern am Beispiel Mazedoniens; diese wurde mit der Lage in Slowenien verglichen, einem Land von ungefähr gleicher Größe und mit gemeinsamer Vergangenheit als Teilrepublik der Jugoslawischen Föderation, aber mit einem wesentlich höheren ökonomischen Entwicklungsstand. Innovation wird dabei verstanden als „Herstellung, Anpassung und Ausnutzung von Neuerungen“, und sie wird durch das Umfeld, in dem sie stattfindet, beeinflusst. Anpassung und Ausnutzung sind gerade für kleine Transformationsländer von erheblicher Bedeutung, da ihre Fähigkeit zu Herstellung von Neuerungen sehr begrenzt sind. Die Rolle der Innovationspolitik besteht hierbei darin, institutionelle und organisationelle Regulierungen einzuführen, die ein günstiges Umfeld sowohl für Innovationen als auch für die Entwicklung eines nationalen Innovationssystems schaffen. Die Rolle der Politik besteht also nicht in der Innovation als solcher, sondern in der Herstellung der notwendigen Bedingungen für die Industrie und die Forschungseinrichtungen dahingehend zu schaffen, dass sie ihr Wissen, ihre Fertigkeiten und ihre praktischen Erfahrungen für innovative Tätigkeiten einsetzen können. Auf der einen Seite gibt es Institutionen und Organisationen, ohne die die Unternehmen rückständig und wenig leistungsstark wären (etwa das Patentamt oder Institutionen höherer Bildung), und auf der anderen Seite gibt es Institutionen und Organisationen, welche die Unternehmen dabei unterstützen, dass sie ihre Tätigkeit weiter unterstützen (z.B. durch Technologietransfer-Zentren und Netzwerke). Die Leistungen dieser Institutionen und Organisationen sind von großer Bedeutung für die nationalen Innovationssysteme und sollten ihrerseits durch Innovationspolitik unterstützt werden; dies bedeutet jedoch nicht, dass diese Leistungen vom Staat bereitgestellt werden, vielmehr sollte die Wirtschaftspolitik Möglichkeiten für die öffentlich/private oder sogar rein private Bereitstellung solcher Leistungen in Erwägung ziehen; dies würde nicht nur die Kosten für den Staat senken, sondern auch die Effizienz bei der Erstellung dieser Leistungen steigern. Die Arbeit kommt zu dem Schluss, dass das größte Problem der Innovationspolitik in Mazedonien darin besteht, dass es sie gar nicht gibt, und zwar nicht als Folge einer bewussten Entscheidung darüber. Tatsächlich müssen Ressourcen und Zeit für die Schaffung eines nationalen Innovationssystems eingesetzt werden mit Hilfe einer Politik, die sich auf die wesentlichen Umrisse konzentriert, wobei die Nachfrage nach Technologie im Unternehmensbereich gesteigert wird und das Wissen und das Informationsangebot restrukturiert wird. Dieses System muss offen sein, unter beständigem Verbesserungsdruck stehen und fähig sein, sich an Veränderungen anzupassen. Damit eine solche Politik erfolgreich ist, muss es einen Konsens darüber zwischen allen beteiligten Akteuren geben und darüber hinaus auch eine Kohärenz zwischen den verschiedenen politischen Institutionen. Das ist deswegen wichtig, weil der Innovationsprozess komplex ist und verschiedene Politikbereiche berührt. Ziel sollte die Schaffung eines Systems sein, das einerseits auf Autonomie und Kooperation aufbaut, andererseits aber auch Wettbewerb zwischen den beteiligten Institutionen und Organisationen fördert. Eine wichtige Bedingung für ein positives Investitionsklima im Bereich der Innovation ist die Erreichung von makroökonomischer Stabilität. Die gegenwärtige Situation ist gekennzeichnet durch Instabilität des Rechtswesens, durch Korruption und Probleme des Vertragsschutzes, die sowohl ausländische als auch inländische Akteure davon abhält, sich in wirtschaftlichen Aktivitäten in Mazedonien zu engagieren. Bei der Suche nach einem Ausweg aus diesen Problemen ist es wichtig für Mazedonien, von anderen Ländern wie Slowenien zu lernen, die ähnliche Probleme haben, aber auch schon Erfahrungen in der Problemlösung. Man muss dabei beachten, dass der Entwicklungsstand, das wirtschaftliche und das politische Umfeld in beiden Vergleichsländern sich erheblich unterscheiden, so dass die Lektionen, die Mazedonien von Slowenien lernen könnte, nicht direkt übertragen und kopiert werden können, sondern entsprechend angepasst werden müssen. Die vorliegende Arbeit liefert Einsichten in die Probleme der Innovationspolitik in Transformationsländern und liefert daher sowohl einen Anreiz als auch eine Quelle von Informationen für künftige Analysen der wirtschaftlichen Bedingungen und vor allem Innovationspolitik in Transformationsländern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the present paper we concentrate on solving sequences of nonsymmetric linear systems with block structure arising from compressible flow problems. We attempt to improve the solution process by sharing part of the computational effort throughout the sequence. This is achieved by application of a cheap updating technique for preconditioners which we adapted in order to be used for our applications. Tested on three benchmark compressible flow problems, the strategy speeds up the entire computation with an acceleration being particularly pronounced in phases of instationary behavior.