978 resultados para Informaatiolukutaidon opintosuunnitelma (2004-2006) -hanke
Resumo:
This study examined annual variation in phenology, abundance and diversity of a bee community during 2003, 2004, 2006, and 2008 in recovered landscapes at the southern end of St. Catharines, Ontario, Canada. Overall, 8139 individuals were collected from 26 genera and sub-genera and at least 57 species. These individuals belonged to the 5 families found in eastern North America (Andrenidae, Apidae, Colletidae, Halictidae and Megachilidae). The bee community was characterized by three distinct periods of flight activity over the four years studied (early spring, late spring/early summer, and late summer). The number of bees collected in spring was significantly higher than those collected in summer. In 2003 and 2006 abundance was higher, seasons started earlier and lasted longer than in 2004 and 2008, as a result of annual rainfall fluctuations. Differences in abundance for low and high disturbance sites decreased with years. Annual trends of generic richness resembled those detected for species. Likewise, similarity in genus and species composition decreased with time. Abundant and common taxa (13 genera and 18 species) were more persistent than rarer taxa being largely responsible for the annual fluctuations of the overall community. Numerous species were sporadic or newly introduced. The invasive species Anthidium oblongatum was first recorded in Niagara in 2006 and 2008. Previously detected seasonal variation patterns were confirmed. Furthermore, this study contributed to improve our knowledge of temporal dynamics of bee communities. Understanding temporal variation in bee communities is relevant to assessing impacts caused on their habitats by diverse disturbances.
Resumo:
Le web et les images qui y foisonnent font désormais partie de notre quotidien et ils façonnent notre manière de penser le monde. Certaines œuvres d’art permettent, semble-t-il, de réfléchir à la fois sur l’image, les technologies web, les relations qu’elles entretiennent et les enjeux sociopolitiques qui les sous-tendent. C’est dans cette perspective que ce mémoire s’intéresse aux travaux de la série des Googlegrams (2004-2006) de Joan Fontcuberta, particulièrement à deux œuvres qui reprennent les photographies de torture de la prison d’Abu Ghraib devenues iconiques. Ce sont des photomosaïques utilisant ces images comme matrices dans lesquelles viennent s’insérer des milliers de petites images qui ont été trouvées dans le web grâce au moteur de recherche d’images de Google, selon certains mots-clés choisis par l’artiste de façon à faire écho à ces photographies-matrices. Ces œuvres sont ici considérées en tant qu’outils d’études actifs nous permettant de déployer les assemblages d’images et de technologies qu’elles font interagir. Il s’agit de suivre les acteurs et les réseaux qui se superposent et s’entremêlent dans les Googlegrams : d’abord les photographies d’Abu Ghraib et leur iconisation ; ensuite le moteur de recherche et sa relation aux images ; finalement les effets de la photomosaïque. Cette étude s’effectue donc à partir des interactions entre ces différents éléments qui constituent les œuvres afin de réfléchir sur leurs rôles dans le façonnement de la représentation de l’information.
Resumo:
In India a study conducted by CIFE and CIBA (1997), concluded that shrimp farming does more good than harm and it is not eco-unfriendly (Krishnan and Birthal, 2002). Upsurge in coastal aquaculture activity induced by high profitability is reported to have caused adverse impacts on coastal ecosystems and social environments (Parthasarathy and Nirmala, 2000). The crustacean farming sector has received criticism for excessive use of formulated feed containing high protein, of which around 50% gets accumulated at the pond bottom as unconsumed (Avnimelech, 1999; Hari et al., 2004, 2006). The wasted feeds undergo the process of degradation and results in the release of toxic metabolites to the culture system. Reduction of protein in the feed, manipulation and utilisation of natural food in the culture system are the remedy for the above problems. But before reducing the feed protein, it should be confirmed that the feed with reduced protein is not affecting the growth and health of the cultured animal. In the present study, biofloc technology is identified as one of the innovative technologies for ensuring the ecological and environmental Sustainability and examines the compatibility of BFT for the sustainable aquaculture of giant prawn, M. rosenbergii. This thesis starts with a general introduction (Chapter-1), a brief review of the most relevant literature (Chapter-2), results of various experiments (Chapter-3-6), summary (Chapter-7) and recommendations and future research perspectives in the field of biofloc based aquaculture (Chapter – 8). The major objectives of this thesis are, to improve the ecological and economical sustainability of prawn farming by the applicationof BFT and to improve the nutrient utilisation in aquaculture systems.
Resumo:
Die Dissertation befasst sich mit der Geschichte des Arbeitserziehungslagers (AEL) Breitenau, das 1940 von der Gestapostelle Kassel auf dem Gelände der Landesarbeitsanstalt Breitenau in Guxhagen gegründet wurde und bis zum Kriegsende bestand. Darüber hinaus wird auch der Frage nachgegangen, wie nach der NS-Zeit mit der Geschichte des Lagers, den Opfern und den Tätern umgegangen wurde. Die Dissertation ist in drei Teile gegliedert. Der erste Teil gibt einen Überblick über die Geschichte der Geheimen Staatspolizeistelle Kassel, der das Lager unterstand und die als zentrale Verfolgungsbehörde für den Regierungsbezirk Kassel zuständig war. Dabei wird vor allem aufgezeigt, wie die Gestapostelle Kassel entstanden ist, wie sie aufgebaut war und wer die Leiter und Mitarbeiter während des Zweiten Weltkrieges waren, die die Verfolgungsmaßnahmen organisierten und durchführten. Der zweite Teil der Dissertation befasst sich mit der eigentlichen Lagergeschichte. Breitenau war eines der ersten Arbeitserziehungslager überhaupt. Die Hauptfunktion bestand darin, ausländische Zwangsarbeiter und Zwangsarbeiterinnen, die sich dem Arbeitseinsatz widersetzt hatten, durch harte Bestrafung gefügig zu machen. Gleichzeitig wurden in das AEL aber auch deutsche und ausländische Gefangene eingewiesen, die aus politischen, rassischen, religiösen oder weltanschaulichen Gründen verhaftet worden waren. Das Lager unterstand zwar der Geheimen Staatspolizei Kassel, wurde aber von den Bediensteten der Landesarbeitsanstalt mit geleitet. Im Verlaufe des Zweiten Weltkrieges waren im AEL Breitenau etwa 8.300 überwiegend ausländische Schutzhaftgefangene inhaftiert, unter denen sich ca. 1.900 Frauen und 6.400 Männer befanden. Bei den Einweisungen wirkten neben der Gestapostelle Kassel und der Gestapostelle Weimar zahlreiche Orts- und Kreispolizeibehörden mit, wodurch ein flächendeckender Verfolgungsapparat entstand. Insgesamt lassen sich über 1.000 letzte Wohnorte von Gefangenen ermitteln. Die Haft- und Lebensbedingungen im Lager waren vor allem für die ausländischen Gefangenen besonders unmenschlich, und es gab mehrere Todesfälle. Nachweislich wurden mehr als 750 Gefangene in Konzentrationslager deportiert, was für viele den Tod bedeutete. Außerdem wurden mindestens 18 polnische Gefangene von Angehörigen der Gestapo Kassel erhängt und noch unmittelbar vor Kriegsende ein Massenmord an 28 Gefangenen verübt. Erst mit dem Einmarsch der amerikanischen Soldaten am Ostersamstag 1945 wurde das Arbeitserziehungslager Breitenau endgültig aufgelöst. Im dritten Teil der Dissertation wird der Frage des Umgangs mit dem damaligen Geschehen nachgegangen. Dabei lässt sich feststellen, dass die Täter und Mittäter von deutschen Spruchkammern und Gerichten gar nicht oder kaum bestraft wurden. Gleichzeitig wurden ihnen verschiedene Möglichkeiten geboten, sich in die Gesellschaft zu integrieren. Die ehemaligen Gefangenen hatten dagegen keinen Anspruch auf Entschädigung, und auch eine gesellschaftliche Würdigung wurde ihnen versagt. Erst seit den 90er Jahren trat hier eine Veränderung ein, die allerdings für viele Verfolgte zu spät kam. Die Geschichte des Arbeitserziehungslagers Breitenau war viele Jahre verdrängt worden. Das Gelände diente bis 1949 als Landesarbeitsanstalt, dann als geschlossenes Erziehungsheim, und seit 1974 besteht dort eine psychiatrische Einrichtung. Erst 1979 wurde durch ein Forschungsprojekt an der Gesamthochschule Kassel die NS-Geschichte „wiederentdeckt“ und 1984 die Gedenkstätte Breitenau eingerichtet, die als Gedenk- und Bildungsort an das damalige Geschehen erinnert.
Resumo:
Thermoaktive Bauteilsysteme sind Bauteile, die als Teil der Raumumschließungsflächen über ein integriertes Rohrsystem mit einem Heiz- oder Kühlmedium beaufschlagt werden können und so die Beheizung oder Kühlung des Raumes ermöglichen. Die Konstruktionenvielfalt reicht nach diesem Verständnis von Heiz, bzw. Kühldecken über Geschoßtrenndecken mit kern-integrierten Rohren bis hin zu den Fußbodenheizungen. Die darin enthaltenen extrem trägen Systeme werden bewußt eingesetzt, um Energieangebot und Raumenergiebedarf unter dem Aspekt der rationellen Energieanwendung zeitlich zu entkoppeln, z. B. aktive Bauteilkühlung in der Nacht, passive Raumkühlung über das kühle Bauteil am Tage. Gebäude- und Anlagenkonzepte, die träge reagierende thermoaktive Bauteilsysteme vorsehen, setzen im kompetenten und verantwortungsvollen Planungsprozeß den Einsatz moderner Gebäudesimulationswerkzeuge voraus, um fundierte Aussagen über Behaglichkeit und Energiebedarf treffen zu können. Die thermoaktiven Bauteilsysteme werden innerhalb dieser Werkzeuge durch Berechnungskomponenten repräsentiert, die auf mathematisch-physikalischen Modellen basieren und zur Lösung des bauteilimmanenten mehrdimensionalen instationären Wärmeleitungsproblems dienen. Bisher standen hierfür zwei unterschiedliche prinzipielle Vorgehensweisen zur Lösung zur Verfügung, die der physikalischen Modellbildung entstammen und Grenzen bzgl. abbildbarer Geometrie oder Rechengeschwindigkeit setzen. Die vorliegende Arbeit dokumentiert eine neue Herangehensweise, die als experimentelle Modellbildung bezeichnet wird. Über den Weg der Systemidentifikation können aus experimentell ermittelten Datenreihen die Parameter für ein kompaktes Black-Box-Modell bestimmt werden, das das Eingangs-Ausgangsverhalten des zugehörigen beliebig aufgebauten thermoaktiven Bauteils mit hinreichender Genauigkeit widergibt. Die Meßdatenreihen lassen sich über hochgenaue Berechnungen generieren, die auf Grund ihrer Detailtreue für den unmittelbaren Einsatz in der Gebäudesimulation ungeeignet wären. Die Anwendung der Systemidentifikation auf das zweidimensionale Wärmeleitungsproblem und der Nachweis ihrer Eignung wird an Hand von sechs sehr unterschiedlichen Aufbauten thermoaktiver Bauteilsysteme durchgeführt und bestätigt sehr geringe Temperatur- und Energiebilanzfehler. Vergleiche zwischen via Systemidentifikation ermittelten Black-Box-Modellen und physikalischen Modellen für zwei Fußbodenkonstruktionen zeigen, daß erstgenannte auch als Referenz für Genauigkeitsabschätzungen herangezogen werden können. Die Praktikabilität des neuen Modellierungsansatzes wird an Fallstudien demonstriert, die Ganzjahressimulationen unter Bauteil- und Betriebsvariationen an einem exemplarischen Büroraum betreffen. Dazu erfolgt die Integration des Black-Box-Modells in das kommerzielle Gebäude- und Anlagensimulationsprogramm CARNOT. Die akzeptablen Rechenzeiten für ein Einzonen-Gebäudemodell in Verbindung mit den hohen Genauigkeiten bescheinigen die Eignung der neuen Modellierungsweise.
Resumo:
Die sogenannte natürliche Lüftung - Lüftung infolge Temperatur- und Windeinfluss - über geöffnete Fenster und Türen ist im Wohnbereich noch immer die häufigste Form des Lüftens. Die Wirkung des Lüftens wird einerseits von den baulichen Gegebenheiten, z.B. der Fenstergröße, Öffnungsfläche und Laibungstiefe sowie andererseits durch den Nutzer, der z.B. eine Gardine oder Rollos anbringt, beeinflusst. Über den genauen Einfluss von verschiedenen Faktoren auf den Luftwechsel existieren zur Zeit noch keine gesicherten Erkenntnisse. Die Kenntnis des Luftwechsels ist jedoch für die Planung und Ausführung von Gebäuden in Hinblick auf das energiesparende Bauen sowie unter bauphysikalischen und hygienischen Aspekten wichtig. Der Einsatz von Dreh-Kippfenstern sowie das Lüften über die Kippstellung ist in Deutschland üblich, so dass die Bestimmung des Luftwechsels über Kippfenster von großem Interesse ist. Ziel dieser Arbeit ist es, den thermisch induzierten Luftwechsel über ein Kippfenster unter Berücksichtigung verschiedener Randbedingungen zu beschreiben. Hierbei werden Variationen der Kippweite, Laibungs- und Heizungsanordnung berücksichtigt. Die Arbeit gliedert sich in drei Teile: im ersten Teil werden messtechnische Untersuchungen durchgeführt, im zweiten Teil exemplarisch einige messtechnisch untersuchten Varianten mit CFD simuliert und im dritten Teil ein verbesserter Modellansatz zur Beschreibung des Luftwechsels aus den Messwerten abgeleitet. Die messtechnischen Untersuchungen bei einer Kippweite von 10 cm zeigen, dass bei dem Vorhandensein einer raumseitigen Laibung oder einem unterhalb des Fensters angeordneten Heizkörpers mit einer Reduktion des Volumenstroms von rund 20 Prozent gegenüber einem Fenster ohne Laibung bzw. ohne Heizkörper gerechnet werden muss. Die Kombination von raumseitiger Laibung und Heizung vermindert das Luftwechselpotential um ca. 40 Prozent. Simuliert wird die Variante ohne Laibung und ohne Heizung für die Kippweiten 6 cm und 10 cm. Die Ergebnisse der mit CFD simulierten Tracergas-Messung weisen für beide Kippweiten im Mittel rund 13 Prozent höhere Zuluftvolumenströme im Vergleich zu den Messwerten auf. Die eigenen Messdaten bilden die Grundlage für die Anpassung eines Rechenmodells. Werden vor Ort die lichte Fensterhöhe und -breite, die Kippweite, die Rahmen- und Laibungstiefe sowie die Abstände der Laibung zum Flügelrahmen gemessen, kann die Öffnungsfläche in Abhängigkeit von der Einbausituation bestimmt werden. Der Einfluss der Heizung - bei einer Anordnung unterhalb des Fensters - wird über den entsprechenden Cd-Wert berücksichtigt.
Resumo:
Nach 35 Jahren Entwicklungszeit wurde im Jahr 2004 in Shanghai die erste kommerzielle Anwendung des innovativen Magnetbahnsystems Transrapid in Betrieb genommen; in Deutschland konnte bislang keine Transrapid-Strecke realisiert werden, obwohl dieses System entsprechend den Ergebnissen einer vom damaligen Bundesverkehrsminister beauftragten Studie aus dem Jahr 1972 für den Einsatz in Deutschland entwickelt wurde. Beim Transrapid handelt es sich um eine echte Produkt-Innovation im Bahnverkehr und nicht um eine Weiterentwicklung oder Optimierung wie beim ICE, und ist somit als innovativer Verkehrsträger der Zukunft in die langfristige Entwicklung der Verkehrssysteme einzufügen. Die modernen HGV Bahnsysteme (Shinkansen/TGV/ICE) hingegen sind, ähnlich der Clipper in der Phase der Segelschifffahrt im Übergang zum Dampfschiff, letzte Abwehrentwicklungen eines am Zenit angekommenen Schienen-Verkehrssystems. Die Einführung von Innovationen in einen geschlossenen Markt stellt sich als schwierig dar, da sie zu einem Bruch innerhalb eines etablierten Systems führen. Somit wird in der vorliegenden Arbeit im ersten Teil der Themenkomplex Innovation und die Einordnung der Magnet-Schwebe-Technologie in diese langfristig strukturierten Abläufe untersucht und dargestellt. Das Transrapid-Projekt ist demzufolge in eine zeitstrukturelle Zyklizität einzuordnen, die dafür spricht, die Realisierung des Gesamtprojektes in eine Zeitspanne von 20 bis 30 Jahre zu verlagern. Im zweiten Teil wird auf der Basis einer regionalstrukturellen Analyse der Bundesrepublik Deutschland ein mögliches Transrapidnetz entworfen und die in diesem Netz möglichen Reisezeiten simuliert. Weiterhin werden die Veränderungen in den Erreichbarkeiten der einzelnen Regionen aufgrund ihrer Erschließung durch das Transrapidnetz simuliert und grafisch dargestellt. Die vorliegende Analyse der zeitlichen Feinstruktur eines perspektiven Transrapidnetzes ist ein modellhafter Orientierungsrahmen für die Objektivierung von Zeitvorteilen einer abgestimmten Infrastruktur im Vergleich zu real möglichen Reisezeiten innerhalb Deutschlands mit den gegebenen Verkehrsträgern Schiene, Straße, Luft. So würde der Einsatz des Transrapid auf einem entsprechenden eigenständigen Netz die dezentrale Konzentration von Agglomerationen in Deutschland fördern und im Durchschnitt annähernd 1 h kürzere Reisezeiten als mit den aktuellen Verkehrsträgern ermöglichen. Zusätzlich wird noch ein Ausblick über mögliche Realisierungsschritte eines Gesamtnetzes gegeben und die aufgetretenen Schwierigkeiten bei der Einführung des innovativen Verkehrssystems Transrapid dargestellt.
Resumo:
Der SPNV als Bestandteil des ÖPNV bildet einen integralen Bestandteil der öffentlichen Daseinsvorsorge. Insbesondere Flächenregionen abseits urbaner Ballungszentren erhalten durch den SPNV sowohl ökonomisch als auch soziokulturell wichtige Impulse, so dass die Zukunftsfähigkeit dieser Verkehrsart durch geeignete Gestaltungsmaßnahmen zu sichern ist. ZIELE: Die Arbeit verfolgte das Ziel, derartige Gestaltungsmaßnahmen sowohl grundlagentheoretisch herzuleiten als auch in ihrer konkreten Ausformung für die verkehrswirtschaftliche Praxis zu beschreiben. Abgezielt wurde insofern auf strukturelle Konzepte als auch praktische Einzelmaßnahmen. Der Schwerpunkt der Analyse erstreckte sich dabei auf Deutschland, wobei jedoch auch verkehrsbezogene Privatisierungserfahrungen aus anderen europäischen Staaten und den USA berücksichtigt wurden. METHODEN: Ausgewertet wurden deutschsprachige als auch internationale Literatur primär verkehrswissenschaftlicher Ausrichtung sowie Fallbeispiele verkehrswirtschaftlicher Privatisierung. Darüber hinaus wurden Entscheidungsträger der Deutschen Bahn (DB) und DB-externe Eisenbahnexperten interviewt. Eine Gruppe 5 DB-interner und 5 DB-externer Probanden nahm zusätzlich an einer standardisierten Erhebung zur Einschätzung struktureller und spezifischer Gestaltungsmaßnahmen für den SPNV teil. ERGEBNISSE: In struktureller Hinsicht ist die Eigentums- und Verfügungsregelung für das gesamte deutsche Bahnwesen und den SPNV kritisch zu bewerten, da der dominante Eisenbahninfrastrukturbetreiber (EIU) in Form der DB Netz AG und die das Netz nutzenden Eisenbahnverkehrs-Unternehmen (EVUs, nach wie vor zumeist DB-Bahnen) innerhalb der DB-Holding konfundiert sind. Hieraus ergeben sich Diskriminierungspotenziale vor allem gegenüber DB-externen EVUs. Diese Situation entspricht keiner echten Netz-Betriebs-Trennung, die wettbewerbstheoretisch sinnvoll wäre und nachhaltige Konkurrenz verschiedener EVUs ermöglichen würde. Die seitens der DB zur Festigung bestehender Strukturen vertretene Argumentation, wonach Netz und Betrieb eine untrennbare Einheit (Synergie) bilden sollten, ist weder wettbewerbstheoretisch noch auf der Ebene technischer Aspekte akzeptabel. Vielmehr werden durch die gegenwärtige Verquickung der als Quasimonopol fungierenden Netzebene mit der Ebene der EVU-Leistungen Innovationspotenziale eingeschränkt. Abgesehen von der grundsätzlichen Notwendigkeit einer konsequenten Netz-Betriebs-Trennung und dezentraler Strukturen sind Ausschreibungen (faktisch öffentliches Verfahren) für den Betrieb der SPNV-Strecken als Handlungsansatz zu berücksichtigen. Wettbewerb kann auf diese Weise gleichsam an der Quelle einer EVU-Leistung ansetzen, wobei politische und administrative Widerstände gegen dieses Konzept derzeit noch unverkennbar sind. Hinsichtlich infrastruktureller Maßnahmen für den SPNV ist insbesondere das sog. "Betreibermodell" sinnvoll, bei dem sich das übernehmende EIU im Sinne seiner Kernkompetenzen auf den Betrieb konzentriert. Die Verantwortung für bauliche Maßnahmen sowie die Instandhaltung der Strecken liegt beim Betreiber, welcher derartige Leistungen am Markt einkaufen kann (Kostensenkungspotenzial). Bei Abgabeplanungen der DB Netz AG für eine Strecke ist mithin für die Auswahl eines Betreibers auf den genannten Ausschreibungsmodus zurückzugreifen. Als kostensenkende Einzelmaßnahmen zur Zukunftssicherung des SPNV werden abschließend insbesondere die Optimierung des Fahrzeugumlaufes sowie der Einsatz von Triebwagen anstatt lokbespannter Züge und die weiter forcierte Ausrichtung auf die kundenorientierte Attraktivitätssteigerung des SPNV empfohlen. SCHLUSSFOLGERUNGEN: Handlungsansätze für eine langfristige Sicherung des SPNV können nicht aus der Realisierung von Extrempositionen (staatlicher Interventionismus versus Liberalismus) resultieren, sondern nur aus einem pragmatischen Ausgleich zwischen beiden Polen. Dabei erscheint eine Verschiebung hin zum marktwirtschaftlichen Pol sinnvoll, um durch die Nutzung wettbewerbsbezogener Impulse Kostensenkungen und Effizienzsteigerungen für den SPNV herbeizuführen.
Gemeinsam selbständig. Eine Analyse kooperativen Handelns bei partnerschaftlichen Existenzgründungen
Resumo:
Im Zentrum der empirischen Arbeit steht einerseits eine besondere Form der Unternehmensgründung, andererseits eine besondere Form der Kooperation: die partnerschaftliche Existenzgründung. Das Forschungsvorhaben geht dem Ziel nach, Kooperationsprozesse in solchen unternehmerischen Partnerschaften zu explorieren. Um letztendlich eine praktisch nutzbare Grundlage für Maßnahmen zur Förderung beruflicher Selbständigkeit zu gewinnen, werden Merkmale und Rahmenbedingungen erfolgreicher partnerschaftlicher Existenzgründungen aufgezeigt. Die Empirie stützt sich auf qualitative Interviews mit Personen, die erfolgreich im Team ein Unternehmen gegründet haben und führen. In einem ersten Schritt werden anhand der Interviews konkrete alltägliche Kooperationsprozesse präzise beschrieben. Darauf aufbauend zeichnen tiefer gehende qualitative Analysen Entwicklungen auf einer abstrakteren Handlungsebene nach. Das Spektrum der Betrachtung umfasst neben individuellen Entwicklungen der Unternehmensgründer auch Prozesse auf der Teamebene sowie auf unternehmerischer Ebene. Zur Exploration der Handlungsprozesse werden die eigenen Ergebnisse durch ausgewählte theoretische Ansätze aus Kognitions- und Sozialpsychologie, aus soziologischer Handlungstheorie und Betriebswirtschaftslehre bereichert. Als relevant auf individueller Ebene erweisen sich insbesondere Prozesse der Identitätsentwicklung hin zu einer unternehmerisch-partnerschaftlichen Identität. Auf der Teamebene sind die Bewahrung und Überwindung von Eigensinn in der Interaktion sowie der Aufbau einer vertrauensvollen Beziehung zentral. Auf Unternehmensebene schließlich spielen Prozesse der Sinnfindung zwischen individuellen Erwerbsentwürfen und ökonomischen Strukturen, die Entstehung von Ordnung sowie Problemlösungsprozesse eine entscheidende Rolle. Insgesamt wird deutlich, dass der Weg in eine partnerschaftliche Selbständigkeit ein vielschichtiger Lernprozess ist, der aus der Praxis heraus entsteht, im Wesentlichen von den Gründern selbst organisiert und von gemeinsamen Reflexionen getragen wird. Diese Erkenntnisse stellen erste Ansatzpunkte dar zur Förderung beruflicher Selbständigkeit in Hochschule und im beruflichen Bildungswesen.
Resumo:
Diese Arbeit beschreibt den Evaluationsprozess einer dreidimensionalen Visualisierungstechnik, die am Institut für periphere Mikroelektronik der Universität Kassel entwickelt wurde. Hinter der dreidimensionalen Darstellung mittels Linsenrasterscheibe verbirgt sich eine neue Dimension der Interaktion mit dem Computer. Im Vergleich zu gewöhnlichen dreidimensionalen Darstellungen, bei denen ein 3D-Objekt auf einer 2D-Fläche abgebildet wird und somit nach wie vor nicht aus der Bildschirmebene heraus kann, können bei der stereoskopen Darstellung die Objekte dreidimensional visualisiert werden. Die Objekte tauchen vor, beziehungsweise hinter der Darstellungsebene auf. Da die Linsenrasterscheibe bisher noch nicht wahrnehmungspsychologisch untersucht wurde und auch allgemein auf dem Gebiet der Evaluation von 3D-Systemen nur wenige Untersuchungen mit quantitativen Ergebnissen verfügbar sind (Vollbracht, 1997), besteht hier ein zentrales Forschungsinteresse. Um eine Evaluation dieses 3D-Systems durchzuführen, wird im Theorieteil der Arbeit zunächst der Begriff der Evaluation definiert. Des Weiteren werden die wahrnehmungspsychologischen Grundlagen der monokularen und binokularen Raumwahrnehmung erörtert. Anschließend werden Techniken zur Erzeugung von Tiefe in Bildern und auf Bildschirmen erläutert und die Unterschiede zwischen der technisch erzeugten und der natürlichen Tiefenwahrnehmung näher beleuchtet. Nach der Vorstellung verschiedener stereoskoper Systeme wird näher auf die autostereoskope Linsenrasterscheibe eingegangen. Zum Abschluss des theoretischen Teils dieser Arbeit wird die Theorie des eingesetzten Befindlichkeitsfragebogens veranschaulicht. Gegenstand des empirischen Teils dieser Arbeit sind zwei zentrale Fragestellungen. Erstens soll untersucht werden, ob durch den höheren Informationsgehalt grundlegende Wahrnehmungsleistungen in bestimmten Bereichen positiv beeinflusst werden können. Zweitens soll untersucht werden, ob sich die höhere visuelle Natürlichkeit und die Neuartigkeit der Bildpräsentation auch auf die subjektive Befindlichkeit der Probanden auswirkt. Die empirische Überprüfung dieser Hypothesen erfolgt mittels dreier Experimente. Bei den ersten beiden Experimenten stehen grundlegende wahrnehmungspsychologische Leistungen im Vordergrund, während in der dritten Untersuchung der Bereich der subjektiven Befindlichkeit gemessen wird. Abschließend werden die Ergebnisse der Untersuchungen vorgestellt und diskutiert. Des Weiteren werden konkrete Einsatzmöglichkeiten für die Linsenrasterscheibe aufgezeigt und denkbare nachfolgende experimentelle Vorgehensweisen skizziert.
Resumo:
Ejemplar editado en 2005 y reeditado en noviembre de 2007
Resumo:
In order to obtain a high-resolution Pleistocene stratigraphy, eleven continuously cored boreholes, 100 to 220m deep were drilled in the northern part of the Po Plain by Regione Lombardia in the last five years. Quantitative provenance analysis (QPA, Weltje and von Eynatten, 2004) of Pleistocene sands was carried out by using multivariate statistical analysis (principal component analysis, PCA, and similarity analysis) on an integrated data set, including high-resolution bulk petrography and heavy-mineral analyses on Pleistocene sands and of 250 major and minor modern rivers draining the southern flank of the Alps from West to East (Garzanti et al, 2004; 2006). Prior to the onset of major Alpine glaciations, metamorphic and quartzofeldspathic detritus from the Western and Central Alps was carried from the axial belt to the Po basin longitudinally parallel to the SouthAlpine belt by a trunk river (Vezzoli and Garzanti, 2008). This scenario rapidly changed during the marine isotope stage 22 (0.87 Ma), with the onset of the first major Pleistocene glaciation in the Alps (Muttoni et al, 2003). PCA and similarity analysis from core samples show that the longitudinal trunk river at this time was shifted southward by the rapid southward and westward progradation of transverse alluvial river systems fed from the Central and Southern Alps. Sediments were transported southward by braided river systems as well as glacial sediments transported by Alpine valley glaciers invaded the alluvial plain. Kew words: Detrital modes; Modern sands; Provenance; Principal Components Analysis; Similarity, Canberra Distance; palaeodrainage
Resumo:
Se describe la experiencia de introducción de los intrumentos tradicionales del grupo de 'xeremiers' (xeremia, tamborino y flabiol, instrumentos típicos mallorquines) en un instituto de enseñanza secundaria de Binissalem (Mallorca) durante los cursos 2004-2006. Finalmente se exponen una serie de ventajas y desventajas relacionadas con la introducción de estos instrumentos en los centros educativos.
Resumo:
Metodología para la estimación de cápitas de planes de salud. Se propone un método de cuantificación de insumos a emplear, la estimación de costos indirectos asociados a las intervenciones y un método de anualización para los costos fijos que generalmente trascienden en su vida útil al período de duración de una cápita. Finalmente, a través de un ejercicio práctico de estimación de la cápita del Componente de Salud del Programa Oportunidades de México se ilustra la aplicación del desarrollo metodológico expuesto en la parte inicial.
Resumo:
Objetivo: identificar evidencia bibliográfica del uso de la música como herramienta en procesos de inclusión de personas con discapacidad, que permitiera ofrecer sustento teórico al proyecto del convenio establecido entre la Fundación Saldarriaga Concha y la Fundación Nacional Batuta. Materiales y métodos: como estrategia de búsqueda se utilizaron los temas “música”, “inclusión” y “discapacidad” y el booleano AND en tres bases de datos: Ebsco, Medline y Lilacs. Los análisis fueron realizados mediante el establecimiento de frecuencias para variables como revista, país, tipo de estudio y años de publicación. Se localizaron veintidós artículos que incluyeron los criterios de búsqueda definidos por los autores. Resultados: los resultados muestran que la mayoría de publicaciones se encuentra en la base de datos Ebsco, en la revista Music Educators Journal, en el período comprendido entre el año 2004 a 2006 (40,9%). Estados Unidos es el país que más publicaciones ha realizado (81,8%). El tipo de estudio más frecuente es la revisión de tema (86,4%) y la temática más utilizada incorpora aspectos como música-discapacidad. De acuerdo con Rumbo, Aranton y García, el grado de evidencia de los documentos analizados es 3, lo que indica que son principalmente estudios descriptivos y de opinión de expertos. Conclusiones: después de realizar la búsqueda sistemática se puede concluir que las publicaciones que incorporan el uso de la música como herramienta para facilitar procesos de inclusión social de niños y adolescentes es escasa, por lo que se sugiere sistematizar y publicar resultados de las intervenciones en este campo de la Terapia Ocupacional. El presente documento proporciona una posible ruta para el desarrollo de futuras investigaciones referentes al tema.