22 resultados para Analyse von Gesundheitsmärkten
em Digital Peer Publishing
Resumo:
Zusammen mit einem namhaften Kettenhersteller hat das Institut für Fördertechnik und Logistik (IFT) im Rahmen eines AIF-geförderten Forschungsprojektes einen Kettenverschleißprüfstand für Last- und Treibketten entwickelt und gebaut, um neuentwickelte Ketten in kurzen Testphasen unter normierter Umgebung auf ihre Lebensdauer bzw. Verschleißfestigkeit zu prüfen. Durch steigende Rohstoffkosten und den immer größer werdenden Konkurrenzdruck im Bereich der Ketten entsteht ein hoher Bedarf an der Entwicklung neuer leistungsfähigerer Produkte. Die Neuheit dieser Projektidee liegt in dem erstmaligen Einsatz alternativer Werkstoffe und Konstruktionen in Kombination mit neuen verschleißarmen Beschichtungsverfahren für Kettenbauteile um Schmierstoffe langfristig einzulagern und bedarfsgerecht abzugeben
Resumo:
Die Bestimmung der Anzahl der Biegewechsel von laufenden Drahtseilen ist ein wesentlicher Bestandteil bei der Betriebsdaueranalyse von Seiltrieben. Auf Seilabschnitte, die während der Betriebszeit die meisten Biegewechsel erfahren, sollte bei einer Seilprüfung besonderes Augenmerk gelegt werden. Gerade bei mehrfacher Einscherung ist jedoch nicht immer von vorn herein ersichtlich, um welche Seilabschnitte es sich dabei handelt. Auf der Basis der Geometrie des mehrfach eingescherten Seiltriebs wird ein rechnergestütztes Analyseverfahren zur Ermittlung der Anzahl der Biegewechsel entlang des Drahtseils bei einem Arbeitsspiel vorgestellt.
Resumo:
Die Einbeziehung der privaten Krankenversicherung (PKV) in den Risikostrukturausgleich (RSA) der gesetzlichen Krankenversicherung (GKV) wird häufig diskutiert. In der vorliegenden Studie wird anhand einer quantitativen Analyse unter Verwendung der Daten des Sozioökonomischen Panels (SOEP) abgeschätzt, welche Transfersumme aus dem System der PKV in das System der GKV fließen würden, wenn ein übergreifender RSA eingerichtet würde. Die Summe läge bei 9,9 Mrd. Euro pro Jahr unter Annahme der Beitragsbemessungsgrenze des Jahres 2006. Einbezogen wurden dabei nur die Unterschiede auf der Einnahmenseite des RSA. Einschränkend muss gesehen werden, dass unklar bleibt, welche Krankenversicherungsunternehmen be- oder entlastet würden und über welches Verfahren die Transfersumme aufgebracht werden könnte.
Resumo:
Zur administrativen Unterstützung von Lehr- und Lernprozessen werden E-Learning-Plattformen eingesetzt, die auf der Grundlage des Internet Funktionen zur Distribution von Lehr- und Lernmaterialien und zur Kommunikation zwischen Lehrenden und Lernenden anbieten. Zahlreiche wissenschaftliche Beiträge und Marktstudien beschäftigen sich mit der multikriteriellen Evaluation dieser Softwareprodukte zur informatorischen Fundierung strategischer Investitionsentscheidungen. Demgegenüber werden Instrumente zum kostenorientierten Controlling von E-Learning-Plattformen allenfalls marginal thematisiert. Dieser Beitrag greift daher das Konzept der Total Cost of Ownership (TCO) auf, das einen methodischen Ansatzpunkt zur Schaffung von Kostentransparenz von E-Learning-Plattformen bildet. Aufbauend auf den konzeptionellen Grundlagen werden Problembereiche und Anwendungspotenziale für das kostenorientierte Controlling von LMS identifiziert. Zur softwaregestützten Konstruktion und Analyse von TCO-Modellen wird das Open Source-Werkzeug TCO-Tool eingeführt und seine Anwendung anhand eines synthetischen Fallbeispiels erörtert. Abschließend erfolgt die Identifikation weiterführender Entwicklungsperspektiven des TCO-Konzepts im Kontext des E-Learning. Die dargestellte Thematik ist nicht nur von theoretischem Interesse, sondern adressiert auch den steigenden Bedarf von Akteuren aus der Bildungspraxis nach Instrumenten zur informatorischen Fundierung von Investitions- und Desinvestitionsentscheidungen im Umfeld des E-Learning.
Resumo:
In unserem Beitrag evaluieren wir die didaktische Einbettung einer CSCL-Anwendung anhand von Logfile-Analysen. Dazu betrachten wir exemplarisch die Nutzung des webbasierten Systems CommSy in einer projektorientierten Lehrveranstaltung, die wir als offenes Seminar charakterisieren. Wir erzielen zwei Ergebnisse: (1) Wir geben Hinweise zur Gestaltung des Nutzungskontexts eines CSCL-Systems sowie zur Unterstützung seiner anfänglichen und kontinuierlichen Nutzung. (2) Wir beschreiben die Analyse von Nutzungsanlässen und -mustern sowie von NutzerInnentypen anhand von Logfiles. Dabei können Logfile-Analysen zur Validierung weiterer Evaluationsergebnisse dienen, sind selbst jedoch nur in Kombination mit zusätzlichen Informationen zum Nutzungskontext interpretierbar.
Resumo:
Rechtsnormen als Texte – Versuch einer Zusammenführung von Rechtstheorie und Linguistik: Rechtstheoretiker sind sich zwar bewusst, dass Recht wesentlich Sprache ist; diese Voraussetzung wird aber in der konkreten Analyse von Rechtsnormen und ihrer Struktur nur selten systematisch berücksichtigt; zumeist wird von der konkreten sprachlichen Form abgesehen oder der einzelne Satz wird als formale Größe absolut gesetzt. Dazu werden auch meist wichtige Erkenntnisse der Linguistik kaum berücksichtigt, etwa grundlegende Differenzierungen wie jene zwischen Satz und Text bzw. Grammatik und Äußerung oder Ausdruck und Inhalt. Dieser Beitrag versucht, Rechtsnormen als geschriebene Texte sui generis, d. h. als sprachliche Objekte, ernst zu nehmen und aus einem textlinguistischen Blickwinkel zu betrachten, durchaus im Horizont der Rechtstheorie und deren Erkenntnisinteresse, und die grundlegenden Eigenschaften von Rechtsnormen aus dieser zweifachen Perspektive deutlicher zu klären, etwa in Bezug auf die innere Struktur von Rechtsnormen, auf eine Typologie von Rechtsnormen, die Bedeutung von einzelnen Normen, das Verhältnis von innerer Struktur und äusserer Form oder die Adressatenfrage.
Resumo:
Im folgenden Beitrag werden zeitdiskrete analytische Methoden vorgestellt, mit Hilfe derer Informations- und Materialflüsse in logistischen Systemen analysiert und bewertet werden können. Bestehende zeitdiskrete Verfahren sind jedoch auf die Bearbeitung und Weitergabe in immer gleichen Mengen („One Piece Flow“) beschränkt. Vor allem in Materialflusssystemen kommt es, bedingt durch die Zusammenfassung von Aufträgen, durch Transporte und durch Sortiervorgänge, zur Bildung von Batches. Daher wurden analytische Methoden entwickelt, die es ermöglichen, verschiedene Sammelprozesse, Batchankünfte an Ressourcen, Batchbearbeitung und Sortieren von Batches analytisch abzubilden und Leistungskenngrößen zu deren Bewertung zu bestimmen. Die im Rahmen der Entwicklungsarbeiten entstandene Software-Lösung „Logistic Analyzer“ ermöglicht eine einfache Modellierung und Analyse von praktischen Problemen. Der Beitrag schließt mit einem numerischen Beispiel.
Resumo:
In der neueren Designtheorie wird zur Zeit – auch in Bezug auf die Rhetorik – vermehrt der Aspekt der Wirkungsintention diskutiert; in Abgrenzung zur Analyse von 'Bedeutung' stehen in diesem Modell Produktion und Analyse in einem wirkungsgeleiteten Verhältnis. Ausgehend von der These, dass sich die beabsichtigten Nutzungen eines Gebäudes anhand des in und an ihm wirkenden Designs beschreiben lassen, wird am Beispiel des Berner Hauptbahnhofs ("SBB RailCity Bern") gezeigt, wie sich dessen 'design for shopping' zum 'design for transport' verhält. Die Architektur des Bahnhofs wird in diesem Setting weniger als 'gebauter Raum' verstanden als vielmehr als Träger und Auslöser von Informationsumgebungen, Blick- und Gangführungen, Stimmungsinszenierungen und Reizen – mit dem Ziel, Reisende und potentielle Konsument in ihrer jeweiligen Erlebniskette zu führen.
Resumo:
Simulation ist heute eine unentbehrliche Komponente bei der Planung und Analyse von modernen Materialflusssystemen. Ihr Nutzen hängt in hohem Maße davon ab, wie akkurat sie das physikalische System modellieren kann. In diesem Artikel wird ein Kamera-basiertes System vorgestellt, welches in bestimmten Einsatzfällen bei der Datensammlung behilflich sein kann. Vor- und Nachteile des Systems werden diskutiert und die Einsatzfälle abgegrenzt. Am Ende des Artikels wird das Kamera-basierte Datensammlungssystem an Beispielen verdeutlicht und es wird gezeigt, wie die Ergebnisse in Simulationsmodellen angewendet werden können.
Resumo:
Bei der Simulation von Logistik- und Produktionssystem werden Zufallszahlengeneratoren verwendet, um stochastische Einflüsse zu modellieren. Ein wichtiges Qualitätsmerkmal dieser Generatoren ist die Er-zeugung möglichst unabhängiger Zufallszahlen. Werden jedoch reale Prozesse betrachtet, so sind die Daten im Allgemeinen nicht unabhängig. Diese Arbeit befasst sich mit der Analyse von Praxisdaten bezüglich des Auftretens von Abhängigkeiten. Dazu werden Korrelationsstrukturen gesucht. Außerdem wird gezeigt, dass unabhängige Zufallszahlen in der Regel ungeeignet sind, um stochastische Prozesse mit ausgeprägten Abhängigkeiten zu modellieren.
Resumo:
Die kurzen Technologiezyklen in der IT-Industrie stellen Unternehmen vor das Problem, Mitarbeiter zeit- und themenadäquat weiter zu qualifizieren. Für Bildungsanbieter erwächst damit die Herausforderung, relevante Bildungsthemen möglichst frühzeitig zu identifizieren, ökonomisch zu bewerten und ausgewählte Themen in Form geeigneter Bildungsangebote zur Marktreife zu bringen. Zur Handhabung dieser Problematik wurde an der Hochschule für Telekommunikation Leipzig (HfTL), die sich in Trägerschaft der Deutsche Telekom AG befindet, ein innovatives Analyseinstrument entwickelt. Mit diesem Instrument, dem IT-KompetenzBarometer, werden Stellenanzeigen, die in Jobportalen online publiziert werden, ausgelesen und mithilfe von Text Mining-Methoden untersucht. Auf diese Weise können Informationen gewonnen werden, die differenzierte Auskunft über die qualitativen Kompetenzanforderungen zentraler Berufsbilder des IT-Sektors liefern. Dieser Beitrag stellt Ergebnisse vor, die durch Analyse von mehr als 40.000 Stellenanzeigen für IT-Fachkräfte aus Jobportalen im Zeitraum von Juni-September 2012 gewonnen werden konnten. Diese Ergebnisse liefern eine Informationsgrundlage, um marktrelevante Bildungsthemen zu identifizieren, sodass Bildungsangebote erfolgreich gestaltet und weiterentwickelt werden können.
Resumo:
Internetbasierte Jobportale liefern in Form von Stellenanzeigen eine interessante Datengrundlage, um Qualifikationsanforderungen von nachfragenden Unternehmen an potenzielle Hochschulabsolventen transparent zu machen. Hochschulen können durch Analyse dieser Qualifikationsanforderungen das eigene Aus- und Weiterbildungsangebot arbeitsmarktorientiert weiterentwickeln und sich somit in der Hochschullandschaft profilieren. Hierfür ist es indes erforderlich, die Stellenanzeigen aus Jobportalen zu extrahieren und mithilfe adäquater analytischer Informationssysteme weiter zu verarbeiten. In diesem Beitrag zum CampusSource White Paper Award wird ein Konzept für Job Intelligence-Services vorgestellt, die die systematische Analyse von Qualifikationsanforderungen auf Grundlage von Stellenanzeigen aus Jobportalen gestatten.
Resumo:
Seit Mitte der 1990er Jahre werden „Wetterderivate“ als neues Instrument zum Management wetterbedingter Mengenrisiken diskutiert. Im Gegensatz zu schadensbezogenen Versicherungen erfolgt der Hedge bei Wetterderivaten durch an Wetterindizes (Niederschlagssummen, Temperatursummen etc.) gekoppelte Zahlungen, die an einer festgelegten Referenzwetterstation gemessen werden. Im vorliegenden Beitrag wird ein Risk-Programming Ansatz vorgestellt, mit dem die Zahlungsbereitschaft landwirtschaftlicher Unternehmen für Risikomanagementinstrumente im Allgemeinen und Wetterderivate im Speziellen bestimmt werden kann. Dabei wird sowohl das betriebspezifische Risikoreduzierungspotenzial des betrachteten Instruments als auch die individuelle Risikoakzeptanz des Entscheiders berücksichtigt. Die exemplarische Anwendung des Ansatzes auf ein Brandenburger Landwirtschaftsunternehmen zeigt, dass selbst für einen standardisierten Optionskontrakt, der sich auf die an der Wetterstation Berlin-Tempelhof gemessenen Niederschläge bezieht, eine relevante Zahlungsbereitschaft seitens des Landwirts besteht. Diese Zahlungsbereitschaft ist so hoch, dass der Anbieter sogar einen Aufpreis verlangen könnte, der über dem traditioneller Versicherungen liegt. Angesichts der gegenüber schadensbezogenen Versicherungen deutlich geringeren Transaktionskosten deutet dies auf ein erhebliches Handelspotenzial für Wetterderivate hin.
Resumo:
Seit Mitte der 1990er Jahre werden „Wetterderivate“ als neues Instrument zum Management wetterbedingter Mengenrisiken diskutiert. Im Gegensatz zu schadensbezogenen Versicherungen erfolgt der Hedge bei Wetterderivaten durch an Wetterindizes (Niederschlagssummen, Temperatursummen etc.) gekoppelte Zahlungen, die an einer festgelegten Referenzwetterstation gemessen werden. Im vorliegenden Beitrag wird ein Risk-Programming Ansatz vorgestellt, mit dem die Zahlungsbereitschaft landwirtschaftlicher Unternehmen für Risikomanagementinstrumente im Allgemeinen und Wetterderivate im Speziellen bestimmt werden kann. Dabei wird sowohl das betriebspezifische Risikoreduzierungspotenzial des betrachteten Instruments als auch die individuelle Risikoakzeptanz des Entscheiders berücksichtigt. Die exemplarische Anwendung des Ansatzes auf ein Brandenburger Landwirtschaftsunternehmen zeigt, dass selbst für einen standardisierten Optionskontrakt, der sich auf die an der Wetterstation Berlin-Tempelhof gemessenen Niederschläge bezieht, eine relevante Zahlungsbereitschaft seitens des Landwirts besteht. Diese Zahlungsbereitschaft ist so hoch, dass der Anbieter sogar einen Aufpreis verlangen könnte, der über dem traditioneller Versicherungen liegt. Angesichts der gegenüber schadensbezogenen Versicherungen deutlich geringeren Transaktionskosten deutet dies auf ein erhebliches Handelspotenzial für Wetterderivate hin.
Resumo:
Das Projekt „Analyse und Quantifizierung der Umweltauswirkungen von Fördermitteln in der Intralogistik“ hat sich zum Ziel gesetzt, die Umweltaspekte verschiedener Fördermittel während des gesamten Lebenszyklus zu analysieren, zu quantifizieren und zu bewerten. Dazu werden für die Produktgruppen Flurförderzeuge, Krane & Hebezeuge und Lagertechnik Methoden entwickelt, um die Umweltaspekte, die von diesen Geräten bzw. Systemen zu erwarten sind, einer genaueren Untersuchung zu unterziehen.