993 resultados para transfert de technologie
Resumo:
Domaine en plein développement, le transfert des connaissances (TC) se définit, comme l’ensemble des activités, des mécanismes et des processus favorisant l’utilisation de connaissances pertinentes (tacites et empiriques) par un public cible tel que les intervenants psychosociaux. Cette recherche vise à améliorer l’efficacité des méthodes linéaires écrites de TC en identifiant mieux les besoins d’information des intervenants en protection de la jeunesse. Notons que les méthodes linéaires écrites de TC désignent des outils d’information écrits unidirectionnels tels que les revues, les publications, les sites Internet, etc. Le premier objectif est de déterminer les catégories de besoins exprimés par les intervenants, c’est-à-dire déterminer si les besoins rapportés par des intervenants se regroupent en types ou sortes de besoins. Le deuxième objectif est d’établir l’importance relative de chacune de ces catégories. Enfin, cette étude vise à déterminer si ces besoins diffèrent selon les caractéristiques des intervenants ou de l’environnement. Deux facteurs sont étudiés, l’expérience de l’intervenant et la direction pour laquelle celui-ci travaille (Direction des services milieu à l’enfance ou Direction des services milieu à l’adolescence et ressources). Un devis mixte séquentiel exploratoire a été développé. Lors de la première étape, une analyse thématique a été effectuée à partir des réponses à une question ouverte posée aux membres de trois équipes et à partir d’un document résumant les requêtes effectuées auprès de l’équipe de la bibliothèque du Centre jeunesse de Montréal. Les résultats permettent de répondre au premier objectif de ce mémoire. En effet, les analyses ont permis de créer un arbre thématique comprenant 42 éléments classés hiérarchiquement. Les besoins se regroupent en deux thèmes généraux, soit les besoins qui concernent les « opérations » (c’est-à-dire l’action de l’intervenant) et les besoins concernant les « systèmes » (c’est-à-dire les éléments sur lesquels peuvent porter l’intervention). Cette dernière catégorie se subdivise entre l’usager, ses environnements et le contexte culturel et sociétal. Lors de la deuxième étape, une analyse de la variance (ANOVA) et une analyse de variance multivariée (MANOVA) ont été effectuées à partir des réponses de 82 intervenants à un questionnaire en ligne structuré selon les catégories de besoins d’informations déterminées à l’étape qualitative précédente. Les résultats permettent de répondre au deuxième objectif de ce mémoire et de mesurer le degré de force ou d’importance de chacune des catégories de besoins, identifiées lors de la première étape, selon les intervenants eux-mêmes. Les besoins ont ainsi pu être classés par ordre décroissant d’importance. Il a été possible de définir un groupe de neuf besoins prioritaires (portant sur l’animation, les caractéristiques personnelles des usagers, les caractéristiques des parents et leurs relations avec l’enfant, ainsi que l’intervention interculturelle et les problématiques sociales) et un autre groupe de sept besoins moins élevés (portant sur les autres « opérations » et les services professionnels dont a bénéficié l’usager). L’interprétation de ces résultats indique que les besoins en TC des intervenants se limitent aux informations qui concernent directement leur mandat, leur pratique ou les problématiques rencontrées. Les résultats de cette étape ont également permis de répondre au troisième objectif de ce mémoire. En effet, les résultats indiquent que l’importance ressentie des besoins (sur une échelle de 1 à 7) ne diffère pas significativement selon la direction pour laquelle travaille l’intervenant, mais elle diffère significativement selon l’expérience de ce dernier (moins de 10 ans ou plus de 10 ans). Cette différence est discutée et plusieurs hypothèses explicatives sont envisagées telles que l’accumulation de connaissances liée à l’expérience ou les changements cognitifs liés à l’expertise. Enfin, dans la discussion, les résultats sont mis en contexte parmi les autres types de besoins existants et les autres caractéristiques des connaissances qui doivent être prises en considération. Cela permet de formuler des recommandations pour améliorer la production de documents écrits ainsi que pour poursuivre la recherche dans le domaine de l’évaluation des besoins de TC. Bien que présentant certaines limites méthodologiques, cette recherche ouvre la voie au développement de meilleurs outils d’évaluation des besoins et à l’amélioration des techniques de transfert linéaires écrites.
Resumo:
Pour ceux qui suivent les pistes de la recherche menée depuis plusieurs années autour des enjeux sociaux-politiques de la technologie par Dominique Cardon, ce dernier ouvrage était très attendu et marque l'achèvement temporaire d’une réflexion visant à déchiffrer la logique des algorithmes (en interprétant les rêves) qui s’annonçait dans les travaux précédents. [...]
Resumo:
Née de l’avènement des technologies numériques, l’intermédialité recouvre des phénomènes aussi vieux que les plus vieux médias. Qu’on considère le théâtre comme un média ou qu’on lui reconnaisse des propriétés médiatiques, l’approche intermédiale renouvelle considérablement la compréhension que nous avons de sa nature et de sa conjoncture : ses rapports avec d’autres médias et d’autres pratiques, en particulier ceux et celles nés des technologies électriques puis numériques. La dynamique intermédiale repose autant sur le principe de remédiation tel que l’ont défini Bolter et Grusin que sur celui de reste et résidu—les médias rési-duels d’Acland. Mais un média peut aussi bloquer la logique remédiante quand des agents considèrent que cette remédiation va à l’encontre des intérêts ou de l’identité du média. C’est ce que nous appelons la résistance médiatique dont l’histoire récente du théâtre offre de nombreux exemples. Parmi eux, celui de la très lente pénétration des technologies de reproduction sonore sur les scènes et dans les processus de création. L’article suggère différentes hypothèses qui expliqueraient à la fois les causes, les modalités et les effets de cette résistance au théâtre au cours du Long Siècle (1880 à aujourd’hui), c’est-à-dire depuis la révolution électrique qui a vu, en même temps, naître la lampe à incandescence et le micro. Si la première a envahi toutes les scènes du théâtre occidental en moins de vingt ans, le second a été tenu à l’écart de la représentation pendant trois quarts de siècle.
Resumo:
Les politiques de confidentialité définissent comment les services en ligne collectent, utilisent et partagent les données des utilisateurs. Bien qu’étant le principal moyen pour informer les usagers de l’utilisation de leurs données privées, les politiques de confidentialité sont en général ignorées par ces derniers. Pour cause, les utilisateurs les trouvent trop longues et trop vagues, elles utilisent un vocabulaire souvent difficile et n’ont pas de format standard. Les politiques de confidentialité confrontent également les utilisateurs à un dilemme : celui d’accepter obligatoirement tout le contenu en vue d’utiliser le service ou refuser le contenu sous peine de ne pas y avoir accès. Aucune autre option n’est accordée à l’utilisateur. Les données collectées des utilisateurs permettent aux services en ligne de leur fournir un service, mais aussi de les exploiter à des fins économiques (publicités ciblées, revente, etc). Selon diverses études, permettre aux utilisateurs de bénéficier de cette économie de la vie privée pourrait restaurer leur confiance et faciliter une continuité des échanges sur Internet. Dans ce mémoire, nous proposons un modèle de politique de confidentialité, inspiré du P3P (une recommandation du W3C, World Wide Web Consortium), en élargissant ses fonctionnalités et en réduisant sa complexité. Ce modèle suit un format bien défini permettant aux utilisateurs et aux services en ligne de définir leurs préférences et besoins. Les utilisateurs ont la possibilité de décider de l’usage spécifique et des conditions de partage de chacune de leurs données privées. Une phase de négociation permettra une analyse des besoins du service en ligne et des préférences de l’utilisateur afin d’établir un contrat de confidentialité. La valeur des données personnelles est un aspect important de notre étude. Alors que les compagnies disposent de moyens leur permettant d’évaluer cette valeur, nous appliquons dans ce mémoire, une méthode hiérarchique multicritères. Cette méthode va permettre également à chaque utilisateur de donner une valeur à ses données personnelles en fonction de l’importance qu’il y accorde. Dans ce modèle, nous intégrons également une autorité de régulation en charge de mener les négociations entre utilisateurs et services en ligne, et de générer des recommandations aux usagers en fonction de leur profil et des tendances.
Resumo:
La reconstruction en deux étapes par expanseur et implant est la technique la plus répandue pour la reconstruction mammmaire post mastectomie. La formation d’une capsule périprothétique est une réponse physiologique universelle à tout corps étranger présent dans le corps humain; par contre, la formation d’une capsule pathologique mène souvent à des complications et par conséquent à des résultats esthétiques sous-optimaux. Le microscope électronique à balayage (MEB) est un outil puissant qui permet d’effectuer une évaluation sans pareille de la topographie ultrastructurelle de spécimens. Le premier objectif de cette thèse est de comparer le MEB conventionnel (Hi-Vac) à une technologie plus récente, soit le MEB environnemental (ESEM), afin de déterminer si cette dernière mène à une évaluation supérieure des tissus capsulaires du sein. Le deuxième objectif est d‘appliquer la modalité de MEB supérieure et d’étudier les modifications ultrastructurelles des capsules périprothétiques chez les femmes subissant différents protocoles d’expansion de tissus dans le contexte de reconstruction mammaire prothétique. Deux études prospectives ont été réalisées afin de répondre à nos objectifs de recherche. Dix patientes ont été incluses dans la première, et 48 dans la seconde. La modalité Hi-Vac s’est avérée supérieure pour l’analyse compréhensive de tissus capsulaires mammaires. En employant le mode Hi-Vac dans notre protocole de recherche établi, un relief 3-D plus prononcé à été observé autour des expanseurs BIOCELL® dans le groupe d’approche d’intervention retardée (6 semaines). Des changements significatifs n’ont pas été observés au niveau des capsules SILTEX® dans les groupes d’approche d’intervention précoce (2 semaines) ni retardée.
Resumo:
Une femme à risque d’un accouchement prématuré vit un enjeu de santé très éprouvant et stressant ; elle sera souvent hospitalisée pour recevoir des traitements médicaux visant à prolonger la grossesse et améliorer le pronostic du bébé. Dans ce contexte, une consultation avec un néonatalogiste est demandée. Plusieurs associations professionnelles médicales ont émis des lignes directrices sur cette consultation, insistant sur le besoin d’informer les parents au sujet des complications potentielles de la prématurité pour leur enfant. Ces recommandations s’inspirent du point de vue médical, et très peu d’études ont examiné la perspective, les attentes et les besoins des parents à risque d’un accouchement prématuré. Ce projet de thèse a pour objectif de proposer un modèle de relation médecin-patient informé de la perspective maternelle de la consultation anténatale, pour développer une approche clinique répondant à leurs besoins. Afin d’examiner cette problématique de façon complète, un travail constant de va-et-vient a été effectué entre la recension de données empiriques et une réflexion normative bioéthique féministe. Un projet de recherche empirique a d’abord permis d’explorer les attentes et le vécu de ces femmes. Les participantes espéraient recevoir plus que de l’information sur les complications de la prématurité. Elles souhaitaient que le néonatologiste soit attentif à leur situation particulière et qu’il développe une relation de confiance avec elles, leur permettant d’explorer leurs futurs rôles de mères et les encourageant à formuler leurs propres questions. Le cadre théorique féministe d’autonomie relationnelle a ensuite permis de proposer une approche de soin qui sache répondre aux besoins identifiés par les patientes, tout en adressant des enjeux de pouvoir intrinsèques à la clinique, qui influencent la santé et l’autonomie de ces femmes. Cette approche insiste sur l’importance de la relation de soin en clinique, contrastant avec un modèle encourageant une vision réductrice de l’autonomie, dans laquelle un simple transfert de données scientifiques serait équivalent au respect de la norme médicolégale du consentement éclairé. Ce modèle relationnel propose des actions concrètes et pratiques, encourageant les cliniciens à entrer en relation avec chaque patiente et à considérer l’influence qu’ils exercent sur l’autonomie relationnelle de leurs patientes.
Resumo:
Article
Resumo:
On imagine mal aujourd'hui un « spectacle » théâtral qui ne recourrait pas aux technologies de reproduction du son, c'est-à-dire à des « projections » sonores. Ce qui est aujourd'hui la règle était pourtant l'exception il y a moins d'un demi-siècle. Cette anecdote soulève des questions qui sont au coeur de la réflexion intermédiale : la place de la technologie et sa « naturalisation », le rôle des dispositifs, l'agentivité des « usagers », les rapports entre médias et médiations, l'institutionnalisation des pratiques médiatiques, etc. [...]
Resumo:
La notion de causalité repose sur une grande prétention : rendre intelligibles l’origine, la constitution et le devenir du monde. On lui attribue donc une portée universelle : tout événement a une cause. La majeure partie des débats philosophiques sur la causalité a concerné nos jugements intuitifs selon deux types de conceptions causales, soit la conception probabiliste et la conception processuelle. Chacune d’elles fait face à d’importants obstacles conceptuels dont les principaux sont la préemption, l’inaboutissement (fizzling), la déconnexion et la méconnexion. Or, afin de rendre compte de certains phénomènes physiques et d’éviter le problème classique des régularités fallacieuses – comme quoi, par exemple, la chute du baromètre ne saurait être la cause de la tempête – l’approche processuelle est généralement privilégiée. Max Kistler (1998 ; 2006), entre autres, offre ainsi une théorie causale processuelle basée sur la notion de transfert d’énergie. Cependant, les cas paradigmatiques d’intrication quantique imposent de sérieuses contraintes aux approches processuelles, dont celle de Kistler.
Resumo:
La maladie du greffon contre l’hôte (GvHD) est un effet secondaire sérieux de la transplantation de cellules souches hématopoïétiques (HSCT). Cette maladie entraine une haute mortalité et ses symptômes sont dévastateurs. Les traitements actuels de la GvHD comportent plusieurs produits, tels les corticostéroïdes, mais ces derniers sont immunosuppresseurs et leurs effets secondaires sont aussi très dommageables pour les patients et leur guérison. Les cellules stromales mésenchymateuses (MSC) représentent une alternative ou une addition potentielle de traitement pour la GvHD et ces cellules ne semblent pas posséder les effets secondaires des traitements classiques. Un nombre important d’études cliniques faisant l’objet des MSC ont été enregistrées. Malgré cet engouement, le mécanisme de leur immunomodulation reste encore à élucider. Notre objectif est donc de mieux définir ce mécanisme. Nous avons utilisé un modèle simplifié pour simuler la GvHD in vitro. Ce modèle se base sur la stimulation de lymphocytes CD4+ par des cellules dendritiques allogéniques. La mesure de la prolifération de ces cellules stimulées sert d’indicateur de leur réactivité. Selon les résultats obtenus par la technologie CRISPR de génie génétique, les MSC exerceraient leur immunosuppression sur les cellules T CD4+ principalement par la sécrétion de l’enzyme IDO1. Les MSC seraient également capables d’induire certaines cellules CD4+ en cellules régulatrices, un processus indépendant de la sécrétion d’IDO1. Toutefois, ces cellules ne semblent pas correspondre aux cellules Treg conventionnelles.
Resumo:
Rapport de stage présenté à la Faculté de médecine en vue de l'obtention du grade de Maître ès sciences appliquées (M.Sc.A.) en génie biomédical, option génie clinique.
Resumo:
Die Arbeit stellt einen strukturellen Rahmen zur Einordnung sowohl bisheriger als auch zukünftiger organisationstheoretischer und DV-technologischer Entwicklungen zur Umsetzung eines Computer Integrated Business (CIB) bereit. Dazu analysiert sie bisherige Ansätze und zukünftige Perspektiven eines CIB mittels theoretischer und empirischer Bearbeitungsverfahren. Die Notwendigkeit zur Unternehmensintegration ergibt sich aus dem betriebswirtschaftlichen Konzept der Arbeitsteilung, über die das Phänomen der Economies of Scale erschlossen wird. Die Arbeitsteilung wurde zum Gestaltungskonzept in den Fabriken der industriellen Revolution. Komplexe Arbeitsgänge wurden in spezialisierte Teilaufgaben zerlegt und nach Möglichkeit auf maschinelle bzw. technologische Potentiale übertragen. Die Zielsetzung lag zunächst in der Automatisierung des Materialflusses, während der Informationsfluss noch lange Zeit im Hintergrund stand. Mittlerweile ermöglichen leistungsfähige DV-Systeme auch die Automatisierung des Informationsflusses und damit die DV-gestützte Integration des Unternehmens, die den Kern des CIB-Konzeptes darstellt. Das CIB-Konzept wurde Ende der achtziger Jahre am Fraunhofer-Institut für Arbeitswirtschaft und Organisation als Erweiterung des Computer Integrated Manufacturing (CIM) für Industrieunternehmen von Bullinger geprägt, jedoch in seiner Zielsetzung als Modell zur Totalintegration von Unternehmen danach nicht maßgeblich weiterentwickelt. Vielmehr wurden in der Folgezeit überwiegend Teilintegrationslösungen diskutiert, wie z. B. Konzepte zur Integration der Fertigung oder zur Unterstützung der Teamarbeit. Der Aspekt der umfassenden, unternehmensinternen Integration rückte Mitte der neunziger Jahre durch die an Popularität gewinnende Internet-Technologie an den Rand der wissenschaftlichen Diskussion. Erst nach dem Zusammenbruch der ersten Internet-Euphorie und der anschließenden wirtschaftlichen Rezession gewann das Integrationsthema am Anfang dieses Jahrzehnts mit Hinblick auf dadurch mögliche Kostenvorteile wieder an Bedeutung. Die Diskussion wurde jedoch mit starkem technologischem Fokus geführt (z. B. zum Thema Enterprise Application Integration) und Aspekte der Unternehmensorganisation wurden bestenfalls grob, jedoch nicht im Detail diskutiert. Die vorliegende Arbeit bearbeitet die CIB-Thematik umfassend sowohl aus unternehmensorganisatorischer als auch DV-technologischer Sicht und bewegt sich deshalb interdisziplinär zwischen den Wissenschaftsbereichen der Betriebswirtschaft und der Informatik. Die Untersuchung wird vor dem Hintergrund einer sozio-technologischen Unternehmensorganisation geführt, in der DV-technologische Potentiale neben humanen Potentialen zur Erreichung der Unternehmensziele eingesetzt werden. DV-technologische Potentiale übernehmen darin einerseits Integrationsaufgaben und werden andererseits aber selbst zum Integrationsziel. Die Herausforderung für die Unternehmensführung besteht in der Konfiguration des CIB und im Finden eines Gleichgewichts zwischen Arbeitsteilung und Integration auf der einen sowie humanen und technologischen Potentialen auf der anderen Seite, letztendlich aber auch in der Automatisierung der Integration. Die Automatisierung der Integration stellt mit Hinblick auf die durch Umweltveränderungen bedingte Konfigurationsanpassung ein bisher konzeptionell nur ansatzweise gelöstes Problem dar. Der technologischen Integrationsarchitektur sowie den verwendeten Methoden des Prozessdesigns und der Software-Entwicklung kommt bei der Lösung dieses Problems eine hohe Bedeutung zu. Über sie bestimmt sich die Anpassungsfähigkeit und geschwindigkeit des CIB. Es kann vermutet werden, dass eine Lösung jedoch erst erreicht wird, wenn sich die Unternehmensorganisation vom Konzept der zentralen Koordination abwendet und stattdessen an dezentralen Koordinationsmechanismen unter Verwendung ultrastabiler Anpassungsprogramme orientiert, wie sie z. B. in der Biologie bei Insektenkulturen untersucht wurden.
Resumo:
The rapid growth of the optical communication branches and the enormous demand for more bandwidth require novel networks such as dense wavelength division multiplexing (DWDM). These networks enable higher bitrate transmission using the existing optical fibers. Micromechanically tunable optical microcavity devices like VCSELs, Fabry-Pérot filters and photodetectors are core components of these novel DWDM systems. Several air-gap based tunable devices were successfully implemented in the last years. Even though these concepts are very promising, two main disadvantages are still remaining. On the one hand, the high fabrication and integration cost and on the other hand the undesired adverse buckling of the suspended membranes. This thesis addresses these two problems and consists of two main parts: • PECVD dielectric material investigation and stress control resulting in membranes shape engineering. • Implementation and characterization of novel tunable optical devices with tailored shapes of the suspended membranes. For this purposes, low-cost PECVD technology is investigated and developed in detail. The macro- and microstress of silicon nitride and silicon dioxide are controlled over a wide range. Furthermore, the effect of stress on the optical and mechanical properties of the suspended membranes and on the microcavities is evaluated. Various membrane shapes (concave, convex and planar) with several radii of curvature are fabricated. Using this resonator shape engineering, microcavity devices such as non tunable and tunable Fabry-Pérot filters, VCSELs and PIN photodetectors are succesfully implemented. The fabricated Fabry-Pérot filters cover a spectral range of over 200nm and show resonance linewidths down to 1.5nm. By varying the stress distribution across the vertical direction within a DBR, the shape and the radius of curvature of the top membrane are explicitely tailored. By adjusting the incoming light beam waist to the curvature, the fundamental resonant mode is supported and the higher order ones are suppressed. For instance, a tunable VCSEL with 26 nm tuning range, 400µW maximal output power, 47nm free spectral range and over 57dB side mode suppresion ratio (SMSR) is demonstrated. Other technologies, such as introducing light emitting organic materials in microcavities are also investigated.
Resumo:
Das Management von Kundenbeziehungen hat sich in der klassischen Ökonomie unter dem Begriff »Customer Relationship Management« (kurz: CRM) etabliert und sich in den letzten Jahren als erfolgreicher Ansatz erwiesen. In der grundlegenden Zielsetzung, wertvolle, d.h. profitable und kreditwürdige Kunden an ein Unternehmen zu binden, kommen Business-Intelligence Technologien zur Generierung von Kundenwissen aus kundenbezogenen Daten zum Einsatz. Als technologische Plattform der Kommunikation und Interaktion gewähren Business Communities einen direkten Einblick in die Gedanken und Präferenzen der Kunden. Von Business-Communitybasiertem Wissen der Kunden und über Kunden können individuelle Kundenbedürfnisse, Verhaltensweisen und damit auch wertvolle (potenzielle, profilgleiche) Kunden abgeleitet werden, was eine differenziertere und selektivere Behandlung der Kunden möglich macht. Business Communities bieten ein umfassendes Datenpotenzial, welches jedoch bis dato für das CRM im Firmenkundengeschäft respektive die Profilbildung noch nicht genutzt wird. Synergiepotenziale von der Datenquelle "Business Community" und der Technologie "Business Intelligence" werden bislang vernachlässigt. An dieser Stelle setzt die Arbeit an. Das Ziel ist die sinnvolle Zusammenführung beider Ansätze zu einem erweiterten Ansatz für das Management der irmenkundenbeziehung. Dazu wird ein BIgestütztes CRM-Konzept für die Generierung, Analyse und Optimierung von Kundenwissen erarbeitet, welches speziell durch den Einsatz einer B2B-Community gewonnen und für eine Profilbildung genutzt wird. Es soll durch die Anbindung von Fremddatenbanken Optimierung finden: In den Prozess der Wissensgenerierung fließen zur Datenqualifizierung und -quantifizierung externe (Kunden-) Daten ein, die von Fremddatenbanken (wie z.B. Information Provider, Wirtschaftsauskunftsdienste) bereitgestellt werden. Der Kern dieser Zielsetzung liegt in der umfassenden Generierung und stetigen Optimierung von Wissen, das den Aufbau einer langfristigen, individuellen und wertvollen Kundenbeziehung unterstützen soll.
Resumo:
Nach 35 Jahren Entwicklungszeit wurde im Jahr 2004 in Shanghai die erste kommerzielle Anwendung des innovativen Magnetbahnsystems Transrapid in Betrieb genommen; in Deutschland konnte bislang keine Transrapid-Strecke realisiert werden, obwohl dieses System entsprechend den Ergebnissen einer vom damaligen Bundesverkehrsminister beauftragten Studie aus dem Jahr 1972 für den Einsatz in Deutschland entwickelt wurde. Beim Transrapid handelt es sich um eine echte Produkt-Innovation im Bahnverkehr und nicht um eine Weiterentwicklung oder Optimierung wie beim ICE, und ist somit als innovativer Verkehrsträger der Zukunft in die langfristige Entwicklung der Verkehrssysteme einzufügen. Die modernen HGV Bahnsysteme (Shinkansen/TGV/ICE) hingegen sind, ähnlich der Clipper in der Phase der Segelschifffahrt im Übergang zum Dampfschiff, letzte Abwehrentwicklungen eines am Zenit angekommenen Schienen-Verkehrssystems. Die Einführung von Innovationen in einen geschlossenen Markt stellt sich als schwierig dar, da sie zu einem Bruch innerhalb eines etablierten Systems führen. Somit wird in der vorliegenden Arbeit im ersten Teil der Themenkomplex Innovation und die Einordnung der Magnet-Schwebe-Technologie in diese langfristig strukturierten Abläufe untersucht und dargestellt. Das Transrapid-Projekt ist demzufolge in eine zeitstrukturelle Zyklizität einzuordnen, die dafür spricht, die Realisierung des Gesamtprojektes in eine Zeitspanne von 20 bis 30 Jahre zu verlagern. Im zweiten Teil wird auf der Basis einer regionalstrukturellen Analyse der Bundesrepublik Deutschland ein mögliches Transrapidnetz entworfen und die in diesem Netz möglichen Reisezeiten simuliert. Weiterhin werden die Veränderungen in den Erreichbarkeiten der einzelnen Regionen aufgrund ihrer Erschließung durch das Transrapidnetz simuliert und grafisch dargestellt. Die vorliegende Analyse der zeitlichen Feinstruktur eines perspektiven Transrapidnetzes ist ein modellhafter Orientierungsrahmen für die Objektivierung von Zeitvorteilen einer abgestimmten Infrastruktur im Vergleich zu real möglichen Reisezeiten innerhalb Deutschlands mit den gegebenen Verkehrsträgern Schiene, Straße, Luft. So würde der Einsatz des Transrapid auf einem entsprechenden eigenständigen Netz die dezentrale Konzentration von Agglomerationen in Deutschland fördern und im Durchschnitt annähernd 1 h kürzere Reisezeiten als mit den aktuellen Verkehrsträgern ermöglichen. Zusätzlich wird noch ein Ausblick über mögliche Realisierungsschritte eines Gesamtnetzes gegeben und die aufgetretenen Schwierigkeiten bei der Einführung des innovativen Verkehrssystems Transrapid dargestellt.