882 resultados para Dependency parsing
Resumo:
Dans cette dissertation, nous présentons plusieurs techniques d’apprentissage d’espaces sémantiques pour plusieurs domaines, par exemple des mots et des images, mais aussi à l’intersection de différents domaines. Un espace de représentation est appelé sémantique si des entités jugées similaires par un être humain, ont leur similarité préservée dans cet espace. La première publication présente un enchaînement de méthodes d’apprentissage incluant plusieurs techniques d’apprentissage non supervisé qui nous a permis de remporter la compétition “Unsupervised and Transfer Learning Challenge” en 2011. Le deuxième article présente une manière d’extraire de l’information à partir d’un contexte structuré (177 détecteurs d’objets à différentes positions et échelles). On montrera que l’utilisation de la structure des données combinée à un apprentissage non supervisé permet de réduire la dimensionnalité de 97% tout en améliorant les performances de reconnaissance de scènes de +5% à +11% selon l’ensemble de données. Dans le troisième travail, on s’intéresse à la structure apprise par les réseaux de neurones profonds utilisés dans les deux précédentes publications. Plusieurs hypothèses sont présentées et testées expérimentalement montrant que l’espace appris a de meilleures propriétés de mixage (facilitant l’exploration de différentes classes durant le processus d’échantillonnage). Pour la quatrième publication, on s’intéresse à résoudre un problème d’analyse syntaxique et sémantique avec des réseaux de neurones récurrents appris sur des fenêtres de contexte de mots. Dans notre cinquième travail, nous proposons une façon d’effectuer de la recherche d’image ”augmentée” en apprenant un espace sémantique joint où une recherche d’image contenant un objet retournerait aussi des images des parties de l’objet, par exemple une recherche retournant des images de ”voiture” retournerait aussi des images de ”pare-brises”, ”coffres”, ”roues” en plus des images initiales.
Resumo:
Le domaine biomédical est probablement le domaine où il y a les ressources les plus riches. Dans ces ressources, on regroupe les différentes expressions exprimant un concept, et définit des relations entre les concepts. Ces ressources sont construites pour faciliter l’accès aux informations dans le domaine. On pense généralement que ces ressources sont utiles pour la recherche d’information biomédicale. Or, les résultats obtenus jusqu’à présent sont mitigés : dans certaines études, l’utilisation des concepts a pu augmenter la performance de recherche, mais dans d’autres études, on a plutôt observé des baisses de performance. Cependant, ces résultats restent difficilement comparables étant donné qu’ils ont été obtenus sur des collections différentes. Il reste encore une question ouverte si et comment ces ressources peuvent aider à améliorer la recherche d’information biomédicale. Dans ce mémoire, nous comparons les différentes approches basées sur des concepts dans un même cadre, notamment l’approche utilisant les identificateurs de concept comme unité de représentation, et l’approche utilisant des expressions synonymes pour étendre la requête initiale. En comparaison avec l’approche traditionnelle de "sac de mots", nos résultats d’expérimentation montrent que la première approche dégrade toujours la performance, mais la seconde approche peut améliorer la performance. En particulier, en appariant les expressions de concepts comme des syntagmes stricts ou flexibles, certaines méthodes peuvent apporter des améliorations significatives non seulement par rapport à la méthode de "sac de mots" de base, mais aussi par rapport à la méthode de Champ Aléatoire Markov (Markov Random Field) qui est une méthode de l’état de l’art dans le domaine. Ces résultats montrent que quand les concepts sont utilisés de façon appropriée, ils peuvent grandement contribuer à améliorer la performance de recherche d’information biomédicale. Nous avons participé au laboratoire d’évaluation ShARe/CLEF 2014 eHealth. Notre résultat était le meilleur parmi tous les systèmes participants.
Resumo:
L’objectif général de la thèse était d’élargir les connaissances scientifiques sur le sommeil des enfants. La thèse est composée de quatre articles empiriques. Le premier visait à estimer la validité de l’actigraphie comme mesure de sommeil chez les enfants d’âge préscolaire en la comparant à la polysomnographie, et à examiner si son emplacement influence sa validité. 12 enfants âgés de 2 à 5 ans ont porté simultanément un actigraphe à la cheville et un au poignet pendant une nuit d’enregistrement polysomnographique. Les résultats démontrent que l’actigraphie permet une bonne détection du sommeil, mais qu’elle détecte moins bien l’éveil. Cet article suggère également que les jeunes enfants nécessitent un algorithme adapté à leur niveau d’activité nocturne. Enfin, la validité de l'actigraphie semble similaire pour le poignet et la cheville. Le deuxième article visait à comparer trois mesures de sommeil souvent utilisées avec de jeunes enfants, soit les agendas de sommeil, l’échelle des problèmes de sommeil du Child Behavior Checklist (CBCL) et l’actigraphie, afin de déterminer leurs similarités et leurs divergences quant aux variables de sommeil qui en sont dérivées. 80 familles ont participé à cette étude lorsque les enfants étaient âgés de 2 ans. Les enfants ont porté un actigraphe durant 72 heures consécutives et les mères ont complété un agenda de sommeil durant cette même période. Les deux parents ont aussi rempli le CBCL. Les résultats démontrent que ces mesures de sommeil évaluent des aspects différents du sommeil de l’enfant, et suggèrent une concordance particulièrement faible entre les mesures subjectives et objectives. Le troisième article visait à évaluer l’apport unique de la sécurité d’attachement dans la prédiction du sommeil de l’enfant. 62 dyades mère-enfant ont été rencontrées à deux reprises. La sécurité d’attachement et la dépendance ont été évaluées par observation à l’aide du Q-Sort d’attachement lorsque l’enfant avait 15 mois. À l’âge de 2 ans, les enfants ont porté un actigraphe durant 3 jours consécutifs. Les résultats indiquent que la sécurité d'attachement a une contribution unique à la prédiction de la durée du sommeil nocturne et de l'efficacité du sommeil nocturne. Ainsi, cette étude suggère que plus les enfants ont un attachement sécurisant envers leur mère, plus grandes sont la durée et la qualité de leur sommeil quelques mois plus tard. Le quatrième article visait à examiner la relation entre le sommeil et les comportements extériorisés. 64 familles ont participé à cette étude. À l’âge de 2 ans, les enfants ont porté un actigraphe durant 72 heures consécutives et les parents ont complété le CBCL. Lorsque les enfants étaient âgés de 4 ans, les parents ainsi que l’éducateur(trice) de garderie ont rempli le CBCL. Les résultats démontrent que le sommeil de l’enfant est associé aux comportements extériorisés concomitants et à l’augmentation de ceux-ci à travers le temps. Par ailleurs, les relations entre la qualité de sommeil et les comportements extériorisés étaient modérées par le sexe de l’enfant, c’est-à-dire significatives seulement chez les garçons. Les résultats des quatre articles sont finalement intégrés dans la discussion générale.
Resumo:
Il est connu qu’une équation différentielle linéaire, x^(k+1)Y' = A(x)Y, au voisinage d’un point singulier irrégulier non-résonant est uniquement déterminée (à isomorphisme analytique près) par : (1) sa forme normale formelle, (2) sa collection de matrices de Stokes. La définition des matrices de Stokes fait appel à un ordre sur les parties réelles des valeurs propres du système, ordre qui peut être perturbé par une rotation en x. Dans ce mémoire, nous avons établi le caractère intrinsèque de cette relation : nous avons donc établi comment la nouvelle collection de matrices de Stokes obtenue après une rotation en x qui change l’ordre des parties réelles des valeurs propres dépend de la collection initiale. Pour ce faire, nous donnons un chapitre de préliminaires généraux sur la forme normale des équations différentielles ordinaires puis un chapitre sur le phénomène de Stokes pour les équations différentielles linéaires. Le troisième chapitre contient nos résultats.
Resumo:
L’« appropriation » par les pays en développement (PED) de leurs processus de développement forme la clef de voûte de la nouvelle approche de l’aide et de la coopération au développement telle que promue par la Déclaration de Paris (2005). Si ce passage vers l’« appropriation » vise à installer les PED « dans le siège du conducteur », il reste tout de même inscrit dans une relation d’aide. Or, la Déclaration de Paris pose cette « appropriation » comme le résultat d’un consensus et comme un principe devant être mis en oeuvre sur un terrain vierge via une série de mesures techniques préoccupées par une efficacité ou plutôt une efficience de l’aide. En s’intéressant à la perspective d’acteurs sociaux nationaux quant à cette question de l’ « appropriation » à partir d’une étude de cas c’est-à-dire d’un contexte précis, ici celui du Rwanda, cette thèse vise à démontrer que l’agenda et les politiques en matière de développement, dont la question de l’ « appropriation », ne peuvent être saisis dans un vide contextuel. En effet, ce que met en évidence la perspective des acteurs sociaux nationaux au Rwanda quant à cette question de l’ « appropriation », c’est leur réinscription de cette question dans le contexte du Rwanda post-génocide et dépendant de l’aide, et leur appréhension de celle-ci à partir de ce contexte. Ce contexte informe le récit de ces acteurs qui met en sens et en forme cette « appropriation ». Leur saisie de l’ « appropriation » se bâtit autour d’un double impératif dans le contexte du Rwanda post-génocide, un impératif d’une part de reconstruction socio-économique et d’autre part d’édification d’une nation, et ce, à la lumière des tensions ‘ethniques’ qui traversent et structurent historiquement l’espace politique et social rwandais et qui ont donné lieu au génocide de 1994.
Resumo:
Les moteurs de recherche font partie de notre vie quotidienne. Actuellement, plus d’un tiers de la population mondiale utilise l’Internet. Les moteurs de recherche leur permettent de trouver rapidement les informations ou les produits qu'ils veulent. La recherche d'information (IR) est le fondement de moteurs de recherche modernes. Les approches traditionnelles de recherche d'information supposent que les termes d'indexation sont indépendants. Pourtant, les termes qui apparaissent dans le même contexte sont souvent dépendants. L’absence de la prise en compte de ces dépendances est une des causes de l’introduction de bruit dans le résultat (résultat non pertinents). Certaines études ont proposé d’intégrer certains types de dépendance, tels que la proximité, la cooccurrence, la contiguïté et de la dépendance grammaticale. Dans la plupart des cas, les modèles de dépendance sont construits séparément et ensuite combinés avec le modèle traditionnel de mots avec une importance constante. Par conséquent, ils ne peuvent pas capturer correctement la dépendance variable et la force de dépendance. Par exemple, la dépendance entre les mots adjacents "Black Friday" est plus importante que celle entre les mots "road constructions". Dans cette thèse, nous étudions différentes approches pour capturer les relations des termes et de leurs forces de dépendance. Nous avons proposé des méthodes suivantes: ─ Nous réexaminons l'approche de combinaison en utilisant différentes unités d'indexation pour la RI monolingue en chinois et la RI translinguistique entre anglais et chinois. En plus d’utiliser des mots, nous étudions la possibilité d'utiliser bi-gramme et uni-gramme comme unité de traduction pour le chinois. Plusieurs modèles de traduction sont construits pour traduire des mots anglais en uni-grammes, bi-grammes et mots chinois avec un corpus parallèle. Une requête en anglais est ensuite traduite de plusieurs façons, et un score classement est produit avec chaque traduction. Le score final de classement combine tous ces types de traduction. Nous considérons la dépendance entre les termes en utilisant la théorie d’évidence de Dempster-Shafer. Une occurrence d'un fragment de texte (de plusieurs mots) dans un document est considérée comme représentant l'ensemble de tous les termes constituants. La probabilité est assignée à un tel ensemble de termes plutôt qu’a chaque terme individuel. Au moment d’évaluation de requête, cette probabilité est redistribuée aux termes de la requête si ces derniers sont différents. Cette approche nous permet d'intégrer les relations de dépendance entre les termes. Nous proposons un modèle discriminant pour intégrer les différentes types de dépendance selon leur force et leur utilité pour la RI. Notamment, nous considérons la dépendance de contiguïté et de cooccurrence à de différentes distances, c’est-à-dire les bi-grammes et les paires de termes dans une fenêtre de 2, 4, 8 et 16 mots. Le poids d’un bi-gramme ou d’une paire de termes dépendants est déterminé selon un ensemble des caractères, en utilisant la régression SVM. Toutes les méthodes proposées sont évaluées sur plusieurs collections en anglais et/ou chinois, et les résultats expérimentaux montrent que ces méthodes produisent des améliorations substantielles sur l'état de l'art.
Resumo:
Natural systems are inherently non linear. Recurrent behaviours are typical of natural systems. Recurrence is a fundamental property of non linear dynamical systems which can be exploited to characterize the system behaviour effectively. Cross recurrence based analysis of sensor signals from non linear dynamical system is presented in this thesis. The mutual dependency among relatively independent components of a system is referred as coupling. The analysis is done for a mechanically coupled system specifically designed for conducting experiment. Further, cross recurrence method is extended to the actual machining process in a lathe to characterize the chatter during turning. The result is verified by permutation entropy method. Conventional linear methods or models are incapable of capturing the critical and strange behaviours associated with the dynamical process. Hence any effective feature extraction methodologies should invariably gather information thorough nonlinear time series analysis. The sensor signals from the dynamical system normally contain noise and non stationarity. In an effort to get over these two issues to the maximum possible extent, this work adopts the cross recurrence quantification analysis (CRQA) methodology since it is found to be robust against noise and stationarity in the signals. The study reveals that the CRQA is capable of characterizing even weak coupling among system signals. It also divulges the dependence of certain CRQA variables like percent determinism, percent recurrence and entropy to chatter unambiguously. The surrogate data test shows that the results obtained by CRQA are the true properties of the temporal evolution of the dynamics and contain a degree of deterministic structure. The results are verified using permutation entropy (PE) to detect the onset of chatter from the time series. The present study ascertains that this CRP based methodology is capable of recognizing the transition from regular cutting to the chatter cutting irrespective of the machining parameters or work piece material. The results establish this methodology to be feasible for detection of chatter in metal cutting operation in a lathe.
Resumo:
This thesis summarizes the results on the studies on a syntax based approach for translation between Malayalam, one of Dravidian languages and English and also on the development of the major modules in building a prototype machine translation system from Malayalam to English. The development of the system is a pioneering effort in Malayalam language unattempted by previous researchers. The computational models chosen for the system is first of its kind for Malayalam language. An in depth study has been carried out in the design of the computational models and data structures needed for different modules: morphological analyzer , a parser, a syntactic structure transfer module and target language sentence generator required for the prototype system. The generation of list of part of speech tags, chunk tags and the hierarchical dependencies among the chunks required for the translation process also has been done. In the development process, the major goals are: (a) accuracy of translation (b) speed and (c) space. Accuracy-wise, smart tools for handling transfer grammar and translation standards including equivalent words, expressions, phrases and styles in the target language are to be developed. The grammar should be optimized with a view to obtaining a single correct parse and hence a single translated output. Speed-wise, innovative use of corpus analysis, efficient parsing algorithm, design of efficient Data Structure and run-time frequency-based rearrangement of the grammar which substantially reduces the parsing and generation time are required. The space requirement also has to be minimised
Resumo:
Zur Senkung von Kosten werden in vielen Unternehmen Dienstleistungen, die nicht zur Kernkompetenz gehören, an externe Dienstleister ausgelagert. Dieser Prozess wird auch als Outsourcing bezeichnet. Die dadurch entstehenden Abhängigkeiten zu den externen Dienstleistern werden mit Hilfe von Service Level Agreements (SLAs) vertraglich geregelt. Die Aufgabe des Service Level Managements (SLM) ist es, die Einhaltung der vertraglich fixierten Dienstgüteparameter zu überwachen bzw. sicherzustellen. Für eine automatische Bearbeitung ist daher eine formale Spezifikation von SLAs notwendig. Da der Markt eine Vielzahl von unterschiedlichen SLM-Werkzeugen hervorgebracht hat, entstehen in der Praxis Probleme durch proprietäre SLA-Formate und fehlende Spezifikationsmethoden. Daraus resultiert eine Werkzeugabhängigkeit und eine limitierte Wiederverwendbarkeit bereits spezifizierter SLAs. In der vorliegenden Arbeit wird ein Ansatz für ein plattformunabhängiges Service Level Management entwickelt. Ziel ist eine Vereinheitlichung der Modellierung, so dass unterschiedliche Managementansätze integriert und eine Trennung zwischen Problem- und Technologiedomäne erreicht wird. Zudem wird durch die Plattformunabhängigkeit eine hohe zeitliche Stabilität erstellter Modelle erreicht. Weiteres Ziel der Arbeit ist, die Wiederverwendbarkeit modellierter SLAs zu gewährleisten und eine prozessorientierte Modellierungsmethodik bereitzustellen. Eine automatisierte Etablierung modellierter SLAs ist für eine praktische Nutzung von entscheidender Relevanz. Zur Erreichung dieser Ziele werden die Prinzipien der Model Driven Architecture (MDA) auf die Problemdomäne des Service Level Managements angewandt. Zentrale Idee der Arbeit ist die Definition von SLA-Mustern, die konfigurationsunabhängige Abstraktionen von Service Level Agreements darstellen. Diese SLA-Muster entsprechen dem Plattformunabhängigen Modell (PIM) der MDA. Durch eine geeignete Modelltransformation wird aus einem SLA-Muster eine SLA-Instanz generiert, die alle notwendigen Konfigurationsinformationen beinhaltet und bereits im Format der Zielplattform vorliegt. Eine SLA-Instanz entspricht damit dem Plattformspezifischen Modell (PSM) der MDA. Die Etablierung der SLA-Instanzen und die daraus resultierende Konfiguration des Managementsystems entspricht dem Plattformspezifischen Code (PSC) der MDA. Nach diesem Schritt ist das Managementsystem in der Lage, die im SLA vereinbarten Dienstgüteparameter eigenständig zu überwachen. Im Rahmen der Arbeit wurde eine UML-Erweiterung definiert, die eine Modellierung von SLA-Mustern mit Hilfe eines UML-Werkzeugs ermöglicht. Hierbei kann die Modellierung rein graphisch als auch unter Einbeziehung der Object Constraint Language (OCL) erfolgen. Für die praktische Realisierung des Ansatzes wurde eine Managementarchitektur entwickelt, die im Rahmen eines Prototypen realisiert wurde. Der Gesamtansatz wurde anhand einer Fallstudie evaluiert.
Resumo:
Die an der Glutathionsynthese im Chloroplasten von Spinatblättern beteiligten Enzyme sind auf eine lichtabhängige Regulation durch Thioredoxine (Trx) und Glutaredoxine (Grx) hin untersucht worden. Dazu wurde eine neue, vereinfachte Methode zur Aktivitätsbestimmung für die gamma-Glutamylcystein- und Glutathionsynthetase auf der Kapillarelektrophorese entwickelt. Untersuchungen mit den homologen Thioredoxinen Trx m und Trx f aus Spinatchloroplasten und mit dem E.coli Trx und E.coli Grx 1 zeigten, dass bei beiden Enzymen keine Redoxmodulation durch diese Proteine stattfindet. Weitere Untersuchungen mit der Glutathionsynthetase zeigten keinen Einfluss von Dithiothreit, Sulfit-Ionen und Ascorbat auf die Enzymaktivität. Nur H2O2, in unphysiologischen Konzentrationen, bewirkte eine leichte Abnahme der Ausgangsaktivität. Im Fall der gamma-Glutamylcysteinsynthetase konnten verschiedene Einflüsse ausgemacht werden. So war mit Dithiothreit und H2O2 bei niedrigen Konzentrationen eine Stimulation und bei höheren Konzentration eine Inhibition der Enzymaktivität festzustellen: Sulfit-Ionen zeigten eine starke Stimulierung der gamma-Glutamylcysteinsynthetase über einen weiten Konzentrationsbereich, wobei eine starke pH-Wert-Abhängigkeit der Stimulation zu beobachten war. Ascorbat zeigte, wie bei der Glutathionsynthetase, keinen Einfluss auf die Enzymaktivität der gamma-Glutamyl-cysteinsynthetase. In einem zweiten Teil der Arbeit über die Glutaredoxine des Spinats konnte ein 12,4 kDa Protein mit Thioltransferase-Aktivität, das bisher als cytosolisches Glutaredoxin beschrieben wurde, aufgereinigt und mittels N-terminaler Sequenzierung eindeutig als ein Glutaredoxin identifiziert werden. Überdies konnte ein noch nicht beschriebenes 12,8 kDa Protein mit Thioltransferase-Aktivität aus Spinatchloroplasten aufgereinigt werden. Durch Peptid-Sequenzierung gelang es dieses Protein auch als ein Glutaredoxin zu identifizieren. Beide pflanzlichen Glutaredoxine zeigten keine Modulation der Aktivitäten der chloroplastidären Fructosebisphosphatase (FbPase) und NADPH-Malatdehydrogenase (NADPH-MDH). Auch war mit beiden Glutaredoxinen keine Dehydroascorbatreduktase-Aktivität, oder eine Stimulation der Ribonucleotidreduktase aus Lactobacillus leichmannii festzustellen.
Resumo:
In der vorliegenden Arbeit werden die Auswirkungen von Umweltveränderungen in einem N-gesättigten Buchenwaldökosystem über Basalt (Braunerde) untersucht. Unter veränderten Umweltbedingungen sind hier vor allem Bestandesdachauflösung, immissions- oder waldbaulich bedingt, und Klimaveränderung zu verstehen, die eine Erwärmung des Oberbodens zur Folge haben. Die Änderungen der Umweltbedingungen werden in diesem Versuchsansatz durch einen waldbaulichen Eingriff simuliert, durch den eine Bestandeslücke entsteht, die in einer Erwärmung des Bodens resultieren und damit den Wasser- und Elementhaushalt insgesamt beeinflussen. Es wird deutlich, dass die in der vorliegenden Arbeit untersuchten Flächen als N-gesättigt bezeichnet werden können, da die N-Verluste aus dem System die Größe der Einträge überschreiten. In der Folge ist es zu einer Entkopplung des Stoffhaushalts und damit zu erhöhter N-Mobilisierung gekommen. Diese konnte vor allem im hydrologischen Jahr 1996 dokumentiert werden; der Überschuss-N-Output liegt auf der Auflichtungsfläche bei bis zu 50 kg N/(ha*a)! Die beobachteten hohen N-Austräge erfolgten trotz eines ebenfalls beobachteten Anwachsens des mikrobiellen Stickstoff-Pools und des Aufwachsens einer krautigen und strauchigen Vegetation auf der Auflichtungsfläche. Im Jahresgang konnten auf der Auflichtungsfläche in 0 - 30 cm Bodentiefe maximale Änderungen im Nmic-Vorrat von 130 kg N/(ha*a) beobachtet werden. Das im Frühjahr beginnende quantitative Anwachsen des mikrobiellen Stickstoff-Pools mit dem Jahresgang zeigt vor allem dessen Temperaturabhängigkeit auf. Die am Ende der Vegetationsperiode deutlich ansteigenden Austragsraten zeigen jedoch an, dass der freigesetzte Stickstoff auch von den Mikroorganismen nicht dauerhaft im System gehalten werden kann, da mit fallender Temperatur auch die Mikroorganismen absterben und der in ihrer Biomasse gespeicherte Stickstoff freigesetzt wird. Aufwachsende Vegetation auf der Auflichtungsfläche konnte einen Großteil des Netto-Stickstoff-Jahreseintrages aufnehmen. Da die "Netto-Jahres-Mineralisation" 1996 leicht über der Wurzelaufnahme liegt, verbleibt ein Rest, der nicht von der aufwachsenden krautigen Vegetation der Auflichtungsfläche aufgenommen werden kann. Ergebnis ist damit, dass die auf Lochhieben aufwachsende krautige und strauchige Vegetation eine temperaturbedingte Stickstoffmobilisierung nur teilweise kompensieren kann. Allein aufwachsende verholzende Vegetation kann Stickstoff langfristig im System binden.
Resumo:
Das Handling digitaler Informationen und ihre Integration in bestehende Bibliotheksdienstleistungen sind heutzutage eine der wichtigsten Aufgaben von Bibliotheken. Am Beispiel der Bibliothek der Gesamthochschule Kassel wird gezeigt, wie die entwickelten Lösungen von den organisatorischen, funktionalen und baulichen Gegebenheiten beeinflußt worden sind. Beschrieben werden zudem die technische Plattformen sowie das Zusammenwirken unterschiedlicher Dienste bis hin zum Aufbau eines eigenen Verlages für elektronische Publikationen.
Resumo:
Die Dissertation beschäftigt sich mit der komparativen Analyse der deutschen und französischen Innovationssysteme. Ausgehend von der evolutorisch-orientierten Innovationsforschung und der Institutionenökonomik werden die Akteure und deren Interaktionen in den jeweiligen institutionellen Rahmenbedingungen in beiden Innovationssystemen untersucht. Die Arbeit beleuchtet dieses Thema aus verschiedenen Perspektiven und zeichnet sich durch ein breites Methodenspektrum aus. Die Grenzen und Defizite des linearen Innovationsmodells werden aufgezeigt und für ein systemisches, interaktives Verständnis der Entstehung von Innovationen plädiert. Dieses interaktive Modell wird auf die Ebene des nationalen Innovationssystems transponiert, und damit wird der konzeptionelle Rahmen für die weitere Analyse geschaffen. Für die Gestaltung der Innovationssysteme wird die Bedeutung der institutionellen Konfigurationen betont, die von den Innovationsakteuren gewählt werden. Hierfür werden jeweils die Fallbeispiele Frankreich und Deutschland ausführlich untersucht und nach der gleichen Systematik empirisch betrachtet und schließlich werden beide Innovationssysteme systematisch verglichen. Dabei wird auch auf die Pfadabhängigkeiten in beiden Innovationssystemen eingegangen, sowie auf die Notwendigkeit der Berücksichtigung kultureller und historischer Eigenarten der verglichenen Länder. Expertengespräche mit deutschen und französischen Experten, ergänzen die zuvor erzielten Ergebnisse der Arbeit: Durch eine interdisziplinäre Herangehensweise werden politikwissenschaftliche und ökonomische Ansätze miteinander verknüpft, sowie kulturelle Eigenarten berücksichtigt, die Innovationssysteme beeinflussen können. In seinen Schlussfolgerungen kommt der Verfasser zu dem Ergebnis, dass „lernende Politik“ über institutionellen Wandel und Wissenstransfer ein wichtiger Faktor bei der Gestaltung hybrider Institutionen und der staatlichen Innovationspolitik von der „Missions- zur Diffusionsorientierung“ hin ist. Die Betrachtung zweier nationaler Systeme sowie deren Einbindung in internationale Kontexte führt zum Ergebnis, dass die Steuerung der Schnittstelle „Forschung-Industrie“, insbesondere die Rolle der Universitäten und Forschungseinrichtungen in heterogenen Kooperationspartnerschaften, über neue forschungs-und technologiepolitische Instrumente über transnationales Lernen von Institutionen geschehen kann. Dieser institutionelle Wandel wird als Lernprozess betrachtet, der im Übergang zur wissensbasierten Wirtschaft als “comparative institutional advantage“ ein wichtiger Faktor bei der Gestaltung der Institutionen und der staatlichen Technologiepolitik ist.
Resumo:
Die Arbeit behandelt den Vorschlag für eine EU-Verordnung KOM/2000/7/final, 2000/0212(COD) des europäischen Parlaments und des Rates von der Kommission der Europäischen Gemeinschaften als Grundlage einer Marktöffnungsverordnung und welche Veränderungen sich dadurch in Deutschland einstellen werden. Ausschreibungen von Verkehrsleistungen werden zunehmen. Die Ausschreibungsarten werden sich in ländlichen Regionen von denen in Verkehrszentren unterscheiden. In der Region werden sich Bedarfslösungen stärker durchsetzen. Kürzungen von Verkehrsleistungen werden hier stärker ausfallen als in den Zentren und damit zu einem kleineren Leistungsvolumen führen. Aufgrund des geringen Leistungsumfangs gibt es weniger Interessenten. Bei Standardausschreibungen werden deshalb auch häufig die Varianten der beschränkten oder die freihändige Vergabe gewählt. Funktionale Ausschreibungen haben nur eine untergeordnete Bedeutung. In den Verkehrszentren sind die Lose größer und damit für viele Anbieter interessant. Die Verkehrszusatzleistungen sind zudem komplexer. Standardausschreibungen in öffentlicher Vergabeart werden sich hier vermutlich als Norm durchsetzen. Die VOL/A wird sicherlich ihre Bedeutung und ihren dafür notwendigen Regelungsumfang in Deutschland als deutsches oder als europäisches Recht behalten. Ob der empfehlende Charakter der DIN EN 13816 Norm „ÖPNV: Definition, Festlegung von Leistungszielen und Messung der Servicequalität“ erhalten werden kann und nicht als Steuerungselement zur Standardisierung im ÖPNV beitragen wird, ist dabei zu bezweifeln. Durch diese Wettbewerbspflicht wird der Aufgabenträger zum Besteller von Verkehrsleistungen. Damit geht die Verkehrsplanung in die Verantwortung des Aufgabenträgers über und gerät stärker in den Einflussbereich der Politik. Die strategisch abstrakte und die konkrete Verkehrsplanung wachsen für den Normfall der Standardausschreibung zusammen. Die Hoffnung auf eine bessere Netzintegration und eine Standardisierung des ÖPNV Angebots und der ÖPNV Qualität entsteht. Es entwickelt sich dadurch aber auch die Gefahr der Abhängigkeit des Nahverkehrsangebots von der derzeitigen Haushaltslage oder der Interessenlage der Politik. Kontinuität in Angebot und Qualität werden zu erklärten Planungszielen. Der Verkehrsplaner auf der Bestellerseite muss die Planung in Ausschreibungsunterlagen umsetzen. Dies erfordert erweiterte Kompetenzen in den Bereichen Betriebswirtschaft, Logistik, Jura, Informatik und Führungskompetenzen. Ausbildende Institutionen müssen darauf bereits im Vorfeld der Umsetzung reagieren. Durch die zeitliche Verzögerung der Umsetzung der Planung durch die Ausschreibungsschritte sind in der Verkehrsplanung längere Planungsvorlaufzeiten einzukalkulieren. Vorausschauender zu planen, wird dabei wichtiger. Auch eventuelle Fehler in der Planung sind nicht mehr so einfach zu korrigieren. Durch den gestiegenen Einsatz von Technologien in den Fahrzeugen besteht für den Verkehrsplaner dafür häufiger die Möglichkeit, Planungsänderungen auf ihre Wirksamkeit im Hinblick auf Attraktivität für den Fahrgast anhand von den ermittelten Fahrgastzahlen zu kontrollieren. Dasselbe gilt auch für Marketing- und Vertriebsmaßnahmen, wie für die Tarifpolitik. Die Zahlen stehen nicht nur für diese Rückkopplung zur Verfügung, sondern dienen auch als Planungsgrundlage für zukünftige Maßnahmen. Dem Planer stehen konkretere Zahlen für die Planung zur Verfügung. Ein Aspekt, der aufgrund der Sanktionsmaßnahmen bei Ausschreibungen an Bedeutung gewinnen wird, ist die Möglichkeit, Qualität von Verkehrsleistungen möglichst objektiv beurteilen zu können. Praxisrelevante Auswirkungen auf die Verkehrsplanung des öffentlichen Personennahverkehrs ergeben sich hauptsächlich durch die gestiegene Komplexität in der Planung selbst und den dadurch unverzichtbaren gewordenen Einsatz von Computerunterstützung. Die Umsetzung in Ausschreibungsunterlagen der Planung und die Kontrolle stellen neue Elemente im Aufgabenbereich des Verkehrsplaners dar und erfordern damit breiter ausgelegte Kernkompetenzen. Es werden mehr Verkehrsplaner mit breiterer Ausbildung benötigt werden. Diese Arbeit hat aufgezeigt, dass sich mit der Integration des Ausschreibungsgedankens in den Ablauf der Verkehrsplanung eine sprunghafte Entwicklung in der Planungstätigkeit ergeben wird. Aufgrund der in Zukunft steigenden Qualität und Quantität der Planungsgrundlagen und der ebenfalls gestiegenen Ansprüche an die Bewertungsparameter ergeben sich Veränderungen und neue Anforderungen auf diesem Gebiet, die in erster Linie für die Hochschulen und andere ausbildende Einrichtungen, aber auch für die Verkehrsplanung unterstützende Industrie.
Resumo:
This book argues for novel strategies to integrate engineering design procedures and structural analysis data into architectural design. Algorithmic procedures that recently migrated into the architectural practice are utilized to improve the interface of both disciplines. Architectural design is predominately conducted as a negotiation process of various factors but often lacks rigor and data structures to link it to quantitative procedures. Numerical structural design on the other hand could act as a role model for handling data and robust optimization but it often lacks the complexity of architectural design. The goal of this research is to bring together robust methods from structural design and complex dependency networks from architectural design processes. The book presents three case studies of tools and methods that are developed to exemplify, analyze and evaluate a collaborative work flow.