3 resultados para ebXML (Electronic Business using eXtensible Markup Language)

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This study deals with the internationalization behavior of a new and specific type of e-business company, namely the network managing e-business company (NM-EBC). The business model of such e-business companies is based on providing a platform and applications for users to connect and interact, on gathering and channeling the inputs provided by the users, and on organizing and managing the cross-relationships of the various participants. Examples are online communities, matching platforms, and portals. Since NM-EBCs internationalize by replicating their business model in a foreign market and by building up and managing a network of users, who provide input themselves and interact with each other, they have to convince users in foreign markets to join the network and hence to adopt their platform. We draw upon Rogers’ Diffusion of Innovations Theory and Network Theory to explain the internationalization behavior of NM-EBCs. These two theories originate from neighboring disciplines and have not yet been used to explain the internationalization of firms. We combine both theories and formulate hypotheses about which strategies NM-EBCs may choose to expand abroad. To test the applicability of our theory and to gain rich data about the internationalization behavior of these firms, we carried out multiple case studies with internationally active Germany-based NM-EBCs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Elektronen in wasserstoff- und lithium-ähnlichen schweren Ionen sind den extrem starken elektrischen und magnetischen Feldern in der Umgebung des Kerns ausgesetzt. Die Laserspektroskopie der Hyperfeinaufspaltung im Grundzustand des Ions erlaubt daher einen sensitiven Test der Quantenelektrodynamik in starken Feldern insbesondere im magnetischen Sektor. Frühere Messungen an wasserstoffähnlichen Systemen die an einer Elektronenstrahl-Ionenfalle (EBIT) und am Experimentierspeicherring (ESR) der GSI Darmstadt durchgeführt wurden, waren in ihrer Genauigkeit durch zu geringe Statistik, einer starken Dopplerverbreiterung und der großen Unsicherheit in der Ionenenergie limitiert. Das ganze Potential des QED-Tests kann nur dann ausgeschöpft werden, wenn es gelingt sowohl wasserstoff- als auch lithium-ähnliche schwere Ionen mit einer um 2-3 Größenordnung gesteigerten Genauigkeit zu spektroskopieren. Um dies zu erreichen, wird gegenwärtig das neue Penningfallensystem SPECTRAP an der GSI aufgebaut und in Betrieb genommen. Es ist speziell für die Laserspektroskopie an gespeicherten hochgeladenen Ionen optimiert und wird in Zukunft von HITRAP mit nierderenergetischen hochgeladenen Ionen versorgt werden.rnrnSPECTRAP ist eine zylindrische Penningfalle mit axialem Zugang für die Injektion von Ionen und die Einkopplung eines Laserstrahls sowie einem radialen optischen Zugang für die Detektion der Fluoreszenz. Um letzteres zu realisieren ist der supraleitende Magnet als Helmholtz-Spulenpaar ausgelegt. Um die gewünschte Genauigkeit bei der Laserspektroskopie zu erreichen, muss ein effizienter und schneller Kühlprozess für die injizierten hochegeladenen Ionen realisiert werden. Dies kann mittels sympathetischer Kühlung in einer lasergekühlten Wolke leichter Ionen realisiert werden. Im Rahmen dieser Arbeit wurde ein Lasersystem und eine Ionenquelle für die Produktion einer solchen 24Mg+ Ionenwolke aufgebaut und erfolgreich an SPECTRAP in Betrieb genommen. Dazu wurde ein Festkörperlasersystem für die Erzeugung von Licht bei 279.6 nm entworfen und aufgebaut. Es besteht aus einem Faserlaser bei 1118 nm der in zwei aufeinanderfolgenden Frequenzverdopplungsstufen frequenzvervierfacht wird. Die Verdopplerstufen sind als aktiv stabilisierte Resonantoren mit nichtlinearen Kristallen ausgelegt. Das Lasersystem liefert unter optimalen Bedingeungen bis zu 15 mW bei der ultravioletten Wellenlänge und erwies sich während der Teststrahlzeiten an SPECTRAP als ausgesprochen zuverlässig. Desweiteren wurde eine Ionequelle für die gepulste Injektion von Mg+ Ionen in die SPECTRAP Falle entwickelt. Diese basiert auf der Elektronenstoßionisation eines thermischen Mg-Atomstrahls und liefert in der gepulsten Extraktion Ionenbündel mit einer kleinen Impuls- und Energieverteilung. Unter Nutzung des Lasersystems konnten damit an SPECTRAP erstmals Ionenwolken mit bis zu 2600 lasergekühlten Mg Ionen erzeugt werden. Der Nachweis erfolgte sowohl mittels Fluoreszenz als auch mit der FFT-ICR Technik. Aus der Analyse des Fluoreszenz-Linienprofils lässt sich sowohl die Sensitivität auf einzelne gespeicherte Ionen als auch eine erreichte Endtemperatur in der Größenordnung von ≈ 100 mK nach wenigen Sekunden Kühlzeit belegen.