910 resultados para Upton, Herbert
Resumo:
Mit der vorliegenden Arbeit soll ein Beitrag zu einer (empirisch) gehaltvollen Mikrofundierung des Innovationsgeschehens im Rahmen einer evolutorischen Perspektive geleistet werden. Der verhaltensbezogene Schwerpunkt ist dabei, in unterschiedlichem Ausmaß, auf das Akteurs- und Innovationsmodell von Herbert Simon bzw. der Carnegie-School ausgerichtet und ergänzt, spezifiziert und erweitert dieses unter anderem um vertiefende Befunde der Kreativitäts- und Kognitionsforschung bzw. der Psychologie und der Vertrauensforschung sowie auch der modernen Innovationsforschung. zudem Bezug auf einen gesellschaftlich und ökonomisch relevanten Gegenstandsbereich der Innovation, die Umweltinnovation. Die Arbeit ist sowohl konzeptionell als auch empirisch ausgerichtet, zudem findet die Methode der Computersimulation in Form zweier Multi-Agentensysteme Anwendung. Als zusammenfassendes Ergebnis lässt sich im Allgemeinen festhalten, dass Innovationen als hochprekäre Prozesse anzusehen sind, welche auf einer Verbindung von spezifischen Akteursmerkmalen, Akteurskonstellationen und Umfeldbedingungen beruhen, Iterationsschleifen unterliegen (u.a. durch Lernen, Rückkoppelungen und Aufbau von Vertrauen) und Teil eines umfassenderen Handlungs- sowie (im Falle von Unternehmen) Organisationskontextes sind. Das Akteurshandeln und die Interaktion von Akteuren sind dabei Ausgangspunkt für Emergenzen auf der Meso- und der Makroebene. Die Ergebnisse der Analysen der in dieser Arbeit enthaltenen fünf Fachbeiträge zeigen im Speziellen, dass der Ansatz von Herbert Simon bzw. der Carnegie-School eine geeignete theoretische Grundlage zur Erfassung einer prozessorientierten Mikrofundierung des Gegenstandsbereichs der Innovation darstellt und – bei geeigneter Ergänzung und Adaption an den jeweiligen Erkenntnisgegenstand – eine differenzierte Betrachtung unterschiedlicher Arten von Innovationsprozessen und deren akteursbasierten Grundlagen sowohl auf der individuellen Ebene als auch auf Ebene von Unternehmen ermöglicht. Zudem wird deutlich, dass der Ansatz von Herbert Simon bzw. der Carnegie-School mit dem Initiationsmodell einen zusätzlichen Aspekt in die Diskussion einbringt, welcher bislang wenig Aufmerksamkeit fand, jedoch konstitutiv für eine ökonomische Perspektive ist: die Analyse der Bestimmungsgrößen (und des Prozesses) der Entscheidung zur Innovation. Denn auch wenn das Verständnis der Prozesse bzw. der Determinanten der Erstellung, Umsetzung und Diffusion von Innovationen von grundlegender Bedeutung ist, ist letztendlich die Frage, warum und unter welchen Umständen Akteure sich für Innovationen entscheiden, ein zentraler Kernbereich einer ökonomischen Betrachtung. Die Ergebnisse der Arbeit sind auch für die praktische Wirtschaftspolitik von Bedeutung, insbesondere mit Blick auf Innovationsprozesse und Umweltwirkungen.
Resumo:
In der psycholinguistischen Forschung ist die Annahme weitverbreitet, dass die Bewertung von Informationen hinsichtlich ihres Wahrheitsgehaltes oder ihrer Plausibilität (epistemische Validierung; Richter, Schroeder & Wöhrmann, 2009) ein strategischer, optionaler und dem Verstehen nachgeschalteter Prozess ist (z.B. Gilbert, 1991; Gilbert, Krull & Malone, 1990; Gilbert, Tafarodi & Malone, 1993; Herbert & Kübler, 2011). Eine zunehmende Anzahl an Studien stellt dieses Zwei-Stufen-Modell von Verstehen und Validieren jedoch direkt oder indirekt in Frage. Insbesondere Befunde zu Stroop-artigen Stimulus-Antwort-Kompatibilitätseffekten, die auftreten, wenn positive und negative Antworten orthogonal zum aufgaben-irrelevanten Wahrheitsgehalt von Sätzen abgegeben werden müssen (z.B. eine positive Antwort nach dem Lesen eines falschen Satzes oder eine negative Antwort nach dem Lesen eines wahren Satzes; epistemischer Stroop-Effekt, Richter et al., 2009), sprechen dafür, dass Leser/innen schon beim Verstehen eine nicht-strategische Überprüfung der Validität von Informationen vornehmen. Ausgehend von diesen Befunden war das Ziel dieser Dissertation eine weiterführende Überprüfung der Annahme, dass Verstehen einen nicht-strategischen, routinisierten, wissensbasierten Validierungsprozesses (epistemisches Monitoring; Richter et al., 2009) beinhaltet. Zu diesem Zweck wurden drei empirische Studien mit unterschiedlichen Schwerpunkten durchgeführt. Studie 1 diente der Untersuchung der Fragestellung, ob sich Belege für epistemisches Monitoring auch bei Informationen finden lassen, die nicht eindeutig wahr oder falsch, sondern lediglich mehr oder weniger plausibel sind. Mithilfe des epistemischen Stroop-Paradigmas von Richter et al. (2009) konnte ein Kompatibilitätseffekt von aufgaben-irrelevanter Plausibilität auf die Latenzen positiver und negativer Antworten in zwei unterschiedlichen experimentellen Aufgaben nachgewiesen werden, welcher dafür spricht, dass epistemisches Monitoring auch graduelle Unterschiede in der Übereinstimmung von Informationen mit dem Weltwissen berücksichtigt. Darüber hinaus belegen die Ergebnisse, dass der epistemische Stroop-Effekt tatsächlich auf Plausibilität und nicht etwa auf der unterschiedlichen Vorhersagbarkeit von plausiblen und unplausiblen Informationen beruht. Das Ziel von Studie 2 war die Prüfung der Hypothese, dass epistemisches Monitoring keinen evaluativen Mindset erfordert. Im Gegensatz zu den Befunden anderer Autoren (Wiswede, Koranyi, Müller, Langner, & Rothermund, 2013) zeigte sich in dieser Studie ein Kompatibilitätseffekt des aufgaben-irrelevanten Wahrheitsgehaltes auf die Antwortlatenzen in einer vollständig nicht-evaluativen Aufgabe. Die Ergebnisse legen nahe, dass epistemisches Monitoring nicht von einem evaluativen Mindset, möglicherweise aber von der Tiefe der Verarbeitung abhängig ist. Studie 3 beleuchtete das Verhältnis von Verstehen und Validieren anhand einer Untersuchung der Online-Effekte von Plausibilität und Vorhersagbarkeit auf Augenbewegungen beim Lesen kurzer Texte. Zusätzlich wurde die potentielle Modulierung dieser Effeke durch epistemische Marker, die die Sicherheit von Informationen anzeigen (z.B. sicherlich oder vielleicht), untersucht. Entsprechend der Annahme eines schnellen und nicht-strategischen epistemischen Monitoring-Prozesses zeigten sich interaktive Effekte von Plausibilität und dem Vorhandensein epistemischer Marker auf Indikatoren früher Verstehensprozesse. Dies spricht dafür, dass die kommunizierte Sicherheit von Informationen durch den Monitoring-Prozess berücksichtigt wird. Insgesamt sprechen die Befunde gegen eine Konzeptualisierung von Verstehen und Validieren als nicht-überlappenden Stufen der Informationsverarbeitung. Vielmehr scheint eine Bewertung des Wahrheitsgehalts oder der Plausibilität basierend auf dem Weltwissen – zumindest in gewissem Ausmaß – eine obligatorische und nicht-strategische Komponente des Sprachverstehens zu sein. Die Bedeutung der Befunde für aktuelle Modelle des Sprachverstehens und Empfehlungen für die weiterführende Forschung zum Vehältnis von Verstehen und Validieren werden aufgezeigt.
Resumo:
Almost everyone sketches. People use sketches day in and day out in many different and heterogeneous fields, to share their thoughts and clarify ambiguous interpretations, for example. The media used to sketch varies from analog tools like flipcharts to digital tools like smartboards. Whereas analog tools are usually affected by insufficient editing capabilities like cut/copy/paste, digital tools greatly support these scenarios. Digital tools can be grouped into informal and formal tools. Informal tools can be understood as simple drawing environments, whereas formal tools offer sophisticated support to create, optimize and validate diagrams of a certain application domain. Most digital formal tools force users to stick to a concrete syntax and editing workflow, limiting the user’s creativity. For that reason, a lot of people first sketch their ideas using the flexibility of analog or digital informal tools. Subsequently, the sketch is "portrayed" in an appropriate digital formal tool. This work presents Scribble, a highly configurable and extensible sketching framework which allows to dynamically inject sketching features into existing graphical diagram editors, based on Eclipse GEF. This allows to combine the flexibility of informal tools with the power of formal tools without any effort. No additional code is required to augment a GEF editor with sophisticated sketching features. Scribble recognizes drawn elements as well as handwritten text and automatically generates the corresponding domain elements. A local training data library is created dynamically by incrementally learning shapes, drawn by the user. Training data can be shared with others using the WebScribble web application which has been created as part of this work.
Resumo:
It can be assumed that the composition of Mercury’s thin gas envelope (exosphere) is related to the composition of the planets crustal materials. If this relationship is true, then inferences regarding the bulk chemistry of the planet might be made from a thorough exospheric study. The most vexing of all unsolved problems is the uncertainty in the source of each component. Historically, it has been believed that H and He come primarily from the solar wind, while Na and K originate from volatilized materials partitioned between Mercury’s crust and meteoritic impactors. The processes that eject atoms and molecules into the exosphere of Mercury are generally considered to be thermal vaporization, photonstimulated desorption (PSD), impact vaporization, and ion sputtering. Each of these processes has its own temporal and spatial dependence. The exosphere is strongly influenced by Mercury’s highly elliptical orbit and rapid orbital speed. As a consequence the surface undergoes large fluctuations in temperature and experiences differences of insolation with longitude. We will discuss these processes but focus more on the expected surface composition and solar wind particle sputtering which releases material like Ca and other elements from the surface minerals and discuss the relevance of composition modelling
Resumo:
Resumen tomado de la publicaci??n
Resumo:
Las compañías desde su creación, están en la constante búsqueda de la perdurabilidad en el tiempo; es decir buscan el desarrollo sostenible de su negocio y para esto se encuentran con el reto no solo de mantener el personal idóneo y motivado, sino de hacer seguimiento y gestión a sus finanzas, adquirir nuevas tecnologías y generar nuevos productos o negocios, acordes a las necesidades de sus clientes. La implementación de nuevas tecnologías como la Web 2.0, han facilitado a las organizaciones esta tarea; gracias a la retroalimentación y mejora permanente de los productos, que se obtiene a través de la interacción con los clientes, en las plataformas virtuales donde se tiene la posibilidad de: Comercializar, mercadear y publicitar un producto, además de crear prototipos, conocer intereses, necesidades y gustos, que retroalimentan de manera positiva o negativa a la compañía en procesos de preventa y postventa. A través de este estudio exploratorio, se pretende sensibilizar a los directivos de las diferentes organizaciones, frente a la importancia del uso e implementación de nuevas tecnologías como Second Life, una herramienta practica, económica y eficiente para obtener mayor reconocimiento de la marca y lograr competitividad en el mercado global. Teniendo claridad que parte del éxito que se consiga con la implementación de esta herramienta, está determinado por el cambio en la estructura de la compañía y el modelo mental del CEO o líder.
Resumo:
Como bien lo ejemplifica el cambio de pensamiento del primer al segundo Wittgenstein, pareciera que el giro lingüístico conlleva el tránsito del modernismo al post-modernismo. Es decir, mientras que el primer Wittgenstein, al tener como base teórica concluyente el principio representacionalista y veritativo de la realidad a través del lenguaje figurativo, pareciera ser el punto más alto del paradigma representacionalista moderno, el segundo, al renunciar a dicho principio para tener como fundamento el uso social del lenguaje, pareciera subsumir al conocimiento y saber occidental en un nuevo paradigma relativista y no-repreentacionalista, al cual se le denota en la discusión contemporánea simplemente como la "condición post-moderna" y/o "crisis de la modernidad". Pero como lo muestra el trabajo de Lyotard, Quine, Rorty y Davidson, todo parece indicar que dicho giro lo que lleva es a un nuevo paradigma anti-representacionalista; resultando, académicamente, válido y positivo (provechoso) para el conocimiento y saber filosófico/epistemológico occidental. Lo cual parece señalar, entonces, que de hecho asistimos a una nueva época, a la que simplemente se le ha antepuesto el prefino "post" para diferenciarla de aquella otra que quedó atrás en el tiempo: la Modernidad.
Resumo:
Publicado con D.L.: AS-03311-2011
Resumo:
En éste documento nos preguntamos por la posible compatibilidad entre una herramienta estadística en particular, la Teoría Bayesiana de la Decisión individual bajo la incertidumbre, con procesos de planeación estratégica a largo plazo en cualquier tipo de organización. Esta compatibilidad la buscamos a partir de las afirmaciones de dos autores en particular: Herbert SIMON y Henry MINTZBERG.
Resumo:
El siguiente trabajo tiene como objetivo el Estado del arte acerca de la discusión teórica de la repercusión de la unión monetaria en el principio de soberanía nacional, específicamente el caso de Gran Bretaña, ya que éste es el único país que expresa abiertamente su incertidumbre referente a algún tipo de amenaza a su soberanía. Se pretende precisar si existen criterios concluyentes, o por el contrario determinar si no hay claridad con respecto al futuro de Gran Bretaña como miembro de la unión monetaria.A partir de lo anterior, se plantean como sus propósitos particulares construir un marco conceptual acerca de la soberanía. Este estado del arte se inicia con citas de los principales autores de finales de siglo XVII y XVIII y finaliza con las posiciones conceptuales aportadas por los teóricos modernos motivados por el nacimiento de la Unión Europea como un nuevo orden político. Entre las que se citan: modelo centrico o intergubernamentalista, modelo de gobernabilidad multi-nivel, modelo neo-funcionalista y modelo federalista. Igualmente, el trabajo, busca desarrollar un marco conceptual sobre Unión Monetaria y su evolución hasta el logro de una unión fiscal europea en el periodo de 1950-2010, establecer las relaciones teóricas entre Soberanía del Estado y Unión Monetaria y por último realizar un análisis histórico hermenéutico de la Unión Europea y el caso del Reino Unido de acuerdo a las relaciones evidenciadas en los apartados teóricos entre soberanía del Estado y Unión Monetaria.