834 resultados para International Knowledge Acquisition
Resumo:
Conceptual Information Systems unfold the conceptual structure of data stored in relational databases. In the design phase of the system, conceptual hierarchies have to be created which describe different aspects of the data. In this paper, we describe two principal ways of designing such conceptual hierarchies, data driven design and theory driven design and discuss advantages and drawbacks. The central part of the paper shows how Attribute Exploration, a knowledge acquisition tool developped by B. Ganter can be applied for narrowing the gap between both approaches.
Resumo:
The goal of the work reported here is to capture the commonsense knowledge of non-expert human contributors. Achieving this goal will enable more intelligent human-computer interfaces and pave the way for computers to reason about our world. In the domain of natural language processing, it will provide the world knowledge much needed for semantic processing of natural language. To acquire knowledge from contributors not trained in knowledge engineering, I take the following four steps: (i) develop a knowledge representation (KR) model for simple assertions in natural language, (ii) introduce cumulative analogy, a class of nearest-neighbor based analogical reasoning algorithms over this representation, (iii) argue that cumulative analogy is well suited for knowledge acquisition (KA) based on a theoretical analysis of effectiveness of KA with this approach, and (iv) test the KR model and the effectiveness of the cumulative analogy algorithms empirically. To investigate effectiveness of cumulative analogy for KA empirically, Learner, an open source system for KA by cumulative analogy has been implemented, deployed, and evaluated. (The site "1001 Questions," is available at http://teach-computers.org/learner.html). Learner acquires assertion-level knowledge by constructing shallow semantic analogies between a KA topic and its nearest neighbors and posing these analogies as natural language questions to human contributors. Suppose, for example, that based on the knowledge about "newspapers" already present in the knowledge base, Learner judges "newspaper" to be similar to "book" and "magazine." Further suppose that assertions "books contain information" and "magazines contain information" are also already in the knowledge base. Then Learner will use cumulative analogy from the similar topics to ask humans whether "newspapers contain information." Because similarity between topics is computed based on what is already known about them, Learner exhibits bootstrapping behavior --- the quality of its questions improves as it gathers more knowledge. By summing evidence for and against posing any given question, Learner also exhibits noise tolerance, limiting the effect of incorrect similarities. The KA power of shallow semantic analogy from nearest neighbors is one of the main findings of this thesis. I perform an analysis of commonsense knowledge collected by another research effort that did not rely on analogical reasoning and demonstrate that indeed there is sufficient amount of correlation in the knowledge base to motivate using cumulative analogy from nearest neighbors as a KA method. Empirically, evaluating the percentages of questions answered affirmatively, negatively and judged to be nonsensical in the cumulative analogy case compares favorably with the baseline, no-similarity case that relies on random objects rather than nearest neighbors. Of the questions generated by cumulative analogy, contributors answered 45% affirmatively, 28% negatively and marked 13% as nonsensical; in the control, no-similarity case 8% of questions were answered affirmatively, 60% negatively and 26% were marked as nonsensical.
Resumo:
The paper focuses on taking advantage of large amounts of data that are systematically stored in plants (by means of SCADA systems), but not exploited enough in order to achieve supervisory goals (fault detection, diagnosis and reconfiguration). The methodology of case base reasoning (CBR) is proposed to perform supervisory tasks in industrial processes by re-using the stored data. The goal is to take advantage of experiences, registered in a suitable structure as cam, avoiding the tedious task of knowledge acquisition and representation needed by other reasoning techniques as expert systems. An outlook of CBR terminology and basic concepts are presented. The adaptation of CBR in performing expert supervisory tasks, taking into account the particularities and difficulties derived from dynamic systems, is discussed. A special interest is focused in proposing a general case definition suitable for supervisory tasks. Finally, this structure and the whole methodology is tested in a application example for monitoring a real drier chamber
Resumo:
La evaluación de los procesos formativos en el área clínica, basados en competencias, es fundamental para la Fisioterapia. Este proceso articula la teoría con la práctica, orienta la organización de los procesos académicos, promueve la formación integral y establece mecanismos de retroalimentación permanentes y rigurosos, basados en la evaluación del desempeño del profesional en formación ante situaciones del día a día que dan cuenta de su toma de decisiones profesional. Se espera que los estudiantes se formen y puedan actuar como profesionales competitivos a nivel nacional e internacional, de manera integral, con sólidos compromisos éticos y sociales para responder a las necesidades del entorno social en el que se desenvuelven (PEP, Universidad del Rosario). Los esfuerzos actuales en investigación de la evaluación educativa se encuentran orientados a la integración de la adquisición del conocimiento y al desarrollo de estrategias de medición y cuantificación de capacidades técnico-científicas dentro de cada disciplina. En este sentido, hasta el momento, en Colombia no se encuentra evidencia alrededor de la validación de instrumentos de medición de las competencias clínicas, ni se cuenta con estándares para la evaluación en práctica clínica en el proceso de formación del recurso humano en Fisioterapia. En el proyecto se desarrolló y fueron evaluadas las propiedades psicométricas de un instrumento que mide las competencias clínicas del estudiante de fisioterapia en la práctica clínica. Este proceso involucró a Fisioterapeutas que con experiencia en el área de docencia y clínica, contribuyen con la formación de fisioterapeutas en Colombia.
Resumo:
Una de las actuaciones posibles para la gestión de los residuos sólidos urbanos es la valorización energética, es decir la incineración con recuperación de energía. Sin embargo es muy importante controlar adecuadamente el proceso de incineración para evitar en lo posible la liberación de sustancias contaminantes a la atmósfera que puedan ocasionar problemas de contaminación industrial.Conseguir que tanto el proceso de incineración como el tratamiento de los gases se realice en condiciones óptimas presupone tener un buen conocimiento de las dependencias entre las variables de proceso. Se precisan métodos adecuados de medida de las variables más importantes y tratar los valores medidos con modelos adecuados para transformarlos en magnitudes de mando. Un modelo clásico para el control parece poco prometedor en este caso debido a la complejidad de los procesos, la falta de descripción cuantitativa y la necesidad de hacer los cálculos en tiempo real. Esto sólo se puede conseguir con la ayuda de las modernas técnicas de proceso de datos y métodos informáticos, tales como el empleo de técnicas de simulación, modelos matemáticos, sistemas basados en el conocimiento e interfases inteligentes. En [Ono, 1989] se describe un sistema de control basado en la lógica difusa aplicado al campo de la incineración de residuos urbanos. En el centro de investigación FZK de Karslruhe se están desarrollando aplicaciones que combinan la lógica difusa con las redes neuronales [Jaeschke, Keller, 1994] para el control de la planta piloto de incineración de residuos TAMARA. En esta tesis se plantea la aplicación de un método de adquisición de conocimiento para el control de sistemas complejos inspirado en el comportamiento humano. Cuando nos encontramos ante una situación desconocida al principio no sabemos como actuar, salvo por la extrapolación de experiencias anteriores que puedan ser útiles. Aplicando procedimientos de prueba y error, refuerzo de hipótesis, etc., vamos adquiriendo y refinando el conocimiento, y elaborando un modelo mental. Podemos diseñar un método análogo, que pueda ser implementado en un sistema informático, mediante el empleo de técnicas de Inteligencia Artificial.Así, en un proceso complejo muchas veces disponemos de un conjunto de datos del proceso que a priori no nos dan información suficientemente estructurada para que nos sea útil. Para la adquisición de conocimiento pasamos por una serie de etapas: - Hacemos una primera selección de cuales son las variables que nos interesa conocer. - Estado del sistema. En primer lugar podemos empezar por aplicar técnicas de clasificación (aprendizaje no supervisado) para agrupar los datos y obtener una representación del estado de la planta. Es posible establecer una clasificación, pero normalmente casi todos los datos están en una sola clase, que corresponde a la operación normal. Hecho esto y para refinar el conocimiento utilizamos métodos estadísticos clásicos para buscar correlaciones entre variables (análisis de componentes principales) y así poder simplificar y reducir la lista de variables. - Análisis de las señales. Para analizar y clasificar las señales (por ejemplo la temperatura del horno) es posible utilizar métodos capaces de describir mejor el comportamiento no lineal del sistema, como las redes neuronales. Otro paso más consiste en establecer relaciones causales entre las variables. Para ello nos sirven de ayuda los modelos analíticos - Como resultado final del proceso se pasa al diseño del sistema basado en el conocimiento. El objetivo principal es aplicar el método al caso concreto del control de una planta de tratamiento de residuos sólidos urbanos por valorización energética. En primer lugar, en el capítulo 2 Los residuos sólidos urbanos, se trata el problema global de la gestión de los residuos, dando una visión general de las diferentes alternativas existentes, y de la situación nacional e internacional en la actualidad. Se analiza con mayor detalle la problemática de la incineración de los residuos, poniendo especial interés en aquellas características de los residuos que tienen mayor importancia de cara al proceso de combustión.En el capítulo 3, Descripción del proceso, se hace una descripción general del proceso de incineración y de los distintos elementos de una planta incineradora: desde la recepción y almacenamiento de los residuos, pasando por los distintos tipos de hornos y las exigencias de los códigos de buena práctica de combustión, el sistema de aire de combustión y el sistema de humos. Se presentan también los distintos sistemas de depuración de los gases de combustión, y finalmente el sistema de evacuación de cenizas y escorias.El capítulo 4, La planta de tratamiento de residuos sólidos urbanos de Girona, describe los principales sistemas de la planta incineradora de Girona: la alimentación de residuos, el tipo de horno, el sistema de recuperación de energía, y el sistema de depuración de los gases de combustión Se describe también el sistema de control, la operación, los datos de funcionamiento de la planta, la instrumentación y las variables que son de interés para el control del proceso de combustión.En el capítulo 5, Técnicas utilizadas, se proporciona una visión global de los sistemas basados en el conocimiento y de los sistemas expertos. Se explican las diferentes técnicas utilizadas: redes neuronales, sistemas de clasificación, modelos cualitativos, y sistemas expertos, ilustradas con algunos ejemplos de aplicación.Con respecto a los sistemas basados en el conocimiento se analizan en primer lugar las condiciones para su aplicabilidad, y las formas de representación del conocimiento. A continuación se describen las distintas formas de razonamiento: redes neuronales, sistemas expertos y lógica difusa, y se realiza una comparación entre ellas. Se presenta una aplicación de las redes neuronales al análisis de series temporales de temperatura.Se trata también la problemática del análisis de los datos de operación mediante técnicas estadísticas y el empleo de técnicas de clasificación. Otro apartado está dedicado a los distintos tipos de modelos, incluyendo una discusión de los modelos cualitativos.Se describe el sistema de diseño asistido por ordenador para el diseño de sistemas de supervisión CASSD que se utiliza en esta tesis, y las herramientas de análisis para obtener información cualitativa del comportamiento del proceso: Abstractores y ALCMEN. Se incluye un ejemplo de aplicación de estas técnicas para hallar las relaciones entre la temperatura y las acciones del operador. Finalmente se analizan las principales características de los sistemas expertos en general, y del sistema experto CEES 2.0 que también forma parte del sistema CASSD que se ha utilizado.El capítulo 6, Resultados, muestra los resultados obtenidos mediante la aplicación de las diferentes técnicas, redes neuronales, clasificación, el desarrollo de la modelización del proceso de combustión, y la generación de reglas. Dentro del apartado de análisis de datos se emplea una red neuronal para la clasificación de una señal de temperatura. También se describe la utilización del método LINNEO+ para la clasificación de los estados de operación de la planta.En el apartado dedicado a la modelización se desarrolla un modelo de combustión que sirve de base para analizar el comportamiento del horno en régimen estacionario y dinámico. Se define un parámetro, la superficie de llama, relacionado con la extensión del fuego en la parrilla. Mediante un modelo linealizado se analiza la respuesta dinámica del proceso de incineración. Luego se pasa a la definición de relaciones cualitativas entre las variables que se utilizan en la elaboración de un modelo cualitativo. A continuación se desarrolla un nuevo modelo cualitativo, tomando como base el modelo dinámico analítico.Finalmente se aborda el desarrollo de la base de conocimiento del sistema experto, mediante la generación de reglas En el capítulo 7, Sistema de control de una planta incineradora, se analizan los objetivos de un sistema de control de una planta incineradora, su diseño e implementación. Se describen los objetivos básicos del sistema de control de la combustión, su configuración y la implementación en Matlab/Simulink utilizando las distintas herramientas que se han desarrollado en el capítulo anterior.Por último para mostrar como pueden aplicarse los distintos métodos desarrollados en esta tesis se construye un sistema experto para mantener constante la temperatura del horno actuando sobre la alimentación de residuos.Finalmente en el capítulo Conclusiones, se presentan las conclusiones y resultados de esta tesis.
Resumo:
Successful knowledge transfer is an important process which requires continuous improvement in today’s knowledge-intensive economy. However, improving knowledge transfer processes represents a challenge for construction practitioners due to the complexity of knowledge acquisition, codification and sharing. Although knowledge transfer is context based, understanding the critical success factors can lead to improvements in the transfer process. This paper seeks to identify and evaluate the most significant critical factors for improving knowledge transfer processes in Public Private Partnerships/Private Finance Initiatives (PPP/PFI) projects. Drawing upon a questionnaire survey of 52 construction firms located in the UK, data is analysed using Severity Index (SI) and Coefficient of Variation (COV), to examine and identify these factors in PPP/PFI schemes. The findings suggest that a supportive leadership, participation/commitment from the relevant parties, and good communication between the relevant parties are crucial to improving knowledge transfer processes in PFI schemes. Practitioners, managers and researchers can use the findings to efficiently design performance measures for analysing and improving knowledge transfer processes.
Resumo:
In this invited article the authors present an evaluative report on the development of the MESHGuides project (http://www.meshguides.org/). MESHGuides’ objective is to provide education with an international knowledge management system. MESHGuides were conceived as research summaries for supporting teachers’ in developing evidence-based practice. Their aim is to enhance teachers’ capacity to engage actively with research in their own classrooms. The original thinking for MESH arose from the work of UK-based academics Professor Marilyn Leask and Dr Sarah Younie in response to a desire, which has recently gathered momentum in the UK, for the development of a more research-informed teaching profession and for the establishment of an on-line platform to support evidence-based practice (DfE, 2015; Leask and Younie 2001; OECD 2009). The focus of this article is on how the MESHGuides project was conceived and structured, the technical systems supporting it and the practical reality for academics and teachers of composing and using MESHGuides. The project and the guides are in the early stages of development, and discussion indicates future possibilities for more global engagement with this knowledge management system.
Resumo:
Based on numerous studies showing that testing studied material can improve long-term retention more than restudying the same material, it is often suggested that the number of tests in education should be increased to enhance knowledge acquisition. However, testing in real-life educational settings often entails a high degree of extrinsic motivation of learners due to the common practice of placing important consequences on the outcome of a test. Such an effect on the motivation of learners may undermine the beneficial effects of testing on long-term memory because it has been shown that extrinsic motivation can reduce the quality of learning. To examine this issue, participants learned foreign language vocabulary words, followed by an immediate test in which one-third of the words were tested and one-third restudied. To manipulate extrinsic motivation during immediate testing, participants received either monetary reward contingent on test performance or no reward. After 1 week, memory for all words was tested. In the immediate test, reward reduced correct recall and increased commission errors, indicating that reward reduced the number of items that can benefit from successful retrieval. The results in the delayed test revealed that reward additionally reduced the gain received from successful retrieval because memory for initially successfully retrieved words was lower in the reward condition. However, testing was still more effective than restudying under reward conditions because reward undermined long-term memory for concurrently restudied material as well. These findings indicate that providing performance–contingent reward in a test can undermine long-term knowledge acquisition.
Resumo:
The evolution of commodity computing lead to the possibility of efficient usage of interconnected machines to solve computationally-intensive tasks, which were previously solvable only by using expensive supercomputers. This, however, required new methods for process scheduling and distribution, considering the network latency, communication cost, heterogeneous environments and distributed computing constraints. An efficient distribution of processes over such environments requires an adequate scheduling strategy, as the cost of inefficient process allocation is unacceptably high. Therefore, a knowledge and prediction of application behavior is essential to perform effective scheduling. In this paper, we overview the evolution of scheduling approaches, focusing on distributed environments. We also evaluate the current approaches for process behavior extraction and prediction, aiming at selecting an adequate technique for online prediction of application execution. Based on this evaluation, we propose a novel model for application behavior prediction, considering chaotic properties of such behavior and the automatic detection of critical execution points. The proposed model is applied and evaluated for process scheduling in cluster and grid computing environments. The obtained results demonstrate that prediction of the process behavior is essential for efficient scheduling in large-scale and heterogeneous distributed environments, outperforming conventional scheduling policies by a factor of 10, and even more in some cases. Furthermore, the proposed approach proves to be efficient for online predictions due to its low computational cost and good precision. (C) 2009 Elsevier B.V. All rights reserved.
Resumo:
Ao longo dos últimos 40 anos tem havido uma profusão de estudos sobre acumulação de capacidades tecnológicas em empresas de economias emergentes. Porém, são escassos os estudos que examinem, de maneira conjunta e de uma perspectiva dinâmica, o relacionamento entre trajetórias de acumulação de capacidades tecnológicas e os mecanismos subjacentes de aprendizagem. São ainda mais escassos estudos sobre este relacionamento em firmas atuando na indústria de processamento de recursos naturais. O interesse neste último está em oferecer uma visão alternativa de alguns autores quando se referem a estas indústrias como 'maduras', de 'baixa tecnologia' ou meramente produtoras de 'commodities' e 'no fim da linha de inovação'. Logo, neste estudo, defende-se que as inovações tecnológicas estão bem presentes em empresas baseadas em processamento de recursos naturais, principalmente em empresas de mineração. Buscando preencher essas lacunas da literatura, examinam-se, nesta dissertação, essas questões à luz de modelos analíticos disponíveis na literatura internacional -, adaptados para o contexto desta dissertação. O modelo para examinar a acumulação de capacidades tecnológicas identifica as capacidades para as funções tecnológicas de processos e organização da produção. Para a análise das fontes de capacidades tecnológicas, utiliza-se, nesta dissertação, o modelo para examinar as estratégias intraorganizacionais que desmembram o processo de aprendizagem em aquisição de conhecimento externo e interno e os convertem do nível individual para o organizacional pela socialização e codificação, com base em suas característicaschave: variedade, intensidade e funcionamento. Esse conjunto de relacionamentos é examinado por meio de estudo de caso simples e de longo prazo (1994-2008) em uma empresa de processamento de recursos naturais (mineração de cobre) no Brasil. Tomando-se por base evidências empíricas qualitativas e quantitativas, colhidas em primeira mão, verificou-se o seguinte. 1. A empresa acumulou capacidade inovadora em processos e organização da produção em Nível Inovador Intermediário, ou seja, a empresa já promove a expansão sistemática da capacidade por meio da manipulação de parâmetros-chave de processo. Verificou-se também que a firma tem potencial para atingir o Nível Inovador Avançado em virtude dos avanços obtidos em seu projeto de biolixiviação de cobre sulfetedo. Este nível não foi atingido porque, ao final da pesquisa, a aplicação comercial bem-sucedida deste projeto ainda não tinha sido comprovada. 2. Os vários processos e mecanismos de aprendizagem tiveram um papel crucial na acumulação desse nível de capacidade inovadora. Especificamente a progressiva incidência e a maneira como os mecanismos de aprendizagem foram criados e geridos na empresa contribuíram decisivamente para criar uma base de conhecimento que pennitiu à empresa desenvolver capacidades tanto para atividades de produção como para atividades de inovação. Não obstante, as evidências também sugerem que estes mesmos tipos de mecanismos não foram suficientes para que a empresa acumulasse capacidades além do nível alcançado. Ou seja, o alcance de níveis mais sofisticados de inovação implica a adoção de mecanismos mais complexos de aprendizagem. Naturalmente, outros fatores, como o comportamento da liderança empresarial, também contribuíram para o acúmulo dessas capacidades, embora este ponto tenha sido examinado aqui de maneira superficial. Esses resultados fazem avançar nosso entendimento sobre as dificuldades e complexidades envolvidas no processo de acumulação de capacidades inovadoras em empresas de economias emergentes. O estudo contribui para mostrar que, se empresas dessa natureza objetivarem acumular níveis inovadores de capacidade tecnológica e, com isso, obter melhor performance competitiva, terão que desenhar estratégias robustas de aprendizagem. Finalmente, o estudo joga luz no entendimento sobre o processo de inovação em empresas em indústrias à base de processamento de recursos naturais, setores estes de grande importância para países ricos em recursos naturais como o Brasil.
Resumo:
A atividade de fusões e aquisições, também conhecida no mercado como M&A (Mergers and Acquisitions), tem sido uma relevante estratégia adotada pelos CEOs para garantir a competitividade em mercados doméstico e internacional, sendo justificada por diversos fatores, dentre eles: necessidade de crescimento, aumento do market share, criação e/ou aumento de barreiras de entrada, aquisição de conhecimento (capital humano, tecnologia e processos) e busca por sinergias. Ainda que existam estudos sobre M&A visando uma melhor compreensão dos problemas relacionados ao alinhamento entre a estratégia e a tomada de decisão, dos fatores críticos de sucesso, melhores práticas para condução de due diligence (processo de investigação e auditoria), valorações econômicas e integrações na implementação da fusão ou aquisição, poucos se debruçaram em analisar as armadilhas do processo decisório de M&A, no que diz respeito aos vieses psicológicos existentes ao longo da tomada de decisão. Desta forma, o objetivo central da presente pesquisa é apresentar a consolidação da análise das principais armadilhas que interferem no processo decisório de fusões e aquisições. De maneira complementar, também se almejou alcançar os seguintes objetivos intermediários: compreender o processo de fusões e aquisições; identificar as principais etapas e pontos de decisão no processo decisório de fusões e aquisições; analisar as armadilhas inerentes a uma tomada de decisão. Assim, foi realizada uma pesquisa qualitativa que, além de revisão de literatura, contou com a realização de entrevistas com 15 profissionais que tiveram atuação relevante em projetos de M&A de empresas brasileiras que adquiriram, foram adquiridas ou realizaram fusões entre 2009 e 2015, em diversos segmentos da indústria. As informações obtidas foram compiladas e analisadas através da metodologia de Análise de Discurso. Como resultado, esta pesquisa mostrou que decisões de M&A são extremamente complexas e apresentam alto grau de incerteza, o que implica em um maior risco da ocorrência de armadilhas psicológicas. Dentre as armadilhas que exercem maior influência nas decisões de fusões e aquisições, de acordo com este estudo, a contextualização foi a que apresentou maior dominância, seguida pela evidência de confirmação e ancoragem.
Resumo:
This paper describes a data mining environment for knowledge discovery in bioinformatics applications. The system has a generic kernel that implements the mining functions to be applied to input primary databases, with a warehouse architecture, of biomedical information. Both supervised and unsupervised classification can be implemented within the kernel and applied to data extracted from the primary database, with the results being suitably stored in a complex object database for knowledge discovery. The kernel also includes a specific high-performance library that allows designing and applying the mining functions in parallel machines. The experimental results obtained by the application of the kernel functions are reported. © 2003 Elsevier Ltd. All rights reserved.
Resumo:
Interactive visual representations complement traditional statistical and machine learning techniques for data analysis, allowing users to play a more active role in a knowledge discovery process and making the whole process more understandable. Though visual representations are applicable to several stages of the knowledge discovery process, a common use of visualization is in the initial stages to explore and organize a sometimes unknown and complex data set. In this context, the integrated and coordinated - that is, user actions should be capable of affecting multiple visualizations when desired - use of multiple graphical representations allows data to be observed from several perspectives and offers richer information than isolated representations. In this paper we propose an underlying model for an extensible and adaptable environment that allows independently developed visualization components to be gradually integrated into a user configured knowledge discovery application. Because a major requirement when using multiple visual techniques is the ability to link amongst them, so that user actions executed on a representation propagate to others if desired, the model also allows runtime configuration of coordinated user actions over different visual representations. We illustrate how this environment is being used to assist data exploration and organization in a climate classification problem.
Resumo:
In the last years, Intelligent Tutoring Systems have been a very successful way for improving learning experience. Many issues must be addressed until this technology can be defined mature. One of the main problems within the Intelligent Tutoring Systems is the process of contents authoring: knowledge acquisition and manipulation processes are difficult tasks because they require a specialised skills on computer programming and knowledge engineering. In this thesis we discuss a general framework for knowledge management in an Intelligent Tutoring System and propose a mechanism based on first order data mining to partially automate the process of knowledge acquisition that have to be used in the ITS during the tutoring process. Such a mechanism can be applied in Constraint Based Tutor and in the Pseudo-Cognitive Tutor. We design and implement a part of the proposed architecture, mainly the module of knowledge acquisition from examples based on first order data mining. We then show that the algorithm can be applied at least two different domains: first order algebra equation and some topics of C programming language. Finally we discuss the limitation of current approach and the possible improvements of the whole framework.
Resumo:
In this research project, I have integrated two research streams on international strategic decisions making in international firms: upper echelons or top management teams (TMT) internationalization research and international strategic decision making process research. Both research streams in international business literature have evolved independently, but there is a potential in combining these two streams of research. The first empirical paper “TMT internationalization and international strategic decision making process: a decision level analysis of rationality, speed, and performance” explores the influence of TMT internationalization on strategic decision rationality and speed and, subsequently, their effect on international strategic decision effectiveness (performance). The results show that the internationalization of TMT is positively related to decision effectiveness and this relationship is mediated by decision rationality while the hypotheses regarding the association between TMT internationalization and decision speed, and the mediating effect of speed were not supported. The second paper “TMT internationalization and international strategic decision rationality: the mediating role of international information” of my thesis is a simple but logical extension of first paper. The first paper showed that TMT Internationalization has a significant positive effect on international strategic decision rationality. The second paper explicitly showed that TMT internationalization affect on international strategic decision rationality comes from two sources: international experience (personal international knowledge and information) and international information collected from managerial international contacts. For this research project, I have collected data from international software firms in Pakistan. My research contributes to the literature on upper echelons theory and strategic decision making in context of international business and international firms by explicitly examining the link between TMT internationalization and characteristics of strategic decisions making process (i.e. rationality and speed) in international firms and their possible mediating effect on performance.