970 resultados para Diagrama causal
Resumo:
This article designs what it calls a Credit-Risk Balance Sheet (the risk being that of default by customers), a tool which, in principle, can contribute to revealing, controlling and managing the bad debt risk arising from a company¿s commercial credit, whose amount can represent a significant proportion of both its current and total assets.To construct it, we start from the duality observed in any credit transaction of this nature, whose basic identity can be summed up as Credit = Risk. ¿Credit¿ is granted by a company to its customer, and can be ranked by quality (we suggest the credit scoring system) and ¿risk¿ can either be assumed (interiorised) by the company itself or transferred to third parties (exteriorised).What provides the approach that leads to us being able to talk with confidence of a real Credit-Risk Balance Sheet with its methodological robustness is that the dual vision of the credit transaction is not, as we demonstrate, merely a classificatory duality (a double risk-credit classification of reality) but rather a true causal relationship, that is, a risk-credit causal duality.Once said Credit-Risk Balance Sheet (which bears a certain structural similarity with the classic net asset balance sheet) has been built, and its methodological coherence demonstrated, its properties ¿static and dynamic¿ are studied.Analysis of the temporal evolution of the Credit-Risk Balance Sheet and of its applications will be the object of subsequent works.
Resumo:
This article has an immediate predecessor, upon which it is based and with which readers must necessarily be familiar: Towards a Theory of the Credit-Risk Balance Sheet (Vallverdú, Somoza and Moya, 2006). The Balance Sheet is conceptualised on the basis of the duality of a credit-based transaction; it deals with its theoretical foundations, providing evidence of a causal credit-risk duality, that is, a true causal relationship; its characteristics, properties and its static and dynamic characteristics are analyzed. This article, which provides a logical continuation to the previous one, studies the evolution of the structure of the Credit-Risk Balance Sheet as a consequence of a business¿s dynamics in the credit area. Given the Credit-Risk Balance Sheet of a company at any given time, it attempts to estimate, by means of sequential analysis, its structural evolution, showing its usefulness in the management and control of credit and risk. To do this, it bases itself, with the necessary adaptations, on the by-now classic works of Palomba and Cutolo. The establishment of the corresponding transformation matrices allows one to move from an initial balance sheet structure to a final, future one, to understand its credit-risk situation trends, as well as to make possible its monitoring and control, basic elements in providing support for risk management.
Resumo:
En este artículo abordamos el uso y la importancia de las herramientas estadísticas que se utilizan principalmente en los estudios médicos del ámbito de la oncología y la hematología, pero aplicables a muchos otros campos tanto médicos como experimentales o industriales. El objetivo del presente trabajo es presentar de una manera clara y precisa la metodología estadística necesaria para analizar los datos obtenidos en los estudios rigurosa y concisamente en cuanto a las hipótesis de trabajo planteadas por los investigadores. La medida de la respuesta al tratamiento elegidas en al tipo de estudio elegido determinarán los métodos estadísticos que se utilizarán durante el análisis de los datos del estudio y también el tamaño de muestra. Mediante la correcta aplicación del análisis estadístico y de una adecuada planificación se puede determinar si la relación encontrada entre la exposición a un tratamiento y un resultado es casual o por el contrario, está sujeto a una relación no aleatoria que podría establecer una relación de causalidad. Hemos estudiado los principales tipos de diseño de los estudios médicos más utilizados, tales como ensayos clínicos y estudios observacionales (cohortes, casos y controles, estudios de prevalencia y estudios ecológicos). También se presenta una sección sobre el cálculo del tamaño muestral de los estudios y cómo calcularlo, ¿Qué prueba estadística debe utilizarse?, los aspectos sobre fuerza del efecto ¿odds ratio¿ (OR) y riesgo relativo (RR), el análisis de supervivencia. Se presentan ejemplos en la mayoría de secciones del artículo y bibliografía más relevante.
Resumo:
Inflammatory mechanisms are known to contribute to the pathophysiology of traumatic brain injury (TBI). Since bradykinin is one of the first mediators activated during inflammation, we investigated the role of bradykinin and its receptors in posttraumatic secondary brain damage. We subjected wild-type (WT), B(1)-, and B(2)-receptor-knockout mice to controlled cortical impact (CCI) and analyzed tissue bradykinin as well as kinin receptor mRNA and protein expression up to 48 h thereafter. Brain edema, contusion volume, and functional outcome were assessed 24 h and 7 days after CCI. Tissue bradykinin was maximally increased 2 h after trauma (P<0.01 versus sham). Kinin B(1) receptor mRNA was upregulated up to four-fold 24 h after CCI. Immunohistochemistry showed that B(1) and B(2) receptors were expressed in the brain and were significantly upregulated in the traumatic penumbra 1 to 24 h after CCI. B(2)R(-/-) mice had significantly less brain edema (-51% versus WT, 24 h; P<0.001), smaller contusion volumes ( approximately 50% versus WT 24 h and 7 d after CCI; P<0.05), and better functional outcome 7 days after TBI as compared with WT mice (P<0.05). The present results show that bradykinin and its B(2) receptors play a causal role for brain edema formation and cell death after TBI.
Resumo:
Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.
Resumo:
This article analyses the varying influence across time of the "epistemic community" of free-market economists on immigration policy making in Switzerland. To this end, a framework for the analysis of the impact of economic expertise is provided, and then used in an historical analysis comparing the 1960s with the 1990s. Whereas this influence can be considered to have been weak in the 1960s, it gained significantly in importance in the 1990s, when a period of economic unrest seriously challenged previous immigration policies. It is argued that economic experts played an important role in framing the reforms undertaken during this latter period, notably by providing a "credible causal story" about the links between the existing immigration policy and the social problems which arose in the country in the 1990s. As compared to the 1960s, economic expertise in the 1990s enjoyed more credibility, more political support and took full advantage of a more uncertain social and economic context
Resumo:
We present an approach to teaching evidence-based management (EBMgt) that trains future managers how to produce local evidence. Local evidence is causally interpretable data, collected on-site in companies to address a specific business problem. Our teaching method is a variant of problem-based learning, a method originally developed to teach evidence-based medicine. Following this method, students learn an evidence-based problem-solving cycle for addressing actual business cases. Executing this cycle, students use and produce scientific evidence through literature searches and the design of local, experimental tests of causal hypotheses. We argue the value of teaching EBMgt with a focus on producing local evidence, how it can be taught, and what can be taught. We conclude by outlining our contribution to the literature on teaching EBMgt and by discussing limitations of our approach.
Resumo:
A systematic assessment of global neural network connectivity through direct electrophysiological assays has remained technically infeasible, even in simpler systems like dissociated neuronal cultures. We introduce an improved algorithmic approach based on Transfer Entropy to reconstruct structural connectivity from network activity monitored through calcium imaging. We focus in this study on the inference of excitatory synaptic links. Based on information theory, our method requires no prior assumptions on the statistics of neuronal firing and neuronal connections. The performance of our algorithm is benchmarked on surrogate time series of calcium fluorescence generated by the simulated dynamics of a network with known ground-truth topology. We find that the functional network topology revealed by Transfer Entropy depends qualitatively on the time-dependent dynamic state of the network (bursting or non-bursting). Thus by conditioning with respect to the global mean activity, we improve the performance of our method. This allows us to focus the analysis to specific dynamical regimes of the network in which the inferred functional connectivity is shaped by monosynaptic excitatory connections, rather than by collective synchrony. Our method can discriminate between actual causal influences between neurons and spurious non-causal correlations due to light scattering artifacts, which inherently affect the quality of fluorescence imaging. Compared to other reconstruction strategies such as cross-correlation or Granger Causality methods, our method based on improved Transfer Entropy is remarkably more accurate. In particular, it provides a good estimation of the excitatory network clustering coefficient, allowing for discrimination between weakly and strongly clustered topologies. Finally, we demonstrate the applicability of our method to analyses of real recordings of in vitro disinhibited cortical cultures where we suggest that excitatory connections are characterized by an elevated level of clustering compared to a random graph (although not extreme) and can be markedly non-local.
Resumo:
This research note presents a set of strategies to conduct small-N comparisons in policy research including the Swiss case. Even though every country can be considered "special" to some extent, the Swiss political system is often viewed as a particularly difficult case for comparison because of the impact of its idiosyncratic institutional features (most notably direct democracy). In order to deal with this problem, our note sets out two possible strategies - the use of functional equivalents and of counterfactual reasoning - and explains how to implement them empirically through process tracing and the establishment of causal chains. As an illustration, these strategies are used for a comparison of the process of electricity market liberalisation in Switzerland and Belgium.
Resumo:
Anaemia is a chief determinant of global ill health, contributing to cognitive impairment, growth retardation and impaired physical capacity. To understand further the genetic factors influencing red blood cells, we carried out a genome-wide association study of haemoglobin concentration and related parameters in up to 135,367 individuals. Here we identify 75 independent genetic loci associated with one or more red blood cell phenotypes at P < 10(-8), which together explain 4-9% of the phenotypic variance per trait. Using expression quantitative trait loci and bioinformatic strategies, we identify 121 candidate genes enriched in functions relevant to red blood cell biology. The candidate genes are expressed preferentially in red blood cell precursors, and 43 have haematopoietic phenotypes in Mus musculus or Drosophila melanogaster. Through open-chromatin and coding-variant analyses we identify potential causal genetic variants at 41 loci. Our findings provide extensive new insights into genetic mechanisms and biological pathways controlling red blood cell formation and function.
Resumo:
Mononuclear phagocytes are essential for the innate response to pathogens and for the repair of injured tissue. The cells - which can be broadly divided into circulating monocytes and tissue-resident macrophages and dendritic cells - are selectively equipped to protect the host by mediating pleiotropic and tissue-specific functions. The properties of some mononuclear phagocytes, however, also contribute to the development and the progression of inflammatory diseases. Consequently, current research investigates mononuclear phagocytes into greater detail with the aim to clarify their contributions to pathophysiologic inflammation. Recent studies indicate that circulating monocytes can be divided into distinct populations, which differ in their tissue tropism and functional commitment. Also, tissue macrophages and dendritic cells have been found to adopt context-dependent phenotypes, which can range from "pro-" to "anti-" inflammatory. These findings have markedly contributed to our understanding of the functional heterogeneity of mononuclear phagocyte populations. Yet, in many cases, the factors that control the quantity and/or quality of phagocyte responses in vivo remain largely unknown. The goal of this thesis was to identify cell endogenous and cell exogenous factors that dictate the fate of mononuclear phagocyte populations. To this end we made use of the recent identification of phenotypic markers, which permit to track mononuclear cell types and their lineage precursors. A main approach consisted to define candidate regulatory factors of certain types of mononuclear phagocytes and then to manipulate the expression of these factors in mice so as to address their functions and causal contributions on mononuclear phagocyte lineages in vivo. Human patient material was further used to validate findings. First, we investigated a microRNA and a transcription factor as candidate cell endogenous co- regulators of monocyte subset responses. Second, we studied a tumor-derived hormone as a candidate exogenous factor that amplifies the production of a population of mononuclear phagocytes with tumor-promoting functions. The endogenous and exogenous factors identified in this research appear to act as effective regulators of mononuclear phagocyte responses in vivo and thus may be exploited in future therapeutic approaches to regulate disease-associated inflammation. - Les phagocytes mononucléaires sont essentiels pour la réponse innée aux pathogènes et pour la réparation des tissus lésés. Ces cellules - qui peuvent être largement divisées en deux groupes, les monocytes circulant dans le sang et les macrophages et cellules dendritiques résidant dans les tissus - sont capables de protéger l'hôte en exerçant des fonctions pléiotropiques. Cependant, les propriétés de certains phagocytes mononucléaires contribuent également au développement et à la progression des maladies inflammatoires. Par conséquent, la recherche actuelle étudie les phagocytes mononucléaires plus en détail afin de clarifier leurs contributions à l'inflammation pathophysiologique. Des études récentes indiquent que les monocytes circulants peuvent être divisés en populations distinctes, qui diffèrent dans leur tropisme tissulaire et dans leurs fonctions biologiques. En outre, les macrophages et les cellules dendritiques peuvent adopter des phénotypes dépendants de l'environnement dans lequel ils se trouvent; ces phénotypes peuvent aller du type "pro-" au type "anti-" inflammatoire. Ces récentes découvertes ont contribué à notre compréhension sur l'hétérogénéité fonctionnelle des phagocytes mononucléaires. Pourtant, dans de nombreux cas, les facteurs qui contrôlent la quantité et/ou la qualité des réponses produites par ces cellules restent encore largement inconnus. L'objectif de cette thèse a consisté à identifier de nouveaux facteurs (endogènes ou exogènes) qui contrôlent les phagocytes mononucléaires. Dans ce but, nous avons fait usage de l'identification récente de marqueurs qui permettent d'identifier différents types de phagocytes mononucléaires ainsi que des cellules (souches) dont ils sont issus. Notre approche a consisté à définir des facteurs candidats qui pourraient contrôler certains phagocytes mononucléaires, puis à manipuler l'expression de ces facteurs chez la souris de manière à tester leurs fonctions et leur contributions in vivo. Nous avons également utilisé des échantillons biologiques de patients pour vérifier nos résultats chez l'homme. Tout d'abord, nous avons étudié un microARN et un facteur de transcription pour déterminer si ces deux facteurs opèrent en tant que co-régulateurs d'un certain type de monocytes. Deuxièmement, nous avons considéré une hormone produite par certaines tumeurs afin d'examiner son rôle dans la production d'une population de macrophages qui favorisent la progression des tumeurs. Les facteurs endogènes et exogènes identifiés dans cette recherche semblent agir comme régulateurs dominants de réponses produites par certains phagocytes mononucléaires et pourraient donc être exploités dans de futures approches thérapeutiques afin de contrôler les réponses immunitaires inflammatoires associées a certaines maladies.
Resumo:
Context: The link between C-reactive protein (CRP) and adiposity deserves to be further explored considering the controversial diabetogenic role of CRP. Objective: We explored the potential causal role of CRP on measures of adiposity. Design: We used a Mendelian randomization approach with the CRP and LEPR genes as instrumental variables in a cross-sectional Caucasian population-based study comprising 2526 men and 2836 women. Adiposity was measured using body mass index (BMI), fat and lean mass estimated by bioelectrical impedance, and waist circumference. Results: Log-transformed CRP explained by the rs7553007 SNP tagging the CRP gene was significantly associated with BMI (regression coefficient: 1.22 [0.18;2.25], P=0.02) and fat mass (2.67 [0.65;4.68], P=0.01), but not with lean mass in women, whereas no association was found in men. Log-transformed CRP explained by the rs1805096 LEPR SNP was also positively associated, although not significantly, with BMI or fat mass. The combined CRP-LEPR instrument explained 2.24% and 0.77% of CRP variance in women and in men, respectively. Log-transformed CRP explained by this combined instrument was significantly associated with BMI (0.98 [0.32;1.63], P=0.004), fat mass (2.07 [0.79;3.34], P=0.001) and waist (2.09 [0.39;3.78], P=0.01) in women, but not in men. Conclusion: Our data suggest that CRP is causally and positively related to BMI in women, and that this is mainly due to fat mass. Results on the combined CRP-LEPR instrument suggest that leptin may play a role in the causal association between CRP and adiposity in women. Results in men were not significant.
Resumo:
We show that the solution published in the paper by Senovilla [Phys. Rev. Lett. 64, 2219 (1990)] is geodesically complete and singularity-free. We also prove that the solution satisfies the stronger energy and causality conditions, such as global hyperbolicity, the strong energy condition, causal symmetry, and causal stability. A detailed discussion about which assumptions in the singularity theorems are not satisfied is performed, and we show explicitly that the solution is in accordance with those theorems. A brief discussion of the results is given.
Resumo:
PAPER 1: A THEORY ON THE EFFECTS OF INTERNATIONALIZATION ON FIRM ENTREPRENEURIAL BEHAVIOR AND GROWTH Abstract This article addresses the relationship. Past findings reveal that the direct effects of internationalization on performance are mixed and inconclusive. Our framework integrates firm entrepreneurial behavior as a mediating force of the troublesome Drawing on the tension between the entrepreneurship literature and the organizational inertia theory, we argue that internationalization is key to minimizing the stifling effects of inertia and in engendering entrepreneurial behavior towards growth. We suggest that firms that internationalize at a young age and enjoy an intense degree of internationalization tend to become more entrepreneurial than do late and weakly internationalized firms. As a consequence, early and intense internationalizers experience superior growth. Aware of the inherent endogeneity of our propositions, we also discuss how consistent estimates can be obtained when testing the model empirically. PAPER 2: DOES INTERNATIONALIZATION MATTER FOR GROWTH? THE CASE OF SWISS SOFTWARE FIRMS. Abstract This paper seeks to address the issue of whether early and intense internationalization leads to superior firm growth. We revisit the hypotheses of previous studies within the emerging research domain of international entrepreneurship. Empirical analyses on the performance implications of internationalization have so far been limited and inconsistent. Our paper intends to make two contributions to the international entrepreneurship literature. First, we bring additional empirical evidence as to the inconclusive firm performance endogeneity in our causal model, using a sample of 103 Swiss international small and medium-sized enterprises (SMEs). On one hand, we find that the degree of internationalization significantly increases perceived firm growth (i.e., relative firm performance in a market); however, age at internationalization was unrelated to perceived firm growth. On the other hand, we reproduced the causal path of a highly cited study that showed how age at internationalization was significantly and negatively associated with objective firm growth (i.e., sales). Interestingly, our results support the study similar setting (OLS regression with comparable control variables); however, the effect for age at internationalization reverses when we correct for endogeneity. PAPER 3: EFFECT OF INTERNATIONALIZATION ON FIRM ENTREPRENEURIAL ORIENTATION AND PERFORMANCE: THE CASE OF SWISS SOFTWARE FIRMS. Abstract How does internationalization influence a firm orientation (EO) and is this related to firm growth? This paper inquires into the performance theorizing, we test a process model in which EO plays a mediating role in accounting for the relationship between internationalization and growth. We position this paper on the tension zone between the entrepreneurship literature and the organizational inertia theory. We lay out the argument that internationalization is source of opportunities that drives a firm and thus mitigates inertial pressure. Using a sample of Swiss software small and medium-sized enterprises (SMEs), we found that degree of internationalization (but not age of internationalization) increases EO, which subsequently increased firm growth.
Resumo:
It's usually believed that the idea of applying logical methods to constructivist phenomenalism was, --in general- a result of Russell's originality. In this paper is argued that some important ideas were in fact due to Mach, Moore and Whitehead. According to the author, Russell got from Mach the general idea of epistemology as an analysis of scientific concepts and, specially,the idea of sensations as the building blocks for his logical construction. Moore made Russell believe that only sensations are known in a direct way, and so, the existence of external objects as the cause of our perceptions is only inferred. Moreover, according to the author, Russell's views on sense data -his sensibilia- are also due to Moore. Finally, Russell got from Whitehead the idea of the phenomenical reconstruction as an alternative to the causal theory of perception, and also how the logical construction should be done. The author undertakes also a detailed analysis of some early works of Whitehead not very well known.