100 resultados para Incompleteness
Resumo:
Process control rules may be specified using decision tables. Such a specification is superior when logical decisions to be taken in control dominate. In this paper we give a method of detecting redundancies, incompleteness, and contradictions in such specifications. Using such a technique thus ensures the validity of the specifications.
Resumo:
The Accelerating Moment Release (AMR) preceding earthquakes with magnitude above 5 in Australia that occurred during the last 20 years was analyzed to test the Critical Point Hypothesis. Twelve earthquakes in the catalog were chosen based on a criterion for the number of nearby events. Results show that seven sequences with numerous events recorded leading up to the main earthquake exhibited accelerating moment release. Two occurred near in time and space to other earthquakes preceded by AM R. The remaining three sequences had very few events in the catalog so the lack of AMR detected in the analysis may be related to catalog incompleteness. Spatio-temporal scanning of AMR parameters shows that 80% of the areas in which AMR occurred experienced large events. In areas of similar background seismicity with no large events, 10 out of 12 cases exhibit no AMR, and two others are false alarms where AMR was observed but no large event followed. The relationship between AMR and Load-Unload Response Ratio (LURR) was studied. Both methods predict similar critical region sizes, however, the critical point time using AMR is slightly earlier than the time of the critical point LURR anomaly.
Resumo:
A partir da leitura do livro Mínimos, Múltiplos e Comuns de João Gilberto Noll, este trabalho busca empreender um estudo sobre as relações entre a escrita do artista e tempo na figura dos instantes ficcionais, observando a questão do microrrelato e da exigência fragmentária (cf.P. Lacoue-Labarthe e Jean-Luc Nancy), na perspectiva do inacabado/unidade, o que projeta uma hipótese de conjunto constelar para a escrita de João Gilberto Noll. Inicialmente realiza-se uma reflexão de alguns temas importantes na fortuna crítica sobre o escritor, com a intenção de saber como estes reverberam na sua escrita para, em seguida, tratar do fragmento e suas perspectivas estéticas de inacabamento e de totalidade, com relação ao tempo e como dessas questões surge a metáfora crítica do instante ficcional. As leituras críticas usadas como operadores nortearam-se a partir das noções de fragmento (romântico), e de Acontecimento, relacionadas ao par conceitual Cronos/Aiôn deleuziano
Resumo:
A partir de considerações teóricas que apontam a falta de um significante especificamente feminino, inversamente ao homem que encontra no falo um significante que o represente, e tendo em vista questões suscitadas na clínica a respeito da angústia presente nas relações estabelecidas entre mães e filhas, este trabalho busca articular Desamparo e Feminilidade, de modo que teoria e clínica possam ser tecidas, compondo reflexões quanto aos efeitos sofridos pela mulher diante da conseqüente proximidade com o real, bem como as possibilidades que a mulher procura criar através da feminilidade para se reinventar continuamente. A fim de ilustrar o que está sendo proposto, a escrita prosaica e poética de Clarice Lispector vem contribuir com a reflexão sobre certos modos de subjetivação do feminino, bem como com a possibilidade de encontros com a psicanálise, conferindo lugar de destaque como autora da figura feminina ao simbolizar a mulher em suas constantes indagações e que, em sua incompletude, revela através de Uma aprendizagem ou o livro dos prazeres a construção de sua própria verdade.
Resumo:
本文介绍了关系数据库中信息不完全性的含义及其表现,论述了关系数据库中不同范畴不完全性同时存在的可能性和必然性,并在关系模式中引入一种混合类不完全信息。为了能够表示和处理关系数据库中这种混合类不完全信息,文中最后给出了一种简化的扩展关系模型。
Resumo:
Program design is an area of programming that can benefit significantly from machine-mediated assistance. A proposed tool, called the Design Apprentice (DA), can assist a programmer in the detailed design of programs. The DA supports software reuse through a library of commonly-used algorithmic fragments, or cliches, that codifies standard programming. The cliche library enables the programmer to describe the design of a program concisely. The DA can detect some kinds of inconsistencies and incompleteness in program descriptions. It automates detailed design by automatically selecting appropriate algorithms and data structures. It supports the evolution of program designs by keeping explicit dependencies between the design decisions made. These capabilities of the DA are underlaid bya model of programming, called programming by successive elaboration, which mimics the way programmers interact. Programming by successive elaboration is characterized by the use of breadth-first exposition of layered program descriptions and the successive modifications of descriptions. A scenario is presented to illustrate the concept of the DA. Technques for automating the detailed design process are described. A framework is given in which designs are incrementally augmented and modified by a succession of design steps. A library of cliches and a suite of design steps needed to support the scenario are presented.
Resumo:
This portfolio of exploration explores the role of transformative thinking and practice in a property entrepreneur’s response to the financial crisis which swept over Ireland from 2008. The complexity of this challenge and the mental capacity to meet its demands is at the core of the exploration. This inquiry emerged from the challenges the financial crisis presented to my values, beliefs, assumptions, and theories, i.e. the interpretive lens through which I make meaning of my experiences. Given the issue identified, this inquiry is grounded in aspects of theories of constructive developmental psychology, applied developmental science, and philosophy. Integrating and linking these elements to business practice is the applied element of the Portfolio. As the 2008 crisis unfolded I realised I was at the limits of my way of knowing. I came to understand that the underlying structure of a way of knowing is the ‘subject-object relationship’ i.e. what a way of knowing can reflect upon, look at, have perspective on, in other words, make object, as against what is it embedded in, attached to, identified within, or subject to. My goal became enhancing my awareness of how I made meaning and how new insights, which would transform a way of knowing, are created. The focus was on enhancing my practice. This Portfolio is structured into three essays. Essay One reported on my self-reflection and external evaluation out of which emerged my developmental goals. In Essay Two I undertake a reading for change programme in which different meaning making systems were confronted in order to challenge me as a meaning maker. Essay Three reported on my experiment which concerned the question whether it was possible for me as a property entrepreneur, and for others alike, to retain bank finance in the face of the overwhelming objective of the bank to deleverage their balance sheet of property loans. The output of my research can be grouped into General Developmental and Specific Business Implications. Firstly I address those who are interested in a transformational-based response to the challenges of operating in the property sector in Ireland during a crisis. I outline the apparatus of thought that I used to create insight, and thus transform how I thought, these are Awareness, Subject-object separation, Exploring other’s perspectives from the position of incompleteness, Dialectical thinking and Collingwood’s Questioning activity. Secondly I set out my learnings from the crisis and their impact on entrepreneurial behaviour and the business of property development. I identify ten key insights that have emerged from leading a property company through the crisis. Many of these are grounded in common sense, however, in my experience these were, to borrow Shakespeare’s words, “More honor'd in the breach than the observance” in pre Crisis Ireland. Finally I set out a four-step approach for forging a strategy. This requires my peer practitioners to identify (i) what they are subject to, (ii) Assess the Opportunity or challenge in a Systemic Context, (iii) Explore Multiple Perspectives on the opportunity or Challenge with an Orientation to change how you know and (iv) Using the Questioning Activity to create Knowledge. Based on my experience I conclude that transformative thinking and practice is a key enabler for a property entrepreneur, in responding to a major collapse of traditional (bank debt) funding.
Resumo:
An alternative models framework was used to test three confirmatory factor analytic models for the Short Leyton Obsessional Inventory-Children's Version (Short LOI-CV) in a general population sample of 517 young adolescent twins (11-16 years). A one-factor model as implicit in current classification systems of Obsessive-Compulsive Disorder (OCD), a two-factor obsessions and compulsions model, and a multidimensional model corresponding to the three proposed subscales of the Short LOI-CV (labelled Obsessions/Incompleteness, Numbers/Luck and Cleanliness) were considered. The three-factor model was the only model to provide an adequate explanation of the data. Twin analyses suggested significant quantitative sex differences in heritability for both the Obsessions/Incompleteness and Numbers/Luck dimensions with these being significantly heritable in males only (heritability of 60% and 65% respectively). The correlation between the additive genetic effects for these two dimensions in males was 0.95 suggesting they largely share the same genetic risk factors.
Resumo:
As a class of defects in software requirements specification, inconsistency has been widely studied in both requirements engineering and software engineering. It has been increasingly recognized that maintaining consistency alone often results in some other types of non-canonical requirements, including incompleteness of a requirements specification, vague requirements statements, and redundant requirements statements. It is therefore desirable for inconsistency handling to take into account the related non-canonical requirements in requirements engineering. To address this issue, we propose an intuitive generalization of logical techniques for handling inconsistency to those that are suitable for managing non-canonical requirements, which deals with incompleteness and redundancy, in addition to inconsistency. We first argue that measuring non-canonical requirements plays a crucial role in handling them effectively. We then present a measure-driven logic framework for managing non-canonical requirements. The framework consists of five main parts, identifying non-canonical requirements, measuring them, generating candidate proposals for handling them, choosing commonly acceptable proposals, and revising them according to the chosen proposals. This generalization can be considered as an attempt to handle non-canonical requirements along with logic-based inconsistency handling in requirements engineering.
Resumo:
In many CCTV and sensor network based intelligent surveillance systems, a number of attributes or criteria are used to individually evaluate the degree of potential threat of a suspect. The outcomes for these attributes are in general from analytical algorithms where data are often pervaded with uncertainty and incompleteness. As a result, such individual threat evaluations are often inconsistent, and individual evaluations can change as time elapses. Therefore, integrating heterogeneous threat evaluations with temporal influence to obtain a better overall evaluation is a challenging issue. So far, this issue has rarely be considered by existing event reasoning frameworks under uncertainty in sensor network based surveillance. In this paper, we first propose a weighted aggregation operator based on a set of principles that constraints the fusion of individual threat evaluations. Then, we propose a method to integrate the temporal influence on threat evaluation changes. Finally, we demonstrate the usefulness of our system with a decision support event modeling framework using an airport security surveillance scenario.
Resumo:
In this paper : a) the consumer’s problem is studied over two periods, the second one involving S states, and the consumer being endowed with S+1 incomes and having access to N financial assets; b) the consumer is then representable by a continuously differentiable system of demands, commodity demands, asset demands and desirabilities of incomes (the S+1 Lagrange multiplier of the S+1 constraints); c) the multipliers can be transformed into subjective Arrow prices; d) the effects of the various incomes on these Arrow prices decompose into a compensation effect (an Antonelli matrix) and a wealth effect; e) the Antonelli matrix has rank S-N, the dimension of incompleteness, if the consumer can financially adjust himself when facing income shocks; f) the matrix has rank S, if not; g) in the first case, the matrix represents a residual aversion; in the second case, a fundamental aversion; the difference between them is an aversion to illiquidity; this last relation corresponds to the Drèze-Modigliani decomposition (1972); h) the fundamental aversion decomposes also into an aversion to impatience and a risk aversion; i) the above decompositions span a third decomposition; if there exists a sure asset (to be defined, the usual definition being too specific), the fundamental aversion admits a three-component decomposition, an aversion to impatience, a residual aversion and an aversion to the illiquidity of risky assets; j) the formulas of the corresponding financial premiums are also presented.
Resumo:
The purpose of this paper is, first, to investigate the interconnections of substantive freedoms, which are indispensable for every individual to “lead the kind of lives they have reason to value” (Sen, 1999b, p.10,18), and which have legitimate and ethical reasons to be publicly secured, second, to investigate a conception of public-provision unit that embodies “the right to well-being freedom”, and a conception of decision-making unit that corresponds to it, based on the perspective of Sen’s capability theory and its extension, comparing with that of Rawls’ Theory of Justice and A Law of People. If we intend to construct such a public-provision unit, which conducts redistribution as a whole, and which receives every individual who cannot belong to any fixed local group, what kind of a body should we assume as a public-provision unit? And further, what kind of a body should we assume as a decision-making unit, which is responsible for deciding or revising the basic conceptions of public provision unit?
Resumo:
L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif.
Resumo:
Cette thèse comporte trois essais en macroéconomie en économie ouverte et commerce international. Je considère tour à tour les questions suivantes: sous quelles conditions est-il optimal pour un pays de former une union économique? (essai 1); l'augmentation de la dispersion transversale des avoirs extérieurs nets des pays est-elle compatible avec une dispersion relativement stable des taux d'investissement? (essai 2); le risque de perte de marché à l'exportation du fait de l'existence des zones de commerce préférentiel joue t-il un rôle dans la décision des pays exclus de négocier des accords commerciaux à leur tour? (essai 3). Le premier essai examine les conditions d'optimalité d'une union économique. Il s'intéresse à une motivation particulière: le partage du risque lié aux fluctuations du revenu. Dans la situation initiale, les pays ont très peu d'opportunités pour partager le risque à cause des frictions: les marchés financiers internationaux sont incomplets et il n'y pas de mécanisme pour faire respecter les contrats de crédit entre pays. Dans ce contexte, une union économique apparait comme un arrangement qui pallie à ces frictions entre les pays membres seulement. Cependant, l'union dans son ensemble continue de faire face à ces frictions lorsqu'elle échange avec le reste du monde. L'arbitrage clé dans le modèle est le suivant. D'un coté, l'intégration économique permet un meilleur partage du risque entre pays membres et la possibilité pour le partenaire pauvre d'utiliser la ligne de crédit du partenaire riche en cas de besoin. De l'autre coté, l'union peut faire face à une limite de crédit plus restrictive parce que résilier la dette extérieure est moins coûteux pour les membres l'union. De plus, le fait que le partenaire pauvre peut utiliser la limite de crédit du partenaire riche génère une externalité négative pour ce dernier qui se retrouve plus fréquemment contraint au niveau des marchés internationaux des capitaux. En conformité avec les faits observés sur l'intégration économique, le modèle prédit que les unions économiques sont relativement peu fréquentes, sont plus susceptibles d'être créées parmi des pays homogènes, et généralement riches. Le deuxième essai porte sur la dispersion des avoirs extérieurs nets et la relation avec la dispersion des taux d'investissement. Au cours des récentes décennies, la dispersion croissante des déséquilibres extérieurs et les niveaux record atteints par certaines grandes économies ont reçu une attention considérable. On pourrait attribuer ce phénomène à une réduction des barrières aux mouvements internationaux des capitaux. Mais dans ce cas, il est légitime de s'attendre à une augmentation de la dispersion au niveau des taux d'investissement; ceci, parce que le financement des besoins en investissements constitue une raison fondamentale pour laquelle les pays échangent les capitaux. Les données indiquent cependant que la dispersion des taux d'investissement est restée relativement stable au cours des récentes décennies. Pour réconcilier ces faits, je construis un modèle d'équilibre général dynamique et stochastique où les pays sont hétérogènes en raison des chocs idiosyncratiques à leurs niveaux de productivité totale des facteurs. Au niveau des marchés internationaux des capitaux, le menu des actifs disponibles est restreint à une obligation sans risque et il n'y a pas de mécanisme pour faire respecter les contrats de crédit entre pays. A tout moment, un pays peut choisir de résilier sa dette extérieure sous peine d'exclusion financière et d'un coût direct. Ce coût direct reflète les canaux autres que l'exclusion financière à travers lesquels les pays en défaut sont pénalisés. Lorsque le modèle est calibré pour reproduire l'évolution de la dispersion transversale des avoirs extérieurs nets, il produit une dispersion relativement stable des taux d'investissement. La raison principale est que les incitations que les pays ont à investir sont liées à la productivité. Avec l'intégration financière, même si les opportunités d'emprunt se sont multipliées, les incitations à investir n'ont pas beaucoup changé. Ce qui permet de générer une dispersion accrue de la position des avoirs extérieurs nets des pays avec une dispersion relativement stable des taux d'investissement. Le troisième essai analyse un aspect de l'interdépendance dans la formation des accords commerciaux préférentiels: j'examine empiriquement si le risque de diversion des exportations en faveur des pays membres des zones de commerce préférentiel est un facteur déterminant dans la décision des pays exclus de ces accords de négocier un accord à leur tour. Je construis un indicateur qui mesure le potentiel de diversion des exportations auquel font face les pays et estime un modèle probit de formation des zones de commerce préférentiel créées entre 1961 et 2005. Les résultats confirment que les pays confrontés à un plus grand potentiel de détournement des échanges sont plus susceptibles de former une zone de commerce préférentiel à leur tour.
Resumo:
Cette thèse porte sur les questions d'évaluation et de couverture des options dans un modèle exponentiel-Lévy avec changements de régime. Un tel modèle est construit sur un processus additif markovien un peu comme le modèle de Black- Scholes est basé sur un mouvement Brownien. Du fait de l'existence de plusieurs sources d'aléa, nous sommes en présence d'un marché incomplet et ce fait rend inopérant les développements théoriques initiés par Black et Scholes et Merton dans le cadre d'un marché complet. Nous montrons dans cette thèse que l'utilisation de certains résultats de la théorie des processus additifs markoviens permet d'apporter des solutions aux problèmes d'évaluation et de couverture des options. Notamment, nous arrivons à caracté- riser la mesure martingale qui minimise l'entropie relative à la mesure de probabilit é historique ; aussi nous dérivons explicitement sous certaines conditions, le portefeuille optimal qui permet à un agent de minimiser localement le risque quadratique associé. Par ailleurs, dans une perspective plus pratique nous caract érisons le prix d'une option Européenne comme l'unique solution de viscosité d'un système d'équations intégro-di érentielles non-linéaires. Il s'agit là d'un premier pas pour la construction des schémas numériques pour approcher ledit prix.