999 resultados para Teoria da Computação
Resumo:
The standard kinetic theory for a nonrelativistic diluted gas is generalized in the spirit of the nonextensive statistic distribution introduced by Tsallis. The new formalism depends on an arbitrary q parameter measuring the degree of nonextensivity. In the limit q = 1, the extensive Maxwell-Boltzmann theory is recovered. Starting from a purely kinetic deduction of the velocity q-distribution function, the Boltzmann H-teorem is generalized for including the possibility of nonextensive out of equilibrium effects. Based on this investigation, it is proved that Tsallis' distribution is the necessary and sufficient condition defining a thermodynamic equilibrium state in the nonextensive context. This result follows naturally from the generalized transport equation and also from the extended H-theorem. Two physical applications of the nonextensive effects have been considered. Closed analytic expressions were obtained for the Doppler broadening of spectral lines from an excited gas, as well as, for the dispersion relations describing the eletrostatic oscillations in a diluted electronic plasma. In the later case, a comparison with the experimental results strongly suggests a Tsallis distribution with the q parameter smaller than unity. A complementary study is related to the thermodynamic behavior of a relativistic imperfect simple fluid. Using nonequilibrium thermodynamics, we show how the basic primary variables, namely: the energy momentum tensor, the particle and entropy fluxes depend on the several dissipative processes present in the fluid. The temperature variation law for this moving imperfect fluid is also obtained, and the Eckart and Landau-Lifshitz formulations are recovered as particular cases
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Resumo:
Cet article a comme objectif présenter la contribution de la Psychologie Historique-Culturelle pour l'analyse critique de l'évaluation psychoéducationnel traditionnel et postuler les fondements pour la nouvelle modalité évaluative. Cette proposition se justifie à cause de l'actuelle révitalisation de l'usage des testes padronisés pour la mensuration des fonctions psychologiques, dues à la vulgarisation de la neuropsychologie. Historiquement les testes padronisés servent comme instrument pour attester cientifiquement l'idéologie de l'égalité entre les hommes dans la societé capitaliste que se maintient à travers de l'expropriation et de l'exclusion. En outre, il existe une forte tendence à attendre que les résultats expliquent l'intelligence comme inée ou considèrent les prédispositions héréditaires pour apprendre, ce qu'on oppose à la comprehénsion que les fonctions mentales sont formées dans le proccès de développement historique-social à travers l'appropriation de la culture humaine. Il est nécessaire donc une évaluation qui considère les médiations sociales (des instruments et des signes) comme constituants des fonctions psychologiques encourageant le développement de tous les individus et la non légitimation de l'exclusion sociale.
Resumo:
O presente artigo objetiva demonstrar o alcance das pedagogias do aprender a aprender (DUARTE, 2001), uma vez que elas fundamentam as propostas educacionais no âmbito nacional e no internacional, na atualidade; bem como apresentar suas principais premissas, que mantêm sua filiação ao pragmatismo e ao irracionalismo e, no limite, submetem o desenvolvimento humano à ordem do capital. Tais proposições se contrapõem ao objetivo humanizador da educação escolar pressuposto na produção teórica do psicólogo soviético Alexis Leontiev. Como resultados, temos que, dessas produções, é possível extrair subsídios para o enfrentamento do processo de esvaziamento do ensino escolar e do papel do professor engendrado pelas referidas pedagogias. Além disso, pretendese evidenciar a impossibilidade de aproximações entre as produções da psicologia histórico-cultural com outras correntes pedagógicas que estão a serviço da legitimação e do revigoramento da sociedade capitalista.
Resumo:
O presente artigo tem por objetivo abordar as bases, finalidades e composição de dois instrumentos de avaliação de juízo moral: a Moral Judgment Interview (MJI) e o Defining Issues Test (DIT), e um de competência moral: o Moral Judgment Test (MJT). Retoma a teoria do desenvolvimento moral de Kohlberg que fundamenta esses instrumentos, assim como os últimos estudos realizados com os mesmos. A MJI é uma entrevista semiestruturada que avalia o nível de juízo moral. O DIT é um teste objetivo que mede a proporção de respostas pós-convencionais. O MJT é um instrumento objetivo, que avalia a competência moral. Destaca-se a crescente utilização desses instrumentos em pesquisas sobre moralidade.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
One of the current challenges of Ubiquitous Computing is the development of complex applications, those are more than simple alarms triggered by sensors or simple systems to configure the environment according to user preferences. Those applications are hard to develop since they are composed by services provided by different middleware and it is needed to know the peculiarities of each of them, mainly the communication and context models. This thesis presents OpenCOPI, a platform which integrates various services providers, including context provision middleware. It provides an unified ontology-based context model, as well as an environment that enable easy development of ubiquitous applications via the definition of semantic workflows that contains the abstract description of the application. Those semantic workflows are converted into concrete workflows, called execution plans. An execution plan consists of a workflow instance containing activities that are automated by a set of Web services. OpenCOPI supports the automatic Web service selection and composition, enabling the use of services provided by distinct middleware in an independent and transparent way. Moreover, this platform also supports execution adaptation in case of service failures, user mobility and degradation of services quality. The validation of OpenCOPI is performed through the development of case studies, specifically applications of the oil industry. In addition, this work evaluates the overhead introduced by OpenCOPI and compares it with the provided benefits, and the efficiency of OpenCOPI s selection and adaptation mechanism
Resumo:
A natureza subjetiva da catalogação de assunto imprime certas peculiaridades nas ações dos profissionais que realizam a atividade em domínios específicos. Sendo assim, mostra-se necessária à realização de estudos que cerquem as ações dos catalogadores de assunto, ancoradas na realidade do contexto de bibliotecas universitárias, para a obtenção dos fatores influentes do saber e do fazer profissional. Portanto, analisa-se o conhecimento profissional acerca da sistematicidade do processo da catalogação de assunto em perspectiva sociocognitiva. Para tanto, aplica-se a técnica de Protocolo Verbal em Grupo com três catalogadores de assunto de distintas bibliotecas universitárias do estado de São Paulo, a fim de conhecer a realidade do processo da catalogação de assunto pela perspectiva profissional. Os resultados apontam a necessidade de instrumentos metodológicos que propiciem sustentabilidade prática à catalogação de assunto, em contexto de bibliotecas universitárias.
Resumo:
Este artigo é uma tentativa de delinear as principais características da pesquisa numa nova área de estudos a chamada Inteligência Artificial (AI). Os itens 1 e 2 constituem um rápido histórico da AI e seus pressupostos básicos. O item 3 trata da teoria de resolução de problemas, desenvolvida por A. Newell e H. Simon. O item 4 procura mostrar a relevância da AI para a Filosofia, em especial para a filosofia da Mente e para a Teoria do Conhecimento.
Resumo:
O presente artigo investiga como A teoria do romance (1916) de G. Lukács, um texto fragmentado e de ocasião, tornou-se um clássico da reflexão sobre a modernidade. Para Lukács, o romance é a forma artística que corresponde à fratura entre o sujeito e o mundo, vivida pelo homem contemporâneo. Utilizando o conceito de símbolo esvaziado este texto apreende em que medida o autor ao rever as classificações anteriores sobre o gênero romance, perpetua a tradição romântica ou rompe com ela, elaborando conceitos originais para a compreensão da modernidade na literatura.
Resumo:
A matemática intervalar é uma teoria matemática originada na década de 60 com o objetivo de responder questões de exatidão e eficiência que surgem na prática da computação científica e na resolução de problemas numéricos. As abordagens clássicas para teoria da computabilidade tratam com problemas discretos (por exemplo, sobre os números naturais, números inteiros, strings sobre um alfabeto finito, grafos, etc.). No entanto, campos da matemática pura e aplicada tratam com problemas envolvendo números reais e números complexos. Isto acontece, por exemplo, em análise numérica, sistemas dinâmicos, geometria computacional e teoria da otimização. Assim, uma abordagem computacional para problemas contínuos é desejável, ou ainda necessária, para tratar formalmente com computações analógicas e computações científicas em geral. Na literatura existem diferentes abordagens para a computabilidade nos números reais, mas, uma importante diferença entre estas abordagens está na maneira como é representado o número real. Existem basicamente duas linhas de estudo da computabilidade no contínuo. Na primeira delas uma aproximação da saída com precisão arbitrária é computada a partir de uma aproximação razoável da entrada [Bra95]. A outra linha de pesquisa para computabilidade real foi desenvolvida por Blum, Shub e Smale [BSS89]. Nesta aproximação, as chamadas máquinas BSS, um número real é visto como uma entidade acabada e as funções computáveis são geradas a partir de uma classe de funções básicas (numa maneira similar às funções parciais recursivas). Nesta dissertação estudaremos o modelo BSS, usado para se caracterizar uma teoria da computabilidade sobre os números reais e estenderemos este para se modelar a computabilidade no espaço dos intervalos reais. Assim, aqui veremos uma aproximação para computabilidade intervalar epistemologicamente diferente da estudada por Bedregal e Acióly [Bed96, BA97a, BA97b], na qual um intervalo real é visto como o limite de intervalos racionais, e a computabilidade de uma função intervalar real depende da computabilidade de uma função sobre os intervalos racionais
Resumo:
O método de combinação de Nelson-Oppen permite que vários procedimentos de decisão, cada um projetado para uma teoria específica, possam ser combinados para inferir sobre teorias mais abrangentes, através do princípio de propagação de igualdades. Provadores de teorema baseados neste modelo são beneficiados por sua característica modular e podem evoluir mais facilmente, incrementalmente. Difference logic é uma subteoria da aritmética linear. Ela é formada por constraints do tipo x − y ≤ c, onde x e y são variáveis e c é uma constante. Difference logic é muito comum em vários problemas, como circuitos digitais, agendamento, sistemas temporais, etc. e se apresenta predominante em vários outros casos. Difference logic ainda se caracteriza por ser modelada usando teoria dos grafos. Isto permite que vários algoritmos eficientes e conhecidos da teoria de grafos possam ser utilizados. Um procedimento de decisão para difference logic é capaz de induzir sobre milhares de constraints. Um procedimento de decisão para a teoria de difference logic tem como objetivo principal informar se um conjunto de constraints de difference logic é satisfatível (as variáveis podem assumir valores que tornam o conjunto consistente) ou não. Além disso, para funcionar em um modelo de combinação baseado em Nelson-Oppen, o procedimento de decisão precisa ter outras funcionalidades, como geração de igualdade de variáveis, prova de inconsistência, premissas, etc. Este trabalho apresenta um procedimento de decisão para a teoria de difference logic dentro de uma arquitetura baseada no método de combinação de Nelson-Oppen. O trabalho foi realizado integrando-se ao provador haRVey, de onde foi possível observar o seu funcionamento. Detalhes de implementação e testes experimentais são relatados
Resumo:
Intendding to understand how the human mind operates, some philosophers and psycologists began to study about rationality. Theories were built from those studies and nowadays that interest have been extended to many other areas such as computing engineering and computing science, but with a minimal distinction at its goal: to understand the mind operational proccess and apply it on agents modelling to become possible the implementation (of softwares or hardwares) with the agent-oriented paradigm where agents are able to deliberate their own plans of actions. In computing science, the sub-area of multiagents systems has progressed using several works concerning artificial intelligence, computational logic, distributed systems, games theory and even philosophy and psycology. This present work hopes to show how it can be get a logical formalisation extention of a rational agents architecture model called BDI (based in a philosophic Bratman s Theory) in which agents are capable to deliberate actions from its beliefs, desires and intentions. The formalisation of this model is called BDI logic and it is a modal logic (in general it is a branching time logic) with three access relations: B, D and I. And here, it will show two possible extentions that tranform BDI logic in a modal-fuzzy logic where the formulae and the access relations can be evaluated by values from the interval [0,1]
Resumo:
In this work will applied the technique of Differential Cryptanalysis, introduced in 1990 by Biham and Shamir, on Papílio s cryptosystem, developed by Karla Ramos, to test and most importantly, to prove its relevance to other block ciphers such as DES, Blowfish and FEAL-N (X). This technique is based on the analysis of differences between plaintext and theirs respective ciphertext, in search of patterns that will assist in the discovery of the subkeys and consequently in the discovery of master key. These differences are obtained by XOR operations. Through this analysis, in addition to obtaining patterns of Pap´ılio, it search to obtain also the main characteristics and behavior of Papilio throughout theirs 16 rounds, identifying and replacing when necessary factors that can be improved in accordance with pre-established definitions of the same, thus providing greater security in the use of his algoritm
Resumo:
Despite the emergence of other forms of artificial lift, sucker rod pumping systems remains hegemonic because of its flexibility of operation and lower investment cost compared to other lifting techniques developed. A successful rod pumping sizing necessarily passes through the supply of estimated flow and the controlled wear of pumping equipment used in the mounted configuration. However, the mediation of these elements is particularly challenging, especially for most designers dealing with this work, which still lack the experience needed to get good projects pumping in time. Even with the existence of various computer applications on the market in order to facilitate this task, they must face a grueling process of trial and error until you get the most appropriate combination of equipment for installation in the well. This thesis proposes the creation of an expert system in the design of sucker rod pumping systems. Its mission is to guide a petroleum engineer in the task of selecting a range of equipment appropriate to the context provided by the characteristics of the oil that will be raised to the surface. Features such as the level of gas separation, presence of corrosive elements, possibility of production of sand and waxing are taken into account in selecting the pumping unit, sucker-rod strings and subsurface pump and their operation mode. It is able to approximate the inferente process in the way of human reasoning, which leads to results closer to those obtained by a specialist. For this, their production rules were based on the theory of fuzzy sets, able to model vague concepts typically present in human reasoning. The calculations of operating parameters of the pumping system are made by the API RP 11L method. Based on information input, the system is able to return to the user a set of pumping configurations that meet a given design flow, but without subjecting the selected equipment to an effort beyond that which can bear