927 resultados para Paradigm of complexity
Resumo:
Nontwist systems, common in the dynamical descriptions of fluids and plasmas, possess a shearless curve with a concomitant transport barrier that eliminates or reduces chaotic transport, even after its breakdown. In order to investigate the transport properties of nontwist systems, we analyze the barrier escape time and barrier transmissivity for the standard nontwist map, a paradigm of such systems. We interpret the sensitive dependence of these quantities upon map parameters by investigating chaotic orbit stickiness and the associated role played by the dominant crossing of stable and unstable manifolds. (C) 2009 American Institute of Physics. [doi: 10.1063/1.3247349]
Resumo:
Environmental processes have been modelled for decades. However. the need for integrated assessment and modeling (IAM) has,town as the extent and severity of environmental problems in the 21st Century worsens. The scale of IAM is not restricted to the global level as in climate change models, but includes local and regional models of environmental problems. This paper discusses various definitions of IAM and identifies five different types of integration that Lire needed for the effective solution of environmental problems. The future is then depicted in the form of two brief scenarios: one optimistic and one pessimistic. The current state of IAM is then briefly reviewed. The issues of complexity and validation in IAM are recognised as more complex than in traditional disciplinary approaches. Communication is identified as a central issue both internally among team members and externally with decision-makers. stakeholders and other scientists. Finally it is concluded that the process of integrated assessment and modelling is considered as important as the product for any particular project. By learning to work together and recognise the contribution of all team members and participants, it is believed that we will have a strong scientific and social basis to address the environmental problems of the 21st Century. (C) 2002 Elsevier Science Ltd. All rights reserved.
Resumo:
A program can be refined either by transforming the whole program or by refining one of its components. The refinement of a component is, for the main part, independent of the remainder of the program. However, refinement of a component can depend on the context of the component for information about the variables that are in scope and what their types are. The refinement can also take advantage of additional information, such as any precondition the component can assume. The aim of this paper is to introduce a technique, which we call program window inference, to handle such contextual information during derivations in the refinement calculus. The idea is borrowed from a technique, called window inference, for handling context in theorem proving. Window inference is the primary proof paradigm of the Ergo proof editor. This tool has been extended to mechanize refinement using program window inference. (C) 1997 Elsevier Science B.V.
Resumo:
Neuroimmunomodulation describes the field focused on understanding the mechanisms by which the central nervous system interacts with the immune system, potentially leading to changes in animal behavior. Nonetheless, not many articles dealing with neuroimmunomodulation employ behavior as an analytical endpoint. Even fewer papers deal with social status as a possible modifier of neuroimmune phenomena. In the described sets of experiments, we tackle both, using a paradigm of social dominance and subordination. We first review data on the effects of different ranks within a stable hierarchical relationship. Submissive mice in this condition display more anxiety-like behaviors, have decreased innate immunity, and show a decreased resistance to implantation and development of melanoma metastases in their lungs. This suggests that even in a stable, social, hierarchical rank, submissive animals may be subjected to higher levels of stress, with putative biological relevance to host susceptibility to disease. Second, we review data on how dominant and submissive mice respond differentially to lipopolysaccharide (LPS), employing a motivational perspective to sickness behavior. Dominant animals display decreased number and frequency in several aspects of behavior, particularly agonistic social interaction, that is, directed toward the submissive cage mate. This was not observed in submissive mice that maintained the required behavior expected by its dominant mate. Expression of sickness behavior relies on motivational reorganization of priorities, which are different along different social ranks, leading to diverse outcomes. We suggest that in vitro assessment of neuroimmune phenomena can only be understood based on the behavioral context in which they occur.
Resumo:
As end-user computing becomes more pervasive, an organization's success increasingly depends on the ability of end-users, usually in managerial positions, to extract appropriate data from both internal and external sources. Many of these data sources include or are derived from the organization's accounting information systems. Managerial end-users with different personal characteristics and approaches are likely to compose queries of differing levels of accuracy when searching the data contained within these accounting information systems. This research investigates how cognitive style elements of personality influence managerial end-user performance in database querying tasks. A laboratory experiment was conducted in which participants generated queries to retrieve information from an accounting information system to satisfy typical information requirements. The experiment investigated the influence of personality on the accuracy of queries of varying degrees of complexity. Relying on the Myers–Briggs personality instrument, results show that perceiving individuals (as opposed to judging individuals) who rely on intuition (as opposed to sensing) composed queries more accurately. As expected, query complexity and academic performance also explain the success of data extraction tasks.
Resumo:
Arguably the most complex conical functions are seated in human cognition, the how and why of which have been debated for centuries by theologians, philosophers and scientists alike. In his best-selling book, An Astonishing Hypothesis: A Scientific Search for the Soul, Francis Crick refined the view that these qualities are determined solely by cortical cells and circuitry. Put simply, cognition is nothing more, or less, than a biological function. Accepting this to be the case, it should be possible to identify the mechanisms that subserve cognitive processing. Since the pioneering studies of Lorent de No and Hebb, and the more recent studies of Fuster, Miller and Goldman-Rakic, to mention but a few, much attention has been focused on the role of persistent neural activity in cognitive processes. Application of modern technologies and modelling techniques has led to new hypotheses about the mechanisms of persistent activity. Here I focus on how regional variations in the pyramidal cell phenotype may determine the complexity of cortical circuitry and, in turn, influence neural activity. Data obtained from thousands of individually injected pyramidal cells in sensory, motor, association and executive cortex reveal marked differences in the numbers of putative excitatory inputs received by these cells. Pyramidal cells in prefrontal cortex have, on average, up to 23 times more dendritic spines than those in the primary visual area. I propose that without these specializations in the structure of pyramidal cells, and the circuits they form, human cognitive processing would not have evolved to its present state. I also present data from both New World and Old World monkeys that show varying degrees of complexity in the pyramidal cell phenotype in their prefrontal cortices, suggesting that cortical circuitry and, thus, cognitive styles are evolving independently in different species.
Resumo:
O conhecimento e a gest??o do conhecimento t??m sido focos de uma intensa discuss??o sobre como as organiza????es privadas podem obter vantagens competitivas e atingir elevados patamares de flexibilidade, produtividade e inova????o, sem que, no entanto, esta disciplina seja devidamente debatida e/ou incorporada pelo setor p??blico brasileiro. A partir da perspectiva dos autores de maior prest??gio no assunto, este trabalho apresenta os principais conceitos e aspectos relacionados a este novo paradigma de gest??o organizacional, de modo a identificar quais seriam os principais desafios para a implanta????o de projetos de gest??o do conhecimento no ??mbito da administra????o p??blica. Adicionalmente, este trabalho prop??e a ado????o de um novo modelo de gest??o do conhecimento, mais consistente e adequado ??s organiza????es p??blicas. O modelo de gest??o apresentado prop??e-se a servir como susbs??dio para um debate te??rico e metodol??gico sobre como a gest??o do conhecimento poderia ser incorporada ?? tarefa de buscar melhores n??veis de gest??o para as organiza????es p??blicas brasileiras, de forma a torn??-las mais capacitadas a fazerem frente ??s interfer??ncias que j?? provocaram a fal??ncia das inst??ncias de planejamento e or??amento no setor p??blico, o abandono da padroniza????o e da melhoria dos procedimentos administrativos, a desestrutura????o da fun????o p??blica e das pol??ticas de recursos humanos, a persistente descontinuidade de projetos e de pol??ticas p??blicas, assim como permita resgatar a credibilidade nos mecanismos internos de repress??o e de puni????o ??queles agentes que adotam pr??ticas ou condutas que v??o de encontro aos princ??pios morais e ??s normas jur??dicas estabelecidas.
Resumo:
Com base em pesquisa bibliográfica e documental, e fazendo uso da análise de conteúdo, este trabalho tem como objetivo geral analisar a meta erradicar a pobreza até 2025, constituinte do Plano de Desenvolvimento Espírito Santo 2025. Compreendemos que essa meta faz parte do modelo de ―desenvolvimento sustentado‖ elaborado pela burguesia capixaba, organizada no Movimento Empresarial Espírito Santo em Ação, e em articulação com o executivo estadual e a Petrobrás, sem que tenha havido participação de trabalhadores na elaboração do Plano mencionado. Seguem-se as principais conclusões. A meta em questão foi construída sob o marco ideopolítico e teórico da ―internacionalização do combate à pobreza‖, transpondo-se para o território estadual o discurso hegemônico de erradicação daquela condição social, entendida como sendo, em última análise, de responsabilidade do indivíduo, e não enquanto consequência direta do modo de produção capitalista. Além disso, os pobres são compreendidos, na elaboração da meta, de forma dual: ora identificados através do ―pressuposto da falta‖, ora enquanto ―agentes‖ livres para construir seu próprio futuro. Em consequência dessa dualidade, são propostas duas vias de ação tidas como essenciais para ―erradicar a pobreza‖: uma, centrada na transferência de renda para os que vivem na pobreza mais acentuada, e outra, na concessão de (micro)crédito para os pobres não miseráveis, com vistas a possibilitar que se tornem ―empreendedores‖. A meta analisada visa contribuir para promover a ―paz social‖, através da contenção dos pobres e de sua latente revolta diante de sua degradada condição de vida em território espírito-santense, o que demonstra sua funcionalidade para naturalizar e gerir a barbárie que marca a contemporaneidade capitalista.
Resumo:
Talvez não seja nenhum exagero afirmar que há quase um consenso entre os praticantes da Termoeconomia de que a exergia, ao invés de só entalpia, seja a magnitude Termodinâmica mais adequada para ser combinada com o conceito de custo na modelagem termoeconômica, pois esta leva em conta aspectos da Segunda Lei da Termodinâmica e permite identificar as irreversibilidades. Porém, muitas vezes durante a modelagem termoeconômica se usa a exergia desagregada em suas parcelas (química, térmica e mecânica), ou ainda, se inclui a neguentropia que é um fluxo fictício, permitindo assim a desagregação do sistema em seus componentes (ou subsistemas) visando melhorar e detalhar a modelagem para a otimização local, diagnóstico e alocação dos resíduos e equipamentos dissipativos. Alguns autores também afirmam que a desagregação da exergia física em suas parcelas (térmica e mecânica) permite aumentar a precisão dos resultados na alocação de custos, apesar de fazer aumentar a complexidade do modelo termoeconômico e consequentemente os custos computacionais envolvidos. Recentemente alguns autores apontaram restrições e possíveis inconsistências do uso da neguentropia e deste tipo de desagregação da exergia física, propondo assim alternativas para o tratamento de resíduos e equipamentos dissipativos que permitem a desagregação dos sistemas em seus componentes. Estas alternativas consistem, basicamente, de novas propostas de desagregação da exergia física na modelagem termoeconômica. Sendo assim, este trabalho tem como objetivo avaliar as diferentes metodologias de desagregação da exergia física para a modelagem termoeconômica, tendo em conta alguns aspectos como vantagens, restrições, inconsistências, melhoria na precisão dos resultados, aumento da complexidade e do esforço computacional e o tratamento dos resíduos e equipamentos dissipativos para a total desagregação do sistema térmico. Para isso, as diferentes metodologias e níveis de desagregação da exergia física são aplicados na alocação de custos para os produtos finais (potência líquida e calor útil) em diferentes plantas de cogeração considerando como fluido de trabalho tanto o gás ideal bem como o fluido real. Plantas essas com equipamentos dissipativos (condensador ou válvula) ou resíduos (gases de exaustão da caldeira de recuperação). Porém, foi necessário que uma das plantas de cogeração não incorporasse equipamentos dissipativos e nem caldeira de recuperação com o intuito de avaliar isoladamente o efeito da desagregação da exergia física na melhoria da precisão dos resultados da alocação de custos para os produtos finais.
Resumo:
Esta tese se propôs investigar a lógica inferencial das ações e suas significações em situações que mobilizam as noções de composição probabilística e acaso, bem como o papel dos modelos de significação no funcionamento cognitivo de adultos. Participaram 12 estudantes adultos jovens da classe popular, voluntários, de ambos os sexos, de um curso técnico integrado ao Ensino Médio da Educação de Jovens e Adultos. Foram realizados três encontros, individualmente, com registro em áudio e planilha eletrônica, utilizando-se dois jogos, o Likid Gaz e o Lucky Cassino, do software Missão Cognição (Haddad-Zubel, Pinkas & Pécaut, 2006), e o jogo Soma dos Dados (Silva, Rossetti & Cristo, 2012). Os procedimentos da tarefa foram adaptados de Silva e Frezza (2011): 1) apresentação do jogo; 2) execução do jogo; 3) entrevista semiestruturada; 4) aplicação de três situações-problema com intervenção segundo o Método Clínico; 5) nova partida do jogo; e 6) realização de outras duas situações-problema sem intervenção do Método Clínico. Elaboraram-se níveis de análise heurística, compreensão dos jogos e modelos de significação a partir da identificação de particularidades de procedimentos e significações nos jogos. O primeiro estudo examinou as implicações dos modelos de significação e representações prévias no pensamento do adulto, considerando que o sujeito organiza suas representações ou esquemas prévios relativos a um objeto na forma de modelos de significação em função do grau de complexidade e novidade da tarefa e de sua estrutura lógico matemática, que evoluem por meio do processo de equilibração; para o que precisa da demanda a significar esse aspecto da 13 realidade. O segundo estudo investigou a noção de combinação deduzível evidenciada no jogo Likid Gaz, identificando o papel dos modelos de significação na escolha dos procedimentos, implicando na rejeição de condutas de sistematização ou enumeração. Houve predominância dos níveis iniciais de análise heurística do jogo. O terceiro estudo examinou a noção de probabilidade observada no jogo Lucky Cassino, no qual a maioria dos participantes teve um nível de compreensão do jogo intermediário, com maior diversidade de modelos de significação em relação aos outros jogos, embora com predominância dos mais elementares. A síntese das noções de combinação, probabilidade e acaso foi explorada no quarto estudo pelo jogo Soma dos Dados (Silva, Rossetti & Cristo, 2012), identificando-se que uma limitação para adequada compreensão das ligações imbricadas nessas noções é a implicação significante – se aleatório A, então indeterminado D (notação A D), com construção de pseudonecessidades e pseudo-obrigações ou mesmo necessidades locais, generalizadas inapropriadamente. A resistência ou obstáculos do objeto deveria provocar perturbações, mas a estrutura cognitiva, o ambiente social e os modelos culturais, e a afetividade podem interferir nesse processo.
Resumo:
Discusses the formation of urban apparatus that have characterized promote interaction, connection, inclusion and learning within the new paradigm of knowledge, which corresponds to the process of involvement/ knowledge propagation between space and urban space, caused by various combinations. Rescues the importance of physical space in the contemporary city before the increasing spread of cyberspace as one that many theorists seem to be the future of humanity. It also discusses the importance of knowledge in various fields such as Philosophy, Sociology, Education, and especially the Architecture and Urbanism, highlighting the need to think about the city according to this status of knowledge. Shows how the apparatus are found in urban public policy agenda. In this context, used as a model the polygonal 1 of the city of Vitória, consisting of eight communities that call themselves Território do Bem, focusing on how ownership and endogenous production of spaces contribute to the formation of urban apparatus. Also shows the performance of the city of Vitória through the Multiyear Plan 2010/2013, pointing out the actions and the programs that contribute to the formation of urban apparatus. The results show that the apparatus are tools of participatory urban management and city planning, contributing to the process of autonomy and social emancipation
Resumo:
RESUMO: O objectivo desta investigação foi analisar as diferenças relativas à produção de recordações falsas, de acordo com o paradigma de associados convergentes. Foram realizadas experiências, nas quais participaram crianças entre os 4 e os 5 anos e adultos. Como metodologia adoptámos a apresentação de dez listas de palavras associadas a uma palavra não incluída na lista (palavra crítica). A ordem das palavras de cada lista foi manipulada de forma a ser apresentada em sentido decrescente de força associativa (ordem standard) ou em sentido crescente (ordem invertida). A instrução fornecida antes da apresentação das listas foi também manipulada nas crianças de forma a incluir uma condição em que se pedia para as crianças repetirem os primeiros três itens de cada lista com o intuito de aumentar a recordação desses itens (instrução de primazia). A predição inicial foi de que este tipo de manipulação ao aumentar a recordação dos itens mais fortemente associados ao item crítico poderia também levar a um aumento das recordações falsas relativas ao item crítico. Os resultados mostraram que a instrução de primazia não teve efeito na produção de memórias falsas e que, nas crianças o uso de listas invertidas diminuiu o número evocações falsas, não tendo qualquer efeito nos adultos. Não foram encontradas diferenças estatisticamente significativas entre as crianças e os adultos relativamente à produção de memórias falsas. ABSTRACT: The purpose of this investigation was to analyze the differences in the production of false memories, according to the paradigm of converging associates. Experiments were carried out, which involved children between 4 and 5 and adults. The methodology adopted was the presentation of ten lists of words associated with a word not included in the list (critical word). The word order of each list was manipulated so as to be presented in descending order of associative strength (standard order) or an increasing trend (inverted order). The instruction given prior to the presentation of lists was also manipulated, in children, to include a condition in which it was asked children to repeat the first three items in each list in order to increase the recall of these items (primacy' instruction). The initial prediction was that this kind of manipulation witch increase the recall of the items most strongly associated with the critical item could also lead to an increase in false memories relative to the critical item. The results showed that the primacy instruction had no effect on production of false memories and that, in children the use of inverted lists reduced the number of false evocations and has no effect in adults. There were no statistically significant differences between children and adults for the production of false memories.
Resumo:
No centro desta reflexão teórica situa-se a conjuntura sociopolítica que fez (re)emergir o 1.º ciclo do ensino básico como “problema” de política educativa, ou seja, como terreno prioritário para o Estado, através do Governo, formular e executar um “modelo” de operacionalização da política de “Escola a Tempo Inteiro” (ETI). Analisamos esta política reportando-a a referenciais de representação de um “novo modelo educativo” (dimensão educativa), de um “novo paradigma de escola pública” (dimensão política) e de uma “nova conceção de administração da educação” (dimensão administrativa). O recurso ao quadro heurístico da “análise das políticas públicas” permite pôr em evidência as representações e a ação governativas. At the centre of this theoretical reflection is the socio-political conjuncture that (re)emerged the 1st. cycle of basic education as an education policy “problem”, that is to say, a priority ground to the State, through the Government, create and implement an operational “model” for “full-time school” policy. We analyse this policy by referring to the referential representation of a “new educational model” (educational dimension), a “new paradigm of public school” (political dimension) and a “new conception of educational administration” (administrative dimension). The use of the heuristic framework of “public policy analysis” allows us to highlight the representations and governmental action.
Resumo:
Object-oriented programming languages presently are the dominant paradigm of application development (e. g., Java,. NET). Lately, increasingly more Java applications have long (or very long) execution times and manipulate large amounts of data/information, gaining relevance in fields related with e-Science (with Grid and Cloud computing). Significant examples include Chemistry, Computational Biology and Bio-informatics, with many available Java-based APIs (e. g., Neobio). Often, when the execution of such an application is terminated abruptly because of a failure (regardless of the cause being a hardware of software fault, lack of available resources, etc.), all of its work already performed is simply lost, and when the application is later re-initiated, it has to restart all its work from scratch, wasting resources and time, while also being prone to another failure and may delay its completion with no deadline guarantees. Our proposed solution to address these issues is through incorporating mechanisms for checkpointing and migration in a JVM. These make applications more robust and flexible by being able to move to other nodes, without any intervention from the programmer. This article provides a solution to Java applications with long execution times, by extending a JVM (Jikes research virtual machine) with such mechanisms. Copyright (C) 2011 John Wiley & Sons, Ltd.
Resumo:
In practical applications of optimization it is common to have several conflicting objective functions to optimize. Frequently, these functions are subject to noise or can be of black-box type, preventing the use of derivative-based techniques. We propose a novel multiobjective derivative-free methodology, calling it direct multisearch (DMS), which does not aggregate any of the objective functions. Our framework is inspired by the search/poll paradigm of direct-search methods of directional type and uses the concept of Pareto dominance to maintain a list of nondominated points (from which the new iterates or poll centers are chosen). The aim of our method is to generate as many points in the Pareto front as possible from the polling procedure itself, while keeping the whole framework general enough to accommodate other disseminating strategies, in particular, when using the (here also) optional search step. DMS generalizes to multiobjective optimization (MOO) all direct-search methods of directional type. We prove under the common assumptions used in direct search for single objective optimization that at least one limit point of the sequence of iterates generated by DMS lies in (a stationary form of) the Pareto front. However, extensive computational experience has shown that our methodology has an impressive capability of generating the whole Pareto front, even without using a search step. Two by-products of this paper are (i) the development of a collection of test problems for MOO and (ii) the extension of performance and data profiles to MOO, allowing a comparison of several solvers on a large set of test problems, in terms of their efficiency and robustness to determine Pareto fronts.