999 resultados para Processamento distribuído
Resumo:
Neste trabalho objetivou-se estudar como as diferenças no nível de conhecimento do decisor afetam a tomada de decisões, procurando aumentar o entendimento de diferentes resultados do processo decisório. Contemplou-se três grandes áreas: o processo decisório, a perspectiva cognitiva no processo decisório e a influência do nível de conhecimento sobre o objeto de decisão no processo de decisão. Utilizando uma tarefa decisória com múltiplas alternativas e múltiplos atributos realizou-se uma pesquisa do tipo experimental onde foram controladas as variáveis qualidade da informação, complexidade da tarefa decisória e tomadores de decisão especialistas e novatos. Após formuladas e testadas as hipóteses, chegou-se à conclusão de que decisores com menos conhecimento possuem menor autoconfiança excessiva e menor consistência no resultado da decisão do que decisores com mais conhecimento, sendo indiferente o consenso na comparação entre os mesmos. Quanto às estratégias decisórias, os decisores com menos conhecimento se utilizam mais de estratégias não compensatórias para chegar a escolha do que decisores com mais conhecimento. Tomadores de decisão com mais conhecimento cometem menor número de transgressões do método multicritério do que aqueles com menos conhecimento, porém há indicações de que os primeiros possuem mais motivos explícitos para as transgressões do que os últimos. Os dois grupos não diferem significativamente no tempo e número de passos para resolução das tarefas, mas durante o processo decisório para chegar a decisão final, os decisores com mais conhecimento são mais lineares do que aqueles com menos conhecimento, ou seja, se valem de menor número de passos e repetições para chegar à escolha final.
Resumo:
A recuperação por retorno baseada em checkpointing é largamente usada como técnica de tolerância a falhas. O modelo complexo de sistemas distribuídos tem motivado o desenvolvimento de diversos algoritmos na tentativa de encontrar soluções mais simples e eficientes. Os processos que formam o sistema distribuído podem coordenar suas operações para garantir que o conjunto de checkpoints locais componha um estado global consistente (linha de recuperação). A partir desse estado, no caso de ocorrência de falhas, o sistema pode ser recuperado e a computação retomada a partir de um momento anterior ao da manifestação da falha, evitando o retrocesso para o estado inicial da computação e prevenindo a ocorrência de prejuízos com a perda de todo processamento até então realizado. No Grupo de Tolerância a Falhas da UFRGS foi proposto recentemente um algoritmo que é voltado para aplicações que executam em sistemas distribuídos assíncronos que se comunicam exclusivamente pela troca de mensagens. Ele opera com salvamento coordenado de checkpoints (não bloqueando as aplicações) e prevê o tratamento de mensagens órfãs e perdidas. Os mecanismos do algoritmo sugerem que nenhuma alteração deveria ser realizada no código das aplicações, criando a possibilidade de implementação transparente sob o ponto de vista dos usuários e dos programadores das aplicações. Como o algoritmo não requer o bloqueio das aplicações, a sobrecarga imposta pelos mecanismos à execução livre de falhas é pequena. Além disso, o processo de recuperação tende a ser efetuado rapidamente, uma vez que é garantida a existência de uma linha de recuperação consistente, facilmente identificada Este trabalho apresenta as decisões de projeto, a implementação, os resultados e a avaliação de desempenho desse algoritmo. A avaliação das alternativas de implementação resultou na decisão de uma implementação então realizada diretamente sobre o sistema operacional Linux, sem recorrer a protocolos auxiliares para garantir a execução dos serviços e sem a necessidade de adaptações no código das aplicações nem no código do sistema operacional. Adicionalmente, os resultados comprovaram a expectativa inicial de que o algoritmo causaria pouca sobrecarga no sistema (menos de 2%), embora ele ainda apresente alta dependência do tamanho dos checkpoints salvos.
Resumo:
Efetua uma análise sobre a Amplitude dos Problemas de Comunicação Intraorganizacional entre a Estrutura de Processamento de Dados e o restante de uma Organização e determina suas possíveis causas, com base no Modelo de Empresa como um Sistema Sócio-Técnico Aberto. Para tal fim: consulta-se não só bibliografia tradicional norte-americana como também brasileira e japonesa; adota-se uma postura tanto quanto eclética e também menos ortodoxa, sem no entanto se ter a pretensão de polemizar.
Resumo:
Esta dissertação procura mostrar uma metodologia de apuração e distribuição de custos de sistemas e processamento de dados e sua integração em controles gerenciais de conglomerados financeiros, através da exploração de um modelo de avaliação econômica por centro de responsabilidade.
Resumo:
Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.
Resumo:
A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.
Resumo:
Esse trabalho de dissertação está incluído no contexto das pesquisas realizadas no Grupo de Processamento Paralelo e Distribuído da UFRGS. Ele aborda as áreas da computação de alto desempenho, interfaces simples de programação e de sistemas de interconexão de redes velozes. A máquina paralela formada por agregados (clusters) tem se destacado por apresentar os recursos computacionais necessários às aplicações intensivas que necessitam de alto desempenho. Referente a interfaces de programação, Java tem se mostrado uma boa opção para a escrita de aplicações paralelas por oferecer os sistemas de RMI e de soquetes que realizam comunicação entre dois computadores, além de todas as facilidades da orientação a objetos. Na área a respeito de interconexão de rede velozes está emergindo como uma tentativa de padronização a nova tecnologia Infiniband. Ela proporciona uma baixa latência de comunicação e uma alta vazão de dados, além de uma série de vantagens implementadas diretamente no hardware. É neste contexto que se desenvolve o presente trabalho de dissertação de mestrado. O seu tema principal é o sistema Aldeia que reimplementa a interface bastante conhecida de soquetes Java para realizar comunicação assíncrona em agregados formados por redes de sistema. Em especial, o seu foco é redes configuradas com equipamentos Infiniband. O Aldeia objetiva assim preencher a lacuna de desempenho do sistema padrão de soquetes Java, que além de usar TCP/IP possui um caráter síncrono. Além de Infiniband, o Aldeia também procura usufruir dos avanços já realizados na biblioteca DECK, desenvolvida no GPPD da UFRGS. Com a sua adoção, é possível realizar comunicação com uma interface Java sobre redes Myrinet, SCI, além de TCP/IP. Somada a essa vantagem, a utilização do DECK também proporciona a propriedade de geração de rastros para a depuração de programas paralelos escritos com o Aldeia. Uma das grandes vantagens do Aldeia está na sua capacidade de transmitir dados assincronamente. Usando essa técnica, cálculos da aplicação podem ser realizados concorrentemente com as operações pela rede. Por fim, os canais de dados do Aldeia substituem perfeitamente aqueles utilizados para a serialização de objetos. Nesse mesmo caminho, o Aldeia pode ser integrado à sistemas que utilizem a implementação de soquetes Java, agora para operar sobre redes de alta velocidade. Palavras-chave: Arquitetura Infiniband, agregado de computadores, linguagem de programação Java, alto desempenho, interface de programação.
Resumo:
Os sistemas operacionais de tempo real, assim como os sistemas embarcados, estão inseridos no desenvolvimento de projetos de automação industrial segmentado em diversas áreas de pesquisa como, por exemplo, robótica, telecomunicações, e barramentos industriais. As aplicações de sistemas modernos de controle e automação necessitam de alta confiabilidade, velocidade de comunicação, além de, determinismo temporal. Sistemas operacionais de tempo real (SOTR) têm-se apresentado como uma solução confiável quando aplicadas em sistemas que se fundamentam no cumprimento de requisitos temporais. Além disso, o desempenho computacional é totalmente dependente da capacidade operacional da unidade de processamento. Em um sistema monoprocessado, parte da capacidade computacional da unidade de processamento é utilizada em atividades administrativas, como por exemplo, processos de chaveamento e salvamento de contexto. Em decorrência disto, surge a sobrecarga computacional como fator preponderante para o desempenho do sistema. Este trabalho tem por objetivo, analisar e fornecer uma arquitetura alternativa para realizar o co-processamento de tarefas em uma plataforma IBM-PC, aumentando a capacidade computacional do microprocessador principal. No presente trabalho, a plataforma de coprocessamento realiza a execução do algoritmo de escalonamento do sistema operacional, desta forma distribuiu-se o gerenciamento temporal das tarefas entre a plataforma IBM-PC e a unidade de co-processamento.
Resumo:
Historicamente, devido à incompreensibilidade dos fenômenos físicos envolvidos, diversas técnicas de análise experimental de escoamentos foram desenvolvidas. Inicialmente, estas técnicas consistiam em uma simples visualização do escoamento em questão. Visava-se com isto produzir a intuição física a respeito do sistema físico para que futuras teorias pudessem ser formuladas. No entanto, nos anos posteriores, tornou-se necessária a criação de técnicas quantitativas. Neste segmento, a evolução tecnológica da eletrônica propiciou que técnicas intrusivas e não intrusivas fossem criadas. Tal processo culminou com o surgimento da microeletrônica, quando sensores eletrônicos de imagem puderam ser fabricados. Assim, técnicas não intrusivas de velocimetria através de processamento digital de imagens tornaram-se referência, possibilitando a medição de campos de velocidade do escoamento em análise. Tais técnicas são atualmente utilizadas não apenas no meio acadêmico, na investigação da turbulência, como na indústria, em projetos de engenharia que envolvam alta tecnologia. Neste trabalho, apresenta-se uma metodologia para a concepção de um sistema de velocimetria de 2 dimensões por processamento digital de imagens. Para tanto, o sistema de velocimetria foi dividido em duas partes, sendo os equipamentos bem como os conceitos físicos envolvidos em cada uma analisados e descritos Por fim, projetou-se e implementou-se um sistema de velocimetria de 2 dimensões através de processamento digital de imagens, modo PIV. A sua validação foi efetuada sobre um escoamento altamente turbulento interno a um duto circular, cuja solução é conhecida e exaustivamente estudada no decorrer dos anos. O resultado obtido se apresentou totalmente satisfatório e demonstrou a grande importância atual de tal técnica de medição.
Resumo:
Vários resultados na literatura fornecem fortes evidências de que o processamento de memórias requerem a participação da proteína cinase C (PKC) em estruturas sabidamente necessárias para este processamento, como o hipocampo, a amígdala basolateral (ABL) e o córtex parietal posterior (CPP). Neste trabalho mostramos que o inibidor seletivo das isoformas cálcio-dependentes da PKC, Go 6976, produz um efeito amnésico dosedependente sobre a consolidação de memória espacial de longa duração em ratos submetidos ao treino no labirinto aquático de Morris (LAM), quando infundido na região CA1 do hipocampo dorsal 15 minutos pré-treino, imediatamente pós-treino ou 15 minutos pré-teste para esta tarefa, sem alterar a atividade locomotora dos animais. Ainda na tarefa do LAM, o Go 6976 também apresentou este efeito amnésico sobre a reconsolidação de memórias espaciais de longa duração recentes e antigas, bem como sobre a consolidação da memória espacial de longa duração relativa ao treino reverso no LAM, mas não teve efeito sobre a memória espacial de curta duração nem sobre a extinção da memória espacial de longa duração. Já na tarefa de esquiva inibitória (EI) o Go 6976 produziu um efeito amnésico quando infundido na ABL imediatamente ou 30 minutos pós-treino, ou no CPP 270 ou 360 minutos pós-treino, enquanto o inibidor não-seletivo das isoformas da PKC, Go 7874, produziu os mesmos efeitos, exceto por, no CPP, causar amnésia quando infundido 180 ao invés de 270 minutos pós-treino. Estes resultados indicam que as PKCs, sobretudo as cálcio-dependentes, são importantes para o processamento de memórias espaciais e aversivas, apresentando na consolidação de memórias aversivas distintos tempos críticos de ativação em diferentes estruturas cerebrais, e sendo necessárias para a aquisição, consolidação, evocação e reconsolidação de memórias espaciais.
Resumo:
Este trabalho tem por objetivo analisar as mudanças no sistema informatizado de orçamentação prévia dos serviços de caldeiraria que são realizados nas paradas de manutenção das unidades de processamento da Refinaria Duque de Caxias da PETROBRAS. Para tal fim, apresenta-se, inicialmente, um breve histórico da legislação que orientou as contratações de serviços na PETROBRAS sob a óptica da exigência de uma orçamentação prévia e a contextualização desta orçamentação no processo de contratação da Refinaria Duque de Caxias. Em seguida, são estudadas as variáveis que influenciam o orçamento dos serviços em análise, inclusive àquelas referentes a tributos e impostos, bem como os sistemas informatizados (atual e anterior) que calculam os preços finais dos serviços. Concluiu-se que o novo sistema informatizado trouxe mmor confiabilidade aos valores encontrados, mas ainda há muito que ser feito nesta área, desde a determinação de índices de produtividade da mão-de-obra até o estudo mais detalhado dos insumos ligados à legislação trabalhista e tributária.
Resumo:
The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.
Resumo:
Estratégias para descoberta de recursos permitem a localização automática de dispositivos e serviços em rede, e seu estudo é motivado pelo elevado enriquecimento computacional dos ambientes com os quais interage-se. Essa situação se deve principalmente à popularização de dispositivos pessoais móveis e de infra-estruturas de comunicação baseadas em redes sem-fio. Associado à rede fixa, esse ambiente computacional proporciona um novo paradigma conhecido como computação pervasiva. No escopo de estudo da computação pervasiva, o Grupo de Processamento Paralelo e Distribuído da Universidade Federal do Rio Grande do Sul desenvolve o projeto ISAM. Este engloba frentes de pesquisa que tratam tanto da programação de aplicações pervasivas como também do suporte à execução dessas. Esse suporte é provido pelo middleware EXEHDA, o qual disponibiliza um conjunto de serviços que podem ser utilizados por essas aplicações ou por outros serviços do ambiente de execução. Essa dissertação aborda especificamente o Pervasive Discovery Service (PerDiS), o qual atua como um mecanismo para descoberta de recursos no ambiente pervasivo proporcionado pelo ISAM. A concepção do PerDiS baseou-se na identificação dos principais requisitos de uma solução para descoberta de recursos apropriada para utilização em um cenário de computação pervasiva Resumidamente, os requisitos identificados nessa pesquisa e considerados pelo PerDiS tratam de questões relacionadas aos seguintes aspectos: a) utilização de informações do contexto de execução, b) utilização de estratégias para manutenção automática da consistência, c) expressividade na descrição de recursos e critérios de pesquisa, d) possibilidade de interoperabilidade com outras estratégias de descoberta, e) suporte à descoberta de recursos em larga-escala, e f) utilização de preferências por usuário. A arquitetura PerDiS para descoberta de recursos utiliza em sua concepção outros serviços disponibilizados pelo ambiente de execução do ISAM para atingir seus objetivos, e ao mesmo tempo provê um serviço que também pode ser utilizado por esses. O modelo proposto é validado através da implementação de um protótipo, integrado à plataforma ISAM. Os resultados obtidos mostram que o PerDiS é apropriado para utilização em ambientes pervasivos, mesmo considerando os desafios impostos por esse paradigma.
Resumo:
Este trabalho examina a lateralização cerebral de funções e sua implicação para a cognição humana ao nível da intersecção entre a neuropsicologia clinica e a psicologia cognitiva de base informacional. A primeira parte do trabalho e dedicada a descrição e análise critica da conformação contemporânea desta área de investigação neuropsicológica, com a ênfase posta na metateoria e teorias predominantes, a par do sistema conceitual utilizado nas atividades de pesquisa desenvolvidas na área. Inicialmente, a abordagem neuropsicológica do problema da lateralização cerebral examinada no que concerne às suas articulações com os métodos e técnicas que se mostraram mais importantes para a configuração atual desta área de investigação, sob um enfoque histórico. Em continuidade, a análise dirigida às questões mais fundamentais nas quais se tem desdobrado o problema da assimetria funcional inter-hemisférica, representadas pelas especializações funcionais dos hemisférios cerebrais, pela atividade conjunta dos hemisférios e pelas relações entre diferenças individuais na lateralização cerebral e desempenho cognitivo. Neste contexto são sublinhadas as dificuldades e inconsistências relacionadas à restritividade do enfoque prevalente, avaliado como expressão de uma concepção neuropsicológica excessivamente simplificadora do problema compreendido pelas relações entre o cérebro e a cognição humanos. O trabalho apresenta, em sua segunda parte, uma tentativa de desenvolvimento de um enfoque sistêmico, na direção da complexidade, para o problema da lateralização cerebral de funções. Trata-se de um desenvolvimento que parte de uma descentração da dimensão lateral do sistema nervoso e resulta em uma subsunção deste problema à uma perspectiva mais global concernente à organização cerebral de funções e aos fundamentos para a construção teórica na neuropsicologia. Segue-se um exame das implicações deste enfoque para a questão das relações entre variações inter-individuais na lateralização cerebral de funções e habilidades cognitivas que se direciona para uma minimização do significado que tem sido atribuído a lateralizarão para o funcionamento cerebral e a cognição humanos. O trabalho apresenta, finalmente, um estudo empírico referente às relações entre variações inter-individuais normais de lateralizarão cerebral ,preferência manipulatória e sua história familiar e desempenho cognitivo, onde são comparados os desempenhos de destros com história familiar de sinistralidade negativa e de canhotos com esta história positiva no Teste WAIS. Os resultados obtidos mostram uma inequívoca semelhança nos desempenhos dos dois grupos em todas as escalas do WAIS. Estes resultados são discutidos principalmente no que tange à existência ou não de correspondências diretas entre variações normais nas representações das funções ao longo da dimensão lateral do sistema nervoso, preferência manipulatória e habilidades cognitivas. A conclusão final conforma-se como um sumário integrativo dos principais aspectos das conclusões atingidas no curso do trabalho.
Resumo:
resumo não disponível.