1000 resultados para paradigma da complexidade
Resumo:
Independentemente do modelo de programação adotado, no projeto e implementação de aplicações de alta disponibilidade, faz-se necessário usar procedimentos de tolerância a falhas. Dentre as atividades que trazem consigo interesse de pesquisa na área de Tolerância a Falhas, estão os mecanismos de recuperação em um sistema computacional. Do ponto de vista prático, estes mecanismos buscam manter próximo do mínimo o tempo total de execução de aplicações computacionais de longa duração, ao mesmo tempo em que as preparam para não sofrerem perdas significativas de desempenho, em caso de falhas. Paralelamente à evolução dos sistemas computacionais, foi possível observar também a evolução das linguagens de programação, principalmente as que utilizam o paradigma orientado a objetos. O advento da área de tolerância a falhas na orientação a objetos resultou em novos problemas na atividade de recuperação quanto aos mecanismos de salvamento de estados e retomada da execução, principalmente no que se refere às dificuldades de gerenciamento e controle sobre a alocação de objetos. Entretanto, observa-se que a complexidade de implementação dos mecanismos de recuperação, por parte dos programadores, exige deles conhecimentos mais especializados para o salvamento dos estados da aplicação e para a retomada da execução. Portanto, a simplificação do trabalho do programador, através do uso de uma biblioteca de checkpointing que implemente os mecanismos de salvamento de estados e recuperação é o ponto focal deste trabalho. Diante do contexto exposto, nesta dissertação, são definidas e implementadas as classes de uma biblioteca que provê mecanismos de checkpointing e recuperação. Esta biblioteca, denominada de Libcjp, visa aprimorar o processo de recuperação de aplicações orientadas a objetos escritas na linguagem de programação Java. Esta linguagem foi escolhida para implementação devido à presença dos recursos de persistência e serialização. Para a concepção do trabalho, são considerados ambos os cenários no paradigma orientado a objetos: objetos centralizados e distribuídos. São utilizados os recursos da API de serialização Java e a tecnologia Java RMI para objetos distribuídos. Conclui-se o trabalho com a ilustração de casos de uso através de diversos exemplos desenvolvidos a partir de seus algoritmos originais inicialmente, e incrementados posteriormente com os mecanismos de checkpointing e recuperação. Os componentes desenvolvidos foram testados quanto ao cumprimento dos seus requisitos funcionais. Adicionalmente, foi realizada uma análise preliminar sobre a influência das ações de checkpointing nas características de desempenho das aplicações.
Resumo:
No projeto de arquiteturas computacionais, a partir da evolução do modelo cliente-servidor, surgiram os sistemas distribuídos com a finalidade de oferecer características tais como: disponibilidade, distribuição, compartilhamento de recursos e tolerância a falhas. Estas características, entretanto, não são obtidas de forma simples. As aplicações distribuídas e as aplicações centralizadas possuem requisitos funcionais distintos; aplicações distribuídas são mais difíceis quanto ao projeto e implementação. A complexidade de implementação é decorrente principalmente da dificuldade de tratamento e de gerência dos mecanismos de comunicação, exigindo equipe de programadores experientes. Assim, tem sido realizada muita pesquisa para obter mecanismos que facilitem a programação de aplicações distribuídas. Observa-se que, em aplicações distribuídas reais, mecanismos de tolerância a falhas constituem-se em uma necessidade. Neste contexto, a comunicação confiável constitui-se em um dos blocos básicos de construção. Paralelamente à evolução tanto dos sistemas distribuídos como da área de tolerância a falhas, foi possível observar também a evolução das linguagens de programação. O sucesso do paradigma de orientação a objetos deve-se, provavelmente, à habilidade em modelar o domínio da aplicação ao invés da arquitetura da máquina em questão (enfoque imperativo) ou mapear conceitos matemáticos (conforme o enfoque funcional). Pesquisadores demonstraram que a orientação a objetos apresenta-se como um modelo atraente ao desenvolvimento de aplicações distribuídas modulares e tolerantes a falhas. Diante do contexto exposto, duas constatações estimularam basicamente a definição desta dissertação: a necessidade latente de mecanismos que facilitem a programação de aplicações distribuídas tolerantes a falhas; e o fato de que a orientação a objetos tem-se mostrado um modelo promissor ao desenvolvimento deste tipo de aplicação. Desta forma, nesta dissertação definem-se classes para a comunicação do tipo unicast e multicast, nas modalidades de envio confiável e não-confiável. Além destes serviços de comunicação básicos, foram desenvolvidas classes que permitem referenciar os participantes da comunicação através de nomes. As classes estão organizadas na forma de um pacote, compondo um framework. Sua implementação foi desenvolvida usando Java. Embora não tivessem sido requisitos básicos, as opções de projeto visaram assegurar resultados aceitáveis de desempenho e possibilidade de reuso das classes. Foram implementados pequenos trechos de código utilizando e testando a funcionalidade de cada uma das classes de comunicação propostas.
Resumo:
A equação de complexidade de um algoritmo pode ser expressa em termos de uma equação de recorrência. A partir destas equações obtém-se uma expressão assintótica para a complexidade, provada por indução. Neste trabalho, propõem-se um esquema de solução de equações de recorrência usando equações características que são resolvidas através de um "software" de computação simbólica, resultando em uma expressão algébrica exata para a complexidade. O objetivo é obter uma forma geral de calcular a complexidade de um algoritmo desenvolvido pelo método Divisão-e-Conquista.
Resumo:
Este trabalho descreve a aplicação da Programação Genética, uma técnica de Computação Evolucionária, ao problema da Síntese de Fala automática. A Programação Genética utiliza as técnicas da evolução humana para descobrir programas bem adaptados a um problema específico. Estes programas, compostos de instruções, variáveis, constantes e outros elementos que compõe uma linguagem de programação, são evoluídos ao longo de um conjunto de gerações. A Síntese de Fala, consiste na geração automática das formas de ondas sonoras a partir de um texto escrito. Uma das atividades mais importantes, é realizada através da conversão de palavras e letras para os sons da fala elementares (fonemas). Muitos sistemas de síntese são implementados através de regras fixas, escritas por programadores humanos. Um dos mais conhecidos sistemas de síntese é o FESTIVAL, desenvolvido pela Universidade de Edimburgh, usando a linguagem de programação funcional LISP e um número fixo de regras. Neste trabalho, nós exploramos a possibilidade da aplicação do paradigma da Programação Genética, para evoluir automaticamente regras que serão adotadas para implementação do idioma Português na ferramenta FESTIVAL, desenvolvido no projeto SPOLTECH (CNPq – NSF cooperação entre UFRGS e Universidade do Colorado). A modelagem do problema, consiste na definição das regras de pronúncia do Português Brasileiro, que a implementação do sistema FESTIVAL pronuncia erradamente, já que o mesmo foi implementado primariamente para o idioma Inglês. A partir destas regras, o sistema de Programação Genética, desenvolvido neste trabalho, evolui programas que constituem boas soluções para a conversão de letras para fonemas. A descrição dos resultados obtidos, cobre detalhes sobre a evolução das soluções, complexidade e regras implementadas, representadas pelas soluções mais bem adaptadas; mostrando que a Programação Genética, apesar de ser complexa, é bastante promissora.
Resumo:
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
Resumo:
O estudo a seguir apresenta o efeito do processo de desenvolvimento sobre a atenção visual em crianças e adolescentes. Verifica a existência de diferenças no tempo de reação manual a estímulos visuais apresentados no campo visual direito (hemisfério esquerdo) e campo visual esquerdo (hemisfério direito) entre crianças e adolescentes de ambos os sexos, observando se há maior lateralização da atenção no sexo feminino durante o desenvolvimento (lateralização da atenção). Observa-se, concomitantemente, a existência de diferenças no tempo de reação a estímulos visuais entre adolescentes masculinos em relação a adolescentes femininos, bem como diferenças no tempo de reação a estímulos visuais em crianças do sexo masculino em relação às crianças do sexo feminino. Realiza-se a aplicação de três experimentos em 60 sujeitos, sendo 30 crianças e 30 adolescentes de ambos os sexos. Os experimentos utilizados foram de detecção de sinais, medindo o tempo de resposta em milisegundos, quando os estímulos eram apresentados na tela de um computador em diferentes intervalos de tempo. Os experimentos diferenciam-se entre si pela presença ou não de estímulos preparatórios e pela indicação da localização ou não do estímulo alvo a ser detectado.Os resultados globais evidenciam uma maior rapidez nas tarefas de tempo de reação no período da adolescência do que no período da infância Na adolescência, os jovens do sexo masculino apresentam um tempo de reação mais reduzido (foram mais rápidos) do que as jovens do sexo feminino em todos os experimentos e sob quaisquer condições. Na infância, os resultados dos testes de tempo de reação manual não evidenciam diferenças entre os meninos e as meninas nos três experimentos realizados e em todas as circunstâncias. Não se encontram, nessa amostra, diferenças em relação à lateralização da atenção nem uma maior especialização do hemisfério direito em relação ao hemisfério esquerdo no sexo feminino.
Resumo:
A tecnologia de processos de desenvolvimento de software ´e uma importante área de estudo e pesquisas na Engenharia de Software que envolve a construção de ferramentas e ambientes para modelagem, execução, simulação e evolução de processos de desenvolvimento de software, conhecidos como PSEEs (do inglês: Process-Centered Software Engineering Environments). Um modelo de processo de software é uma estrutura complexa que relaciona elementos gerenciáveis (i.e. artefatos, agentes, e atividades) que constituem o processo de software. Esta complexidade, geralmente, dificulta a percepção e entendimento do processo por parte dos profissionais envolvidos, principalmente quando estes profissionais têm acesso apenas a uma visão geral do modelo. Desta forma, há necessidade de mecanismos para visualização e acompanhamento dos processos, fornecendo informações adequadas aos diferentes estados, abstraindo as informações relevantes tanto as fases presentes no processo de desenvolvimento quanto ao agente envolvido, além de facilitar a interação e o entendimento humano sobre os elementos do processo. Estudos afirmam que a maneira como são apresentadas as informações do modelo de processo pode influenciar no sucesso ou não do desenvolvimento do software, assim como facilitar a adoção da tecnologia pela indústria de software. Este trabalho visa contribuir nas pesquisas que buscam mecanismos e cientes para a visualização de processos de software apresentando a abordagem APSEE-Monitor destinada ao apoio a visualização de processos de software durante a sua execução. O principal objetivo desta pesquisa é apresentar um modelo formal de apoio a visualização de processos capaz de extrair dados de processos e organizá-los em sub-domínios de informações de interesse do gerente de processos. Neste trabalho aplica-se o conceito de múltiplas perspectivas como uma estratégia viável para a abstração e organização das informações presentes no modelo de processos. A solução proposta destaca-se por estender a definção original de perspectivas e fornecer uma estratégia de extração dos dados através de uma especificação formal utilizando o paradigma PROSOFT-Algébrico. Além disso, o trabalho apresenta um conjunto de requisitos relativos a interação entre gerentes de processos e PSEEs, a definição formal das perspectivas, uma gramática que define a linguagem de consulta aos processos, e um protótipo da aplicação.
Resumo:
Com o objetivo de desenvolver uma fundamentação teórica para o estudo formal de problemas de otimização NP-difíceis, focalizando sobre as propriedades estruturais desses problemas relacionadas à questão da aproximabilidade, este trabalho apresenta uma abordagem semântica para tratar algumas questões originalmente estudadas dentro da Teoria da Complexidade Computacional, especificamente no contexto da Complexidade Estrutural. Procede-se a uma investigação de interesse essencialmente teórico, buscando obter uma formalização para a teoria dos algoritmos aproximativos em dois sentidos. Por um lado, considera-se um algoritmo aproximativo para um problema de otimização genérico como o principal objeto de estudo, estruturando-se matematicamente o conjunto de algoritmos aproximativos para tal problema como uma ordem parcial, no enfoque da Teoria dos Domínios de Scott. Por outro lado, focaliza-se sobre as reduções entre problemas de otimização, consideradas como morfismos numa abordagem dentro da Teoria das Categorias, onde problemas de otimização e problemas aproximáveis são os objetos das novas categorias introduzidas. Dentro de cada abordagem, procura-se identificar aqueles elementos universais, tais como elementos finitos, objetos totais, problemas completos para uma classe, apresentando ainda um sistema que modela a hierarquia de aproximação para um problema de otimização NP-difícil, com base na teoria categorial da forma. Cada uma destas estruturas matemáticas fornecem fundamentação teórica em aspectos que se complementam. A primeira providencia uma estruturação interna para os objetos, caracterizando as classes de problemas em relação às propriedades de aproximabilidade de seus membros, no sentido da Teoria dos Domínios, enquanto que a segunda caracteriza-se por relacionar os objetos entre si, em termos de reduções preservando aproximação entre problemas, num ponto de vista externo, essencialmente categorial.
Resumo:
Electronic applications are currently developed under the reuse-based paradigm. This design methodology presents several advantages for the reduction of the design complexity, but brings new challenges for the test of the final circuit. The access to embedded cores, the integration of several test methods, and the optimization of the several cost factors are just a few of the several problems that need to be tackled during test planning. Within this context, this thesis proposes two test planning approaches that aim at reducing the test costs of a core-based system by means of hardware reuse and integration of the test planning into the design flow. The first approach considers systems whose cores are connected directly or through a functional bus. The test planning method consists of a comprehensive model that includes the definition of a multi-mode access mechanism inside the chip and a search algorithm for the exploration of the design space. The access mechanism model considers the reuse of functional connections as well as partial test buses, cores transparency, and other bypass modes. The test schedule is defined in conjunction with the access mechanism so that good trade-offs among the costs of pins, area, and test time can be sought. Furthermore, system power constraints are also considered. This expansion of concerns makes it possible an efficient, yet fine-grained search, in the huge design space of a reuse-based environment. Experimental results clearly show the variety of trade-offs that can be explored using the proposed model, and its effectiveness on optimizing the system test plan. Networks-on-chip are likely to become the main communication platform of systemson- chip. Thus, the second approach presented in this work proposes the reuse of the on-chip network for the test of the cores embedded into the systems that use this communication platform. A power-aware test scheduling algorithm aiming at exploiting the network characteristics to minimize the system test time is presented. The reuse strategy is evaluated considering a number of system configurations, such as different positions of the cores in the network, power consumption constraints and number of interfaces with the tester. Experimental results show that the parallelization capability of the network can be exploited to reduce the system test time, whereas area and pin overhead are strongly minimized. In this manuscript, the main problems of the test of core-based systems are firstly identified and the current solutions are discussed. The problems being tackled by this thesis are then listed and the test planning approaches are detailed. Both test planning techniques are validated for the recently released ITC’02 SoC Test Benchmarks, and further compared to other test planning methods of the literature. This comparison confirms the efficiency of the proposed methods.
Resumo:
Pode-se observar na mídia a explosão dos assuntos ligados às novas redes de comunicação, as "Highway Information" ou ainda Infovias. Este assunto está em grande evidência no momento e a proposta deste trabalho é mostrar no que a Internet pode ser útil para as organizações, como elas podem utilizar-se deste novo ferramental para desenvolver novos produtos e novos nichos de mercados: - O que já existe hoje e já é possível explorar na rede, inclusive mostrando exemplos de empresas que estão utilizando esse novo conceito. - Um breve exercício de imaginação descrevendo oportunidades de negócios ainda não-exploradas. - O que se diz já ser possível, mas que ainda não está definido como praticável. Este trabalho visa a contribuir no debate sobre a compreensão do fenômeno Internet, de modo a tentar estabelecer as reais implicações de seu desenvolvimento tanto nas organizações quanto na sociedade. Em suma, o objetivo deste trabalho é determinar as reais possibilidades de uso da Internet, como é utilizada hoje e como pode vir a ser utilizada no futuro.
Resumo:
It is difficult to be precise as to the history of auditing. Everyone who has the responsibility to verify the legitimacy of economic-financial data and answer to one¿s superior may be considered to be an auditor. Verbal audit reports were used during the time of the Roman Empire. In the current world, public administration applies advanced auditing techniques. Brazil is going through a complex process of change in regard to breaking away from the present bureaucratic administrative model toward the management administrative model. Consequently, the procedures of Brazil¿s Audit Courts are adapting to a new administrative paradigm outlined in this study. Operational audits were analyzed beginning with the theoretical basis and presuppositions in the defined context and compared with the traditional audit model, identifying possible contributions to the management administrative model. This qualitative research seeks to explore such contributions beginning with a critical reading of the research of six operational type audits made in the Federal area by the Audit Court, but does not intend to be strictly classified as a theoretical-critical basis to the extent and depth that a study of this type requires, nevertheless, it intends to approach this position. The results obtained of the systematic reading and criticism of the implemented procedures and the filed final reports of the six examples studied demonstrated that they are a model of operational audits with emphasis on the actions of public administrators ¿ evaluating the aspects of competence, productivity and effectiveness of the public administration ¿ not just to be adequate, but essential to the operation of management administration. The final considerations highlight the basic presupposition of management administration, that is, the accountability of public management based on the results of its management obtained with the use of operational audit techniques, seeking the expected rigor of public management in benefit of society.
Resumo:
o comportamento do homem está influenciado por vários fatores, dentre eles as necessidades básicas, a razão, o coração e a consciência. Para modificar o comportamento do homem com vistas a um comportamento mais cooperativo, faz-se necessário agir sobre algum desses fatores. Do ponto de vista ético o fator que deve ser trabalhado é a consciência, que permitiria o surgimento da estrutura organizacional orgânica. A estrutura orgânica permitiria às organizações, ao Estado e à sociedade, ter um relacionamento mais adequado com uma realidade social, universal e cósmica que se revela harmônica em seus princípios. A estrutura orgânica organizacional parte das propriedades da metáfora orgânica, presente em qualquer sistema orgânico (biológico, atômico e cósmico), e surge a partir dos seguintes pressupostos: a realidade pode ser representada como uma estrutura em rede orgânica, e o comportamento das pessoas vem determinado pelo nível de consciência. A estrutura orgânica possui os princípios de Autopoiesis e do Holograma, e tem uma série de propriedades aplicáveis em nível organizacional, tais como adaptação, evolução, flexibilidade e homeostase. A sociedade orgânica viria modelada pelos princípios e propriedades da estrutura orgânica, que induziriam o surgimento de comportamentos cooperativos e solidários dentro das instituições sociais, sobretudo aqueles relacionados com a organização do trabalho e a organização da economia. Adicionalmente, o paradigma orgânico conduziria ao estabelecimento das comunidades orgânicas. O Estado orgânico surgiria como decorrência de uma situação em que, o paradigma burocrático revelando-se inadequado para seu funcionamento, permitiria sua organização sob o paradigma orgânico. A substituição do paradigma organizacional burocrático-mecanicista vigente pelo paradigma orgânico, ocorreria de acordo com uma das seguintes alternativas: a) um processo intencional de mudanças minimalistas intercalado com ações radicais pontuais; ou b) uma situação de crise, em decorrência do impedimento do fluxo de mudanças naturais não implementadas. Propõe-se, assim, o paradigma orgânico como ponto de partida indispensável a mudanças conducentes ao bem estar individual e coletivo.
Resumo:
O estudo propõe desenhar as linhas mestras do processo civil brasileiro no quadro do Estado de Direito Democrático, pós Constituição Federal de 1988. Na primeira parte, partindo da origem do direito processual constitucional brasileiro na Constituição Republicana de 1891 visa a abordar as mudanças ocorridas com a constitucionalização do processo, o que significa reconhecer que na formação e desenvolvimento do direito processual brasileiro atuaram forças paradoxais (recepção da judicial review, do direito norte-americano, e recepção do direito europeu-continental, no CPC de 1973) e que este paradoxo tende a ser superado pela virada paradigmática da racionalidade jurídica e das relações entre Direito e Política no marco do Estado Constitucional. Estabelece, como primeira mudança, a relação entre a racionalidade prática procedimental e a necessidade de resgate da pretensão de correção para a lógica jurídica. Dessa percepção decorre uma outra alteração profunda, na atuação do direito em juízo, apontando para a combinação entre o modelo normativo de democracia deliberativoprocedimental (HABERMAS) e o processo cooperativo (ALVARO DE OLIVEIRA) Na segunda parte do estudo, a tese coloca essas premissas frente aos necessários desenvolvimentos do direito processual pós Constituição de 1988. Analisa-se, criticamente, as seguintes atitudes fundamentais: a) a configuração e o conteúdo do direito processual constitucional na doutrina atual e sua adequação ao contraditório como “valor-fonte” do direito processual contemporâneo; b) as relações entre direito material e direito processual; c) a teoria das fontes do direito, apresentando a jurisprudência como fonte primária, em razão da recepção tardia e mitigada do stare decisis no direito brasileiro (súmulas vinculantes, decisões vinculantes em controle de constitucionalidade e jurisprudência dominante dos tribunais), bem como, da importância dos modelos judiciais na densificação dos conteúdos das normasprincípio e das cláusulas abertas. Com isso procura-se apontar para a dissolução dos antagonismos radicais entre as tradições do ocidente (common law e romano-germânica) e seus métodos: o Code-Based Legal System e o Judge-Made Law System. A Constituição resgata, assim, o papel de centro e fator de unidade no ordenamento jurídico brasileiro, também para o processo civil, comprometendo todo o ordenamento jurídico com a democratização das fontes de poder, inclusive o debate judicial.
Resumo:
This study analyzes the possibility of organizational change in the security activity in organizations, assuming a new paradigm: management of risks and loss prevention. Based in this, two different analytical problems had structuralized the research: A) To demonstrate the absence of an activity regulated between the public and private security, presenting as it is played and justifying by means of historical and methodological aspects the responsibility of the actors on the losses generated for the current form of management; B) the challenge of the management of risks and loss prevention, leaving of the estimated one that the acceptability of treatment of the risks is based not only by the evaluation technique, but mainly in the involved intuitive aspects in the decision made. In general lines, the intention to carry through a theoretical quarrel and an analysis of the speech of controllers of organizations, to the end, is to arrive at the conclusion of that if it cannot more admit the different sides of security and a bigger universe, where if does not have to look for to only decide the urgent problem, but also to participate and to contribute in the life of the organization, by means of a cycle of accompaniment of risks based in preventive activities. Moreover, a new involved approach in the process of understanding of the heuristically ones of the organization brings the possibility of uneven benefits in that it concerns to provide actions that if locate inside of one continuum, whose extremities are in playing activities with a maximum degree of risks displaying the life of the organization the concretion of a starter fact of damages and keeping the activity end of the organization stopped in the search of a degree of risk next to zero.