943 resultados para Computação distribuída


Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O paracetamol é um fármaco de ação analgésica e antipirética, obtido através da metabolização da fenacetina, um analgésico derivado do alcatrão. Seu mecanismo de ação consiste em inibir a enzima responsável pela síntese de prostaglandina no cérebro, reduzindo a febre e induzindo a analgesia. O objetivo desse trabalho foi avaliar as possíveis alterações físicas e químicas da solução de paracetamol distribuída pelo Sistema Único de Saúde (SUS) por meio do estudo de estabilidade acelerada. Cada amostra foi armazenada em condições ambientais diferentes e foi analisada no momento inicial, após 60 dias e após 90 dias. As amostras foram examinadas segundo a Farmacopeia brasileira, quarta edição, nos requisitos de aspecto, pH e doseamento. Através do referido estudo, foi possível verificar que o método de espectrofotometria em UV não é recomendado para estudos de estabilidade térmica de solução de paracetamol, por sofrer interferência de seu produto de degradação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O interesse de pesquisa da comunidade de Inteligência Artificial em Sistemas Multiagentes tem gerado o crescimento da utilização de técnicas de agentes nas mais diversas áreas da ciência da computação. Isso ocorre, principalmente, devido à variedade de aplicações em que esses sistemas podem ser usados, como por exemplo: jogos de computadores, interfaces adaptativas, simulação e controle de processos industriais. The Robot World Cup Initiative (RoboCup) é uma tentativa de estimular a área de Inteligência Artificial e, principalmente de Sistemas Multiagentes, por promover um problema padrão, jogar futebol, onde uma ampla cadeia de tecnologias podem ser integradas, examinadas e comparadas. A utilização do ambiente da RoboCup para a simulação de uma partida de futebol (simulador Soccerserver) permite a avaliação de diferentes técnicas de Sistemas Multiagentes (planejamento de estratégias, conhecimento em tempo real, colaboração de agentes, princípios de agentes autônomos, entre outros) e estimula as pesquisas, investigações e testes que possibilitem a construção gradativa de agentes avançados. O presente trabalho tem por objetivo o desenvolvimento de um time de futebol para o simulador Soccerserver. A idéia principal é desenvolver agentes jogadores que demonstrem um nível considerável de competência para a realização de suas tarefas, como percepção, ação, cooperação, estratégias pré-definidas, decisão e previsão. Inicialmente, apresenta-se uma visão geral sobre Inteligência Artificial Distribuída e sobre o simulador Soccerserver, pré-requisitos para o restante do trabalho. A seguir, é realizado um estudo sobre algumas arquiteturas de agentes (clientes) do Soccerserver. A arquitetura proposta na dissertação, suas principais características e a sua materialização em um protótipo desenvolvido correspondem à parte principal do trabalho. Finalmente são apresentados os testes realizados e as conclusões do trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em vista da maior complexidade da programação paralela e distribuída em relação à programação de ambientes centralizados, novas ferramentas vêm sendo construídas com o objetivo de auxiliar o programador desses ambientes a desempenhar sua tarefa de formas mais eficazes e produtivas. Uma das ferramentas que há algum tempo tem sido usada na programação centralizada e aos poucos está sendo empregada também na programação concorrente é a programação visual. A programação visual se vale da presença de elementos visuais na especificação dos programas como peças chaves do processo de desenvolvimento de software. No caso específico da programação concorrente, a programação visual é especialmente útil pela capacidade que os gráficos têm de representar de forma mais adequada estruturas bidimensionais. Um programa concorrente, por relacionar no espaço diversos elementos com seus próprios fluxos de execução, faz surgir duas dimensões de análise que são mais difíceis de serem observadas através de programas textuais. Atualmente existem ferramentas de programação visual paralela e distribuída, mas a ênfase é dada na programação paralela, sem muita atenção a aplicações de sistemas abertos ou cliente-servidor. Além disso, tais ferramentas sofrem da falta de apoio à engenharia do software. Considerando essas deficiências, este trabalho apresenta uma ferramenta de programação visual para o desenvolvimento de aplicações compostas por objetos distribuídos que ofereça também a possibilidade de aplicar os principais conceitos da engenharia de software, como reutilização e orientação a objeto. Nesta ferramenta, o programador especifica de maneira visual a estrutura do seu programa, insere o código textual para a lógica da aplicação e o ambiente se encarrega do tratamento da distribuição e da comunicação de mais baixo nível. A aplicação é representada como um grafo dirigido, onde os nodos representam os objetos distribuídos e os arcos indicam os relacionamentos existentes entre esses objetos. A especificação dos programas é modular, baseando-se na reunião de componentes reutilizáveis, o que torna o sistema altamente configurável e extensível. Tanto a implementação da ferramenta quanto o código das aplicações geradas usam a linguagem de programação Java. A linguagem de programação visual projetada não especifica detalhes a respeito de como irá funcionar a comunicação e distribuição dos objetos. Portanto, foram implementados componentes para comunicação e outros recursos de programação distribuída, como locks e dados globais para serem usados nas aplicações. Para validar os principais objetivos da ferramenta, foram implementados alguns exemplos de aplicações distribuídas, como um pequeno sistema de bate-papo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Computação Móvel é um termo genérico, ainda em definição, ao redor do qual se delineia um espectro de cenários possíveis, desde a Computação Pessoal, com o uso de computadores de mão, até a visão futurista da Computação Ubíqua. O foco do projeto ISAM (Infra-estrutura de Suporte às Aplicações Móveis Distribuída), em desenvolvimento no II/UFRGS, é a Pervasive Computing. Esta desenha um cenário onde o usuário é livre para se deslocar mantendo o acesso aos recursos da rede e ao seu ambiente computacional, todo tempo em qualquer lugar. Esse novo cenário apresenta muitos desafios para o projeto e execução de aplicações. Nesse escopo, esta tese aprofunda a discussão sobre questões relativas à adaptação ao contexto em um ambiente pervasivo sob a ótica de uma Linguagem de Programação, e define uma linguagem chamada ISAMadapt. A definição da linguagem ISAMadapt baseia-se em quatro abstrações: contexto, adaptadores, políticas e comandos de adaptação. Essas abstrações foram concretizadas em duas visões: (1) em tempo de programação, através de comandos da linguagem e arquivos de configuração, descritos com o auxílio do Ambiente de Desenvolvimento de Aplicações; (2) em tempo de execução, através de serviços e APIs fornecidos pelos componentes que integram o ambiente de execução pervasiva (ISAMpe). Deste, os principais componentes que implementam a semântica de execução da aplicação ISAMadapt são: o serviço de reconhecimento de contexto, ISAMcontextService, e a máquina de execução da adaptação dinâmica, ISAMadaptEngine.As principais contribuições desta tese são: (a) primeira linguagem para a codificação de aplicações pervasivas; (b) sintaxe e semântica de comandos para expressar sensibilidade ao contexto pervasivo; (c) fonte para o desenvolvimento de uma metodologia de projeto de aplicações pervasivas; (d) projeto ISAM e o projeto contextS (www.inf.ufrgs.br/~isam) que fornecem suporte para o ciclo de vida das aplicações, desde o desenvolvimento até a execução de aplicações pervasivas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O aumento na complexidade dos sistemas embarcados, compostos por partes de hardware e software, aliado às pressões do mercado que exige novos produtos em prazos cada vez menores, tem levado projetistas a considerar a possibilidade de construir sistemas a partir da integração de componentes já existentes e previamente validados. Esses componentes podem ter sido desenvolvidos por diferentes equipes ou por terceiros e muitas vezes são projetados utilizando diferentes metodologias, linguagens e/ou níveis de abstração. Essa heterogeneidade torna complexo o processo de integração e validação de componentes, que normalmente é realizado através de simulação. O presente trabalho especifica mecanismos genéricos e extensíveis que oferecem suporte à cooperação entre componentes heterogêneos em um ambiente de simulação distribuída, sem impor padrões proprietários para formatos de dados e para a descrição do comportamento e interface dos componentes. Esses mecanismos são baseados na arquitetura DCB (Distributed Co-Simulation Backbone), voltada para co-simulação distribuída e heterogênea e inspirada nos conceitos de federado (componente de simulação) e federação (conjunto de componentes) que são definidos pelo HLA (High Level Architecture), um padrão de interoperabilidade para simulações distribuídas. Para dar suporte à co-simulação distribuída e heterogênea, esse trabalho descreve mecanismos que são responsáveis pelas tarefas de cooperação e distribuição, chamados de embaixadores, assim como o mecanismo gateway, que é responsável pela interoperabilidade entre linguagens e conversão de tipos de dados. Também é apresentada uma ferramenta de suporte à geração das interfaces de co-simulação, que são constituídas de dois embaixadores configuráveis e um gateway para cada federado, gerado a partir de templates pré-definidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A utilização da abordagem de agentes, nas mais diversas áreas de aplicações, mostra o interesse nas pesquisas sobre sistemas multiagentes. Este interesse surgiu da necessidade de aplicar novas técnicas e conceitos para a construção de sistemas e para auxiliar no seu desenvolvimento. Neste sentido, os agentes satisfazem às expectativas, não sendo apenas utilizados para a solução de problemas acadêmicos, mas também de sistemas reais. Na ciência da computação, a inteligência artificial distribuída está profundamente relacionada com o problema de coordenação. O objetivo é projetar mecanismos de coordenação para grupos de agentes artificiais. Várias características envolvem a atuação de agentes em um ambiente multiagente, como os mecanismos de cooperação, coordenação, comunicação, organização, entre outros. Este trabalho apresenta um estudo sobre coordenação multiagente, enfatizando a sua avaliação. O objetivo é apresentar uma proposta de avaliação, com um conjunto de critérios definidos para serem aplicados em modelos de coordenação. Inicialmente, é apresentado um estudo sobre coordenação de agentes. A seguir, são abordados vários modelos de coordenação encontrados na literatura da área. A parte principal do trabalho corresponde à definição de critérios para avaliação da coordenação, a serem utilizados em duas etapas: uma análise do problema, com vistas à escolha de um modelo de coordenação a ser empregado em uma determinada aplicação, e uma avaliação a posteriori, baseada nos critérios propostos para avaliar o comportamento de um sistema coordenado após o uso de um modelo de coordenação específico.Para exemplificar a aplicação dos critérios, dois estudos de caso são apresentados e foram utilizados para os experimentos: um referente ao domínio da Robocup, utilizando o Time UFRGS e, outro, referente ao gerenciamento de agendas distribuídas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avaliar uma empresa nos dias de hoje é algo corriqueiro e relativamente fácil de ser feito, na maioria dos casos, quando a empresa se adequa as metodologias disponíveis. Este trabalho se propõe a avaliar uma empresa que possui características impares, dificultando o uso dos métodos mais tradicionais hoje em uso. A empresa Dreamworks Animation SKG, estúdio norte-americano especializado me produções áudio visuais em computação gráfica para o cinema, possui é caracterizada por possuir em sua maioria ativos intangíveis, tanto como matéria prima quanto produto final, são historias que se convertem em filmes animados por computador. Este cenário propicia algumas peculiaridades, como por exemplo, a dificuldade de previsão dados financeiros futuros, devido às receitas da empresa estarem fortemente ligadas ao sucesso e/ou fracasso das produções lançadas. Como se trata de conteúdo muito subjetivo, como tudo que é relativo à arte. O trabalho apontou a proposta de uma solução que permite certa confiabilidade na previsão de receitas geradas pelo lançamento de uma produção. Há uma forte relação entre a receptividade do lançamento em seus dias de estréia e o alto retorno gerado pelo mesmo, o que não acontece com a relação entre o custo da produção e seu sucesso nas bilheterias.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diretorio TesteAs recentes mudanças de estrutura no sistema elétrico (geração, transmissão, distribuição e comercialização de energia) têm motivado o uso da geração distribuída e, em particular, pequenos produtores independentes conectados ao sistemas de distribuição e subtransmissão. Sendo recente, ainda há muitas lacunas quanto ao entendimento do impacto desta nova topologia na estabilidade e outros índices de desempenho do sistema. O presente trabalho está focado na conexão dos produtores independentes aos sistemas de distribuição e subtransmissão e visa contribuir quanto ao estudo teórico-prático deste problema, com ênfase nos aspectos de modelagem dos componentes do sistema. Este estudo faz parte do projeto de pesquisa “Impacto de Produtores Independentes e Autoprodutores Conectados aos sistemas de distribuição e subtransmissão", desenvolvido pela UFRGS com financiamento da CEEE. Como as unidades de geração distribuída são conectadas às redes de distribuição e transmissão, a distância entre estes geradores e as cargas é menor comparativamente às usinas de grande porte. Existe ainda a questão dos produtores independentes serem de potências menores e, portanto, mais suscetíveis às variações de carga da rede em que estão ligados. Devido a estes e outros fatores, uma melhor análise dos modelos estáticos e dinâmicos dos diversos componentes do sistema de potência dentro desta nova topologia se faz necessária. Um dos aspectos considerados neste trabalho, foi o estudo da influência da resistência da linha na análise da geração distribuída nas linhas de distribuição. Esta foi uma das contribuições deste trabalho e foi realizada por meio de simulações considerando vários modelos de geradores e cargas. Outra contribuição foi a construção do sistema consistindo de um protótipo de um produtor independente conectado a rede de distribuição, composto de um gerador de 100kVA conectado à rede elétrica, contendo cargas resistivas e indutivas, podendo serem ligadas/desligadas, emulando condições de operação similares às reais. A construção do protótipo também envolveu um sistema para simulação, um sistema supervisório para operação e realização de ensaios, e os algoritmos necessários para tal. Este sistema permite a simulação dinâmica de modelos de sistemas elétricos de potência em diversos cenários e a verificação experimental do comportamento dos grupos geradores em diversas condições de operação, incluindo a análise de desempenho estático, ensaios de curto circuito e as variações de despacho ativo e reativo de potência. Obtendo com isso uma melhor identificação e quantificação do impacto dos produtores independentes e autoprodutores na análise de sistemas elétricos de potência.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta uma proposta metodológica para o ensino de Ciência da Computação para Crianças, elaborada, a partir de pesquisas e estudos, tendo, como objetivo, a aplicação dessa metodologia para correção e testes. Devido à disseminação dos computadores e de seu uso como parte da formação dos alunos, muito se tem discutido sobre a união entre os recursos tecnológicos e a educação. A inclusão da informática no processo educativo vem sendo direcionada para a utilização e classificação de produtos de software educacional, em técnicas de comunicação à distância, no uso de recursos de multimídia ou de realidade virtual para apoio ao conteúdo abordado pelo professor e, também, para a construção de ambientes computacionais, que possam proporcionar uma mudança de paradigma educacional. No entanto não adianta tornar disponível toda essa tecnologia, se, rapidamente, são abandonadas e são substituídas ferramentas e técnicas dentro da Computação. Por isto, tão importante quanto o ensino das tecnologias correntes é o ensino dos conceitos fundamentais da Ciência da Computação. Esses conceitos, além de proporcionarem um embasamento teórico para entendimento da ciência envolvida na computação, também propiciam o desenvolvimento de um raciocínio lógico e formal, assim como de habilidades que são exigidas no mundo atual. Este trabalho apresenta pesquisas de campo sobre o uso da Informática Educativa em algumas escolas, a identificação, através de professores da graduação e pós-graduação, de alguns dos conceitos fundamentais da Ciência da Computação e uma pesquisa sobre o que crianças gostariam de aprender sobre Ciência da Computação. A partir dos resultados, são elaboradas teorias, demonstrações e exercícios para o ensino destes para crianças. Essa metodologia é aplicada a duas turmas heterogêneas de crianças para sua validação. Pretende-se que o estudo desses conceitos aguce o senso crítico e capacite as crianças não só a usarem as tecnologias mas também a entenderem seu funcionamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo teve como objetivo verificar até que ponto o processo de descentralização adotado pelo Departamento de Polícia Técnica da Bahia (DPT-BA) foi eficiente no atendimento às demandas de perícias de Computação Forense geradas pelas Coordenadorias Regionais de Polícia Técnica (CRPTs) do interior do Estado. O DPT-BA foi reestruturado obedecendo aos princípios da descentralização administrativa, seguindo a corrente progressista. Assumiu, com a descentralização, o compromisso de coordenar ações para dar autonomia às unidades do interior do Estado, com a criação de estruturas mínimas em todas as esferas envolvidas, com ampla capacidade de articulação entre si e com prestação de serviços voltados para um modelo de organização pública de alto desempenho. Ao abordar a relação existente entre a descentralização e a eficiência no atendimento à demanda de perícias oriundas do interior do estado da Bahia, o estudo, por limitações instrumentais, se manteve adstrito ao campo das perícias de Computação Forense, que reflete e ilustra, de forma expressiva, o cenário ocorrido nas demais áreas periciais. Inicialmente foram identificadas as abordagens teóricas sobre descentralização, evidenciando as distintas dimensões do conceito, e, em seguida, sobre a Computação Forense. Foram realizadas pesquisa documental no Instituto de Criminalística Afrânio Peixoto (Icap) e pesquisa de campo por meio de entrevistas semiestruturadas com juízes de direito lotados nas varas criminais de comarcas relacionadas ao cenário de pesquisa e com peritos criminais das Coordenações Regionais, das CRPTs e da Coordenação de Computação Forense do Icap. Correlacionando os prazos de atendimento que contemplam o conceito de eficiência  definido pelos juízes de direito entrevistados, clientes finais do trabalho pericial  e os prazos reais  obtidos mediante a pesquisa documental  os dados revelaram alto grau de ineficiência, morosidade e inadimplência, além de realidades discrepantes entre capital e interior. A análise das entrevistas realizadas com os peritos criminais revelou um cenário de insatisfação e desmotivação generalizadas, com a centralização quase absoluta do poder decisório, demonstrando que o processo de descentralização praticado serviu, paradoxalmente, como uma ferramenta de viabilização e camuflagem da centralização.