930 resultados para Alto desempenho
Resumo:
Atualmente, tem-se cada vez mais adotado o uso de pozolanas de alta reatividade como ferramenta para a obtenção do concreto de alta resistência (CAR). As pozolanas de alta reatividade dividem-se em sílica ativa, cinza de casca de arroz e o metacaulim de alta reatividade (MCAR). O estudo focalizando o efeito da sílica ativa e cinza de casca de arroz no concreto já se encontra em estado adiantado, principalmente quando se refere à sílica ativa. Contudo, esta situação não se repete quando se focaliza o uso do MCAR, visto que o estudo em relação ao efeito deste material no concreto encontra-se em um estágio inicial, principalmente quando refere-se ao Brasil. O MCAR é oriundo do processo de calcinação em temperaturas entre 400ºC e 950ºC e posterior processo de moagem de argilas com altos teores de caulinita, como a argila caulinítica e o caulim. A elevada finura obtida no MCAR é o principal diferencial deste material em relação ao metacaulim. Além destas argilas, tem-se também buscado atualmente o uso de outros materiais, como os resíduos provenientes da indústria do papel, para a produção do MCAR. Esta nova opção, além do resultado técnico, ainda apresenta como vantagem o caráter ecológico decorrente do uso de um resíduo industrial. Assim sendo, o objetivo principal deste trabalho foi avaliar o uso do MCAR, decorrente de resíduo industrial, nas propriedades mecânicas do concreto, mais especificamente na resistência à compressão, resistência à tração na compressão diametral, resistência à tração na flexão, módulo de elasticidade e coeficiente de Poisson. Na realização deste trabalho variou-se os teores de substituições de MCAR, as relações água/cimento e as idades de rompimento dos corpos-de-prova. A metodologia baseou-se em ensaios laboratoriais e no uso de ferramentas estatísticas para validação dos resultados Em paralelo realizou-se um estudo da microestrutura utilizando-se o microscópio eletrônico de varredura, a difração de raios-x, a análise termodiferencial e termogravimétrica, a titulometria e a porosimetria por intrusão de mercúrio, visando um melhor entendimento do comportamento obtido nos ensaios mecânicos. Com base nesses ensaios, foram propostas equações a partir dos parâmetros estudados, que indicaram, em todos os ensaios mecânicos realizados, melhorias decorrente do efeito pozolânico e filer do MCAR. A ratificação destes efeitos foi obtida nos ensaios realizados na microestrutura. Na comparação com os resultados relatados com o uso da cinza de casca de arroz e com a sílica ativa, obtidos em ensaios com metodologia e materiais semelhante, verificou-se um comportamento similar a estes materiais. Conclui-se com um resumo dos resultados obtidos neste trabalho que evidenciam claramente a possibilidade do uso do MCAR na produção do CAR.
Resumo:
As tarefas de visão computacional incentivam uma significativa parte da pesquisa em todas as áreas científicas e industriais, entre as quais, cita-se a área voltada para o desenvolvimento de arquiteturas de computadores. A visão computacional é considerada um dos problemas mais desafiadores para a computação de alto desempenho, pois esta requer um grande desempenho, bem como um alto grau de flexibilidade. A flexibilidade é necessária pois a visão computacional abrange aplicações em que há diferentes tarefas a serem realizadas com diferentes necessidades de desempenho. Esta flexibilidade é particularmente importante em sistemas destinados a atuar como ambientes experimentais para novas técnicas de processamento visual ou para a prototipação de novas aplicações. Computação configurável tem demonstrado, por meio de exemplos implementados pela comunidade científica, fornecer uma boa relação entre alto desempenho e flexibilidade necessária para a implementação de diferentes técnicas utilizadas na área de visão computacional. Contudo, poucos esforços de pesquisa têm sido realizados na concepção de sistemas completos visando a solução de um problema de visão computacional, incluindo ambos os requisitos de software e de hardware. O principal objetivo deste trabalho é mostrar que as técnicas e tecnologias disponíveis na área de computação configurável podem ser empregadas para a concepção de um sistema capaz de implementar um grande número de aplicações da área de visão computacional na pesquisa e no ambiente industrial. Entretanto, não é escopo deste trabalho implementar um sistema de computação que seja suficiente para abordar os requerimentos necessários para todas as aplicações em visão computacional, mas os métodos aqui introduzidos podem ser utilizados como uma base geral de implementação de várias tarefas de visão computacional. Este trabalho utiliza ambientes que permitem implementações conjuntas de hardware e software, pois os mesmos facilitam a validação das técnicas aqui apresentadas, por meio da implementação de um estudo de caso, sendo parte deste estudo de caso implementado em software e outra parte em hardware.
Resumo:
A paralelização de métodos de resolução de sistemas de equações lineares e não lineares é uma atividade que tem concentrado várias pesquisas nos últimos anos. Isto porque, os sistemas de equações estão presentes em diversos problemas da computação cientí ca, especialmente naqueles que empregam equações diferenciais parciais (EDPs) que modelam fenômenos físicos, e que precisam ser discretizadas para serem tratadas computacionalmente. O processo de discretização resulta em sistemas de equações que necessitam ser resolvidos a cada passo de tempo. Em geral, esses sistemas têm como características a esparsidade e um grande número de incógnitas. Devido ao porte desses sistemas é necessária uma grande quantidade de memória e velocidade de processamento, sendo adequado o uso de computação de alto desempenho na obtenção da solução dos mesmos. Dentro desse contexto, é feito neste trabalho um estudo sobre o uso de métodos de decomposição de domínio na resolução de sistemas de equações em paralelo. Esses métodos baseiam-se no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções de cada subdomínio. Uma vez que diferentes subdomínios podem ser tratados independentemente, tais métodos são atrativos para ambientes paralelos. Mais especi camente, foram implementados e analisados neste trabalho, três diferentes métodos de decomposição de domínio. Dois desses com sobreposição entre os subdomínios, e um sem sobreposição. Dentre os métodos com sobreposição foram estudados os métodos aditivo de Schwarz e multiplicativo de Schwarz. Já dentre os métodos sem sobreposição optou-se pelo método do complemento de Schur. Todas as implementações foram desenvolvidas para serem executadas em clusters de PCs multiprocessados e estão incorporadas ao modelo HIDRA, que é um modelo computacional paralelo multifísica desenvolvido no Grupo de Matemática da Computação e Processamento de Alto Desempenho (GMCPAD) para a simulação do escoamento e do transporte de substâncias em corpos de águas.
Resumo:
This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.
Resumo:
Esta pesquisa visa a modelagem de clusters de computadores, utilizando um modelo analítico simples que é representado por um grafo valorado denominado grafo da arquitetura. Para ilustrar tal metodologia, exemplificou-se a modelagem do cluster Myrinet/SCI do Instituto de Informática da UFRGS, que é do tipo heterogêneo e multiprocessado. A pesquisa visa também o estudo de métodos e tecnologias de software para o particionamento de grafos de aplicações e seu respectivo mapeamento sobre grafos de arquiteturas. Encontrar boas partições de grafos pode contribuir com a redução da comunicação entre processadores em uma máquina paralela. Para tal, utilizou-se o grafo da aplicação HIDRA, um dos trabalhos do GMCPAD, que modela o transporte de substâncias no Lago Guaíba. Um fator importante é o crescente avanço da oferta de recursos de alto desempenho como os clusters de computadores. Os clusters podem ser homogêneos, quando possuem um arquitetura com nós de mesma característica como: velocidade de processamento, quantidade de memória RAM e possuem a mesma rede de interconexão interligando-os. Eles também podem ser heterogêneos, quando alguns dos componentes dos nós diferem em capacidade ou tecnologia. A tendência é de clusters homogêneos se tornarem em clusters heterogêneos, como conseqüência das expansões e atualizações. Efetuar um particionamento que distribua a carga em clusters heterogêneos de acordo com o poder computacional de cada nó não é uma tarefa fácil, pois nenhum processador deve ficar ocioso e, tampouco, outros devem ficar sobrecarregados Vários métodos de particionamento e mapeamento de grafos foram estudados e três ferramentas (Chaco, Jostle e o Scotch) foram testadas com a aplicação e com a arquitetura modeladas. Foram realizados, ainda, vários experimentos modificando parâmetros de entrada das ferramentas e os resultados foram analisados. Foram considerados melhores resultados aqueles que apresentaram o menor número de corte de arestas, uma vez que esse parâmetro pode representar a comunicação entre os processadores de uma máquina paralela, e executaram o particionamento/mapeamento no menor tempo. O software Chaco e o software Jostle foram eficientes no balanceamento de carga por gerarem partições com praticamente o mesmo tamanho, sendo os resultados adequados para arquiteturas homogêneas. O software Scotch foi o único que permitiu o mapeamento do grafo da aplicação sobre o grafo da arquitetura com fidelidade, destacando-se também por executar particionamento com melhor qualidade e pela execução dos experimentos em um tempo significativamente menor que as outras ferramentas pesquisadas.
Resumo:
A pesquisa versa sobre a importância da liderança para uma eficiente prestação jurisdicional, a qual resulta de um concatenado trabalho de equipe entre o juiz e os servidores de uma determinada unidade judicial. A necessidade de o magistrado contribuir para a formação de uma equipe de alto desempenho para o enfrentamento da intempestividade da prestação jurisdicional, principal problema do Poder Judiciário, buscando as almejadas celeridade e efetividade da justiça. A qualidade da prestação jurisdicional dependerá da gestão imprimida pelo juiz na sua unidade. A pesquisa aponta para a necessidade de o juiz exercer sua atividade meio como um líder, dominando técnicas modernas de gestão e também influenciando sua equipe em busca da excelência. Será analisado o tipo de liderança que melhor se amolda à judicatura, que é a servidora. Nela o magistrado identifica as necessidades de seus funcionários e trata de supri-las, recebendo em troca a máxima dedicação e motivação possíveis. O juiz líder administra sua unidade e forja uma equipe qualificada e motivada. Em face da impossibilidade de conceituar o juiz líder, são apontados os seus traços característicos, que o tornam o novo modelo do juiz brasileiro: o juiz líder servidor. Identificação dessas características na dimensão organizacional, na dimensão interpessoal, bem como as habilidades pessoais que o definem. Por fim, é abordada a necessidade de o Judiciário refletir sobre o atual sistema de recrutamento seletivo dos magistrados, priorizando a escolha sobre pessoas vocacionadas e, após a seleção, investir na constante formação de líderes nos seus quadros que, alinhados, proporcionarão uma justiça célere, humana, justa e efetiva.
Resumo:
Este relatório faz uma análise teórica das diversas correntes em estratégia empresarial sobre a questão da vantagem competitiva. A análise aqui apresentada se fundamenta em um modelo bidimensional que classifica as teorias de estratégia em quatro grupos: (1) Análise de Indústria, (2) Processo de Mercado, (3) Teoria dos Recursos e (4) Competências Dinâmicas. As noções de vantagem competitiva inerentes a cada visão são descritas e comparadas. Uma segunda secção apresenta os resultados de uma análise visando selecionar um conjunto de empresas brasileiras de alto desempenho, e um grupo de controle a partir do cálculo do retorno médio sobre o patrimônio líquido. Uma base dados em MS Access é parte integrante deste relatório.
Resumo:
Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.
Resumo:
Esse trabalho de dissertação está incluído no contexto das pesquisas realizadas no Grupo de Processamento Paralelo e Distribuído da UFRGS. Ele aborda as áreas da computação de alto desempenho, interfaces simples de programação e de sistemas de interconexão de redes velozes. A máquina paralela formada por agregados (clusters) tem se destacado por apresentar os recursos computacionais necessários às aplicações intensivas que necessitam de alto desempenho. Referente a interfaces de programação, Java tem se mostrado uma boa opção para a escrita de aplicações paralelas por oferecer os sistemas de RMI e de soquetes que realizam comunicação entre dois computadores, além de todas as facilidades da orientação a objetos. Na área a respeito de interconexão de rede velozes está emergindo como uma tentativa de padronização a nova tecnologia Infiniband. Ela proporciona uma baixa latência de comunicação e uma alta vazão de dados, além de uma série de vantagens implementadas diretamente no hardware. É neste contexto que se desenvolve o presente trabalho de dissertação de mestrado. O seu tema principal é o sistema Aldeia que reimplementa a interface bastante conhecida de soquetes Java para realizar comunicação assíncrona em agregados formados por redes de sistema. Em especial, o seu foco é redes configuradas com equipamentos Infiniband. O Aldeia objetiva assim preencher a lacuna de desempenho do sistema padrão de soquetes Java, que além de usar TCP/IP possui um caráter síncrono. Além de Infiniband, o Aldeia também procura usufruir dos avanços já realizados na biblioteca DECK, desenvolvida no GPPD da UFRGS. Com a sua adoção, é possível realizar comunicação com uma interface Java sobre redes Myrinet, SCI, além de TCP/IP. Somada a essa vantagem, a utilização do DECK também proporciona a propriedade de geração de rastros para a depuração de programas paralelos escritos com o Aldeia. Uma das grandes vantagens do Aldeia está na sua capacidade de transmitir dados assincronamente. Usando essa técnica, cálculos da aplicação podem ser realizados concorrentemente com as operações pela rede. Por fim, os canais de dados do Aldeia substituem perfeitamente aqueles utilizados para a serialização de objetos. Nesse mesmo caminho, o Aldeia pode ser integrado à sistemas que utilizem a implementação de soquetes Java, agora para operar sobre redes de alta velocidade. Palavras-chave: Arquitetura Infiniband, agregado de computadores, linguagem de programação Java, alto desempenho, interface de programação.
Resumo:
O estudo aqui apresentado tem como objetivo mostrar que a competitividade da indústria química brasileira pode ser revista por meio do desenvolvimento da área química a partir dos recursos naturais renováveis e de alto desempenho de produtividade, aqui representado pela cana-de-açúcar. A base deste estudo analisa a competitividade econômica da produção do acetato de etila, utilizando o etanol como única matéria-prima, sendo o Brasil um grande exportador e, ao mesmo tempo, detentor de um mercado interno forte quando comparado a outros países desenvolvidos. O acetato de etila exportado representou 52% da capacidade nominal instalada no Brasil no ano de 2008. No Brasil existem três ofertantes, mas apenas um produtor é exportador. Todos usam a esterificação como tecnologia de produção, via reação do ácido acético e etanol, sendo o ácido acético largamente importado. O estudo tem como premissa que a competitividade do acetato de etila no Brasil seja dada pelo etanol, que aqui é produzido pela fermentação do caldo de cana-de-açúcar. Já a tecnologia de esterificação é conhecida e de domínio público mundial, e o ácido acético é uma commodity petroquímica com preço referenciado globalmente. Argumenta-se neste trabalho que a competitividade do acetato de etila decorre da linkage com a produção de etanol de cana-de-açúcar, o que coloca o Brasil como grande potencial exportador desse produto. Utilizando a tecnologia de desidrogenação do etanol, pode-se obter acetato de etila utilizando-se apenas o etanol como matéria-prima, reduzindo-se assim a necessidade de importação de ácido acético, que representaria redução anual do déficit da balança comercial petroquímica brasileira em aproximadamente meio bilhão de dólares e, ademais, permitindo que o acetato de etila produzido no Brasil seja ainda mais competitivo. A partir deste estudo é possível avaliar, por analogia, a competitividade de outros produtos químicos produzidos a partir da matriz cana-de-açúcar, tais como eteno, lubrificantes, plásticos etc. Tal caminho permite criar um novo marco para a indústria química brasileira, com consequente redução da dependência de petróleo e gás natural.
Resumo:
Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.
Resumo:
Uma metodologia de modelagem para a exploração do espaço de projeto de processadores é apresentada. A exploração do espaço de projeto constitui uma das etapas do fluxo de projeto dos atuais processadores de alto desempenho e de sistemas embarcados, que auxilia os projetistas no tratamento da complexidade inerente ao processo contemporâneo de projeto de sistemas computacionais. A principal característica desta metodologia é um processo de modelagem simples e rápido. Isso é obtido através da disponibilização dos recursos de modelagem em camadas com propósitos e níveis de complexidade de uso diferenciados e da limitação do número de elementos (palavras-chave, classes e métodos) que devem ser conhecidos pelo projetista para o acesso a estes recursos, independentemente da camada na qual eles se encontram. A única exigência para o uso de tais recursos são conhecimentos que estudantes de Computação adquirem ao longo dos seus cursos da área de Computação e Informática. Outras características da metodologia de modelagem incluem: recursos específicos e distintos para a descrição da organização, da arquitetura e de aspectos temporais do processador; um estilo de descrição estrutural de alto nível da organização; a possibilidade de uso de recursos gráficos em tempo de modelagem e em tempo de simulação; e a existência de informações nos modelos que podem ser usadas para a tradução das descrições para uma Hardware Description Language Todas estas características constituem um conjunto de soluções de modelagem e simulação de processadores que não é encontrado em outros ambientes usados na exploração do espaço de projeto, baseados em Architecture Description Languages, Hardware Description Languages e ferramentas de simulação. Além disso, os modelos de processadores, desenvolvidos com esta metodologia, fornecem os recursos para a aceleração do aprendizado de conteúdos de arquitetura de computadores que só são encontrados em simuladores para ensino. Uma infra-estrutura de software que implementa a metodologia de modelagem foi desenvolvida e está disponível. Ela foi usada no ensino e no contexto da pesquisa para a modelagem e simulação de diversos processadores. Uma comparação com a metodologia de modelagem de uma Architecture Description Language demonstra a simplicidade e a rapidez do processo de modelagem previsto na metodologia apresentada.
Resumo:
Este estudo teve como objetivo verificar até que ponto o processo de descentralização adotado pelo Departamento de Polícia Técnica da Bahia (DPT-BA) foi eficiente no atendimento às demandas de perícias de Computação Forense geradas pelas Coordenadorias Regionais de Polícia Técnica (CRPTs) do interior do Estado. O DPT-BA foi reestruturado obedecendo aos princípios da descentralização administrativa, seguindo a corrente progressista. Assumiu, com a descentralização, o compromisso de coordenar ações para dar autonomia às unidades do interior do Estado, com a criação de estruturas mínimas em todas as esferas envolvidas, com ampla capacidade de articulação entre si e com prestação de serviços voltados para um modelo de organização pública de alto desempenho. Ao abordar a relação existente entre a descentralização e a eficiência no atendimento à demanda de perícias oriundas do interior do estado da Bahia, o estudo, por limitações instrumentais, se manteve adstrito ao campo das perícias de Computação Forense, que reflete e ilustra, de forma expressiva, o cenário ocorrido nas demais áreas periciais. Inicialmente foram identificadas as abordagens teóricas sobre descentralização, evidenciando as distintas dimensões do conceito, e, em seguida, sobre a Computação Forense. Foram realizadas pesquisa documental no Instituto de Criminalística Afrânio Peixoto (Icap) e pesquisa de campo por meio de entrevistas semiestruturadas com juízes de direito lotados nas varas criminais de comarcas relacionadas ao cenário de pesquisa e com peritos criminais das Coordenações Regionais, das CRPTs e da Coordenação de Computação Forense do Icap. Correlacionando os prazos de atendimento que contemplam o conceito de eficiência definido pelos juízes de direito entrevistados, clientes finais do trabalho pericial e os prazos reais obtidos mediante a pesquisa documental os dados revelaram alto grau de ineficiência, morosidade e inadimplência, além de realidades discrepantes entre capital e interior. A análise das entrevistas realizadas com os peritos criminais revelou um cenário de insatisfação e desmotivação generalizadas, com a centralização quase absoluta do poder decisório, demonstrando que o processo de descentralização praticado serviu, paradoxalmente, como uma ferramenta de viabilização e camuflagem da centralização.
Requalificação de ativo público em obsolescência tecnológica: a ferrovia tronco centro de Pernambuco
Resumo:
O estudo objetivou levantar as possibilidades de requalificação da Linha Tronco Centro de Pernambuco (LTCPE), um ativo ferroviário secular, em bitola métrica, com 608 km de extensão, desenvolvidos ao longo da linha dorsal do Estado de Pernambuco. Sua relevância se justifica pela solicitação da Concessionária ao Governo federal de devolução do patrimônio ferroviário. A operadora destaca que a linha ferroviária será substituída por outra linha férrea, a Ferrovia Nova Transnordestina, em bitola larga, de alto desempenho, que liga os estados de Pernambuco, Piauí e Ceará. Ambas as ferrovias desenvolvem um longo paralelismo em toda a extensão da LTCPE. Pretendeu-se, pois, identificar outras utilidades para o referido ramal ferroviário que não a de transporte de carga, vez que esta requalificação não deveria se dar em posição concorrencial com a Transnordestina. A pesquisa foi desenvolvida com base na compreensão de seu contexto histórico, da análise do quadro nacional do setor e na análise dos diversos ambientes socioeconômicos em que está inserido esse ramal ferroviário. Para obtenção dos resultados, foram aplicados questionários com profissionais dos setores de serviços públicos de planejamento e logística, operadores e outros ligados à consultoria e engenharia. Com base no rol de intervenientes identificados, foi construída uma Matriz Institucional em que se apresentou o caminho crítico de ação e as interrelações entre os intervenientes públicos. Na mesma perspectiva, foi elaborada uma Matriz de SWOT (Strengths, Weaknesses, Opportunities e Threats) de forma a articular o conjunto de dados e ações, indicando atividades e inversões financeiras que subsidiarão os estudos técnicos para a requalificação. Como resultados, o estudo identificou os trechos requalificáveis, sua destinação e novas alternativas de uso do patrimônio ferroviário remanescente.
Resumo:
Este trabalho de pesquisa tem como objetivo identificar os fatores críticos determinantes para a construção da competência essencial do BOPE, o Batalhão de Operações Policiais Especiais da Polícia Militar do Estado do Rio de Janeiro, uma equipe de alto desempenho com forte autonomia atuando em cenários de alta incerteza. Apresentamos os resultados de um estudo realizado nesta unidade. Conduzimos a pesquisa utilizando métodos qualitativos, com historiografia oral, através de entrevistas em profundidade. Nossos resultados apontam para fatores como liderança, seleção, treinamento, confiança mútua e baixo distanciamento de poder, como críticos e explicativos na construção da competência essencial do BOPE.