964 resultados para semeadora-adubadora modular
Resumo:
The performance of modular home made capillary electrophoresis equipment with spectrophotometric detection, at a visible region by means of a miniaturized linear charge coupled device, was evaluated for the determination of four food dyes. This system presents a simple but efficient home made cell detection scheme. A computer program that converts the spectral data after each run into the electropherograms was developed to evaluate the analytical parameters. The dyes selected for analytical evaluation of the system were Brilliant Blue FCF, Fast Green FCF, Sunset Yellow FCF, and Amaranth. Separation was carried out in a 29cm length and 75 mu m I.D fused silica capillary, using 10mmolL-1 borate buffer at pH 9, with separation voltage of 7.5kV. The detection limits for the dyes were between 0.3 and 1.5mgL-1 and the method presented adequate linearity over the ranges studied, with correlation coefficients greater than 0.99. The method was applied for determination and quantification of these dyes in fruit juices and candies.
Resumo:
Syftet med denna studie var att undersöka förekomst och svårighetsgrad av urininkontinens hos kvinnor och hur det påverkade deras dagliga liv. Syftet var vidare att studera om kvinnorna sökt hjälp för sin urininkontinens och om de var nöjda med den hjälp de erbjudits. Studien utgjordes av en tvärsnittsstudie med kvantitativ ansats. Populationen i studien omfattade alla de kvinnor över 18 år som under en dag besökte en framlottad vårdcentral i Dalarna. Totalt delades 416 enkäter ut, varav 397 besvarades och 368 inkluderades i studien. Ett validerat mätinstrument ICIQ-UI SF (The International Consultation on Incontinence Modular Questionnaire-Urine Incontinence Short Form) på svenska användes och två tilläggsfrågor konstruerades. Resultatet visar att 54% av kvinnorna besvärades av urininkontinens där ansträngningsinkontinens var den vanligaste typen. Kvinnorna hade urinläckage av mindre omfattning, liten mängd, och påverkan på dagliga livet var låg, dock var de kvinnor med blandinkontinens mera påverkade. En stor andel sökte inte hjälp för sin urininkontinens då de ansåg att besvären inte var så stora. De få kvinnor som sökt hjälp var nöjda med den hjälp de fått. Svårighetsgraden av urininkontinens enligt ICIQ-UI SF visade att övervägande delen av kvinnorna hade obetydliga till måttliga besvär. Resultatet tyder på att urininkontinens är ett dolt hälsoproblem.
Resumo:
The main objective of the thesis “Conceptual Product Development in Small Corporations” is by the use of a case study test the MFD™-method (Erixon G. , 1998) combined with PMM in a product development project. (Henceforth called MFD™/PMM-method). The MFD™/PMM-method used for documenting and controlling a product development project has since it was introduced been used in several industries and projects. The method has been proved to be a good way of working with the early stages of product development, however, there are almost only projects carried out on large industries which means that there are very few references to how the MFD™/PMM-method works in a small corporation. Therefore, was the case study in the thesis “Conceptual Product Development in Small Corporations” carried out in a small corporation to find out whether the MFD™/PMM-method also can be applied and used in such a corporation.The PMM was proposed in a paper presented at Delft University of Technology in Holland 1998 by the author and Gunnar Erixon. (See appended paper C: The chart of modular function deployment.) The title “The chart of modular function deployment” was later renamed as PMM, Product Management Map. (Sweden PreCAD AB, 2000). The PMM consists of a QFD-matrix linked to MIM (Module Indication Matrix) via a coupling matrix which makes it possible to make an unbroken chain from the customer domain to the designed product/modules. The PMM makes it easy to correct omissions made in creating new products and modules.In the thesis “Conceptual Product Development in Small Corporations” the universal MFD™/PMM-method has been adapted by the author to three models of product development; original-, evolutionary- and incremental development.The evolutionary adapted MFD™/PMM-method was tested as a case study at Atlings AB in the community Ockelbo. Atlings AB is a small corporation with a total number of 50 employees and an annual turnover of 9 million €. The product studied at the corporation was a steady rest for supporting long shafts in turning. The project team consisted of management director, a sales promoter, a production engineer, a design engineer and a workshop technician, the author as team leader and a colleague from Dalarna University as discussion partner. The project team has had six meetings.The project team managed to use MFD™ and to make a complete PMM of the studied product. There were no real problems occurring in the project work, on the contrary the team members worked very well in the group, having ideas how to improve the product. Instead, the challenge for a small company is how to work with the MFD™/PMM-method in the long run! If the MFD™/PMM-method is to be a useful tool for the company it needs to be used continuously and that requires financial and personnel resources. One way for the company to overcome the probable lack of recourses regarding capital and personnel is to establish a good cooperation with a regional university or a development centre.
Resumo:
Product verifications have become a cost-intensive and time-consuming aspect of modern electronics production, but with the onset of an ever-increasing miniaturisation, these aspects will become even more cumbersome. One may also go as far as to point out that certain precision assembly, such as within the biomedical sector, is legally bound to have 0 defects within production. Since miniaturisation and precision assembly will soon become a part of almost any product, the verifications phases of assembly need to be optimised in both functionality and cost. Another aspect relates to the stability and robustness of processes, a pre-requisite for flexibility. Furthermore, as the re-engineering cycle becomes ever more important, all information gathered within the ongoing process becomes vital. In view of these points, product, or process verification may be assumed to be an important and integral part of precision assembly. In this paper, product verification is defined as the process of determining whether or not the products, at a given phase in the life-cycle, fulfil the established specifications. Since the product is given its final form and function in the assembly, the product verification normally takes place somewhere in the assembly line which is the focus for this paper.
Resumo:
Many companies implement a modular architecture to support the need to create more variants with less effort. Although the modular architecture has many benefits, the tests to detect any defects become a major challenge. However, a modular architecture with defined functional elements seems beneficial to test at module level, so called MPV (Module Property Verification). This paper presents studies from 29 companies with the purpose of showing trends in the occurrence of defects and how these can support the MPV.
Resumo:
Dissertação apresentada ao Programa de Mestrado em Administração da Universidade Municipal de São Caetano do Sul - USCS
Resumo:
Dissertação apresentada ao Programa de Mestrado em Comunicação da Universidade Municipal de São Caetano do Sul - USCS
Resumo:
Uma parte importante da química de orgametálicos atual centra-se no estudo de compostos heterobimetálicos com o propósito de avaliar de que modo as possíveis interações entre os metais podem alterar a reatividade dos centros metálicos presentes na molécula. Os ligantes ferrocenilas tem sido bastante utilizados para obter-se compostos desta natureza. Dentro desta classe de ligantes destaca-se o 1,1'-bis(difenilfosfina)ferroceno(dppf). Muitos trabalhos surgiram na literatura nos últimos dez anos descrevendo a síntese, caracterização estrutural, no estado sólido ou em solução, de novos complexos metálicos derivados deste metaloligante, bem como o estudo de suas propriedades catalíticas. O objetivo deste trabalho foi sintetizar novos compostos derivados do 1,1'-bis(difenilfosfina) ferroceno (dppf) e estudá-los no estado sólido ou em solução. Desta forma, foram pela primeira vez sintetizados os compostos dppfFe(NO)2(1), [dppfCo(NO)2][SBf6](2) e dppfNicod(3) e [dppfNi(MeCN)4]2 (4) os quais foram caracterizados por espectroscopia na região do infravermelho, ressonância magnética nuclear de ¹H e ³¹P{¹H}, análise elementar de C,H e N, condutividade molar no caso do composto catiônico(2) e difração de Raios-X de monocristal, no caso do composto(1). A espectroscopia Mössbauer de 57Fe constitui-se uma técnica adequada para a análise deste metaligante, que contém um átomo de Fe na sua molécula, pois pode fornecer informações estruturais e evidenciar eventuais efeitos interativos que ocorram entre os centros metálicos quando o ligante encontra-se complexado a outros metais. Foram, então, estudados por espectroscopia Mössbauer, à baixa temperatura, os compostos (1),(2),(3),(4) e dppfFe(CO)3 (5) e os resultados obtidos comparados com os apresentados na literatura para compostos análogos contendo o ligante dppf. Os complexos derivados do dppf exibem um processo de oxidação centrado no ferroceno além dos processos de oxiredução presentes nos outros centros metálicos da molécula. O estudo das alterações que podem ocorrer neste processo devido à presença de um segundo metal de transição ou dos ligantes é importante pois pode fornecer informações sobre como modular o potencial redox centrado no ligante ferrocenila, permitindo assim um controle de sua reatividade. Sendo assim, neste trabalho foi realizado um estudo eletroquímico, por voltametria cíclica, dos compostos (1),(2) e (5). Compostos de Ni(0) ou Ni(II) são conhecidos catalisadores em reações de oligomerização e polimerização de olefinas e dienos. Compostos ferrodinitrosilas e cobaltodinitrosilas, na presença de redutores, apresentam alta seletividade em reações de ciclomerização de dienos. Nestes sistemas catalíticos a atividade e seletividade doscompostos está intimamente relacionada com a natureza dos ligantes unidos ao metal de transição do percussor catalítico. Devido às características dos compostos sintetizados e estudados neste trabalho, decidiu-se verificar a possível influência do ligante ddpf, na atividade e seletividade das reações com dienos, escolhendo-se o butadieno como substrato modelo. Estudou-se, então, a atividade catalítica dos compostos (1),(2),(3),(4),(5) e dppfNiCl2 (6) frente ao butadieno, na ausência e presença do cocatalisador, AlEt2Cl.
Resumo:
A amígdala medial (AMe) é um núcleo superficial do complexo amigdalói-de, ocupando seu aspecto rostromedial. A AMe modula uma série de comportamen-tos, além de modular a memória e o aprendizado associado a estímulos olfativos e visuais. Em ratos, é uma estrutura sexualmente dimórfica e está dividida em quatro subnúcleos: ântero-dorsal (AMeAD), ântero-ventral (AMeAV), póstero-dorsal (AMePD) e póstero-ventral (AMePV). A AMe apresenta células com características morfológicas variadas e receptores para hormônios gonadais amplamente e heterogeneamente distribuídos entre todos os seus subnúcleos. O presente trabalho teve como obje-tivos caracterizar a morfologia dos neurônios dos subnúcleos AMeAD, AMeAV, AMePD e AMePV de ratas na fase de diestro e verificar a densidade de espinhos dendríticos de neurônios dos subnúcleos AMeAD, AMePD e AMePV de ratas nas fa-ses de diestro, pró-estro, estro e metaestro. Para tal, foram utilizadas ratas Wistar (N=24) que, após a identificação da fase do ciclo estral, foram anestesiadas e per-fundidas, tiveram seus encéfalos retirados e seccionados (cortes coronais de espes-sura de 100 e 200 µm), submetidos à técnica de Golgi. A seguir, os neurônios foram selecionados e desenhados com auxílio de câmara clara acoplada a um fotomicroscópio. Na avaliação da morfologia dos neurônios, observou-se que eles são do tipo multipolar, células estreladas e bitufted, sendo encontrados em todos os subnúcleos da AMe de ratas na fase de diestro além de células com corpos celulares arredondados, fusiformes, piriformes, ovais e com características piramidais. Para a quanti-ficação da densidade de espinhos dendríticos, foram desenhados os primeiros 40 µm de 8 ramos dendríticos de 6 fêmeas por fase do ciclo estral e por subregião da AMe. Os resultados da contagem dos espinhos dendríticos foram submetidos a ANOVA de uma via e ao teste de Newman-Keuls. Verificou-se que, em diestro, a densidade de espinhos nas regiões AMeAD, AMePD e AMePV, foi maior quando comparada às demais fases do ciclo estral. Além disso, em diestro, a AMePD apresentou a maior densidade quando comparada com as regiões AMeAD e AMePV. O estudo mostrou que os neurônios da AMe de ratas estudadas na fase de diestro apresentaram morfologia variada e a densidade de espinhos dendríticos va-riou na AMeAD, AMePD e AMePV durante o ciclo estral de ratas, especialmente na AMePD. Os resultados obtidos sugerem a plasticidade induzida por esteróides se-xuais na morfologia e na fisiologia da AMe de ratas.
Resumo:
Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.
Resumo:
A poluição do meio ambiente por metais pesados apresenta um problema grave devido a sua alta toxicidade e a capacidade de bioacumulação. Tendo em vista o vasto uso do sulfato de cobre em algumas indústrias e nas lavouras do Rio Grande do Sul, e a importância de se avaliar possíveis danos causados nos seres vivos, o objetivo deste trabalho foi determinar o potencial tóxico do sulfato de cobre em Planária e verificar a utilidade deste organismo para biomonitoramento ambiental. O sulfato de cobre induziu dano dose-dependente no DNA após exposição aguda e crônica, sendo que o efeito observado é a primeira evidência da genotoxicidade do cobre detectada com o Teste Cometa. A interferência dos íons de cobre com o processo de reparo do dano no DNA induzido pelo MMS sugere que o cobre poderia modular os efeitos genotóxicos associados com a exposição às misturas complexas no meio ambiente. Monitoramento da cinética do reparo no DNA em planárias mostrou reparo mais lento in vivo em comparação aos dados obtidos em cultura de células, acentuando a importância dos testes in vivo na avaliação do risco associado com a exposição adversa. O conteúdo da proteína hsp60 em planária Dugesia schubarti não foi alterado em resultado da exposição ao cobre, mostrando que não é um parâmetro adequado para avaliação da contaminação química. Animais não tratados apresentaram quantidades detectáveis de proteína hsp60, revelando um alto nível basal de expressão desta proteína que poderia mascarar possível indução em resultado da exposição química. Contudo, indução da hsp60 foi observada após choque térmico. A atividade da catalase em planária foi significativamente induzida após exposição às baixas concentrações de sulfato de cobre, mostrando-se um indicador sensível para exposição aguda ao cobre e sugerindo possível uso deste ensaio em estudos com outros agentes oxidantes. A atividade relativamente alta da catalase, detectada nas planárias não tratadas, provavelmente está relacionada com o alto nível de oxigênio dissolvido no seu habitat. A exposição das planárias ao mutagênico conhecido MMS, in vivo, induziu quebras no DNA, de maneira dose-dependente, em concentrações similares com as da referência em células de mamíferos, comprovando a sensibilidade do sistema utilizado. A planária se mostrou também um organismo bastante apropriado para a detecção de danos no DNA utilizando-se o Teste Cometa, sugerindo que poderia ser útil para o monitoromento de efeitos genotóxicos induzidos por agentes químicos no ambiente aquático. Os resultados apresentados neste estudo revelam o potencial tóxico e genotóxico do sulfato de cobre em planárias e também sugerem que este organismo-teste pode ser considerado um sistema valioso para avaliação da contaminação química em estudos ambientais.
Resumo:
Em vista da maior complexidade da programação paralela e distribuída em relação à programação de ambientes centralizados, novas ferramentas vêm sendo construídas com o objetivo de auxiliar o programador desses ambientes a desempenhar sua tarefa de formas mais eficazes e produtivas. Uma das ferramentas que há algum tempo tem sido usada na programação centralizada e aos poucos está sendo empregada também na programação concorrente é a programação visual. A programação visual se vale da presença de elementos visuais na especificação dos programas como peças chaves do processo de desenvolvimento de software. No caso específico da programação concorrente, a programação visual é especialmente útil pela capacidade que os gráficos têm de representar de forma mais adequada estruturas bidimensionais. Um programa concorrente, por relacionar no espaço diversos elementos com seus próprios fluxos de execução, faz surgir duas dimensões de análise que são mais difíceis de serem observadas através de programas textuais. Atualmente existem ferramentas de programação visual paralela e distribuída, mas a ênfase é dada na programação paralela, sem muita atenção a aplicações de sistemas abertos ou cliente-servidor. Além disso, tais ferramentas sofrem da falta de apoio à engenharia do software. Considerando essas deficiências, este trabalho apresenta uma ferramenta de programação visual para o desenvolvimento de aplicações compostas por objetos distribuídos que ofereça também a possibilidade de aplicar os principais conceitos da engenharia de software, como reutilização e orientação a objeto. Nesta ferramenta, o programador especifica de maneira visual a estrutura do seu programa, insere o código textual para a lógica da aplicação e o ambiente se encarrega do tratamento da distribuição e da comunicação de mais baixo nível. A aplicação é representada como um grafo dirigido, onde os nodos representam os objetos distribuídos e os arcos indicam os relacionamentos existentes entre esses objetos. A especificação dos programas é modular, baseando-se na reunião de componentes reutilizáveis, o que torna o sistema altamente configurável e extensível. Tanto a implementação da ferramenta quanto o código das aplicações geradas usam a linguagem de programação Java. A linguagem de programação visual projetada não especifica detalhes a respeito de como irá funcionar a comunicação e distribuição dos objetos. Portanto, foram implementados componentes para comunicação e outros recursos de programação distribuída, como locks e dados globais para serem usados nas aplicações. Para validar os principais objetivos da ferramenta, foram implementados alguns exemplos de aplicações distribuídas, como um pequeno sistema de bate-papo.
Resumo:
This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.
Resumo:
Este relatório consubstancia os resultados de uma pesquisa realizada junto à Volkswagen do Brasil, mais especificamente junto à sua fábrica de ônibus e caminhões localizada no município fluminense de Resende e que adota o modelo de consórcio modular, em que apenas fornecedores de grandes sub-montagens (módulos) realizam operações de montagens na linha. Objetiva identificar quais as características, justificativas, potencial e limitações do uso do modelo de consórcio modular no Brasil. Para isso, revisão bibliográfica foi feita e pesquisa de campo realizada. As conclusões jogam luz sobre um tema que tem sido abordado na literatura, mas nem sempre com precisão.
Resumo:
Este estudo busca propor uma teoria da fragmentação de políticas públicas, assim como aplicá-la na análise de três casos de política de gestão pública no período compreendido entre 1995 e 2002. A suposição central deste estudo é de que existe um fenômeno de fragmentação subjacente aos casos analisados, e esse fenômeno constitui uma explicação plausível para a descontinuidade e a baixa implementação das políticas de gestão pública no período. Uma vez caracterizada, a fragmentação de políticas de gestão no período pode ser explicada de diversas formas. A hipótese secundária deste estudo, a partir da teoria desenvolvida, é de que o fenômeno da fragmentação se deve à existência de uma combinação disfuncional de fatores estruturais de integração subjacentes às dinâmicas constitutivas dos casos. O texto está estruturado em três segmentos: a) desenvolvimento teórico; b) construção dos casos e caracterização da fragmentação subjacente; e c) análise dos fatores de fragmentação. O primeiro segmento elabora um modelo conceitual de análise de políticas com a finalidade de caracterizar os processos constitutivos dos casos analisados, a partir de elementos presentes nas principais perspectivas analíticas sobre políticas públicas (sistêmico-heurística, institucional-racionalista e seleção temporal aleatória). O primeiro segmento também elabora a teoria da fragmentação de políticas públicas, seus fundamentos epistemológicos e metodológicos, suas definições de partida, proposições centrais e um modelo analítico. A Teoria da Fragmentação de Políticas propõe que a fragmentação, definida como a perda de coerência, consistência e coordenação nas políticas de um mesmo subsistema e entre diversos subsistemas, é um resultado indesejado associado a elementos estruturais dos processos de formulação e implementação de políticas, tais como liderança executiva, estratégia, ajustamento mútuo, estrutura formal de coordenação, 5 processos e valores. Trata-se de uma teoria de médio alcance elaborada de forma modular: a) permite a formulação de hipóteses retrospectivas baseadas em mecanismos causais que relacionam fatores a uma conseqüência-objeto; b) possibilita o aproveitamento de métodos qualitativos, tais como a narrativa analítica, para elucidar essas correlações; e c) permite o estabelecimento um diálogo entre a observação empírica e a dedução teórica. O segundo segmento delimita, contextualiza e caracteriza os três casos analisados em profundidade: Plano Diretor, Gestão Pública Empreendedora I e Gestão Pública Empreendedora II. Inicialmente, elabora-se um mapeamento do período, pelo qual são identificadas seis trajetórias de políticas de gestão pública no período analisado. Os três casos analisados em profundidade correspondem à primeira trajetória. Sucede-se uma narrativa da dinâmica de formulação e implementação desses casos em três frentes de ação que os perpassam: reestruturação do núcleo estratégico e melhoria de gestão, Organizações Sociais e Agências Executivas. Em seguida, elabora-se uma análise genealógica em que são identificados seus elementos constitutivos (o empreendedor, a construção do domínio da política pública, a visão do problema e da solução e a coalizão política) e sinais de fragmentação, decorrentes das incoerências, inconsistências e descoordenação entre os casos e entre esses e os demais, identificados no mapeamento do período. O terceiro segmento apresenta uma análise dos fatores de fragmentação. Busca-se elaborar, para cada fator, uma análise comparativa no sentido horizontal (entre os casos analisados) e vertical (entre esses e outros que ocorreram de forma paralela no universo das políticas de gestão mapeadas). A análise dos fatores de fragmentação indica, conforme se supunha, que há uma combinação disfuncional de fatores estruturais fragmentadores subjacentes às experiências estudadas. Conclui-se que essa constatação contribui para explicar a fragmentação e valida a teoria da fragmentação de políticas, dentro de sua proposta 6 metodológica modular de campo médio. Apontam-se, também, direções nas quais a teoria poderia ser expandida, testada e aplicada.