76 resultados para Algoritmos Evolutivos
Resumo:
O tema abordado nesta dissertação de mestrado é a petrogênese dos diabásios do Eocretáceo que integram o Enxame de Diques da Serra do Mar na região de Angra dos Reis (RJ). Estes diques intrudem rochas do Terreno Ocidental e do Arco Magmático Rio Negro, inserindo-se no contexto geodinâmico de fragmentação do Gondwana no Cretáceo Inferior. Essas intrusões são subverticais e orientam-se preferencialmente a N039E. Intrusões retilíneas são as mais observadas em campo. Os diabásios são compostos, essencialmente, por plagioclásio e clinopiroxênios (augita e pigeonita). Quartzo, minerais opacos, apatita e olivina ocorrem como minerais acessórios. A composição mineral secundária é marcada pela presença de biotita, uralita e saussurita. Os diabásios estudados compreendem uma série transicional com afinidade toleítica. Os estudos petrológicos revelam a existência de cinco suítes de alto-TiO2, tendo sido as mesmas discriminadas com base nas razões La/Yb de amostras com o mesmo teor de MgO. Destas, apenas a suíte 2 têm quantidade mínima de amostras para avaliação de processos evolutivos. O resultado da modelagem petrogenética aponta que o processo evolutivo mais provável para a geração dos diabásios da suíte 2 é cristalização fracionada sem mudança na assembleia fracionante. As amostras representativas dos líquidos parentais das cinco suítes apresentam razões La/Nb e La/Yb maiores que a unidade, típicas de derivação de fonte enriquecida, que, em várias províncias basálticas continentais, tem sido associada à fusão exclusiva do manto litosférico subcontinental ou a sua participação em processos de mistura de fontes. A discriminação de fontes mantélicas foi feita exclusivamente com base nos teores de elementos traços de amostras representativas de líquidos parentais das cinco suítes discriminadas na área de estudo. Os modelos indicam que todas as cinco suítes estudadas estão relacionadas a fontes harzburgíticas com granada residual. A suíte 5 da área de estudo não pode ser associada à mesma fonte mantélica geradora das suítes 1, 2, 3 e 4 que, por sua vez, se originaram por diferentes quantidades de fusão parcial (respectivamente, 44%, 35%, 31% e 25%) de uma mesma fonte. Cabe ressaltar que a ocorrência de duas suítes, com razões La/Yb muito distintas, porém geograficamente muito próximas, sugere que processos de heterogeneidade mantélica, tipicamente laterais, devem também ocorrer verticalmente.
Resumo:
Esta dissertação tem como objetivo estudar um método para estimar a velocidade de veículos ferroviários usando processamento de vídeo. O sistema proposto consiste na utilização de câmeras ao longo das vias férreas que permitam não só o monitoramento do tráfego ferroviário, mas cujo vídeo captado possa ser utilizado para a obtenção de estimativas para a velocidade instantânea dos trens que por ela trafegam. Tal sistema seria utilizado independentemente dos sistemas de controle já utilizados pela operadora do sistema ferroviário, permitindo que os controladores possam ter uma segunda análise no caso de falha da primeira, assim como um modelo que permita avaliar a velocidade instantânea do veículo ferroviário ao longo do percurso. Os algoritmos de rastreamento empregados para esse fim abordaram diferentes métodos. Confrontaram-se os resultados obtidos com os algoritmos propostos com os dados empíricos de forma a determinar aquele com melhor resposta dada as características do sistema. O algoritmo que apresentou os melhores resultados emprega um único bloco de referência para todos os quadros comparados. A métrica de similaridade responsável por determinar quais blocos são mais ou menos similares dentro do universo de busca estipulado é a soma de diferenças absolutas (SAD, Sum of Absolute Differences). O tempo de processamento requerido por cada um dos métodos de rastreamento estudados também foi considerado nas avaliações de resultados apresentadas. Uma comparação realizada entre as velocidades coletadas e aquelas informadas pelo sistema de controle mostraram que os resultados obtidos com o sistema atual, utilizando a sinalização apenas por circuito de via apresenta resultados pouco confiáveis com erros bastante significativos. Os resultados obtidos com o sistema proposto apresentaram erros menores quando comparados àqueles obtidos pelo sistema vigente, apresentando-se assim como uma solução viável e de baixo custo quando comparada às técnicas atualmente empregadas para a medida de velocidade de trens.
Resumo:
Com a necessidade de extrair as informações contidas nas imagens de satélite de forma rápida, eficiente e econômica, são utilizadas cada vez mais as técnicas computacionais de processamento de imagens como a de segmentação automática. Segmentar uma imagem consiste em dividí-la em regiões através de um critério de similaridade, onde os pixels que estão contidos nestas possuem características semelhantes, como por exemplo, nível de cinza, textura, ou seja, a que melhor represente os objetos presentes na imagem. Existem vários exemplos de algoritmos segmentadores, como o de crescimento de regiões onde os pixels crescem e são aglutinados formando regiões. Para determinar quais os melhores parâmetros utilizados nestes algoritmos segmentadores é necessário que se avalie os resultados a partir dos métodos mais utilizados, que são os supervisionados onde há necessidade de uma imagem de referência, considerada ideal fazendo com que se tenha um conhecimento a priori da região de estudo. Os não supervisionados, onde não há a necessidade de uma imagem de referência, fazendo com que o usuário economize tempo. Devido à dificuldade de se obter avaliadores para diferentes tipos de imagem, é proposta a metodologia que permite avaliar imagens que possuam áreas com vegetação, onde serão formadas grandes regiões (Crianass) e o que avaliará as imagens com áreas urbanas onde será necessário mais detalhamento (Cranassir).
Resumo:
Novas metodologias de análise molecular voltadas para estudos populacionais, clínicos, evolutivos, da biodiversidade e identificação forense foram desenvolvidas com base em marcadores microssátelites ou STR Short Tandem Repeats. Os marcadores STR, que estão amplamente espalhados nos genomas e se caracterizam por apresentar alto grau de polimorfismo, podem ser analisados a partir da amplificação por PCR (Reação em Cadeia da polimerase). A análise foi facilitada a partir do desenvolvimento de sistemas de amplificação simultânea de múltiplos STR (multiplex STR) e com a detecção automatizada dos produtos de amplificação marcados por fluorescência. Recentemente, o uso de marcadores STR do cromossomo X (X-STR) tornou-se significativo na prática forense. Devido ao seu modo de transmissão, os X-STR são úteis em situações particulares de investigação de relações de parentesco, apresentando vantagens sobre o uso de STR autossômicos. Este estudo teve como principal objetivo o desenvolvimento e validação de sistema multiplex, denominado LDD (X-STR) Decaplex, capaz de amplificar dez loci X-STR (DXS7133, DXS7424, DXS8378, DXS6807, DXS7132, DXS10074, DXS7423, DXS8377, GATA172D05 e DXS10101) para aplicação em genética populacional, identificação e análises forenses. Utilizando o LDD (X-STR) Decaplex 170 indivíduos autodenominados afrodescendentes, não aparentados geneticamente, foram genotipados. As freqüências alélicas e genotípicas não apresentaram desvio do equilíbrio de Hardy-Weinberg e estão em concordância com aquelas observadas em outros estudos. Os haplótipos observados foram únicos em indivíduos de amostra masculina. A análise de desequilíbrio de ligação não revelou associação entre os marcadores X-STR. A diversidade genética foi elevada, variando entre 0,6218 para o locus DXS7133 a 0,9327 para o locus DXS8377. Os parâmetros de Probabilidade de Vinculação (PV), Índice de Vinculação (IV), Poder de Exclusão (PE), Poder de Discriminação e Razão de Verossimilhança foram também elevados, demonstraram que os dez X-STRs são altamente polimórficos e discriminativos na população estudada. A concentração mínima de DNA para a amplificação dos loci do LDD (X-STR) Decaplex é de 0,5 ng e verificamos que amplificação por PCR pode ser afetada quando são adicionados mais de 5 ng de DNA nas reações. Os percentuais de bandas stutter foram elevados para os loci DXS7132 e DXS8377. No teste de reprodutibilidade observamos consistência entre as tipagem de diferentes amostras biológicas, incluindo as de restos mortais. No teste de mistura a proporção limite em que observamos a coexistência de duas espécies biológicas foi de 2,5:1ng (feminino-masculino). Os resultados evidenciaram que os loci do LDD (X-STR) Decaplex são altamente informativos, consistindo, em conjunto, uma ferramenta importante em estudos de identificação humana e de relações de parentesco.
Resumo:
O Ensino à distância (EaD) procura utilizar propostas pedagógicas para desenvolver sistemas inclusivos de ensino e aprendizagem. Estas propostas tem colaborado no sucesso que a EaD tem alcançado no meio empresarial corporativo. Neste meio, a demanda por cursos de formação técnica tem sido tão alta, que as empresas envolvidas no design instrucional de EaD criaram a noção de cursos à distância expressos, ou seja, cursos cuja a concepção e elaboração devem atender as tradicionais necessidades de rapidez do mercado de trabalho. Esta dissertação procura soluções para um tipo de ensino à distância ainda pouco explorado. O cenário que procuramos equacionar é o do ensino de ferramentas (softwares) para desenho vetorial, onde a metodologia de ensino é parte do processo de ensino corporativo. No processo atual de ensino de ferramentas de computação gráfica, o aluno submete ao professor, normalmente pela internet, o seu trabalho para que uma avaliação seja feita. Nesta dissertação sugerimos que este processo seja modificado de duas formas. Primeiro, no design instrucional para esta situação, trabalhamos constantemente a questão de avaliação não só na sua forma tradicional (atribuição de graus e valores) mas também como aperfeiçoamento do processo de ensino. A hipermídia adaptativa entra nesta proposta como facilitador da relação alunoprofessor-conhecimento, permitindo individualização de um ensino voltado para as massas. Em segundo lugar, propomos que a avaliação das tarefas sejam automatizada. O aluno oferece as partes (objetos) da solução que são avaliadas individualmente através de algoritmos computacionais. Isto permite uma menor participação do professor, o que é compatível com a proposta de cursos expressos. Para que isto seja possível a tarefa proposta pelo professor é dividida em objetos componentes, sendo o aluno estimulado a criar cada objeto segundo o modelo padrão oferecido. A comparaçào de cada objeto criado pelo aluno com o padrão a ser alcançado pode ser feita por diversos algoritmos computacionais existentes ou criados especificamente pelo autor do curso. Neste trabalho apresentamos exemplos desta abordagem e um protótipo que demonstra a viabilidade da proposta.
Resumo:
O caos determinístico é um dos aspectos mais interessantes no que diz respeito à teoria moderna dos sistemas dinâmicos, e está intrinsecamente associado a pequenas variações nas condições iniciais de um dado modelo. Neste trabalho, é feito um estudo acerca do comportamento caótico em dois casos específicos. Primeiramente, estudam-se modelos préinflacionários não-compactos de Friedmann-Robertson-Walker com campo escalar minimamente acoplado e, em seguida, modelos anisotrópicos de Bianchi IX. Em ambos os casos, o componente material é um fluido perfeito. Tais modelos possuem constante cosmológica e podem ser estudados através de uma descrição unificada, a partir de transformações de variáveis convenientes. Estes sistemas possuem estruturas similares no espaço de fases, denominadas centros-sela, que fazem com que as soluções estejam contidas em hipersuperfícies cuja topologia é cilíndrica. Estas estruturas dominam a relação entre colapso e escape para a inflação, que podem ser tratadas como bacias cuja fronteira pode ser fractal, e que podem ser associadas a uma estrutura denominada repulsor estranho. Utilizando o método de contagem de caixas, são calculadas as dimensões características das fronteiras nos modelos, o que envolve técnicas e algoritmos de computação numérica, e tal método permite estudar o escape caótico para a inflação.
Resumo:
Neste trabalho é estudada a viabilidade de uma implementação em paralelo do algoritmo scale invariant feature transform (SIFT) para identificação de íris. Para a implementação do código foi utilizada a arquitetura para computação paralela compute unified device architecture (CUDA) e a linguagem OpenGL shading language (GLSL). O algoritmo foi testado utilizando três bases de dados de olhos e íris, o noisy visible wavelength iris image Database (UBIRIS), Michal-Libor e CASIA. Testes foram feitos para determinar o tempo de processamento para verificação da presença ou não de um indivíduo em um banco de dados, determinar a eficiência dos algoritmos de busca implementados em GLSL e CUDA e buscar valores de calibração que melhoram o posicionamento e a distribuição dos pontos-chave na região de interesse (íris) e a robustez do programa final.
Resumo:
Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.
Resumo:
A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).
Resumo:
Este trabalho apresenta uma arquitetura geral para evolução de circuitos eletrônicos analógicos baseada em algoritmos genéticos. A organização lógica privilegia a interoperabilidade de seus principais componentes, incluindo a possibilidade de substituição ou melhorias internas de suas funcionalidades. A plataforma implementada utiliza evolução extrínseca, isto é, baseada em simulação de circuitos, e visa facilidade e flexibilidade para experimentação. Ela viabiliza a interconexão de diversos componentes aos nós de um circuito eletrônico que será sintetizado ou adaptado. A técnica de Algoritmos Genéticos é usada para buscar a melhor forma de interconectar os componentes para implementar a função desejada. Esta versão da plataforma utiliza o ambiente MATLAB com um toolbox de Algoritmos Genéticos e o PSpice como simulador de circuitos. Os estudos de caso realizados apresentaram resultados que demonstram a potencialidade da plataforma no desenvolvimento de circuitos eletrônicos adaptativos.
Resumo:
A demanda crescente por poder computacional estimulou a pesquisa e desenvolvimento de processadores digitais cada vez mais densos em termos de transistores e com clock mais rápido, porém não podendo desconsiderar aspectos limitantes como consumo, dissipação de calor, complexidade fabril e valor comercial. Em outra linha de tratamento da informação, está a computação quântica, que tem como repositório elementar de armazenamento a versão quântica do bit, o q-bit ou quantum bit, guardando a superposição de dois estados, diferentemente do bit clássico, o qual registra apenas um dos estados. Simuladores quânticos, executáveis em computadores convencionais, possibilitam a execução de algoritmos quânticos mas, devido ao fato de serem produtos de software, estão sujeitos à redução de desempenho em razão do modelo computacional e limitações de memória. Esta Dissertação trata de uma versão implementável em hardware de um coprocessador para simulação de operações quânticas, utilizando uma arquitetura dedicada à aplicação, com possibilidade de explorar o paralelismo por replicação de componentes e pipeline. A arquitetura inclui uma memória de estado quântico, na qual são armazenados os estados individuais e grupais dos q-bits; uma memória de rascunho, onde serão armazenados os operadores quânticos para dois ou mais q-bits construídos em tempo de execução; uma unidade de cálculo, responsável pela execução de produtos de números complexos, base dos produtos tensoriais e matriciais necessários à execução das operações quânticas; uma unidade de medição, necessária à determinação do estado quântico da máquina; e, uma unidade de controle, que permite controlar a operação correta dos componente da via de dados, utilizando um microprograma e alguns outros componentes auxiliares.
Resumo:
Essa dissertação tem o objetivo de verificar a contribuição de diferentes abordagens para extração de linhas, à classificação de imagens multiespectrais, com o possível uso na discriminação e mapeamento de classes de cobertura da terra. Nesse contexto, é efetuada a comparação entre diferentes técnicas de extração de características para extração de linhas de transmissão em áreas rurais, a saber, técnicas de realce utilizando variação de contraste e filtragem morfológica, bem como detecção de bordas utilizando filtro Canny e detector SUSAN, citando como técnica de extração de linhas a Transformada de Hough e Transformada de Radon, utilizando diferentes algoritmos, em imagens aéreas e de sensoriamento remoto. O processo de análise de imagens, com diferentes abordagens leva a resultados variados em diferentes tipos de coberturas do solo. Tais resultados foram avaliados e comparados produzindo tabelas de eficiência para cada procedimento. Estas tabelas direcionam a diferentes encaminhamentos, que vão variar de abordagem dependendo do objetivo final da extração das Linhas de Transmissão.
Resumo:
Redes embutidas (NoC, Network-on-Chip) vêm sendo adotadas como uma solução interessante para o projeto de infraestruturas de comunicação em sistemas embutidos (SoC, System-on-Chip). Estas redes são em geral parametrizadas, podendo assim ser utilizadas em vários projetos de SoCs, cada qual com diferentes quantidades de núcleos. NoCs permitem uma escalabilidade dos sistemas, ao mesmo tempo que balanceiam a comunicação entre núcleos. Projetos baseados em NoC visam a implementação de uma aplicação específica. Neste contexto, ferramentas de auxílio de projeto são essenciais. Estas ferramentas são projetadas para, a partir de uma descrição simples da aplicação, realizar sucessivos processos de otimização que irão modelar as várias características do sistema. Estes algoritmos de otimização são necessários para que a rede atenda a um conjunto de restrições, como área, consumo de energia e tempo de execução. Dentre estas etapas, pode ser incluído o roteamento estático. As rotas através da rede por onde os núcleos irão se comunicar são otimizadas, de forma a minimizar o tempo de comunicação e os atrasos na transmissão de pacotes ocasionados por congestionamentos nas chaves que compõem a NoC. Nesta dissertação, foi utilizada a otimização por colônia de formigas no cálculo dos percursos. Esta é uma meta-heurística interessante para a solução de problemas de busca em grafos, inspirada no comportamento de formigas reais. Para os algoritmos propostos, múltiplas colônias são utilizadas, cada uma encarregada pela otimização do percurso de uma mensagem. Os diferentes testes realizados mostram o roteamento baseado no Elitist Ant System obtendo resultados superiores a outros algoritmos de roteamento.
Resumo:
O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.
Resumo:
Lamprófiros e diabásios alcalinos afloram no litoral dos estados de São Paulo e Rio de Janeiro e integram o Enxame de Diques da Serra do Mar (EDSM). Essas rochas ocorrem sob a forma de diques e intrudem o Orógeno Ribeira, de idade Neoproterozóica/Cambro-Ordoviciana, inserindo-se no contexto geodinâmico de abertura do Oceano Atlântico Sul durante o Cretáceo Superior. Essas intrusões são subverticais e orientam-se preferencialmente a NE-SW, seguindo a estruturação das rochas encaixantes. Os lamprófiros são classificados como monchiquitos e camptonitos e exibem, respectivamente, textura hipocristalina e holocristalina. Apresentam também textura panidiomórfica, fenocristais de clinopiroxênio e olivina, imersos em matriz formada essencialmente por esses mesmos minerais, além de biotita, kaersutita e minerais opacos. O camptonito apresenta ainda plagioclásio na matriz. Os diabásios alcalinos são hipocristalinos a holocristalinos, equigranulares a inequigranulares, com fenocristais de olivina e/ou clinopiroxênio e/ou plagioclásio, em uma matriz composta essencialmente por esses minerais. As rochas estudadas caracterizam séries alcalinas miaskíticas, com os lamprófiros sendo tanto sódicos, potássicos e ultrapotássicos e os diabásios alcalinos como predominantemente sódicos. Modelagens petrogenéticas envolvendo possíveis processos evolutivos mostram que é improvável que os lamprófiros sejam cogenéticos por processos evolutivos envolvendo tanto cristalização fracionada, com ou sem assimilação concomitante, quanto hibridização. O mesmo ocorre para os diabásios alcalinos. A discriminação de fontes mantélicas foi feita com base nos teores de elementos traços de amostras representativas de líquidos parentais e indica que esse magmatismo alcalino está relacionado a fontes lherzolíticas com fusão parcial na zona de estabilidade do espinélio, isto é, a poucas profundidades. Os dados litogeoquímicos e isotópicos do sistema Sr-Nd das rochas estudadas sugerem tanto o envolvimento de fontes férteis, associadas ao manto sublitosférico, quanto de fontes enriquecidas, relacionadas ao manto litosférico subcontinental. Modelagens de mistura binária revelam que a petrogênese dos lamprófiros e diabásios alcalinos envolveu uma grande participação de um componente fértil misturado com contribuições menores de um componente enriquecido. Idades TDM (760-557 Ma) obtidas sugerem remobilização do manto litosférico no Neoproterozóico, talvez relacionadas à subducção da Placa São Francisco preteritamente à colisão do Orógeno Ribeira. Altas razões CaO/Al2O3 para os líquidos lamprofíricos menos evoluídos, altos teores de Zr, correlações negativas Zr/Hf e Ti/Eu e associação com carbonatitos indicam condições metassomáticas de alto CO2/H2O. Em escala local, modelos geodinâmicos baseados na astenosfera não isotérmica parecem mais aplicáveis. No entanto, modelos geodinâmicos baseados na astenosfera isotérmica (com o envolvimento de plumas) parecem mais indicados num contexto regional, considerando-se outras províncias alcalinas contemporâneas e correlatas.