72 resultados para Arquitetura crustal
Resumo:
A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.
Resumo:
O conhecimento do tema da interação solo-estrutura permite que as edificações sejam projetadas de maneira mais realista com o comportamento físico. Há décadas atrás seria inviável um dimensionamento considerando a deformabilidade do solo de fundação, e as estruturas eram dimensionadas adotando-se as fundações como indeslocáveis, sob uma base rígida. Essa consideração conduz a respostas estruturais inadequadas, por vezes comprometendo a segurança e a estabilidade do conjunto estrutural. Atualmente, o avanço tecnológico permite a obtenção de resultados de milhões de cálculos matemáticos em questões de segundos, podendo-se obter soluções mais arrojadas e dinâmicas, facilitando o dimensionamento estrutural de forma a atender ao novo padrão de construção e arquitetura. A relevância de tal assunto motivou a análise numérica de um edifício de 4 pavimentos de estrutura mista (aço-concreto), considerando o efeito da interação solo-estrutura. As análises foram conduzidas com o programa ANSYS, de elementos finitos, substituindo-se os apoios indeslocáveis por molas discretas, lineares e elásticas, com rigidez equivalente ao solo, conforme hipótese de Winkler. Os parâmetros dos solos de fundação foram adquiridos a partir de correlações empíricas existentes na literatura e da utilização do programa computacional PLAXIS para a determinação das constantes elásticas das molas. Neste trabalho, foram comparados os resultados de reações verticais, esforços normais, momentos fletores e deslocamentos da estrutura obtidos pelo modelo clássico de projeto, que considera apoios indeslocáveis, e pelo modelo de Winkler, que considera a interação solo-estrutura. As análises foram executadas para seis diferentes tipos de solos argilosos, siltosos e arenosos. Os resultados obtidos mostraram claramente a redistribuição dos momentos fletores, esforços normais e reações verticais nos pilares com diferenças significativas para os pilares de canto e periféricos. Observou-se uma tendência de alívio dos esforços nos pilares mais solicitados, adotando a estrutura assentada em uma base rígida. As análises ressaltaram a relevância da interação solo-estrutura, com efeitos provenientes do rearranjo do solo de fundação nos elementos estruturais das edificações.
Resumo:
Este trabalho investiga a implementação de sistemas fuzzy com circuitos eletrônicos. Tais sistemas têm demonstrado sua capacidade de resolver diversos tipos de problemas em várias aplicações de engenharia, em especial nas relacionadas com controle de processos. Para processos mais complexos, o raciocínio aproximado da lógica fuzzy fornece uma maneira de compreender o comportamento do sistema, permitindo a interpolação aproximada entre situações observadas de entrada e saída. A implementação de um sistema fuzzy pode ser baseada em hardware, em software ou em ambos. Tipicamente, as implementações em software utilizam ambientes de programação integrados com simulação, de modo a facilitar o trabalho do projetista. As implementações em hardware, tradicionais ou evolutivas, podem ser analógicas ou digitais e viabilizam sistemas de maior desempenho. Este trabalho tem por objetivo pesquisar a implementação eletrônica de sistemas fuzzy, a fim de viabilizar a criação de sistemas reais capazes de realizar o mapeamento de entrada e saída adequado. O foco é a utilização de uma plataforma com uma arquitetura analógico-digital baseada em uma tabela de mapeamento armazenada em uma memória de alta capacidade. Memórias do tipo SD (Secure Digital) foram estudadas e utilizadas na construção do protótipo eletrônico da plataforma. Também foram desenvolvidos estudos sobre a quantização, especificamente sobre a possibilidade de redução do número de bits. Com a implementação realizada é possível desenvolver um sistema fuzzy num ambiente simulado (Matlab), configurar a plataforma e executar o sistema fuzzy diretamente na plataforma eletrônica. Os testes com o protótipo construído comprovaram seu bom funcionamento.
Resumo:
Aplicações ubíquas e pervasivas são cientes do contexto dos recursos utilizados no que diz respeito à disponibilidade e qualidade. Esta classe de aplicações pode se beneficiar de mecanismos para descobrir recursos que atendam aos requisitos não-funcionais desejados, e mecanismos para monitorar a qualidade destes recursos. Neste trabalho é proposta uma arquitetura para dois serviços que deveriam ser incluídos na infra-estrutura de suporte a ser utilizada pelas aplicações mencionadas: um Serviço de Contexto, que provê acesso a informações de contexto, e um Serviço de Descoberta, que permite a descoberta dinâmica de recursos, levando em conta restrições de contexto a serem satisfeitas. Estes serviços se apóiam em Agentes de Recursos, que efetivamente monitoram os recursos e sensores. Uma implementação de referência foi desenvolvida, oferecendo os serviços mencionados na forma de Serviços Web e implementando os Agentes de Recursos empregando um padrão de projeto simples. Para avaliar os serviços estes foram utilizados como infra-estrutura para o desenvolvimento de um sistema tolerante a falhas e uma aplicação de assistência domiciliar remota (tele-saúde). O desempenho dos serviços também foi avaliado.
Resumo:
Neste trabalho é apresentada uma nova abordagem para obter as respostas impulsivas biauriculares (BIRs) para um sistema de aurilização utilizando um conjunto de redes neurais artificiais (RNAs). O método proposto é capaz de reconstruir as respostas impulsivas associadas à cabeça humana (HRIRs) por meio de modificação espectral e de interpolação espacial. A fim de cobrir todo o espaço auditivo de recepção, sem aumentar a complexidade da arquitetura da rede, uma estrutura com múltiplas RNAs (conjunto) foi adotada, onde cada rede opera uma região específica do espaço (gomo). Os três principais fatores que influenciam na precisão do modelo arquitetura da rede, ângulos de abertura da área de recepção e atrasos das HRIRs são investigados e uma configuração ideal é apresentada. O erro de modelagem no domínio da frequência é investigado considerando a natureza logarítmica da audição humana. Mais ainda, são propostos novos parâmetros para avaliação do erro, definidos em analogia com alguns dos bem conhecidos parâmetros de qualidade acústica de salas. Através da metodologia proposta obteve-se um ganho computacional, em redução do tempo de processamento, de aproximadamente 62% em relação ao método tradicional de processamento de sinais utilizado para aurilização. A aplicabilidade do novo método em sistemas de aurilização é reforçada mediante uma análise comparativa dos resultados, que incluem a geração das BIRs e o cálculo dos parâmetros acústicos biauriculares (IACF e IACC), os quais mostram erros de magnitudes reduzidas.
Resumo:
Desde os primórdios da humanidade, a descoberta do método de processamento cerebral do som, e consequentemente da música, fazem parte do imaginário humano. Portanto, as pesquisas relacionadas a este processo constituem um dos mais vastos campos de estudos das áreas de ciências. Dentre as inúmeras tentativas para compreensão do processamento biológico do som, o ser humano inventou o processo automático de composição musical, com o intuito de aferir a possibilidade da realização de composições musicais de qualidade sem a imposição sentimental, ou seja, apenas com a utilização das definições e estruturas de música existentes. Este procedimento automático de composição musical, também denominado música aleatória ou música do acaso, tem sido vastamente explorado ao longo dos séculos, já tendo sido utilizado por alguns dos grandes nomes do cenário musical, como por exemplo, Mozart. Os avanços nas áreas de engenharia e computação permitiram a evolução dos métodos utilizados para composição de música aleatória, tornando a aplicação de autômatos celulares uma alternativa viável para determinação da sequência de execução de notas musicais e outros itens utilizados durante a composição deste tipo de música. Esta dissertação propõe uma arquitetura para geração de música harmonizada a partir de intervalos melódicos determinados por autômatos celulares, implementada em hardware reconfigurável do tipo FPGA. A arquitetura proposta possui quatro tipos de autômatos celulares, desenvolvidos através dos modelos de vizinhança unidimensional de Wolfram, vizinhança bidimensional de Neumann, vizinhança bidimensional Moore e vizinhança tridimensional de Neumann, que podem ser combinados de 16 formas diferentes para geração de melodias. Os resultados do processamento realizado pela arquitetura proposta são melodias no formato .mid, compostas através da utilização de dois autômatos celulares, um para escolha das notas e outro para escolha dos instrumentos a serem emulados, de acordo com o protocolo MIDI. Para tal esta arquitetura é formada por três unidades principais, a unidade divisor de frequência, que é responsável pelo sincronismo das tarefas executadas pela arquitetura, a unidade de conjunto de autômatos celulares, que é responsável pelo controle e habilitação dos autômatos celulares, e a unidade máquina MIDI, que é responsável por organizar os resultados de cada iteração corrente dos autômatos celulares e convertê-los conforme a estrutura do protocolo MIDI, gerando-se assim o produto musical. A arquitetura proposta é parametrizável, de modo que a configuração dos dados que influenciam no produto musical gerado, como por exemplo, a definição dos conjuntos de regras para os autômatos celulares habilitados, fica a cargo do usuário, não havendo então limites para as combinações possíveis a serem realizadas na arquitetura. Para validação da funcionalidade e aplicabilidade da arquitetura proposta, alguns dos resultados obtidos foram apresentados e detalhados através do uso de técnicas de obtenção de informação musical.
Resumo:
Este trabalho apresenta a proposta de um middleware, chamado DistributedCL, que torna transparente o processamento paralelo em GPUs distribuídas. Com o suporte do middleware DistributedCL uma aplicação, preparada para utilizar a API OpenCL, pode executar de forma distribuída, utilizando GPUs remotas, de forma transparente e sem necessidade de alteração ou nova compilação do seu código. A arquitetura proposta para o middleware DistributedCL é modular, com camadas bem definidas e um protótipo foi construído de acordo com a arquitetura, onde foram empregados vários pontos de otimização, incluindo o envio de dados em lotes, comunicação assíncrona via rede e chamada assíncrona da API OpenCL. O protótipo do middleware DistributedCL foi avaliado com o uso de benchmarks disponíveis e também foi desenvolvido o benchmark CLBench, para avaliação de acordo com a quantidade dos dados. O desempenho do protótipo se mostrou bom, superior às propostas semelhantes, tendo alguns resultados próximos do ideal, sendo o tamanho dos dados para transmissão através da rede o maior fator limitante.
Resumo:
O objetivo desta dissertação é avaliar o desempenho de ambientes virtuais de roteamento construídos sobre máquinas x86 e dispositivos de rede existentes na Internet atual. Entre as plataformas de virtualização mais utilizadas, deseja-se identificar quem melhor atende aos requisitos de um ambiente virtual de roteamento para permitir a programação do núcleo de redes de produção. As plataformas de virtualização Xen e KVM foram instaladas em servidores x86 modernos de grande capacidade, e comparadas quanto a eficiência, flexibilidade e capacidade de isolamento entre as redes, que são os requisitos para o bom desempenho de uma rede virtual. Os resultados obtidos nos testes mostram que, apesar de ser uma plataforma de virtualização completa, o KVM possui desempenho melhor que o do Xen no encaminhamento e roteamento de pacotes, quando o VIRTIO é utilizado. Além disso, apenas o Xen apresentou problemas de isolamento entre redes virtuais. Também avaliamos o efeito da arquitetura NUMA, muito comum em servidores x86 modernos, sobre o desempenho das VMs quando muita memória e núcleos de processamento são alocados nelas. A análise dos resultados mostra que o desempenho das operações de Entrada e Saída (E/S) de rede pode ser comprometido, caso as quantidades de memória e CPU virtuais alocadas para a VM não respeitem o tamanho dos nós NUMA existentes no hardware. Por último, estudamos o OpenFlow. Ele permite que redes sejam segmentadas em roteadores, comutadores e em máquinas x86 para que ambientes virtuais de roteamento com lógicas de encaminhamento diferentes possam ser criados. Verificamos que ao ser instalado com o Xen e com o KVM, ele possibilita a migração de redes virtuais entre diferentes nós físicos, sem que ocorram interrupções nos fluxos de dados, além de permitir que o desempenho do encaminhamento de pacotes nas redes virtuais criadas seja aumentado. Assim, foi possível programar o núcleo da rede para implementar alternativas ao protocolo IP.
Resumo:
A busca do homem pela reprodução do movimento através das imagens é antiga. Tão antiga que é difícil fixar uma data para marcar a invenção do cinema. Para a indústria cinematográfica comercial, no entanto, esse marco costuma ser definitivo: o dia 28 de dezembro de 1895, por ocasião da primeira exibição pública paga de filmes dos Irmãos Lumiére com seu cinematógrafo. Mas o que parece ser inaugurado aí não é simplesmente uma técnica ilusória de reprodução do movimento, e sim um conceito de espetáculo que se sedimentou durante os dez ou vinte anos seguintes. Graças a interesses econômicos e ideológicos, o cinema passou de um exercício de escrita do movimento com a luz, para uma gramática muito bem sedimentada e padronizada. Junto com esse modelo de narrativa, determinou-se também a situação-cinema. Nela, o público é submetido a uma arquitetura de espectação estanque, que favorece a inatividade motora e a concentração na obra em detrimento da interação social e de uma postura participativa do espectador. Desde o surgimento da televisão e da videografia, porém, essa situação-cinema vem sendo contestada. Com essas novas tecnologias, seguidas pelo advento dos aparatos digitais, o audiovisual deixou de estar confinado às salas escuras, poltronas confortáveis e telas brancas. Todo e qualquer ambiente passou a ser uma paisagem de exibição audiovisual em potencial. Essa ruptura, por suas características estéticas, sociais, culturais, acabou encontrando na arte um campo de expansão. Ao longo dos últimos sessenta anos, a quantidade de aparelhos audiovisuais em circulação, portáteis, interativos só cresce. O resultado é que o audiovisual se tornou nosso principal meio para trocas de informações de toda ordem textual, visual, sonora etc. No seu dia-a-dia, o ser humano transita velozmente entre espaço físico e ciberespaço sem qualquer constrangimento. A materialidade é sempre um estímulo para acessar a virtualidade e vice-versa. Diante desse contexto cultural contemporâneo, de onipresença do audiovisual e de permanente troca entre essas duas janelas, é que este trabalho se posiciona. A busca aqui é por desvendar o ponto em que as duas dimensões de espaço e tempo se tangenciam e se mesclam. Deixam de ser ou para se tornar e. O pano de fundo para esse mergulho é justamente um exercício de exploração da potencialidade estética e criativa da exibição audiovisual entre todos os seus elementos constitutivos, incluindo aí o espectador participador. Assim se criam os cinemas para paisagens
Resumo:
A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.
Resumo:
Com a entrada em vigor do Protocolo de Quioto, intensificam-se as expectativas pela regulamentação de um mercado de créditos de carbono. No caso de esses créditos terem sua origem em projetos de reflorestamento ou de florestamento, conforme previsto pelos chamados Mecanismos de Desenvolvimento Limpo (MDL), vem a ser fundamental o estabelecimento de uma metodologia para quantificação de estoques de carbono armazenados sob a forma de biomassa vegetal. Este trabalho propõe, como um método informatizado para cálculo de estoque de carbono em florestas, um conjunto de funcionalidades e um modelo de dados cadastrais totalmente integrados com um Sistema de Informações Geográficas de arquitetura aberta. A partir de mapas e imagens geo-referenciadas e com base em dados obtidos de pequenos transectos, o sistema calcula a quantidade total de carbono estocada em toda a floresta. Além de permitir apresentar esses resultados para diferentes agentes armazenadores de carbono, como, por exemplo, segmentos de floresta ou cada espécie vegetal, o sistema mantém registro histórico de dados dendrométricos, o que virá permitir a geração de gráficos de curvas de crescimento e, por conseguinte, estimativas futuras.
Resumo:
Com o objetivo de investigar as relações da comunicação com o espaço urbano, a presente dissertação se debruça sobre o bairro de Marechal Hermes, localizado na zona norte do Rio de Janeiro. Parte da abordagem da história cultural para refletir sobre as cidades, como propõe Sandra Pesavento, buscando perceber a urbe em suas três dimensões: materialidade, sociabilidade e sensibilidade. O primeiro aspecto atribui relevância ao fato de Marechal Hermes ser um bairro centenário, com uma morfologia singular boa parte do seu traçado e arquitetura originais são ainda mantidos, a despeito das interferências dos usuários. Assim, o bairro acumula diferentes registros, guardando uma memória de múltiplas temporalidades e possibilidades narrativas. A sociabilidade no bairro se manifesta nas práticas de ocupação do espaço e numa convivência cotidiana que se estabelece em relações diretas laços familiares, de amizade, vizinhança mas também em interações que se dão pelas redes de tecnologia e comunicação. Há uma tessitura de vozes consonantes e dissonantes, que não excluem divergências e tensões, mas focalizam sempre o sentido do comum. Tais redes de relações se complementam com as imagens construídas pelo cinema e pela TV, uma vez que o bairro tem sido cenário frequente de inúmeras produções da indústria audiovisual, como filmes, novelas e seriados. Veiculadas na grande mídia e consumidas de maneira peculiar pelos moradores, essas imagens se integram a um imaginário partilhado que legitima o valor do lugar distinguindo sua materialidade e seu espírito. Com um olhar de dentro, buscando sempre a perspectiva dos moradores, manifesta-se neste trabalho passado e presente, num instantâneo de Marechal Hermes que perscruta o futuro em novos sonhos para o lugar
Resumo:
O Orógeno Ribeira representa um cinturão de dobramentos e empurrões, gerado no Neoproterozóico/Cambriano, durante a Orogênese Brasiliana, na borda sul/sudeste do Cráton do São Francisco e compreende quatro terrenos tectono-estratigráficos: 1) o Terreno Ocidental, interpretado como resultado do retrabalhamento do paleocontinente São Francisco, é constituído de duas escamas de empurrão de escala crustal (Domínios Andrelândia e Juiz de Fora); 2) o Terreno Oriental representa uma outra microplaca e abriga o Arco Magmático Rio Negro; 3) o Terreno Paraíba do Sul, que constitui-se na escama superior deste segmento da faixa; e 4) o Terreno Cabo Frio, cuja docagem foi tardia, ocupa pequena área no litoral norte do estado do Rio de Janeiro. Em todos os diferentes compartimentos do segmento central da Faixa Ribeira podem ser identificadas três unidades tectono-estratigráficas: 1) unidades pré-1,8 Ga. (ortognaisses e ortogranulitos do embasamento); 2) rochas metassedimentares pós-1,8 Ga; e 3) granitóides/charnockitóides brasilianos. O Complexo Mantiqueira é composto por ortognaisses migmatíticos, tonalíticos a graníticos, e anfibolitos associados, constitui o embasamento pré-1,8 Ga das rochas da Megasseqüência Andrelândia no domínio homônimo do Terreno Ocidental. Foram integrados 68 dados litogeoquímicos dentre ortognaisses e metabasitos do Complexo Mantiqueira. As rochas dessa unidade pertencem a duas séries distintas: série calcioalcalina (rochas intermediárias a ácidas); e série transicional (rochas básicas, ora de afinidade toleítica, ora alcalina). Com base em critérios petrológicos, análise quantitativa e em valores [La/Yb]N, verificou-se que o Complexo Mantiqueira é bastante heterogêneo, incluindo diversos grupos petrogeneticamente distintos. Dentre as rochas da série transicional, foram identificados 2 conjuntos: 1) rochas basálticas toleiíticas, com [La/Yb]N entre 2,13 e 4,72 (fontes do tipo E-MORB e/ou intraplaca);e 2) rochas basálticas de afinidade alcalina, com [La/Yb]N entre 11,79 e 22,78. As rochas da série calciolacalina foram agrupadas em cinco diferentes conjuntos: 1) ortognaisses migmatíticos quartzo dioríticos a tonalíticos, com [La/Yb]N entre 11,37 e 38,26; 2) ortognaisses bandados de composição quarzto diorítica a granodiorítica, com [La/Yb]N entre 4,35 e 9,28; 3) ortognaisses homogênos de composição tonalítica a granítica, com [La/Yb]N entre 16,57 e 38,59; 4) leucognaisses brancos de composição tonalítica/trondhjemítica a granítica, com [La/Yb]N entre 46,69 e 65,06; e 5) ortognaisse róseo porfiroclástico de composição tonalítica a granítica, com [La/Yb]N entre 82,70 e 171,36. As análises geocronológicas U-Pb SHRIMP foram realizadas no Research School of Earth Science (ANU/Canberra/Austrália). Foram obtidas idades paleoproterozóicas para as rochas das duas séries identificadas, interpretadas como a idade de cristalização dos protólitos magmáticos desses gnaisses e metabasitos. Os resultados obtidos mostram uma variação de idades de cristalização de 2139 35 a 2143,4 9,4, para as rochas da série transicional, e de 2126,4 8 a 2204,5 6,7, para aquelas da série calcioalcalina. Dentre todas as amostras estudadas, apenas a amostra JF-CM-516IV forneceu dados discordantes de idades arqueanas (292916 Ma), interpretados como dados de herança. Contudo, evidências dessa herança semelhantes a esta são observadas em outras amostras. Ambas as séries também apresentaram idades de metamorfismo neoproterozóico, no intervalo de 548 17 Ma a 590,5 7,7 Ma que é consistente com o metamorfismo M1 (entre 550 e 590 Ma), contemporâneo à colisão entre os Terrenos Ocidental e Oriental do setor central da Faixa Ribeira (Heilbron, 1993 e Heilbron et al., 1995).
Resumo:
Os folhelhos pretos devonianos da Formação Barreirinha caracterizamse pela alta radioatividade na porção basal, grande extensão areal, espessura e profundidade de soterramento variável que vão de exposição na superfície até mais de 3000 m. Eles são as principais rochas geradoras do sistema petrolífero convencional da Bacia do Amazonas, e recentemente foram consideradas como promissores plays de gás não convencional. Folhelhos são geralmente caracterizados por uma matriz fechada, que faz com que sejam relativamente impermeáveis em relação ao fluxo de gás, a menos que ocorram fraturas, e dependendo das suas características geológicas e geoquímicas podem funcionar com um Sistema Petrolífero autossuficiente, atuando tanto como rocha fonte, quanto como reservatório de gás (reservatório Shale Gas). Assim, o gás natural termogênico ou biogênico gerado pode ser armazenado em folhelhos ricos em matéria orgânica na forma livre, adsorvida, ou em estado dissolvido. Em contraste com os sistemas petrolíferos convencionais, reservatórios Shale Gas, possuem mecanismos de aprisionamento e armazenamento únicos, sendo necessária a utilização de técnicas de avaliações específicas. No entanto, folhelhos prolíficos geralmente podem ser reconhecidos a partir de alguns parâmetros básicos: arquitetura geológica e sedimentar, propriedades geoquímicas e petrofísicas e composição mineralógica. Tendo em vista a carência de pesquisas de caráter descritivo, com cunho exploratório dos folhelhos geradores da Formação Barreirinha, esta dissertação tem como objetivo introduzir uma metodologia de identificação de intervalos de folhelho gerador com potencial para reservatório Shale Gas. Começando com uma investigação regional sobre o contexto geológico e sedimentar, seguido de uma avaliação abrangente enfocando as características geoquímicas, petrofísicas e litofácies dos folhelhos a partir da integração de parâmetros obtidos de perfis geofísicos de poço, análises geoquímicas e aplicação dos conceitos de Estratigrafia de Sequencia.
Resumo:
Nesta Dissertação, investigo o conjunto de desenhos que denominei desenhos-conceitos e que constituem-se como uma prática processual da minha atuação enquanto artista. Tal investigação é percorrida através de seis tangentes transdisciplinares na tentativa de estabelecer pontos de contato entre a prática do Desenho e outras práticas contemporâneas investigativas do conhecimento humano. São elas: Tangente Diagramas, Tangente Cosmologia, Tangente Desenhos, Tangente Linguística, Tangente Lógica/Matemática e Tangente Escritura. A pesquisa procura estabelecer uma maior proximidade entre teoria e obra apresentando-se como texto dissertivo e também como a elaboração de um Fichário. Neste Fichário o léxico dos desenhos-conceitos é apresentado em conjunto com uma série de anotações que permearam a investigação e ambos, desenhos-conceitos e anotações, configuram-se como pontos-chave para a formação da arquitetura conceitual do léxico. Tanto o texto dissertivo quanto as anotações e desenhos presentes no Fichário tecem indagações acerca da relação entre o espaço-tempo e o corpo daquele que performa ações. A pesquisa conclui na abertura de novos procedimentos práticos, através da ideia de performatividade na realização de ações, com as obras Desire to communicate e Obscena.