969 resultados para Proposição legislativa, redação técnica, normas, Brasil


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta pesquisa de mestrado analisa o discurso do jornal Zero Hora sobre o Partido dos Trabalhadores, durante a Comissão Parlamentar de Inquérito da Segurança Pública, realizada pela Assembléia Legislativa do Rio Grande do Sul, de 18 de abril a 10 de novembro de 2001. Para compreender o funcionamento destes discursos nos amparamos em fundamentos teóricos e em procedimentos metodológicos consagrados pela Escola Francesa da Análise do Discurso e, também, nos cercamos de conceitos de comunicação, política e jornalismo. 7 RESUMO Construímos o corpus de nossa pesquisa, partindo das 48 edições do jornal Zero Hora subseqüentes às audiências da Comissão Parlamentar de Inquérito e mais a edição relativa à leitura do relatório final dos trabalhos desta Comissão, totalizando 49 exemplares, nas quais foram publicadas 110 matérias informativas sobre a Comissão Parlamentar de Inquérito. Deste total, subdividimos e classificamos as matérias exclusivas sobre o Partido dos Trabalhadores. Verificamos que o jornal Zero Hora, no período estudado, construiu um discurso de resistência e de oposição ao Partido dos Trabalhadores e ao poder político instituído no Estado, visando desestabilizar o capital simbólico deste partido - a sua credibilidade. Articulado com veículos da RBS, o jornal interferiu na pauta da CPI da Segurança Pública, fiscalizou as ações do PT, sugeriu rumos ao partido e usou ironias da oposição, no seu discurso jornalístico. A repetição e a disputa política pelas eleições de 2002 também estiveram presentes na discursividade do jornal. Partimos da perspectiva de que o discurso jornalístico não é um discurso da realidade, mas um discurso sobre a realidade. Assim, contestamos o mito da objetividade jornalística, embora esta visão ainda domine no campo da comunicação. E nos contrapomos ao argumento da neutralidade no discurso do jornal Zero Hora, utilizando o paradigma de Gaye Tuchman, segundo o qual os jornais e os jornalistas, em busca da imparcialidade jornalística, recorrem a determinados rituais estratégicos para se protegerem das críticas - como ouvir os dois lados, apresentar provas complementares, usar aspas e a pirâmide invertida, na elaboração das matérias jornalísticas. Identificamos no discurso do jornal Zero Hora sobre o Partido dos Trabalhadores, no período estudado, a existência de pelo menos duas formações discursivas: uma FD-petista e outra FD-antipetista, que em alguns momentos aparecem isoladas e, em outros se misturam e se mesclam. As principais marcas observadas em ambas linhas discursivas são relativas à ética e à democracia. Embora os enunciadores tenham sido múltiplos, o fio condutor destes discursos apontou para uma mesma direção de sentidos e a FD-antipetista se revelou com uma presença mais marcante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O ambiente institucional do financiamento do ensino fundamental no Brasil sofreu diversas modificações nas últimas décadas, principalmente nos anos 1990. Com o objetivo de aliar a priorização do ensino fundamental à descentralização das políticas públicas de educação para o nível municipal, o governo federal promoveu uma reforma profunda nas normas legais para a execução dessas políticas, inclusive através de emendas constitucionais, que passaram a constituir importantes regras para o financiamento do ensino. Uma das principais alterações foi a criação do Fundo de Manutenção e Desenvolvimento do Ensino Fundamental e de Valorização do Magistério – Fundef, destinado ao financiamento do ensino fundamental no Brasil. Apesar das reformas ocorridas, a situação do ensino fundamental no Brasil é ainda bastante precária. Esta não condiz com as necessidades de sua população, e nem com as possibilidades econômicas do Estado brasileiro. Do ponto de vista analítico, com base no referencial teórico da Nova Economia Institucional, a criação da vinculação de verbas para a política educacional é considerada a principal regra de financiamento do ensino fundamental e serviu à redução de vários custos de transação. Esses custos estão relacionados à descontinuidade de ações e ao comportamento oportunista dos atores envolvidos no cenário das políticas públicas. Dentre esses atores estão os representantes do poder público, executivo e legislativo, a burocracia estatal e a sociedade civil. Esta tese busca avaliar se o conjunto de estratégias de financiamento do ensino criado a partir das vinculações orçamentárias de receitas, em especial para o ensino fundamental, é condição suficiente para a obtenção de eficiência na condução das políticas de educação, ou se há outros elementos, ligados ou não a essa estratégia, que contribuem para a manutenção de ineficiências. O enfoque teórico utilizado na tese é o da Nova Economia Institucional, baseado, principalmente, nos trabalhos de North (1988 e 1990), Williamson (1985) e Miller (1992). Esse referencial teórico fundamenta-se no papel central das instituições na avaliação de problemas sócio-econômicos. Dessa maneira, a primeira parte da tese é dedicada à descrição dos elementos centrais dessa teoria, como, por exemplo, os conceitos de regras formais e informais, custos de transação e estruturas de governança. Com base nessa estruturação inicial é construído o modelo teórico utilizado na tese que pode ser entendido como uma adaptação da abordagem da Nova Economia Institucional para organizações do setor público. Esse modelo leva em consideração elementos e características importantes das instituições, atores e estruturas de governança, fundamentais na análise das organizações públicas. A partir desse modelo teórico é realizada uma análise pormenorizada do arranjo institucional desenvolvido para o financiamento do ensino fundamental nos municípios brasileiros, abrangendo o ambiente institucional, isto é, as regras do jogo, assim como o comportamento dos agentes frente a essas regras. Como forma de testar empiricamente os pressupostos teóricos utilizados na tese, é também realizado um estudo de caso para o Município de São Paulo. Esta tese busca contribuir com as discussões acerca das mudanças necessárias na construção das políticas de educação no Brasil, chamando atenção para a importância da adequação institucional entre as regras formais estabelecidas para as políticas e as características, valores e capacitação dos atores envolvidos na implantação dessas regras. A própria teoria institucional antecipa que a não consideração desses fatores implica a possibilidade de ocorrência de custos de transação associados aos custos de controle dos gestores públicos e ao comportamento oportunista dos agentes no cenário das políticas públicas. Com isso, mesmo existindo recursos vinculados não estará garantida uma condução eficiente das políticas públicas de ensino.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho está dividido em dois ensaios. O primeiro ensaio examina aspectos da liquidez do mercado secundário de títulos públicos no Brasil no período 2003 a 2006 e os determinantes do spread de compra e venda no mercado secundário de LTN - Letra do Tesouro Nacional no período 2005 a 2006. Os spreads foram calculados com base em dados diários de alta freqüência, para períodos de 30 minutos e de um dia. Em linhas gerais, a liquidez é um determinante importante no cálculo do spread. Especificamente os spreads diminuem quando os volumes ofertados aumentam. No caso dos prazos de vencimento, os spreads aumentam quando os prazos se ampliam. LTNs com prazos de vencimentos até 30 dias apresentaram spreads de 1 centavo de reais (1.89 bp) enquanto que LTNs com prazos acima de dois anos apresentaram spreads médios em torno de 54 centavos de reais (3.84 bp) para intervalos de 30 minutos e 81 centavos de reais (5.72 bp) para intervalos de um dia. Os testes econométricos foram realizados com base em um modelo apresentado por Chakravarty e Sarkar (1999) e aplicado ao mercado americano de bonds no período de 1995 e 1997. Os testes foram feitos utilizando-se a técnica do Método dos Momentos Generalizados (GMM). Os resultados confirmam o spread de compra e venda como medida importante no acompanhamento da liquidez. O segundo ensaio compara aspectos da liquidez e da microestrutura do mercado de títulos públicos em alguns paises como Brasil, Chile, México, Coréia, Singapura, Polônia e Estados Unidos. A análise utiliza algumas dimensões da microestrutura como a liquidez do mercado secundário (spread de compra e venda, giro do estoque de títulos e vencimentos mais negociados), os custos de eficiência, a estrutura e transparência do mercado primário e secundário e, por último, a segurança do mercado. O objetivo é comparar as características e o funcionamento dos mercados secundários desses paises e, confrontar com a realidade do mercado brasileiro face ao desenvolvimento da microestrutura. Apesar da falta de alongamento dos prazos dos títulos públicos, o mercado secundário no Brasil apresenta aspectos da microestrutura semelhantes aos paises em consideração o que sugere a existência de outros fatores fora a microestrutura que limitam o aumento dos prazos. Os resultados do primeiro ensaio ajudam nas comparações dos demais paises. Como resultado, encontramos que embora a liquidez do mercado secundário de títulos públicos no Brasil concentra-se em papéis de prazo menor, este fato provavelmente não se deve a questões de microestrutura do mercado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A teoria de consumo indica que os indivíduos maximizam sua utilidade se suavizarem o consumo ao longo da vida. Manter o consumo constante seria melhor que se sujeitar à instabilidade. Entretanto a maior parte dos testes realizados com informações brasileiras contraria esta hipótese. Este trabalho apresenta resultados diferentes, com indícios de suavização do consumo em um período recente. Para a realização deste trabalho, foram utilizados dados nacionais extraídos do site do IPEA (IPEADATA), onde estão disponíveis séries de consumo, renda, juros, crédito, assim como deflatores. As séries foram tratadas de maneira a se padronizarem como trimestrais, incorporando o período entre primeiro trimestre de 1991 e o segundo trimestre de 2009. Com o auxílio de técnica de estimação de quebras estruturais, ficaram evidentes os momentos em que as séries macroeconômicas tiveram mudanças significativas. Desta maneira, o histórico de informações foi subdividido conforme o panorama econômico. Cada período deste histórico foi submetido a um processo de estimação de crescimento de consumo a partir de crescimento de renda, juros e crescimento de crédito. A teoria de suavização do consumo sugere que a estimação deveria resultar em estimativas não significantes, pois o consumo não estaria atrelado ao acesso ao credito ou variações temporárias da renda. O que se verificou foi que em um histórico mais distante, os resultados foram bastante parecidos com resultados observados em bibliografia. Entretanto, em um período mais recente o consumo estaria se desvencilhando da renda e do crédito. Isto sugere que a suavização do consumo pode estar se concretizando no Brasil.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Diante do inédito momento vivido pela economia brasileira e, especialmente, pela bolsa de valores nacional, principalmente após a obtenção do grau de investimento pelo Brasil, este trabalho aborda um tema que ganhou um enorme espaço na mídia atual que é a análise técnica. A partir de uma amostra de 37 ações listadas na Bolsa de Valores de São Paulo no período compreendido entre janeiro de 1999 e agosto de 2009, este trabalho examina se a análise técnica agrega valor 'as decisões de investimentos. Através da elaboração de intervalos de confiança, construídos através da técnica de Bootstrap de inferência amostral, e consistentes com a hipótese nula de eficiência de mercado na sua forma fraca, foram testados 4 sistemas técnicos de trading. Mais especificamente, obteve-se os resultados de cada sistema aplicado às series originais dos ativos. Então, comparou-se esses resultados com a média dos resultados obtidos quando os mesmos sistemas foram aplicados a 1000 séries simuladas, segundo um random walk, de cada ativo. Caso os mercados sejam eficientes em sua forma fraca, não haveria nenhuma razão para se encontrar estratégias com retornos positivos, baseando-se apenas nos valores históricos dos ativos. Ou seja, não haveria razão para os resultados das séries originais serem maiores que os das séries simuladas. Os resultados empíricos encontrados sugeriram que os sistemas testados não foram capazes de antecipar o futuro utilizando-se apenas de dados passados. Porém, alguns deles geraram retornos expressivos e só foram superados pelas séries simuladas em aproximadamente 25% da amostra, indicando que a análise técnica tem sim seu valor.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho estuda a lucratividade dos modelos de Análise Técnica no mercado de câmbio brasileiro. Utilizando a metodologia de White (2000) para testar 1712 regras geradas a partir de quatro modelos de Análise Técnica verifica-se que a melhor regra não possui poder de previsibilidade significante ao se considerar os efeitos de data-snooping. Os resultados indicam que o mercado de câmbio brasileiro está de acordo com a hipótese de mercado eficiente sugerida pela literatura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ao longo da história da humanidade, vários esforços foram feitos na tentativa de prever o futuro. Isto ocorreu como uma forma de antever possíveis situações e também de estabelecer mudanças de objetivos devido às alternativas apresentadas. Inúmeros questionamentos surgiram diante deste processo e inegavelmente estavam centrados no quesito “incerteza” dos eventos. E é exatamente neste contexto que surge a técnica prospectiva, que tem o propósito de analisar as incertezas e refletir sobre as suas alternativas de ação no presente e trata de aprimorar o entendimento de como o futuro pode acontecer. As opções de futuro se materializam através da sua descrição ordenada e consistente, ou seja, através de um cenário que é a delimitação de uma situação futura e da seqüência dos acontecimentos que permitem passar da situação de origem a essa situação futura. Assim, o objetivo desse trabalho é realizar um estudo prospectivo e longo prazo sobre a demanda de aços planos no Brasil, tendo em vista a importância da indústria siderúrgica brasileira e às incertezas a ela relacionadas e utiliza a análise prospectiva na elaboração de cenários passíveis de ocorrência. Portanto, trata, inicialmente, de aspectos conceituais da visão prospectiva e sua evolução histórica, abordando e focalizando a técnica proposta por Michel Godet, porém utilizando o método PROSPEX de Eduardo Marques para a elaboração de cenários da demanda de aços planos no Brasil. Diante disso, foram identificados dois cenários qualitativos contrastantes e posteriormente submetidos a um modelo macroeconômico de projeção, o Projetar_e, que, devidamente calibrado, indicou quantitativamente o nível de diversas variáveis econômicas e o desempenho futuro do Produto Interno Bruto (PIB). Como resultado, concluímos que há uma forte relação de causalidade entre o PIB e o consumo de aços planos e identificamos uma equação de regressão linear que permite a projeção da referida demanda. As conclusões ainda demonstram que os resultados dos cenários quantitativos identificados neste trabalho apresentam diferenças significativas em relação às estimativas efetuadas pelo Instituto Brasileiro de Siderurgia (IBS), cabendo, portanto uma reflexão sobre a plausibilidade da utilização de cenários de caráter projetivos para estudos de longo vii prazo, baseados em dados históricos que simplesmente extrapolam para o futuro a imagem do passado. Finalmente, recomendamos pesquisas adicionais para a formalização da integração de métodos qualitativos com métodos quantitativos de elaboração de cenários e a utilização de estudos prospectivos nas empresas participantes da cadeia de valor que utilizam o aço plano como matéria-prima essencial nos seus processos produtivos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O estudo foi feito através de séries históricas de dados de um incubatório pertencente a uma integração avícola do Rio Grande do Sul, durante os anos de 1999 a 2003, com os quais foram feitas análises do tipo observacional analítico e transversal. Primeiramente usou-se os registros de 5 linhagens de frangos utilizadas pela empresa no transcorrer do período de 23 de fevereiro de 1995 a 25 de janeiro de 2002. As linhagens foram identificadas da seguinte forma: COBB, HIGH YIELD, MPK, ROSS308, e X. Esses 81 lotes analisados foram estudados através dos seus respectivos registros que continham: o número inicial de fêmeas, número inicial de machos, ração total/cabeça, ração/cabeça/inicial/recria, ração/cabeça/inicial/postura, ovos postos, ração p/ovo posto, pintos nascidos, percentagem viabilidade postura fêmea, percentagem viabilidade postura machos. O método aqui proposto provou ser capaz de classificar as linhagens a partir das entradas escolhidas. Na linhagem que apresentava uma grande quantidade de amostras a classificação foi muito precisa. Nas demais, com menor número de dados, a classificação foi efetuada, e, como era de se esperar, os resultados foram menos consistentes. Com o mesmo banco de dados dos lotes fechados, realizou-se a segunda etapa da dissertação. Nela, procedeu-se o treinamento das redes neurais artificiais onde foram utilizadas as seguintes variáveis de saída: ovos incubáveis, percentagem de ovos incubáveis, ovos incubados, percentagem de ovos incubados, pintos nascidos e pintos aproveitáveis. Os resultados apresentaram R2 oscilando entre 0,93 e 0,99 e o erro médio e o quadrado médio do erro ajustados, demonstrando a utilidade das redes para explicar as variáveis de saída. Na terceira e última etapa da dissertação, destinada à validação dos modelos, foram usados quatro arquivos distintos denominados da seguinte forma: INPESO (3.110 linhas de registros de pesos dos reprodutores), ININFO (56.018 linhas de registros com as informações diárias do ocorrido nas granjas de reprodução até o incubatório), INOVOS (35.000 linhas de registros com informações sobre os ovos processados), INNASC: 43.828 linhas de registros com informações sobre os nascimentos. O modelo gerado para o ano de 1999 foi capaz de predizer corretamente os resultados deste mesmo ano e dos anos de 2000, 2001, 2002 e 2003. O mesmo procedimento foi repetido criando modelo com os registros do ano em questão e validando-o com os registros dos anos subseqüentes. Em todas as ocasiões foram obtidos bons resultados traduzidos por um alto valor no R2. Concluindo, os fenômenos próprios do incubatório puderam ser explicados através das redes neurais artificiais. A técnica, seguindo a mesma tendência das dissertações que anteriormente já haviam demonstrado que esta metodologia pode ser utilizada para o gerenciamento de reprodutoras pesadas e de frangos de corte, pode realizar simulações, predições e medir a contribuição de cada variável no fenômeno observado, tornando-se uma poderosa ferramenta para o gerenciamento do incubatório e num suporte cientificamente alicerçado para a tomada de decisão.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A busca da sustentabilidade ambiental nos centros urbanos constitui-se em um dos maiores desafios ambientais deste século, sendo amplamente reconhecido que o acúmulo de problemas ambientais não afeta apenas a produtividade das cidades, mas também a qualidade de vida de seus habitantes. Nos últimos 30 anos, os gestores de organizações públicas e privadas passaram a considerar as questões ambientais como parte de suas preocupações. Em alguns segmentos, essas preocupações transformaram-se em ações voltadas à mitigação dos impactos das atividades humanas e à prática de sistemas de gestão ambiental, integrada com as demais gestões da organização. A partir da Constituição de 1988, o município passou a ter a responsabilidade de agir diretamente na gestão ambiental, especialmente nos fatores geradores de impacto ambiental local. Entretanto, a maioria dos municípios não possui condições para lidar adequadamente com estes problemas, devido a sua dimensão e à falta dos recursos necessários. Esta realidade tem levado muitos municípios a elaborarem planos ambientais distantes da realidade local, muitas vezes, apenas para atender exigências burocráticas. Neste trabalho, buscou-se estabelecer um modelo, aprimorado por especialistas, visando a elaboração de um Sistema de Gestão Ambiental Municipal, estruturado e sistematizado, conforme as normas ambientais da NBR ISO 14.000. A aplicação do modelo proposto caracteriza-se por ser um processo democrático, contínuo, participativo, focado na realidade do Município, contemplando as interrelações existentes entre os fatores ambientais, socioeconômicos e organizacionais Para o estabelecimento das políticas ambientais, o modelo adota como premissas o atendimento à legislação ambiental, às orientações emanadas da Agenda 21, do Comitê de Bacia Hidrográfica e o diagnóstico ambiental do local. Considerando essas premissas, este trabalho apresentada um conjunto de políticas e objetivos ambientais para o município de Alvorada no Rio Grande do Sul, Brasil. Considera-se que a adoção por parte dos municípios do modelo de gestão ambiental proposto,possa contribuir de forma significativa para a melhoria ambiental dos municípios e da qualidade de vida das pessoas, em particular das comunidades mais desfavorecidas ou em risco de exclusão social.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com base na análise histórica da economia brasileira nas últimas décadas, poder-se-ia supor que sejam expressivas as restrições aos movimentos internacionais de capitais. Para analisar essa questão, usa-se o modelo intertemporal da conta corrente, testando as suas proposições básicas com dados econômicos brasileiros (perfeita mobilidade de capitais sob a Teoria da Renda Permanente). Para testar o modelo, trabalha-se com a técnica econométrica desenvolvida por Campbell (1987) e Campbell e Shiller (1987), aplicáveis a teorias de valor presente, onde a conta corrente é vista como valor presente das mudanças do produto líquido. Os resultados encontrados revelam que o modelo é rejeitado para os dados brasileiros, uma vez que nem todas as proposições testáveis são confirmadas. Isto mostra a inexistência de plena mobilidade de capitais, o que corrobora as suspeitas levantadas a partir da análise histórica. No entanto, foram constatados elevado grau de mobilidade de capitais e significativo fluxo de capitais especulativos, pois a série de conta corrente estimada de acordo com o modelo mostra-se menos volátil que a série observada na economia brasileira.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este artigo fornece subsídios à discussão sobre regionalização do salário mínimo brasileiro. Inicialmente, avaliamos a efetividade da política de salário mínimo nacional sobre a determinação dos salários nas diversas formas de inserção ocupacional do mercado de trabalho brasileiro, analisadas separadamente para as diversas realidades regionais do país. A nossa técnica consiste, essencialmente, em mapear pontos de pressão/soluções de canto produzidas pela política de salário mínimo brasileira. O grau de efetividade do salário mínimo é estimado para os diversos estados brasileiros, destacando-se a heterogeneidade de seus efeitos sobre os diferentes segmentos do mercado de trabalho. A seguir, realizamos um estudo FURVV VHFWLRQ que procura identificar os principais determinantes do grau de efetividade do salário mínimo nos diversos estados brasileiros. Finalmente, procuramos quantificar diferenças espaciais de custo de vida a fim de balizar propostas de regionalização do salário mínimo. O trabalho aponta a importância dos chamados “efeitos informais” do mínimo nas regiões Norte e Centro-Oeste do país (isto é, empregados sem carteira recebendo exatamente um mínimo e empregados com carteira recebendo determinados múltiplos do mínimo) e a predominância de efeitos tradicionais do mínimo (i.e., indivíduos do setor formal recebendo um mínimo) na região Nordeste.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Utilizando dados financeiros brasileiros da BM&F, testa-se a validade do modelo de valor presente na estrutura a termo de juros, também conhecido na literatura como Hipótese das Expectativas. Estes modelos relacionam a taxa de juros de longo prazo à uma média das taxas de juros de curto-prazo mais um prêmio de risco, invariante no tempo. Associada a estes modelos está a questão da previsibilidade dos retornos de ativos financeiros ou, mais especificamente, à previsibilidade na evolução das taxas de juros. Neste artigo é realizada uma análise multivariada num arcabouço de séries temporais utilizando a técnica de Auto-Regressão Vetorial. Os resultados empíricos aceitam apenas parcialmente a Hipótese das Expectativas para a estrutura a termo de juros brasileira.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A transnacionalização de empresas vem ocorrendo no Brasil há mais de quarenta anos, sendo que a partir dos anos 90 nota-se um esforço estatal de atração do capital estrangeiro para a economia nacional. Uma das repercussões que a transnacionalização tem para uma empresa é a necessidade de expatriar empregados que cuidem da instalação e, posteriormente, da administração da filial. A partir do mesmo período histórico nota-se o surgimento de normas específicas que disciplinam a concessão de vistos especificamente para estrangeiros que venham ao Brasil exercer cargos de gestão nestas empresas. Ao mesmo tempo, a legislação sobre imigração tem como princípio a proteção da mão-de-obra nacional, permitindo apenas o ingresso de mão-de-obra estrangeira quando esta for qualificada e inexistente (ou escassa) no Brasil. O presente trabalho se presta a investigar como ocorre a conciliação entre estas duas coisas aparentemente opostas, em favor do desenvolvimento nacional.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O Campo de Jacuípe, localizado no Compartimento Central da Bacia do Recôncavo, é importante produtor de gás na bacia. Os reservatórios são constituídos por corpos arenosos originados por fluxos gravitacionais subaquosos, intercalados a folhelhos e diamictitos da Formação Maracangalha, de idade cretácea inferior (Andar Rio da Serra Superior). Através da descrição sistemática de cerca de 1200 m de testemunhos, foram definidas três fácies deposicionais e seis fácies deformacionais para o intervalo estudado. O agrupamento das fácies em conjuntos que apresentam características estruturais e genéticas semelhantes permitiu a proposição de cinco associações de fácies. A Associação de Fácies I representa principalmente a sedimentação de background lacustre da área. A Associação de Fácies II é interpretada como o registro de deslizamentos (slides) ou porções proximais de escorregamentos (slumps). Os corpos da Associação de Fácies IIIa representam escorregamentos ou porções distais de deslizamentos. A Associação de Fácies IIIb constitui, possivelmente, o registro de fluxos turbidíticos. A Associação de Fácies IV representa um estágio transicional entre escorregamentos altamente móveis e fluxos de detritos (debris flows). O grau deformacional aumenta progressivamente da Associação de Fácies I para a Associação de Fácies IV. Através da análise dos perfis de raios gama (GR) e potencial espontâneo (SP) dos poços, observa-se um padrão granodecrescente geral, da base do intervalo ao datum utilizado nas seções estratigráficas; seguido de um padrão granocrescente geral, do datum para o topo do intervalo. Esta observação permite a interpretação de uma grande seqüência deposicional de terceira ordem (cerca de 7,5 M.a.), com um trato transgressivo na base e um trato de nível de lago alto no topo, separados por uma superfície de máxima inundação, representada pelo datum Os complexos de escorregamentos/deslizamentos, pontuando o trato de nível alto, podem estar relacionados a eventos de rebaixamento de uma ordem superior (de mais alta freqüência), possivelmente ligados a períodos de quiescência, após pulsos tectônicos episódicos. Os mecanismos de disparo dos fluxos gravitacionais foram provavelmente terremotos, causados pela atividade tectônica de movimentação de falhas, inerente ao estágio sin-rift; associados a instabilizações em áreas de frentes deltaicas progradantes a altas taxas de sedimentação, especialmente em locais de forte mudança no gradiente deposicional, como na paleo-linha de charneira, localizada a norte-noroeste do campo. Um importante mecanismo auxiliar pode ter sido a atividade de soerguimento de diápiros de folhelhos. A conectividade vertical e lateral entre os corpos pode ser considerada baixa. As áreas proximais de corpos arenosos de escorregamentos e, especialmente, de corpos de deslizamentos, pelo baixo grau deformacional, devem se constituir nos melhores reservatórios da área.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Através do banco de dados referente a granulometria (cascalho, areia, silte e argila), carbonato biogênico, carbono orgânico total (COT) e argilo-minerais (caulinita, esmectita, ilita e gibsita) do projeto MAPEM- Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima (Águas Rasas), foi realizado este estudo visando avaliar os efeitos da perfuração dos poços BO-022H e BO-023H, localizados em talude continental superior, região sul da Bacia de Campos, Brasil, a 50 km da cidade de Cabo Frio, a 250m de profundidade. A promissora atividade de exploração e produção de petróleo e gás no Brasil tem exigido estudos detalhados do ambiente marinho, estes por sua vez deverão considerar desde a técnica de perfuração até a minuciosa alteração causada no substrato sedimentar. Nesta perspectiva foram coletadas amostras de sedimentos superficiais na região no em torno da área perfurada. Durante o cruzeiro I foram coletadas 48 amostras, no cruzeiro II, três meses após a perfuração, foram coletadas 61 amostras e no cruzeiro III, 22 meses após a perfuração, foram coletadas 54 amostras. Paralelamente foram amostradas 6 estações de controle. A preocupação é compreender quais são as alterações ambientas causadas pela perfuração, para isso as análises dos sedimentos geraram informações sobre a composição granulométrica, o teor carbonato biogênico e carbono orgânico total, e, composição mineralógica (argilo-minerais). Essas variáveis comparadas à variação espacial (área de monitoramento/estações de referência) e temporal (3 cruzeiros oceanográficos) permitiram compreender como o substrato sedimentar marinho reagiu a atividade de perfuração. Com o background da área, para os três cruzeiros oceanográficos, definiu-se os níveis médios das variáveis analisadas, identificando sinais de contaminação pela atividade de perfuração. Estes resultados demostram que a atividade de perfuração não promoveu alterações significativa nas propriedades sedimentares, que a variação dos valores de backgrounds, do cruzeiro II para o cruzeiro III, permaneceram muito próximo daqueles do cruzeiro I. Entre os argilo-minerais, a esmectita e a ilita , aumentaram, porém no cruzeiro III, os valores sofrem redução ficando muito próximo daqueles do cruzeiro I.