1000 resultados para Análise de freqüência
Resumo:
Este trabalho de estratigrafia quantitativa teve como objetivo o estudo de ciclos sedimentares em seqüências siliciclásticas. Para isso, utilizou-se ferramentas matemáticas e estatísticas, interpretando os resultados obtidos no contexto da estratigrafia de seqüências. Os padrões quase cíclicos de empilhamento sedimentar foram associados a padrões de ciclos de tempo conhecidos – os da banda de Milankovitch (Milankovitch, 1947). Para superar as dificuldades inerentes às medidas diretas em afloramentos e testemunhos, adotou-se o estudo das variações da distância entre marcas consecutivas, observadas na curva do perfil de raios gama de sondagens para petróleo ou carvão. Esta distância foi associada à espessura da camada sedimentar e a série de observações foi estudada pelos métodos de análise de séries temporais, empregando-se: estatísticas básicas, histogramas e distribuições de freqüência, diagramas de tempo (gráficos XY), gráficos de Fischer, autocorrelação e correlação cruzada e análise espectral. A abordagem do problema exigiu um tratamento matemático das observações estratigráficas, mantido de forma “orientada para a geologia”. Deu-se ênfase ao significado físico (geológico) dos resultados obtidos com as diversas análises. As variações nas espessuras das camadas permitiram reconhecer parasseqüências e suas geometrias internas, levando à identificação acurada dos ambientes deposicionais, das fácies e dos tratos de sistema, em um contexto de estratigrafia de seqüências. As razões entre os períodos encontrados nos ciclos sedimentares foram associadas com os ciclos astronômicos da banda de Milankovitch, produzindo estimativas do tempo de deposição e das taxas de acumulação e fornecendo a visão dos processos de preenchimento da bacia, das oscilações do nível do mar e do fluxo de sedimentos. O emprego desta metodologia de análise evidenciou seqüências de quinta e de quarta ordem (no sentido da Exxon) correlacionáveis, localmente. Em nível regional, mostrou ser possível a correlação de seqüências de terceira ordem, por distâncias consideráveis, permitindo correlações com a curva global de oscilações do nível do mar. Para ilustrar, foram discutidos exemplos de aplicação da metodologia, em seções do Permiano da Bacia do Paraná e do Andar Buracica (Barremiano), na Bacia do Recôncavo. A metodologia do trabalho foi desenvolvida pelo autor, junto aos participantes de pesquisas e de cursos do Laboratório de Análise de Bacias e Correlação Geológica (LABCG) da Faculdade de Geologia (FGEL) da UERJ - Universidade do Estado do Rio de Janeiro.
Resumo:
Este estudo faz uma análise de conteúdo longitudinal de anúncios publicados em 5 revistas brasileiras no período de janeiro a junho de 1980 e 1996/1998. O propósito da análise desenvolvida foi estudar sistemática e objetivamente a utilização e o retrato das pessoas idosas (55 anos de idade ou mais) em anúncios para avaliar a freqüência com a qual os idosos são utilizados como modelos e o modo pelo qual são retratados em anúncios. Foram analisados 287 exemplares, obtendo-se um total de 2.589 anúncios retratando modelos humanos, sendo que aproximadamente 10% continham modelos idosos. As porcentagens obtidas para os dois períodos indicam que praticamente não houve mudança na proporção de anúncios com idosos em relação ao total de anúncios contendo pessoas. Este percentual indica que há uma razoável sintonia entre a porcentagem de pessoas idosas na população brasileira e a freqüência pela qual ela é apresentada nos anúncios. A pesquisa mostrou também que quase a totalidade dos idosos são retratados de uma maneira favorável e a maioria dos modelos apresentados são do sexo masculino.
Resumo:
As fissuras orofaciais não-sindrômicas estão entre as mais comuns malformações congênitas, com uma incidência de aproximadamente 1/700 nascidos vivos, cuja prevalência varia de acordo com a região geográfica e nível sócio econômico. As fissuras lábio-palatinas apresentam uma patogênese complexa que pode ser causada pela interação de fatores genéticos e ambientais, principalmente aqueles relacionados ao metabolismo da homocisteína. Muitos estudos têm apontado evidências de que alterações no metabolismo da homocisteína devido a polimorfismos nos genes envolvidos nesta rota metabólica, associados aos hábitos maternos durante a gestação, podem estar relacionados à etiologia das fissuras orofaciais. O metabolismo da homocisteína requer os genes MTHFR, MTR e MTRR para a manutenção das concentrações adequados de homocisteína no plasma. Com o objetivo de avaliar a influência de polimorfismos destes genes na etiologia das fissuras orofaciais foi desenvolvido um estudo caso-controle com 94 crianças com fissuras (casos), 91 de suas mães, além de 100 crianças sem malformações (controles) e suas mães, todos provenientes do Hospital de Clínicas de Porto Alegre (HCPA). Com relação aos hábitos maternos durante a gestação (uso de suplementação vitamínica, fumo e álcool) não houve diferença estatisticamente significativa entre mães de casos e controles. As análises dos polimorfismos C677T do gene MTHFR, A2756G do gene MTR e A66G do gene MTRR não mostraram diferenças significativas quanto a distribuição de seus genótipos em pacientes com FL/P e seus controles. Uma freqüência aumentada do genótipo 677TT do gene MTHFR foi observada entre as mães de crianças com fissuras orofaciais (casosTT= 20,8; controlesTT=10,0%; OR=2,38; IC95%=0,97-5,89; p<0,03), mas não para os outros genótipos dos genes MTR e MTRR. Não foram observadas diferenças significativas nas análises de genótipos combinados e interação do alelo 677T, genótipo 677TT com hábitos maternos em mães dos casos. Estes resultados indicam que alterações no metabolismo do folato, relacionados ao genótipo materno TT do polimorfismo C677T do gene MTHFR, podem predispor ao aparecimento de fendas orofaciais na prole, na nossa população.
Resumo:
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.
Resumo:
O presente trabalho relaciona o comportamento de preço das marcas e sua participação relativa de mercado. As análises ocorreram em categorias de produtos da cesta alimentar e consideram as marcas líderes em relação às principais concorrentes em cada categoria de produto pesquisada. Duas bases de dados distintas foram utilizadas: uma pesquisa primária de preços realizada na Grande São Paulo, onde dados de seiscentos SKUs, correspondendo a trinta e cinco categorias de produtos, foram coletados por vinte e cinco semanas, em dezesseis varejistas de alimentos e; informações do Scantrack® da Nielsen para determinar as posições relativas de mercado das marcas em cada categoria de produto e o tamanho dos mercados. O comportamento de preços foi analisado diferenciando duas situações: preços divulgados diretamente na gôndola sem nenhum vinculo promocional; e os preços divulgados concomitantemente a realização de atividades promocionais no produto, que mudem o posicionamento de preço relativo do mesmo dentro da categoria. As análises realizadas foram baseadas em: dispersão de preços, amplitude da variação de preços, freqüência promocional e investimento em promoções. Os resultados mostram que as marcas lideres têm maior freqüência promocional, maior investimento na redução de preços nas promoções, maior amplitude na variação de preço e maior dispersão de preços quando há uma promoção. Concluiu-se que as marcas líderes exigem altos investimentos promocionais por serem amplamente utilizadas como geradores de tráfego e formadores de imagem de preço das lojas e que os consumidores podem economizar até 93% pesquisando o preço dos produtos antes de adquiri-los. As marcas que não são lideres de mercado possuem maior dispersão de preços quando não há atividades promocionais e a economia da comparação de preços pode ser superior a 40%.
Resumo:
Esta tese trata de um tema fundamental na sociedade moderna: gestão escolar. O objetivo deste trabalho é contribuir com o gestor, ou a gestora, de Instituições de Ensino Superior de tal forma que ele, ou ela, tenha uma orientação calcada em resultados científicos sobre que ações e medidas devem ser tomadas para melhorar o desempenho de seus formandos em exames padronizados como o Exame Nacional de Cursos (ENC), também conhecido como Provão. Com base em uma extensa pesquisa de modelos de desempenho escolar, foi desenvolvido um modelo conceitual estimável pela técnica dos Modelos Lineares Hierárquicos. A seguir, o modelo estatístico foi ajustado utilizando-se os dados de desempenho escolar dos formandos do curso de Administração de Empresas que realizaram o de 2003. Com base nos resultados obtidos, procurou-se sugerir aos gestores escolares ações. Dessa forma, procurou-se preencher dois objetivos no início deste trabalho: (1) identificar variáveis que ajudem a explicar o desempenho de formandos nos cursos de graduação em Administração de Empresas em exames nacionais como o Provão e o ENADE e (2) oferecer insumos aos gestores de IES de Administração de Empresas sobre como seria possível gerenciar aquelas variáveis que estejam dentro do controle da instituição. Três variáveis, em especial, tiveram um efeito acentuado sobre o desempenho escolar no Provão: fluência na língua inglesa, freqüência de uso de computadores e avaliação que os respondentes fazem das competências a que foram expostos durante o curso superior. Porém, duas dificuldades de medição associadas a esses resultados devem ser consideradas. Em primeiro lugar, a fluência em inglês e o uso de computadores incorporam, em seu efeito, o efeito de variáveis latentes não incorporadas neste estudo. Dessa forma, a origem do efeito dessas duas variáveis não pode ser totalmente esclarecida e o gestor deve tomar diversas ações a fim de cobrir diversas possibilidades distintas. Em segundo lugar, está o fato de que a avaliação que se faz das competências é baseada na percepção de cada aluno e não em medidas intrínsecas de competências desenvolvidas ao longo do curso. Portanto, parte-se da premissa de que os alunos, em média, avaliam, corretamente, as competências que seus cursos os ajudaram a desenvolver. Nas limitações a este estudo, destacaram-se a unidimensionalidade do construto de eficácia escolar e o fato de que a variável utilizada considera o desempenho bruto dos alunos, não sendo uma medida de valor agregado. Além disso, mencionou-se, como limitação, a impossibilidade de se precisar a origem dos efeitos da fluência em inglês e do uso de computadores. Finalmente, as oportunidades de pesquisas futuras tratam de quatro áreas de pesquisas possíveis: (1) estudos comparativos com os resultados de cursos superiores em outras áreas; (2) estudos longitudinais; (3) ampliação do construto eficácia escolar e (4) construção de escalas e indicadores. Cada uma dessas áreas de pesquisa auxiliariam na superação das limitações encontradas no desenvolvimento deste trabalho.
Resumo:
A tecnologia tem tido, desde tempos remotos, um papel crucial para o desenvolvimento das Sociedades. Atualmente, tal papel cabe, em especial, à Economia Digital e, por esse motivo, a Inclusão Digital é alvo de atenção especial por parte de todos os setores da sociedade. Os principais fatores, abordados quando se trata deste tema, são o acesso em massa aos computadores e, em especial, à Internet, por um lado, e a capacitação para o seu uso, por outro. No entanto, para que a Inclusão Digital se concretize, é necessário ir até o indivíduo a ser incluído, e entender o que o leva a adotar, ou não, uma determinada tecnologia. A atitude dos indivíduos – conjunto de crenças e cognições dotadas de carga afetiva, que é moldado pelo entorno social e leva a um determinado comportamento – em relação a uma tecnologia pode ser uma boa pista do tipo de estratégia necessária para levá-los à adoção daquela, ajudando, assim, nos esforços de inclusão. Para estudar tais atitudes, na presente dissertação, propôs-se uma técnica projetiva pictórica. As respostas às lâminas projetivas foram analisadas quanto ao seu conteúdo, buscando uma categorização que permitisse a segmentação da amostra em grupos. Como recorte para estudo, escolhemos o micro-computador como objeto atitudinal e as comunidades próximas a Telecentros da Prefeitura de São Paulo como população. Pôde-se perceber, em termos de conteúdo, que há uma concentração de respostas relacionadas ao uso do computador, à capacitação para seu uso e, em menor grau, à relação entre o computador e a empregabilidade. Respostas neutras e de fuga ao tema também foram detectadas. Foi possível, ainda, segmentar a amostra em relação à forma da resposta, em grupos de respostas afirmativas, interrogativas e imperativas. A relação entre essas categorizações e a freqüência de uso do computador tornou possível a segmentação da amostra em subgrupos, o que permitiria a montagem de estratégias específicas para cada uma delas, delineando o conteúdo que essas estratégias deveriam abarcar e quais subgrupos deveriam ser priorizados.
Resumo:
Este trabalho apresenta discussão sobre análise do custo físico do trabalho em professoras de ginásticas sistematizadas em academias. Seus objetivos se determinaram em relatar o custo físico do trabalho de professoras de ginástica, sua percepção subjetiva de esforço durante a aula e mensurar o nível de dor sentido em vários segmentos com o uso da escala de Corlett. A fim de atingir esses objetivos, determinou-se estudo de literatura abrangendo os conceitos de carga de trabalho, custo físico, fadiga muscular e mental e rotas energéticas. As aulas de ginástica analisadas para facilidade de estudo foram divididas em três momentos: 0 ao 21 minuto, do 22 minuto ao 40 e do 41 ao 60 minuto, obedecendo a metodologia empregada na maioria das aulas, aquecimento, parte principal e relaxamento. Para determinar o custo físico de trabalho foi utilizada a classificação proposta por Apud (1987), a carga de trabalho foi estabelecido com o auxílio de equação específica, utilizando-se os valores de freqüência cardíaca de repouso, freqüência cardíaca de trabalho e idade, a escala subjetiva de esforço foi medida pela escala de Borg. A escala de Corlett, que se constitui em uma escala contínua para cada segmento do corpo com duas ancoras, foi utilizada para medir o nível de dor. A análise dos resultados apresentou um elevado custo físico do trabalho, nas três partes da aula e uma elevada carga de trabalho, esse resultado foi encontrado em todos os professores, classificando seu trabalho como extremamente pesado. O maior nível de dor apontado pelos professores esta nos membros inferiores (joelho, coxa, perna e tornozelo) seguidos por queixas de desconforto das regiões de ombros.
Resumo:
Introdução: Inúmeros estudos têm associado alterações no sistema serotoninérgico com doenças psiquiátricas como a depressão e os atos suicidas. O gene transportador da serotonina possui um papel central na regulação da função sináptica serotoninérgica e esse gene possui um polimorfismo na região promotora que se constitui em um gene candidato para estudos de associação do comportamento suicida. O objetivo deste trabalho foi verificar a associação entre a freqüência dos alelos “l” e “s” do polimorfismo 5-HTTLPR em pacientes com depressão maior segundo o DSM-IV que tentaram o suicídio e um grupo controle. Avaliamos também se há uma relação entre este polimorfismo e o comportamento suicida. Métodos: A amostra foi composta de 84 pacientes deprimidos que tentaram suicídio e 152 controles doadores voluntários do Banco de Sangue. A região promotora do gene 5-HTT contendo o polimorfismo 5-HTTLPR foi amplificada através do método da Reação em Cadeia da Polimerase (PCR). A avaliação diagnóstica destes pacientes foi feita através de entrevista psiquiátrica clínica e por entrevista diagnóstica padronizada breve Mini International Neuropsychiatric Interview (MINI) para adultos e uso da escala Suicide Intent Scale (SIS). Resultados: Não houve diferenças significativas na freqüência dos alelos e do genótipo nos sujeitos de pesquisa comparados ao grupo controle. Encontramos uma maior freqüência de alelo “s” e do genótipo SS e LS em pacientes deprimidos que tentaram o suicídio. A razão de chance (odds ratio) para o genótipo SS e LS contra o outro genótipo (LL) foi de 1,301 (95% I.C.= 0.737-2.296). A razão de chance (OR) para o alelo “s” em comparação com o alelo “l” foi de 1,38 (95% I.C.= 0.780-1.661).Conclusões: Nossos resultados sugerem que há um risco aumentado de suicídio nos pacientes deprimidos que possuem o genótipo SS e LS.
Resumo:
O objetivo deste trabalho foi avaliar a hipótese da paridade de poder de compra em sua forma absoluta no Brasil entre 1980 e 2006. Para testar a paridade de poder de compra (PPC) em sua forma absoluta foram realizados, inicialmente, os tradicionais testes de raiz unitária. As alterações nas condições macroeconômicas das séries brasileiras podem ter alterado as propriedades estocásticas das séries de câmbio e de nível de preços, o que pode ter viesado os resultados dos testes ADF do segundo capítulo. Os testes de raiz unitária com quebra estrutural foram realizados para reavaliar os resultados dos testes sem quebra estrutural e as conclusões acerca da validade da PPC absoluta no Brasil. Os resultados dos testes de raiz unitária sobre a taxa de câmbio real indicaram a presença de uma raiz unitária quando o câmbio real foi calculado através de índices de preços ao atacado, IPA –DI para o Brasil e PPI para os EUA. Quando foram utilizados índices de preços ao consumidor, IPC – FIPE para o Brasil e CPI para os EUA, a taxa de câmbio real tornou-se estacionária. Esse é um resultado contra-intuitivo pois a paridade de poder de compra absoluta deveria ser válida justamente quando no cálculo da taxa de câmbio real são utilizados índices de preços ao atacado dado que a maioria dos bens que compõe a cesta desses índices tem seus preços determinados pelo comércio internacional. Em seguida, no mesmo capítulo, foi realizada análise de cointegração conforme o procedimento de Johansen e Juselius (1988) para determinar se existe uma relação de longo prazo entre taxa de câmbio nominal, índice de preço externo e interno. Os resultados para a amostra completa (1980:2006) foram desfavoráveis à aceitação da paridade de poder de compra absoluta e também na sub-amostra de 1994 a 2006. Nesse sub-período foi possível notar que a taxa de câmbio estava desalinhada em relação ao comportamento do diferencial de preços externo e interno. No capítulo três foram realizados testes sobre a PPC utilizando procedimentos que levam em conta a presença de quebras estruturais. Primeiramente, foram realizados testes de raízes unitárias utilizando-se o teste de Perron e Vogelsang (1998). O ano de 1998 foi o que apresentou com maior freqüência a menor estatística t, mas para nenhum dos modelos desenvolvidos por Perron e Vogelsang (1998) foi possível encontrar indícios da validade da PPC absoluta. Finalmente, foram realizados testes de cointegração com quebra estrutural utilizandose a metodologia de Gregory e Hansen (1996). O teste desenvolvido por esses autores utiliza como base o teste de cointegração de Engle e Granger (1987) para determinar a menor estatística t para uma determinada amostra. Os anos de 1983 e 2003 foram os que apresentaram com maior freqüência a menor estatística t para os modelos desenvolvidos por Gregory e Hansen (1996), mas em nenhum dos casos foi possível aceitar a hipótese de validade da PPC absoluta. A paridade de poder de compra absoluta foi testada de diversas formas ao longo do trabalho, mas na maioria dos casos, como foi dito acima, não foi possível aceitar sua validade.
Resumo:
O presente trabalho analisa os reservatórios turbidíticos do Campo de Namorado, Bacia de Campos – RJ, com a apresentação de um novo modelo evolutivo para o intervalo entre o Albiano superior e Cenomaniano, na área do referido campo. As ferramentas utilizadas neste estudo consistiram da interpretação sísmica em ambiente tridimensional com o software VoxelGeo®, e da análise faciológica junto à perfilagem de poços do referido campo. A análise desenvolvida permitiu a individualização e a posterior visualização tridimensional de um paleocanal meandrante na base do intervalo estudado, feição esta até então não relatada em interpretações anteriores neste reservatório. Como resultado das análises sísmicas e faciológicas, foi possível elaborar um modelo deposicional, onde foram definidos quatro sistemas turbidíticos distintos, inclusos em duas seqüências de 3ª Ordem. Esses sistemas turbidíticos estariam, portanto, associados às seqüências de 4ª Ordem, que são interpretadas como parasseqüências, inseridas nos dois ciclos de 3ª Ordem. As seqüências de 3ª Ordem, que englobam os reservatórios do Campo de Namorado, representariam intervalos de alta freqüência no registro estratigráfico, dentro do contexto de afogamento (2ª Ordem) da Bacia de Campos. Pelas características da calha deposicional observada para o Campo de Namorado, é possível concluir que o sistema, como um todo, foi depositado em um complexo de canais, junto a sistemas de frentes deltaicas. Esses canais, provavelmente, foram esculpidos por fluxos hiperpicnais, formados a partir de inundações catastróficas. As informações provenientes deste estudo, proporcionaram uma melhor compreensão da gênese dos depósitos turbidíticos, acumuladores de hidrocarbonetos, no intervalo estudado, e cuja ocorrência está relacionada com etapas de rebaixamento relativo do nível do mar.
Resumo:
O Campo de Jacuípe, localizado no Compartimento Central da Bacia do Recôncavo, é importante produtor de gás na bacia. Os reservatórios são constituídos por corpos arenosos originados por fluxos gravitacionais subaquosos, intercalados a folhelhos e diamictitos da Formação Maracangalha, de idade cretácea inferior (Andar Rio da Serra Superior). Através da descrição sistemática de cerca de 1200 m de testemunhos, foram definidas três fácies deposicionais e seis fácies deformacionais para o intervalo estudado. O agrupamento das fácies em conjuntos que apresentam características estruturais e genéticas semelhantes permitiu a proposição de cinco associações de fácies. A Associação de Fácies I representa principalmente a sedimentação de background lacustre da área. A Associação de Fácies II é interpretada como o registro de deslizamentos (slides) ou porções proximais de escorregamentos (slumps). Os corpos da Associação de Fácies IIIa representam escorregamentos ou porções distais de deslizamentos. A Associação de Fácies IIIb constitui, possivelmente, o registro de fluxos turbidíticos. A Associação de Fácies IV representa um estágio transicional entre escorregamentos altamente móveis e fluxos de detritos (debris flows). O grau deformacional aumenta progressivamente da Associação de Fácies I para a Associação de Fácies IV. Através da análise dos perfis de raios gama (GR) e potencial espontâneo (SP) dos poços, observa-se um padrão granodecrescente geral, da base do intervalo ao datum utilizado nas seções estratigráficas; seguido de um padrão granocrescente geral, do datum para o topo do intervalo. Esta observação permite a interpretação de uma grande seqüência deposicional de terceira ordem (cerca de 7,5 M.a.), com um trato transgressivo na base e um trato de nível de lago alto no topo, separados por uma superfície de máxima inundação, representada pelo datum Os complexos de escorregamentos/deslizamentos, pontuando o trato de nível alto, podem estar relacionados a eventos de rebaixamento de uma ordem superior (de mais alta freqüência), possivelmente ligados a períodos de quiescência, após pulsos tectônicos episódicos. Os mecanismos de disparo dos fluxos gravitacionais foram provavelmente terremotos, causados pela atividade tectônica de movimentação de falhas, inerente ao estágio sin-rift; associados a instabilizações em áreas de frentes deltaicas progradantes a altas taxas de sedimentação, especialmente em locais de forte mudança no gradiente deposicional, como na paleo-linha de charneira, localizada a norte-noroeste do campo. Um importante mecanismo auxiliar pode ter sido a atividade de soerguimento de diápiros de folhelhos. A conectividade vertical e lateral entre os corpos pode ser considerada baixa. As áreas proximais de corpos arenosos de escorregamentos e, especialmente, de corpos de deslizamentos, pelo baixo grau deformacional, devem se constituir nos melhores reservatórios da área.
Resumo:
O módulo de resiliência (MR) é hoje um dos parâmetros-chave para o dimensionamento empírico-mecanístico de pavimentos flexíveis. Há, entretanto, algumas peculiaridades no ensaio de tração indireta com cargas cíclicas que ocasionam variações na sua determinação. A investigação de tais fatores é necessária para que a magnitude do seu efeito sobre o valor de MR seja quantificada. Para isto, esta pesquisa avaliou, através de uma análise paramétrica, os algoritmos apresentados pelo Protocolo P07 do LTPP, análogo ao método correntemente utilizado pelas instituições brasileiras de pesquisa em pavimentação, e pela pesquisa NCHRP 1-28/1-28A para determinação dos deslocamentos resilientes, bem como o efeito do pulso e freqüência de carregamento e níveis de tensão de tração (%RT) em duas misturas asfálticas: uma mistura com ligante asfáltico convencional e outra com ligante asfáltico modificado por adição de borracha. Foram necessárias adaptações no equipamento de compressão diametral cíclica utilizado na pesquisa, e também a montagem de um sistema de posicionamento de sensores que permitisse a gravação de deslocamentos horizontais e verticais viabilizando a determinação do coeficiente do Poisson. Realizaram-se ensaios de MR e resistência à tração (RT) às temperaturas de 10°, 25° e 35°C e, complementarmente, ensaio de fadiga (tensão controlada) a 25°C. Os resultados obtidos demonstram a alta sensibilidade do valor de MR aos algoritmos de cálculo dos deslocamentos resilientes; o algoritmo apresentado pela pesquisa 1-28/ 1-28A do NCHRP foi considerado adequado. Observou-se a dependência do MR ao pulso de carga, à freqüência de ensaio e também ao nível de tensão aplicado durante o ensaio. A magnitude desta dependência, entretanto, é função do tipo de mistura e da temperatura sob a qual o ensaio foi realizado. A determinação do coeficiente de Poisson pareceu ser bastante suscetível ao sistema de medição utilizado, tendo apresentando uma grande variabilidade. Nos ensaios de vida de fadiga sob tensão controlada pode-se evidenciar a redução dos valores de MR dentro da zona de condicionamento. Propõe-se ainda que a defasagem medida entre o pulso de carga e o pulso de deslocamento no ensaio de MR, possa ser usada como indicador do comportamento visco-elástico das misturas, uma vez que apresentou comportamento análogo ao do ângulo de fase.
Resumo:
Introdução: A variabilidade da freqüência cardíaca (VFC) é um marcador da modulação autonômica cardíaca e tem sido empregada para avaliação da neuropatia autonômica urêmica. A redução da VFC em pacientes com insuficiência renal crônica foi descrita em alguns estudos. Existem, entretanto, poucos relatos sobre a utilização da VFC para avaliação comparativa da neuropatia autonômica urêmica entre pacientes em hemodiálise (HD) e em tratamento conservador (TC). Também não está definida qual a influência da anemia sobre a VFC nesses pacientes. Objetivos: Avaliar as diferenças na análise da VFC no domínio do tempo entre pacientes em HD e em TC e avaliar a influência da anemia sobre a VFC. Métodos. Quinze pacientes em HD há mais de três meses e quinze pacientes com DCE abaixo de 30 ml/min foram submetidos ao registro eletrocardiográfico (ECG) de 24 horas, mantendo suas atividades habituais. Foram excluídos pacientes com diabete melito, cardiopatia ou outras patologias que afetam o sistema nervoso autônomo. HAS não foi critério de exclusão. As medicações usadas pelos pacientes foram mantidas. A partir do ECG de 24 horas foram calculados os seguintes índices: média dos intervalos RR normais (RRmed), desvio padrão de todos os intervalos RR normais (SDNN), raiz quadrada da média das diferenças sucessivas entre intervalos RR normais adjacentes (RMSSD) e percentagem das diferenças sucessivas entre os intervalos RR adjacentes normais que excedam 50ms (PNN50). Os testes Q2 e exato de Fisher foram usados para análise das variáveis categóricas e o teste t de Student para as variáveis quantitativas. O teste de correlação de Pearson e a análise de covariância foram utilizados para verificar a relação entre as variáveis. Resultados. Os grupos não diferiram quanto à distribuição de sexo e idade entre os pacientes. Os valores de hematócrito (respectivamente HD e TC: 26,33 ± 4,20 x 32,27 ± 4,39) e hemoglobina (8,41 ± 1,36 x 10,39 ± 1,69) foram significativamente diferentes entre os grupos (p = 0,001 e p = 0,002). O uso de betabloqueador foi mais freqüente no grupo TC (p = 0,02). Não havia diferença significativa entre os grupos quanto aos demais anti-hipertensivos. O índice PNN50 não tinha distribuição normal e foi analisado após transformação logarítmica. Os valores de RRmed (706,36 ± 91,43 ms x 822,67 ± 108,80 ms; p = 0,004), SDNN (93,12 ± 26,54 ms x 118,38 ± 32,97 ms; p = 0,028), RMSSD (13,79 ± 4,17 ms x 20,38 ± 7,82 ms; p = 0,008) e lnPNN50 (0,40 ± 1,38 x 1,60 ± 1,08; p = 0,013) foram significativamente menores nos pacientes em HD. A análise de covariância demonstrou que os valores de hematócrito e hemoglobina influenciaram significativamente os índices RRmed e SDNN, mas não os índices RMSSD e lnPNN50, os quais são índices vagais puros. O uso de betabloqueador teve influência significativa apenas sobre o índice RRmed. Conclusão. Os pacientes em hemodiálise apresentam redução da variabilidade da freqüência cardíaca quando comparados aos pacientes em tratamento conservador. A anemia determina redução da variabilidade da freqüência cardíaca medida pelos índices no domínio do tempo RRmed e SDNN, mas não tem influência significativa sobre os índices RMSSD e PNN50.
Resumo:
Compreender a variabilidade do desempenho entre as firmas e compreender o que leva a desempenhos acima da média e vantagem estão entre as principais questões no campo da estratégia empresarial. Vantagem competitiva é um construto de difícil operacionalização, por seu significado complexo, que dá margem a diferentes interpretações. Entretanto ela é apontada com freqüência como causadora de desempenho acima da média. A variabilidade do desempenho das empresas ao longo do tempo também é uma questão tratada com frequência, especialmente no que se trata dos níveis firma e setor. No entanto, a maior parte dos trabalhos empíricos no campo de estratégia dá apenas uma dimensão a essa variabilidade, estudando-a apenas em termos de média. Uma segunda dimensão, a tendência do desempenho, passa a ser considerada neste estudo, utilizado modelos multinível. Como o desempenho de uma firma evolui ao longo do tempo comporta assim, uma diferente análise, em termos de vantagem competitiva, desvantagem competitiva ou paridade. A comparação deste resultado com aqueles de desempenho médio tornou claro a importância de se analisar o desempenho em duas de suas dimensões: a média e sua tendência.