986 resultados para Sinal esperado
Resumo:
Após o surgimento e a expansão exponencial, a internet evoluiu para uma tecnologia que extrapolou os contornos acadêmicos em que foi criada, desenvolvendo diversas e simultâneas vocações, entre elas, fonte de educação e lazer, armazenamento de informações, rede de computadores, meio de comunicação individual e veículo de mídia de massa. É esta vocação, de veículo de mídia, que provocou o interesse pela pesquisa objeto desta dissertação. A entrada da internet no ambiente de mídia tem renovado o interesse na questão do consumo de mídia. Particularmente, a crescente popularidade como novo meio de comunicação resultou em mudanças nos usos dos meios tradicionais, como teorizado na Teoria do Nicho aplicada à indústria de mídia. O declínio da audiência das grandes redes de TV aberta mostra como o setor vem reagindo à concorrência de novos canais, à emergência de novas plataformas de acesso à programação televisiva e à mudança nos hábitos de consumo de mídia. Esta investigação faz uma revisão da literatura e compara o panorama internacional e especialmente a situação do Brasil, onde as principais emissoras de sinal aberto tentam resistir ao processo de fragmentação do público que se registra mundialmente. Para melhor compreender o que significam tais mudanças, é primordial entender quais as variáveis relevantes no universo dos veículos de mídia. A principal delas é a audiência, que representa o número de pessoas que acessam, veem, leem, ouvem ou consomem determinado meio de comunicação em determinado espaço de tempo. O objetivo deste estudo foi desenvolver um modelo preditivo sobre o tempo despendido pelas pessoas na internet, a partir de informações sociodemográficas e do comportamento dessas pessoas enquanto audiência dos meios de comunicação tradicionais, particularmente a televisão. Como os dados secundários analisados apresentam respostas em categorias ordinais, foi escolhido a regressão logística ordinal como o modelo de probabilidades para realizar esse estudo.
Resumo:
A gasolina e o etanol são os principais combustíveis para veículos leves no Brasil e o estudo da sua demanda fornece importantes indicadores a respeito do comportamento dos consumidores. Vários pesquisadores no mundo tentaram estimar as elasticidades de preço e renda da gasolina e em menor número do etanol. Esta dissertação faz um estudo desse tipo, levando em consideração as características específicas do mercado de combustíveis no Brasil e contribuindo em alguns pontos em relação às pesquisas realizadas anteriormente. Um estudo econométrico em dois estágios foi realizado com dados mensais da ANP para as unidades federativas do Brasil, utilizando variáveis instrumentais para controlar a endogeneidade na análise da demanda. Além disso, levou-se em consideração o fato de que nem todos os estados brasileiros têm preço relativo etanol-gasolina numa faixa próxima ao valor crítico de 70%, o que pode dificultar a mensuração das elasticidades-preço nessas regiões. Assim sendo, os estados cujo preço relativo álcool-gasolina costuma estar numa faixa distante do valor crítico de 70% foram analisados separadamente. Por fim, a análise foi feita separadamente para dois períodos distintos, pois é esperado que o crescimento da frota de veículos com motores flex-fuel altere o comportamento dos consumidores. Os resultados das regressões confirmam um aumento das elasticidades-preço própria e cruzada do consumo de gasolina e etanol no Brasil. Contudo, não foi confirmada a hipótese de que as elasticidades estimadas seriam maiores nos estados próximos a paridade. Adicionalmente, as estimações sugerem que no período mais recente o etanol apresenta em módulo uma elasticidade-preço significativamente maior que a gasolina.
Resumo:
Este trabalho examina hipóteses de microestrutura de mercado nos dados de minicontratos futuros do Ibovespa divulgados em alta frequência pelo sinal de market data da BM&FBOVESPA. Para a análise, foi utilizado o modelo de duração condicional autoregressivo, o qual permite o tratamento estatístico de séries financeiras que possuem distribuição em espaços irregulares de tempo e padrões condicionais ao conjunto de informações disponíveis no mercado. A contribuição deste trabalho reside na validação das premissas sobre microestrutura nos mercados de futuros de índice, que são diferentes dos mercados de ações, pois não existe a figura do formador de mercado, e a literatura global sugere que o efeito da assimetria de informação é insignificante na formação de preços devido à diversificação de ativos dos índices. Em contrapartida, o especulador é o provedor de liquidez neste mercado, e seu papel na intensidade de negociação, volume e spread é avaliado. Os resultados confirmam a relação negativa entre intensidade de negociação, volume e spread e corroboram a tese de que a liquidez de mercado pode ser entendida como o preço pela demanda por execução imediata de negócios.
Resumo:
A tese tem como objetivo discutir a liquidez do mercado secundário de títulos da dívida pública no Brasil. Em três ensaios, defende que problemas de organização do mercado prejudicam a ampliação da liquidez e que a formação de preços nesse mercado acompanha as taxas do mercado futuro de depósitos interfinanceiros – DI futuro, e não o contrário, como esperado, já que a presença de títulos de elevada liquidez no mercado à vista é que deveria desenvolver o mercado futuro. O primeiro ensaio mede e estima os determinantes do bid-ask spread cotado (indicador de liquidez) para cada vértice de taxa de juros, tendo como referência os vencimentos dos títulos pré-fixados em cabeça de semestre: LTNs (LTN-13 e LTN-11) e NTNFs- (NTNF-17, NTNF-14). Mercados com menores spreads são mais líquidos, mercados com spreads maiores são menos líquidos. Os modelos empíricos foram estimados por meio de análises de séries de tempo. O trabalho utiliza o cálculo do bid-ask cotado para medir a liquidez dos títulos em análise, medido pela diferença entre o ask price e o bid price de fechamento do mercado. A estimação dos determinantes da liquidez de mercado foi realizada com base no método dos mínimos quadrados ordinários (MQO). O modelo testa se maturidade e volume de negócio determinam o bid-ask spread dos títulos. Mercados com menores spreads são mais líquidos do que mercados com maiores spreads. Os resultados mostram que a mediana e a média do bid-ask spread cotado crescem com a maturidade dos títulos. Os sinais dos parâmetros das regressões confirmam para a maioria dos vértices dos vértices analisados neste trabalho a hipótese inicial de que o bid-ask spread aumenta com a elevação maturidade e diminui com maior volume negociado, confirmando a hipótese de baixa liquidez dos títulos públicos no mercado secundário brasileiro. O segundo ensaio analisa uma singularidade relevante do mercado brasileiro: a dependência da formação dos preços e da taxa de juros no mercado secundário de títulos públicos (LTN e NTNF) em relação ao DI futuro. As variáveis utilizadas foram o bid-ask spread cotado e o volume negociado no mercado de títulos públicos e de DI futuro. O ensaio utiliza tanto o método de Granger (1969), que tem como suposto que as informações relevantes para a previsão das variáveis estão contidas exclusivamente nos dados das séries temporais destas mesmas variáveis, quanto o modelo de Geweke (1982) para testar a causalidade, simultaneidade e dependência linear entre as duas séries no tempo. Os resultados confirmam a hipótese inicial de que bid-ask spread e volume de títulos públicos possuem forte dependência do bid-ask spread e do volume para contratos de DI futuro de mesmo vencimento, dependência devida à causalidade do mercado de DI futuro para o mercado de títulos públicos para a maioria dos vértices analisados nesse trabalho, indicando que a taxa CDI é benchmark para a precificação dos títulos públicos. Uma possível explicação está nos fatores de microestrutura, que fazem com que esse mercado seja o mais conveniente para negociar risco de liquidez e de mercado. O terceiro ensaio discute as implicações do desenho institucional sobre a liquidez do mercado secundário de títulos públicos - mecanismos e regras de negociação, desenho dos títulos e base de investidores. Essas regras afetam a formação dos preços no mercado, definem as trocas, a dimensão da assimetria de informação e os custos de transação e do processo de negociação. Pela sua relevância, a organização do mercado de títulos públicos tem sido objeto de reformas em diversos países. O terceiro ensaio é finalizado com a análise das medidas adotadas no Brasil e de seus resultados.
Resumo:
O processamento de imagens tem sido amplamente utilizado para duas tarefas. Uma delas é o realce de imagens para a posterior visualização e a outra tarefa é a extração de informações para análise de imagens. Este trabalho apresenta um estudo sobre duas teorias multi-escalas chamadas de espaço de escala e transformada wavelet, que são utilizadas para a extração de informações de imagens. Um dos aspectos do espaço de escalas que tem sido amplamente discutido por diversos autores é a sua base (originalmente a gaussiana). Tem se buscado saber se a base gaussiana é a melhor, ou para quais casos ela é a melhor. Além disto, os autores têm procurado desenvolver novas bases, com características diferentes das pertencentes à gaussiana. De posse destas novas bases, pode-se compará-las com a base gaussiana e verificar onde cada base apresenta melhor desempenho. Neste trabalho, foi usada (i) a teoria do espaço de escalas, (ii) a teoria da transformada wavelet e (iii) as relações entre elas, a fim de gerar um método para criar novas bases para o espaço de escalas a partir de funções wavelets. O espaço de escala é um caso particular da transformada wavelet quando se usam as derivadas da gaussiana para gerar os operadores do espaço de escala. É com base nesta característica que se propôs o novo método apresentado. Além disto, o método proposto usa a resposta em freqüência das funções analisadas. As funções bases do espaço de escala possuem resposta em freqüência do tipo passa baixas. As funções wavelets, por sua vez, possuem resposta do tipo passa faixas Para obter as funções bases a partir das wavelets faz-se a integração numérica destas funções até que sua resposta em freqüência seja do tipo passa baixas. Algumas das funções wavelets estudadas não possuem definição para o caso bi-dimensional, por isso foram estudadas três formas de gerar funções bi-dimensionais a partir de funções unidimensionais. Com o uso deste método foi possível gerar dez novas bases para o espaço de escala. Algumas dessas novas bases apresentaram comportamento semelhante ao apresentado pela base gaussiana, outras não. Para as funções que não apresentaram o comportamento esperado, quando usadas com as definições originais dos operadores do espaço de escala, foram propostas novas definições para tais operadores (detectores de borda e bolha). Também foram geradas duas aplicações com o espaço de escala, sendo elas um algoritmo para a segmentação de cavidades cardíacas e um algoritmo para segmentação e contagem de células sanguíneas.
Resumo:
O modelo de três fatores de Fama & French (1993) é uma extensão do modelo de precificação de ativos de Sharpe (1963), Lintner (1965) e Black (1972), o CAPM. Em Fama & French (1993), o valor de mercado e o valor contábil das empresas são adicionados como variáveis explicativas ao fator de risco de mercado β do CAPM. O objetivo deste trabalho é testar o poder explicativo do modelo de três fatores para o mercado acionário brasileiro. A inovação deste trabalho foi a utilização de um universo de ações móvel, no qual os títulos que são lançados na Bovespa no período de análise vão sendo incorporadas à base de dados conforme atingem os requisitos do modelo. Trata-se de uma abordagem inovadora, já que tradicionalmente o universo de ações que compõe a amostra é rígido do início ao fim do período de análise. Esta abordagem foi desenvolvida com o intuito de mitigar o problema de falta de dados do mercado acionário brasileiro. O período de análise foi de 2000 à 2011, e as ações utilizadas foram todas aquelas que possuíam um histórico confiável e apresentaram pelo menos um negócio à cada dois meses. A análise do Modelo de Três Fatores foi realizada utilizando a metodologia de séries temporais de Black, Jensen e Scholes (1972), da mesma forma que Fama & French (1993). Como variável dependente foram utilizadas 16 carteiras, oriundas do cruzamento das ações dividas em 4 percentis iguais pelos seus valores de mercado (ME), e 4 percentis iguais pela razão valor de mercado pelo valor contábil (ME/BE). Como variáveis independentes foram construídas duas séries de retorno que replicam os fatores de risco valor de mercado, SMB, e a razão valor de mercado pelo valor contábil, HML. Estas foram construídas pela diferença dos retornos das ações de maior ME e menor ME; e pela diferença do retorno das de maior ME/BE, pelas de menor ME/BE. O método de estimação dos coeficientes das regressões utilizado foi o dos mínimos quadrados ordinários. Os resultados do Modelo encontrados para a bolsa brasileira foram similares àqueles encontrados por Fama & French (1993). O Modelo apresentou maior poder explicativo para os retornos dos portfolios analisados que o CAPM, e mostrou-se estatisticamente significante para 15 das 16 carteiras. Os coeficientes das regressões relativos aos fatores de risco SMB e HML apresentaram, em sua maioria, os mesmo sinais que os encontrados por Fama & French (1993). Foi encontrada uma discrepância relativa ao sinal do fator HML para as carteiras de maior ME/BE, cuja explicação está atrelada ao momento da economia e mercados no período. Por fim, o Modelo e a discrepância foram reavaliados dividindo-se o período de análise em pré e pós-crise de 2008. O modelo mostrou maior poder explicativo para o período pós-crise que para o pré-crise. A mesma discrepância do sinal de HML foi encontrada no pré-crise, entretanto não foi verificada no pós-crise.
Resumo:
A entrada da mulher no mercado de trabalho gerou uma série de mudanças nas organizações, entretanto, a carreira da mulher executiva ainda apresenta disparidades em relação à carreira dos seus colegas homens. Essa disparidade pode decorrer da incongruência entre o papel social da mulher e o papel esperado de um líder. No entanto, este fenômeno parece está passando por mudanças, dado o empowerment das mulheres tanto no cenário corporativo como político. Neste sentido, surge a problemática desta pesquisa: qual o real comportamento da mulher ao assumir papeis de liderança? O quadro teórico que cerca esta pesquisa envolve a teoria do papel social (EAGLY, 1987), que postula que cada indivíduo tem um papel socialmente aceito, no qual se inclui o papel de líder, formado através de protótipos de como deve ou deveria se comportar, e também papeis gênero, no qual são definidos os comportamentos socialmente aceitos para homens e para mulheres. Nesta direção, para fazer a comparação dos papeis socialmente esperados de ambos os sexos e os papeis requeridos ao líder é utilizada a teoria de congruência de papeis (EAGLY e KARAU, 2002). Dado este quadro teórico, para atender ao objetivo desta pesquisa, são realizados quatro estudos que utilizam metodologias qualitativas, experimentais e quantitativas. No primeiro estudo, são testadas as relações entre sexo do líder e as dimensões agênticas e comunais do protótipo de liderança por meio de análise de conteúdo de descrições de mulheres e homens líderes. Já no segundo estudo, é testada, por meio de um experimento, a congruência da avaliação de líderes masculino e feminino com o comportamento agêntico e comunal. No terceiro estudo, são examinados quatro perfis de liderança e como estes estão associados entre si a partir de dados coletados por meio de questionários estruturados. São analisadas as características do líder em geral e do líder eficaz com as características do líder masculino e da líder feminina. Estas análises também são realizadas considerando o perfil sexual do respondente (BEM, 1974). Por fim, no quarto estudo são analisadas entrevistas em profundidade a fim de identificar como ocorrem e quais as causas destes acontecimentos supracitados. Os resultados demonstraram que ao assumir um papel de liderança, a mulher tende a assumir características agênticas do protótipo de liderança (como força, masculinidade e tirania), ou seja, tende a masculinizar-se para ser aceita pelas outras pessoas. Os resultados revelam também poucas diferenças entre os líderes homens e mulheres, o que corrobora a primeira conclusão. Por outro lado, as características comunais do líder (como sensibilidade) revelam-se como as mais críticas para a aceitação do líder pelos seus subordinados, mas não para a sua eficácia. Dessa forma, este trabalho busca contribuir para compreender melhor o fenômeno da liderança feminina, lançando luz sobre as eventuais incongruências entre os papeis sociais e gerenciais da mulher na sociedade brasileira contemporânea.
Resumo:
A despeito da importância ecológica e econômica da Araucaria angustifolia (Bertol.) Kuntze e da importância do nitrogênio (N) para o crescimento vegetal, existem poucos estudos que caracterizam as relações desse nutriente com ela. Os presentes estudos visaram caracterizar a preferência de plantas da espécie a diferentes formas de N inorgânico e descrever a estrutura da variação espacial de N inorgânico em três sítios de ocorrência de Araucaria angustifolia no Brasil subtropical. No primeiro estudo, a abordagem experimental incluiu o uso de soluções nutritivas. No segundo, as ferramentas geoestatísticas, semivariogramas e krigeagem, foram utilizadas para a descrição da variação espacial de NH4 +, NO3 - e NH4 + + NO3 -, em dois períodos do ano, verão e inverno. Os sítios escolhidos foram uma área de mata nativa, uma de campo nativo e uma plantação de Pinus elliottii. Os resultados de crescimento do primeiro estudo demonstraram que a espécie prefere amônio como fonte de N. Nitrato, quando fornecido sozinho, induziu sintomas de deficiência de N, quando comparado a outras fontes de N: maiores razão raiz:parte aérea, ramificação radicular e massa foliar por área, engrossamento dos ápices caulinares e ainda, menores conteúdos de clorofilas e N por unidade de massa em folhas jovens. A nutrição à base de nitrato também afetou a distribuição de N no corpo da planta, com as folhas jovens acumulando menos N e maior razão C:N do que as folhas maduras (um padrão não observado nos outros tratamentos). Aparentemente, o nitrato é um importante fator a regular a partição de C e N entre diferentes partes da planta. A atividade nitrato redutase (ANR) seguiu um padrão de partição raiz:parte aérea esperado para coníferas de clima temperado. Entretanto, a ANR mesmo sob nutrição de NH4 + sozinho, indica que a planta pode apresentar níveis constitutivos de atividade da enzima, ou que quantidades baixas de NO3 - (formado pela possível contaminação dos meios de cultivo) podem induzir a ANR foliar. Em reflorestamentos, deve ser assegurado que o amônio seja a forma de N predominante ou que esteja presente em quantidades suficientes para um adequado desenvolvimento das plantas. Ambientes que não satisfaçam estas necessidades podem limitar o desenvolvimento da espécie. Os resultados do segundo estudo mostraram que o NH4 +não foi a forma de N predominante na mata nativa, em ambos os períodos do ano. Nesse sítio o NO3 - ocorreu em proporção similar à do NH4 + nos demais sítios (campo e plantação de Pinus) A heterogeneidade na disponibilidade de N é maior na mata nativa do que nos outros sítios no verão. Desta forma, é necessária uma maior plasticidade na habilidade de exploração radicular do N do solo por parte das plantas que se estabelecem neste sítio do que nos demais, durante esta estação. A plantação de Pinus e o campo, além de terem mais amônio que a mata nativa, são mais homogêneos na distribuição deste, e podem, então, constituir locais mais favoráveis, em termos de disponibilidade de N, para o estabelecimento do pinheiro brasileiro. O inverno impõe um cenário bastante diferente. O aumento significativo da disponibilidade de N inorgânico e a perda da estrutura espacial (à exceção da área de campo) tornam os sítios, teoricamente, menos hostis ao desenvolvimento vegetal.
Resumo:
Esta tese apresenta o estudo da população estelar nuclear e extranuclear de uma amostra de galáxias ativas próximas (trinta e sete galáxias Seyfert 2 e vinte e quatro rádio-galáxias); e de uma amostra de controle de galáxias não ativas (onze elípticas: sete lenticulares e dezoito espirais). Foram para isto utilizados espectros óticos de fenda longa com boa razão sinal-ruído obtidos em telescôpios com aberturas de 1;5m a 4m. As regiões amostradas nas extrações correspomlem nas galáxias a 100-2000 parsecs (pc), com um valor mediano de 800 pc. A fim de verificar se existe relação entre a presença de formação estelar recente e a atividade nuclear; foram determinadas as idades das populações estelares da região nuclear e circumnuclear destas galáxias; utilizando o método de síntese espectral. Também foi verificada a infiuência do núcleo ativo sobre a população circunmclear; através do estudo da diluição das larguras equivalentes nucleares em relação àquelas de fora do núcleo. Um dos aspectos mais relevantes do presente estudo é a inclusão de uma amostra de controle de galáxias não ativas em um nÚmero comparável ao de galáxias ativas. O estudo conjunto de uma amostra de controle serviu para quantificar as diferenças obtidas dos espectros - em particular no contínuo e na população estelar das galáxias devido a existência da atividade nuclear. Os principais resultados são os que seguem: Uma grande fração de galáxias Seyfert 2 apresenta formação estelar recente (com idades iguais ou inferiores a 100 milhões de anos), tanto no núcleo quanto fora dele. Por outro lado, as rádio-galáxias em geral são dominadas por populações velhas e de idade intermediária (10 e 1 bilhão de anos); as populações jovens são significativas em apenas 10% destes objetos Em vários aspectos, galáxias Seyfert 2 e rádio-galáxias apresentam características diferentes. As primeiras apresentam resultados da síntese bem mais diversificados do que as últimas; tanto em termos de contribuição das populações de diferentes idades, quanto em relação ao comportamento dos gradientes de população estelar e dos avermelhamentos internos das galáxias. As galáxias Seyfert 2 apresentam uma diversidade de populações bastallte grande; e em geral essas populações são muito diferentes daquelas encontradas em galáxias não ativas lenticulares e espirais. Apesar das rádio-galáxias apresentarem uma pequena diversidade de populações estelares e, aparentemente, populações semelhantes àquelas encontradas em galáxias não ativas elípticas e lenticulares, elas têm populações levemente mais jovens do que as encontradas nas galáxias não ativas, sob a forma de uma contribuição maior da população de 1 bilhão de anos. Nenhuma rádio-galáxia Fanaroff-Riley tipo I apresenta contribuição significativa de populações mais jovem; do que 1 bilhão de anos: enquanto que em uma ou duas rádio-galáxias FRI isso ocorre. Esse resultàdo sugere que existe uma pequena diferença entre a população estelar das rádio-galáxias FRI e FGII estudadas. Essa diferença precisa ser melhor estudada, através de uma amostra de rádio-galáxias maior, para se verificar se não é originada apenas pelo pequeno número de objetos analisados em cada grupo Para as galáxias Seyfert 2, os resultados encontrados são consistentes com um cenário evolutivo 1 onde uma interação provocaria a queda do gás na direção do núcleo provocando um ou mais episódios de formação estelar e iniciando também a atividade nuclear. Enquanto a formação estelar é dominante, as assinaturas da interação são ainda visíveis e o espectro apresenta as características de uma população jovem e linhas de emissão intemediárias entre aquelas de galáxias Seyfert 2 e de galáxias "Starlmrst". A partir do momento em que o episóidio de formação estelar se enfraquece, o espectro passa a ser dominado por características de uma população mais velha e com linhas de emissão típicas de uma galáxia Seyfert. Dentro do cenário acima, a diversidade de populações encontrada pode então ser explicada como sendo devida a diferentes estágios evolutivos da interação; além disso: um outro fator importante parece ser a quantidade de gás disponível; se esta quantidade for muito pequena, pode não ocorrer o disparo de formação estelar. No caso das rádio-galáxias, as interações que teriam originado a atividade nuclear parecem ter ocorrido há mais tempo (1 bilhão de anos atrás para a maioria dos objetos estudados), sugerindo um maior intervalo de tempo entre a interação e o disparo da atividade rádio do que entre a interação e a atividade Seyfert.
Resumo:
O presente trabalho faz uma análise da plataforma continental média e externa da porção central da Bacia de Campos, entre as batimetrias de 65 e 300 metros. Nesta porção da plataforma são encontrados depósitos sedimentares formados por carbonatos e, secundariamente, por siliciclásticos com influência carbonática. Os carbonatos do Membro Grussaí da Formação Emborê se configuram como os mais importantes sedimentos presentes na área de estudo, sendo compostos majoritariamente por algas vermelhas coralináceas (lithothamniun). Os depósitos algálicos ocorrem sob duas formas: a) formas livres formando concreções nodulares centimétricas (rodolitos) e grainstones. b) Incrustações, formando substratos crustosos e lineamentos. Para a análise destes depósitos foram utilizados dados sísmicos tridimensionais relativos à seção terciária da Bacia de Campos e principalmente do fundo marinho. A associação destes dados com amostras de fundo e filmagens do fundo marinho ao longo do traçado de dutos de escoamento de hidrocarbonetos, permitiu a definição de um modelo de distribuição faciológica para os carbonatos formados por algas vermelhas coralináceas e feições fisiográficas associadas a eles. A morfologia do fundo do mar foi dividida em províncias fisiográficas diretamente relacionadas com o padrão deposicional das algas vermelhas e, secundariamente, por sedimentos siliciclásticos. Os padrões morfológicos refletem a presença de bancos carbonáticos de morfologia rugosa, lineamentos carbonáticos em forma de cristas com direção paralela à linha de costa atual, lineamentos em forma de barras obliquas à linha de costa atual, e platôs ou patamares, caracterizados por relevo suave Os sedimentos de fundo foram agrupados em seis fácies sedimentares, as quais estão relacionadas com a morfologia do fundo marinho: (a) Fácies Areias Siliciclásticas com Bioclastos - depositada nos patamares e formada por sedimentos mistos. (b) Fácies Grainstones com Rodolitos – desenvolve-se nos patamares e é composta, basicamente, por grainstones dominados por algas vermelhas, rodolitos e, secundariamente, por areias siliciclásticas. (c) Fácies Boundstone Ridges – relaciona-se com a formação dos lineamentos carbonáticos paralelos à linha de costa; apresentam grainstones e rodolitos na base dos lineamentos e um predomínio de boundstones nas partes altas; marcam a passagem entre patamares. (d) Fácies Boundstone Mounds - relaciona-se fisiograficamente aos lineamentos de barras carbonáticas com orientação obliqua à linha de costa, e se localizam no interior dos patamares. (e) Fácies Boundstone Banks e Grainstones - corresponde a bancos carbonáticos de relevo irregular e que resultam da bioconstrução algálica sob forma de boundstones, com deposição de grainstones nos interbancos. (f) Fácies Mista - posicionada no talude superior, é resultado da mescla entre os sedimentos siliciclásticos de granulometria silte até areia muito fina com lamas e areias carbonáticas. A distribuição faciológica das algas vermelhas coralináceas presentes na área de estudo se desenvolve em batimetrias muito superiores ao que normalmente é esperado para os carbonatos. Sua atividade se desenvolve desde a batimetria de 45 m até 150 m, sendo que o intervalo mais produtivo ocorre entre 55 e 90 m Esses valores decorrem da análise de incrustações presentes em dutos situados na plataforma e talude continental. Outra indicação da existência de deposição em batimetrias mais elevadas é a presença de relictos de boundstones entre as atuais batimetrias de 170 a 230 m. Estes relictos indicam que, durante o rebaixamento do nível do mar de 120 m que ocorreu no final do Pleistoceno, a fábrica carbonática responsável por estes depósitos permaneceu ativa em batimetrias próximas a 50 e 110 m. Por estarem se desenvolvendo em batimetrias elevadas, os depósitos sedimentares estão submetidos aos efeitos hidrodinâmicos de correntes marinhas, principalmente a Corrente do Brasil. Devido a isto, a distribuição faciológica dos carbonatos algálicos apresenta diferença quando comparada com o ambiente convencional de deposição carbonática. Os substratos dos principais lineamentos carbonáticos, posicionados nas atuais cotas batimétricas de 110 m, 100 m, 85 m e 70 m, são interpretados como decorrentes das estabilizações episódicas de linha de praia que ocorreram durante o último processo transgressivo. A erosão desenvolvida pelas ondas nestas paleolinhas de praia esculpiu pequenas escarpas que serviram de substrato para a instalação posterior da Fácies Boundstone Ridges a partir de batimetrias entre 45 a 50 m. O substrato gerado nos patamares não desenvolveu rigidez suficiente para a instalação de formas incrustantes, exceto onde a remobilização do fundo marinho, durante o último evento transgressivo, desenvolveu formas de leitos tipo dunas transversas que serviram de substrato para a deposição da Fácies Boundstone Mounds, as quais atualmente estão estabilizadas pelas incrustrações de boundstones O modelo de deposição de algas coralináceas de “águas profundas” proposto neste trabalho pode ser o mais apropriado como análogo para a sedimentação dominada por algas vermelhas do Terciário das bacias meridionais Brasileiras, quando não houver uma clara associação com outros constituintes carbonáticos exclusivos de águas rasas. Uma evidência que sinaliza a viabilidade deste modelo decorre da interpretação e análise de atributos sísmicos da seção Terciária da Bacia de Campos, onde as feições carbonáticas, semelhantes às encontradas no recente, tendem a se repetir com freqüência.
Resumo:
A incerteza sobre qual o valor da renda para o período pós-aposentadoria pode levar o indivíduo a constituir um plano de acumulação de capital com o intuito de garantir antecipadamente a existência e o nível da mesma. Esse estudo aborda uma série de fatores que influenciam a tomada dessa decisão: a renda do indivíduo, a disposição para o consumo e poupança, as possibilidades de investimento no mercado financeiro e previdenciário, e, também, se propõe a analisar os modelos atuariais utilizados para o cálculo do valor a ser poupado para a geração da renda na fase da aposentadoria. Nos modelos apresentados o indivíduo escolhe o tipo de contribuição, o tipo de renda e a taxa de juro. A partir dessas premissas, calcula-se o valor a ser poupado a partir do valor da renda desejada. Para calcular a probabilidade de ocorrência do valor da renda esperada, cada plano é simulado em dois cenários distintos, para uma determinada idade, contemplando, também, a aplicação do fundo acumulado somente em ativos livres de risco e numa segunda etapa permitindo o investimento em ativos com risco. Observa-se que uma atitude conservadora em relação à escolha da taxa de juro, ou seja, a preferência por uma taxa de juro menor, aproxima o resultado simulado do resultado esperado e, também, que a aplicação do capital acumulado em ativos de risco contribui, em geral, para a melhoria dos resultados obtidos, nos planos e cenários simulados. A matemática atuarial é a ferramenta utilizada para o desenvolvimento dos modelos.
Resumo:
Este trabalho traz interessantes descobertas acerca do comportamento dos preços das ações no mercado acionário brasileiro. Utilizando a metodologia de Haugen e Baker (1996) e seu Modelo de Fator de Retorno Esperado, o estudo mostra que são cinco os fatores determinantes dos preços das ações no mercado brasileiro, considerando o período de janeiro de 1995 a julho de 2003. Dentre os fatores, dois foram obtidos a partir do comportamento dos preços passados das ações, o que evidencia que o mercado não é eficiente nem em sua forma fraca, conforme os conceitos apresentados por Fama (1970). Além disso, fatores como o beta do CAPM e os betas da APT, os principais modelos de precificação de ativos, não foram incluídos entre os fatores determinantes. A aplicação dos fatores determinantes em duas simulações de investimento, uma sem custos de transação e outra com custos de transação, mostrou que o Modelo de Fator de Retorno Esperado possui boa eficiência na previsão dos retornos das ações, sendo capaz de construir, entre 10 carteiras, aquela com maior retorno em relação às demais e, inclusive, em relação ao principal índice de mercado brasileiro, o Ibovespa. A Carteira 1, com melhor retorno esperado, apresentou retorno médio mensal de 1,78% na simulação sem custos de transação e de 0,46% na simulação com custos de transação, ambos superiores ao retorno médio mensal do Ibovespa, de -0,45%. Além da melhor performance, a análise do perfil dos portfolios apontou resultados também relevantes, especialmente no que concerne ao risco das carteiras. A Carteira 1 apresentou a menor volatilidade dos retornos mensais, o menor beta de mercado, bem como mostrou ser formada por ações de empresas com o menor grau de endividamento do patrimônio líquido.
Resumo:
Neste trabalho desenvolvemos um modelo efetivo para a descrição da matéria nuclear, que incorpora os resultados obtidos, para a descrição de um núcleon, pelo modelo de sacola difusa. O sistema nuclear será descrito via uma função de energia interna, que compreende um termo livre e outro que leva em conta a interação entre os núcleons. A parte livre, por se tratar de um sistema de férmions, corresponderá à energia de um gásde Fermi livre. Além disso, para evitar a superposição de dois ou mais núcleons, introduzimos um volume de exclusão a la Van der Waals. Na parte integrante, a troca de píons entre os núcleons será levada em conta via um potêncial efetivo. A função energia interna dependerá da densidade da matéria nuclear e também de um parâmetro que determinará o volume esperado de cada núcleon na matéria nuclear. O valor deste parâmetro será um pouco diferente do valor encontrado para um núcleons isolado, devido à interação entre eles. Obtém-se então resultados para a energia de ligação por núcleon para a matéria nuclear simétrica e para a matéria de nêutrons, bem como para a equação de estado da matéria de nêutrons.
Resumo:
Para a consecução das finalidades de uma disciplina de um curso , várias estratégias de ensino podem ser utilizadas. A estratégia de ensino por objetivos operacionalizados adota, como princípio fundamental, a descrição dos objetivos educacionais em termos do desempenho esperado do aluno e a fixação de padrões mínimos de rendimento aceitável nesse desempenho. A programação de ensino por objetivos operacionalizados deve ser dada a conhecer ao educando, e deve servir de base para o planejamento das atividades docentes e discentes , orientando o aluno nos seus esforços para aprender, e o professor na escolha das técnicas e recursos de ensino que permitam tornar o ensino eficaz. Os resultados da pesquisa empírica realizada mostram que, no nível de efeito principal, o ensino por objetivos operacionalizados é ligeiramente superior ao ensino tradicional . Três turmas foram objeto do experimento, cujo propósito foi comparar , no ensino de Geometria Descritiva, a eficácia relativa das estratégias de ensino com programação por objetivos operacionalizados e a do ensino tradicional. Resultaram os Índices representativos daquela variável: 5,63 para o ensino tradicional, 7,48 para o ensino por objetivos operacionalizados com programação rígida e 7,29 para o ensino por objetivos operacionalizados em que os alunos tiveram liberdade de alguns dos objetivos educacionais. Fortes efeitos de interação foram detectados entre a variável Estratégia de Ensino e as variáveis Escores do Concurso Vestibular, Caracterização Sócio-Econômica e Cultural e Assiduidade, mostrando que, para algumas categorias de alunos, o ensino por objetivos operacionalizados tem rendimento significativamente maior que o ensino tradicional. Os resultados mostram que para algumas categorias a liberdade dada ao aluno para escolher alguns dos objetivos educacionais prejudica o seu nível de aproveitamento no curso, relativamente à mesma estratégia de ensino, porém, com programação totalmente fixada pelo professor. Mesmo nesses casos, o rendimento do ensino por objetivos operacionalizados revela-se superior ao do ensino tradicional.
Resumo:
O crescente aprimoramento tecnológico ocorrido nos últimos anos principalmente nas áreas de eletrônica analógica e digital, proporcionou um grande desenvolvimento dos equipamentos destinados à captação, registro e reprodução sonora - componentes dos sistemas de áudio – tornando-os muito mais sofisticados e complexos. Por sua vez, estes sistemas de áudio encontram-se cada vez mais presentes em diversos tipos de ambientes tais como teatros, casa de shows e auditórios, cumprindo um papel fundamental na programação do recinto. Entretanto, o projeto acústico destes ambientes, em sua grande maioria, não tem levado em consideração as características do sistema de áudio a ser instalado, resultando em prejuízo do desempenho acústico do ambiente e conseqüente insatisfação dos usuários. Somado a este fato, tem-se dado pouca atenção aos parâmetros de qualidade acústica de ambientes destinados à reprodução musical, inicialmente desenvolvidas por Beraneck, 1962, abrindo-se mão, portanto, de ótimas ferramentas de análise que poderiam servir para melhorar o desempenho acústico destes ambientes. Como conseqüência destes resultados, vem crescendo a idéia entre os profissionais da área de acústica e de áudio que o ideal é otimizar o sistema de som com o ambiente para que os melhores resultados sejam alcançados É neste cenário que o presente trabalho se propõe a discutir as questões acústicas juntamente com as questões de áudio com o objetivo de apresentar os principais conce itos, técnicas e procedimentos referentes ao projeto e análise da acústica de ambientes e de sistemas de áudio. Para tanto, foi realizada uma revisão bibliográfica que apresenta os parâmetros objetivos de qualidade acústica ambiental juntamente com um método de avaliação da qualidade acústica de salas, proposta por Arau, 1999. Também apresenta os principais conceitos que norteiam o projeto de sistemas de áudio, mostrando os principais equipamentos envolvidos e suas características técnicas. Ainda foi realizado um estudo sobre as diversas técnicas de medição de resposta impulsiva com as quais os sistemas, tanto acústico quanto de áudio, podem ser caracterizados chegando a conclusão que a técnica de varredura logarítmica de seno é aquela que mais se adapta às medições acústicas por apresentar melhor relação sinal/ruído e imunidade à distorções inerentes aos transdutores eletromecânicos utilizados nestes tipo de medição Para concretizar os conceitos apresentados no trabalho é realizada uma análise do sistema som-ambiente do Salão de Atos da Universidade Federal do Rio Grande do Sul (UFRGS). Como resultado desta análise conclui-se que a amplificação eletrônica, apesar de ser adequada para atender às necessidades da aplicação, tem sua capacidade limitada pelas caixas acústicas. Estas por sua vez, em conjunto com as características do ambiente, são capazes de proporcionar boa inteligibilidade de voz na área de cobertura.Também conclui-se que o ambiente de Salão de Atos possui absorção excessiva em médias-altas freqüências e baixa audibilidade nas posições mais distantes do palco. Ainda, é mostrado que, devido ao posicionamento das caixas acústicas no palco, existem regiões na área da platéia que são atingidas pelo efeito de eco.