16 resultados para Amplitude variável
em Repositório da Universidade Federal do Espírito Santo (UFES), Brazil
Resumo:
A absorção de água por carcaças de frango na etapa de pré-resfriamento da linha abate representa uma característica de qualidade importante relacionada ao rendimento do produto final. Uma forma de manter o padrão de qualidade de um produto é garantir que as etapas do processo sejam estáveis e replicáveis. Ao empregar o Controle Estatístico de Processo (CEP) é possível obter estabilidade e melhorias nos processos, por meio da redução da variabilidade. Neste contexto, o objetivo deste trabalho foi a aplicação de gráficos de controle, análise de correlação, estatística descritiva, testes de hipóteses e regressão linear múltipla na linha de abate de um abatedouro-frigorífico de aves para monitorar a variabilidade da absorção de água pelas carcaças de frango após a etapa de pré-resfriamento. Como resultado, verificou-se que o teor de absorção de água das carcaças de frango apresentou elevada variabilidade, sendo que 10% (8/80) das carcaças apresentaram absorção de água superior ao limite de 8% definido pela legislação brasileira. Do total de 16 variáveis de entrada analisadas, as mais impactantes no teor de absorção de água foram o “tempo de retenção da carcaça no pré-chiller” e o “tempo de espera da carcaça após a etapa de gotejamento”. Entretanto, o modelo de regressão obtido apresentou baixa correlação (R²=0,16) que foi associada à elevada variabilidade da variável-resposta. Os resultados da estatística descritiva demonstraram que as variáveis de entrada também apresentaram elevada variabilidade, com coeficiente de variação entre 7,95 e 63,5%. Verificou-se, pela análise dos gráficos de controle de medida individual e da amplitude móvel, que 15 das 16 variáveis de entrada se apresentaram fora de controle estatístico assim como a variável-resposta. Baseado no fluxograma e na descrição das etapas da linha de abate, previamente realizados, atribuiu-se à falta de padronização na condução das etapas e de procedimentos para o controle de qualidade das operações na linha de abate como fatores relevantes que poderiam estar associados à presença de causas especiais no processo. Concluiu-se que para reduzir a elevada variabilidade das variáveis e eliminar as causas especiais presentes são necessários ajustes operacionais para, dessa forma, obter um processo mais estável e mais uniforme garantindo o padrão de qualidade das carcaças de frango em relação ao teor de absorção de água.
Resumo:
Levantamentos geofísicos de alta resolução e amostragem de sedimentos de fundo foram realizados na Baía de Vitória tendo como objetivo mapear o fundo marinho acusticamente. A análise integrada de registros de sonar de varredura lateral e sísmica rasa permitiu o reconhecimento de 4 ecofácies distintas. A ecofácies Tipo 1 está associada a fundos sem penetração do sinal acústico e com sonogramas de alta intensidade de retorno do sinal e dunas subaquosas, onde areias são predominantes. A ecofácies Tipo 2 ocorre comumente em fundos areno-lamosos que apresentam alta penetração do sinal acústico e baixa intensidade do sinal nos sonogramas. A ecofácies Tipo 3 é caracterizada por uma penetração transparente do sinal até encontrar um refletor de alta amplitude e sem penetração, sendo típica de fundos lamosos. A ecofácies Tipo 4 está diretamente associada a fundos rochosos. A análise da distribuição destas ecofácies permite a interpretação dos principais processos sedimentares que atuam ao longo da baía.
Resumo:
O artigo apresenta resultados da investigação sobre a integração de ambientes de modelagem computacional ao aprendizado exploratório de Física. Os resultados aqui apresentados são relativos ao estudo da interação e desempenho de alunos de ensino superior durante a utilização do ambiente de modelagem computacional semiquantitativo WLinkIt em uma atividade de conteúdo específico em Física: o sistema mola-massa. Os resultados mostram que os estudantes apresentaram habilidades para desenvolver um modelo sobre a situação proposta e relacionar o comportamento apresentado pelo modelo com o esperado por eles, alterar o modelo e explicar o comportamento apresentado pelas variáveis. Os resultados mostram também que as dificuldades apresentadas foram relacionadas à delimitação do sistema a ser estudado, ao entendimento da influência de uma variável sobre a outra, ao entendimento de quem é o agente causal do sistema, ao entendimento da função de uma ligação entre duas variáveis e ao entendimento dos conceitos envolvidos. Assim, o mapeamento desses aspectos é fundamental para o delineamento de pesquisas futuras no sentido de promover, na prática, a integração de Ambientes de Modelagem Computacional Semiquantitativos na sala de aula, mais especificamente para o estudo de tópicos de Física.
Resumo:
Introdução: O alongamento muscular é frequentemente utilizado nas práticas desportivas, com o objetivo de aumentar a flexibilidade muscular e amplitude articular, assim como diminuir o risco de lesões e melhorar o desempenho atlético. Objetivo: Analisar o efeito agudo do alongamento com diferentes tempos no desempenho da força dinâmica de membros superiores e inferiores em homens jovens. Métodos: Participaram da amostra 14 voluntários do sexo masculino com idade de 23 ± 2 anos, peso corporal de 84 ± 10kg, estatura de178 ± 7cm, IMC de 26 ± 2kg/m2 e percentual de gordura de 11 ± 3%. Eles foram avaliados com o teste de 10RM em três situações distintas: condição sem alongamento (SA), aquecimento especifico seguido do teste de 10-RM; condição com oito minutos de alongamento (AL-8), uma sessão de alongamento estático com oito minutos de duração, seguido do aquecimento e teste de 10RM; e a condição alongamento 16 minutos (AL-16), 16 minutos de alongamento seguidos dos procedimentos descritos anteriormente. Os testes foram feitos no supino reto e leg-press 45º; os alongamentos foram selecionados de forma a atingir as musculaturas solicitadas nos respectivos exercícios. Resultados: Houve redução de 9,2% da força muscular dinâmica de membros superiores em comparação dos grupos SA e AL16, e entre os grupos AL8 e AL16 (p < 0,001). Em membros inferiores essa redução de força (p < 0,001) foi de 4,8% para AL-8 e de 14,3% para AL-16 em comparação com o grupo SA. Conclusão: Sessões de alongamentos estáticos efetuados antes de atividades que envolvam força dinâmica possuem a capacidade de alterar negativamente o desempenho dessa qualidade física, acarretando pior rendimento em longos períodos de alongamento.
Resumo:
O presente estudo tem por objetivo avaliar se o perfil do adotante de inovações altera a relação entre o Valor Percebido e a Intenção de Compra de mídias móveis (smartphones, tablets, ultrabooks e leitores de e-books). Trata-se de uma pesquisa quantitativa que busca explorar a relação estrutural entre as variáveis por meio de Modelagem de Equações Estruturais (SEM – Strutural Equation Modeling). O modelo de pesquisa proposto foi desenvolvido tendo como base a Teoria da Difusão da Inovação (TDI), a Teoria Unificada de Aceitação e Uso de Tecnologia (UTAUT), o Modelo de Aceitação de Tecnologia (TAM), o Modelo Baseado em Valor (VAM), o Modelo de Aceitação de Tecnologia pelo Consumidor (CAT) e o Modelo de Influência Social (IS). Para coletar os dados foi utilizada a técnica snowball sampling ou amostragem em bola de neve, forma de amostragem não probabilística utilizada em pesquisas sociais. Foi feito um levantamento (survey), distribuindo-se questionário disponibilizado pela rede social Facebook, a partir dos contatos do autorsolicitando-se que os respondentes replicassem em suas páginas pessoais o link da pesquisa, ampliando a amostra. A coleta dos dados foi realizada nos meses de setembro e outubro de 2013, obtendo-se um total de 362 questionários respondidos. O estudo apresentou um efeito significativo da variável Valor Percebido na Intenção de Compra (estatística t = 4,506; nível de significância de 1%), além de sustentar a influência moderadora do Perfil do Adotante sobre essa relação (estatística t = 4,066; nível de significância de 1%), apresentando alto impacto sobre a Intenção de Compra (f 2 = 0,582) e relevância preditiva moderada (q2 = 0,290). Entre as variáveis antecedentes relacionadas à adoção de tecnologia, não apresentaram efeito significativo sobre o Valor Percebido: a Facilidade de Uso Percebida, a Complexidade Percebida e o Risco Percebido. O modelo contribuiu significativamente para explicar a influência dos fatores que impactam o Valor Percebido (R2 = 51,7%) o efeito do Valor Percebido na Intenção de Compra (R2 = 49,1%) de equipamentos eletrônicos portáteis. O suporte da presumidade influência moderadora do Perfil do Adotante sobre a relação Valor Percebido e Intenção de Compra indica que as organizações devem conhecer melhor os consumidores desse tipo de equipamento móveis, segmentando e desenvolvendo ações alinhadas com cada perfil de adotante.
Resumo:
O número de municípios infestados pelo Aedes aegypti no Estado do Espírito Santo vem aumentando gradativamente, levando a altas taxas de incidência de dengue ao longo dos anos. Apesar das tentativas de combate à doença, esta se tornou uma das maiores preocupações na saúde pública do Estado. Este estudo se propõe a descrever a dinâmica da expansão da doença no Estado a partir da associação entre variáveis ambientais e populacionais, utilizando dados operacionalizados por meio de técnicas de geoprocessamento. O estudo utilizou como fonte de dados a infestação pelo mosquito vetor e o coeficiente de incidência da doença, as distâncias rodoviárias intermunicipais do Estado, a altitude dos municípios e as variáveis geoclimáticas (temperatura e suficiência de água), incorporadas a uma ferramenta operacional, as Unidades Naturais do Espírito Santo (UNES), representadas em um único mapa operacionalizado em Sistema de Informação Geográfica (SIG), obtido a partir do Sistema Integrado de Bases Georreferenciadas do Estado do Espírito Santo. Para análise dos dados, foi realizada a Regressão de Poisson para os dados de incidência de dengue e Regressão Logística para os de infestação pelo vetor. Em seguida, os dados de infestação pelo mosquito e incidência de dengue foram georreferenciados, utilizando como ferramenta operacional o SIG ArcGIS versão 9.2. Observou-se que a pluviosidade é um fator que contribui para o surgimento de mosquito em áreas não infestadas. Altas temperaturas contribuem para um alto coeficiente de incidência de dengue nos municípios capixabas. A variável distância em relação a municípios populosos é um fator de proteção para a incidência da doença. A grande variabilidade encontrada nos dados, que não é explicada pelas variáveis utilizadas no modelo para incidência da doença, reforça a premissa de que a dengue é condicionada pela interação dinâmica entre muitas variáveis que o estudo não abordou. A espacialização dos dados de infestação pelo mosquito e incidência de dengue e as Zonas Naturais do ES permitiu a visualização da influência das variáveis estatisticamente significantes nos modelos utilizados no padrão da introdução e disseminação da doença no Estado.
Resumo:
Neste trabalho nós estudamos a dieta da tartaruga verde, Chelonia mydas, e os fatores envolvidos na variação de sua ecologia alimentar. Avaliamos também o impacto da ingestão de lixo, e os fatores que podem explicar a elevada ingestão destes resíduos entre os animais marinhos. No estudo da ecologia alimentar, nós avaliamos mais de 400 indivíduos, entre dados originais e da literatura, distribuídos ao longo de um gradiente latitudinal e diversos ambientes. As tartarugas se alimentaram majoritariamente de macroalgas, porém apresentaram uma grande plasticidade alimentar, tanto em relação à estratégia de forrageamento quanto à dieta. Nas regiões mais frias e com menor disponibilidade de algas, as tartarugas mudaram de uma dieta herbívora, para uma dieta baseada em matéria animal. Esta mudança de dieta acarretou também em uma mudança de estratégia de forrageamento, saindo da alimentação bentônica para uma alimentação pelágica. Estratégia esta que também foi encontrada nas áreas estuarinas. A plasticidade alimentar se deve à interação de fatores intrínsecos (restrições fisiológicas) e extrínsecos (regionais e locais). As diferenças nas estratégias de forragenamento acarretam também em diferenças na exposição a ameaças. Um exemplo disso é a ingestão de lixo, que apesar de ter sido registrada em mais de 70% das tartarugas (N = 265), representou uma ameaça maior aos animais com estratégia de forrageamento pelágica. O plástico foi o material mais ingerido, tendo como principal fonte itens relacionados à alimentação e sacolas plásticas. O estudo também mostrou que uma quantidade pequena de lixo (0,5 g) é suficiente para causar a morte. Este resultado revelou que o potencial de letalidade por ingestão de lixo é muito maior que a mortalidade observada. A verdadeira ameaça da ingestão de lixo está sendo mascarada pela elevada mortalidade relacionada às atividades pesqueiras. A ingestão de lixo é normalmente atribuída à confusão de um item alimentar específico com o resíduo, como águas-vivas e sacolas plásticas. Porém, nós mostramos que se trata de uma questão mais ampla, e usamos a tartaruga verde, aves marinhas e peixes para ressaltar a importância de outros fatores como: abundância do lixo no ambiente, estratégia de forrageamento, capacidade de detecção do resíduo e amplitude da dieta. Nós acreditamos que a ingestão de lixo ocorre devido a uma armadilha evolutiva muito mais ampla do que a previamente sugerida, e que deve afetar muito mais espécies que as que foram até hoje reportadas. Desarmar esta armadilha será particularmente difícil devido ao contínuo e crescente despejo de plástico no ambiente marinho e sua alta persistência no ambiente.
Resumo:
O objetivo desta dissertação é analisar a relação existente entre remuneração executiva e desempenho em companhias brasileiras de capital aberto listadas na BM&FBOVESPA. A linha teórica parte do pressuposto que o contrato de incentivos corrobora com o alinhamento de interesses entre acionistas e executivos e atua como um mecanismo de governança corporativa a fim de direcionar os esforços dos executivos para maximização de valor da companhia. A amostra foi composta pelas 100 companhias mais líquidas listadas em quantidade de negociações de ações na BM&FBOVESPA durante o período 2010-2012, totalizando 296 observações. Os dados foram extraídos dos Formulários de Referência disponibilizados pela CVM e a partir dos softwares Economática® e Thomson Reuters ®. Foram estabelecidas oito hipóteses de pesquisa e estimados modelos de regressão linear múltipla com a técnica de dados em painel desbalanceado, empregando como variável dependente a remuneração total e a remuneração média individual e como regressores variáveis concernentes ao desempenho operacional, valor de mercado, tamanho, estrutura de propriedade, governança corporativa, além de variáveis de controle. Para verificar os fatores que explicam a utilização de stock options, programa de bônus e maior percentual de remuneração variável foram estimados modelos de regressão logit. Os resultados demonstram que, na amostra selecionada, existe relação positiva entre remuneração executiva e valor de mercado. Verificou-se também que os setores de mineração, química, petróleo e gás exercem influência positiva na remuneração executiva. Não obstante, exerce relação inversa com a remuneração total à concentração acionária, o controle acionário público e o fato da companhia pertencer ao nível 2 ou novo mercado conforme classificação da BMF&BOVESPA. O maior valor de mercado influencia na utilização de stock options, assim como no emprego de bônus, sendo que este também é impactado pelo maior desempenho contábil. Foram empregados também testes de robustez com estimações por efeitos aleatórios, regressões com erros-padrão robustos clusterizados, modelos dinâmicos e os resultados foram similares. Conclui-se que a remuneração executiva está relacionada com o valor corporativo gerando riqueza aos acionistas, mas que a ausência de relação com o desempenho operacional sugere falhas no sistema remuneratório que ainda depende de maior transparência e outros mecanismos de governança para alinhar os interesses entre executivos e acionistas.
Resumo:
O câncer de mama é a principal neoplasia maligna que acomete o sexo feminino no Brasil. O câncer de mama é hoje uma doença de extrema importância para a saúde pública nacional, motivando ampla discussão em torno das medidas que promova o seu diagnóstico precoce, a redução em sua morbidade e mortalidade. A presente pesquisa possui três objetivos, cujos resultados encontram-se organizados em artigos. O primeiro objetivo buscou analisar a completude dos dados do Sistema de Informação de Mortalidade sobre os óbitos por câncer de mama em mulheres no Espírito Santo, Sudeste e Brasil (1998 a 2007). Realizou-se um estudo descritivo analítico baseado em dados secundários, onde foi analisado o número absoluto e percentual de não preenchimento das variáveis nas declarações de óbitos. Adotou-se escore para avaliar os graus de não completude. Os resultados para as variáveis sexo e idade foram excelentes tanto para o Espírito Santo, Sudeste e Brasil. O preenchimento das variáveis raça/cor, grau de escolaridade e estado civil apresentam problemas no Espírito Santo. Enquanto no Sudeste e Brasil as variáveis raça/cor e escolaridade têm tendência decrescente para a não completude, no Espírito Santo a tendência se mantém estável. Para a variável estado civil, a não completude tem tendência crescente no Estado do Espírito Santo. O segundo objetivo foi analisar a evolução das taxas de mortalidade por câncer de mama, em mulheres no Espírito Santo no período de 1980 a 2007. Estudo de série temporal, cujos dados sobre óbitos foram obtidos do Sistema de Informação de Mortalidade e as estimativas populacionais segundo idade e anos-calendário, do Instituto Brasileiro Geografia e Estatística. Os coeficientes específicos 9 de mortalidade, segundo faixa etária, foram calculados anualmente. A análise de tendência foi realizada por meio da padronização das taxas de mortalidade pelo método direto, em que a população do senso IBGE-2000, foi considerada padrão. No período de estudo, ocorreram 2.736 óbitos por câncer de mama. O coeficiente de mortalidade neste período variou de 3,41 a 10,99 por 100.000 mulheres. Os resultados indicam que há tendência de mortalidade por câncer de mama ao longo da série (p=0,001 com crescimento de 75,42%). Todas as faixas etárias a partir de 30 anos apresentaram tendência de crescimento da mortalidade estatisticamente significante (p=0,001). Os percentuais de crescimento foram aumentando, segundo as idades mais avançadas, sendo 48,4% na faixa de 40 a 49 anos, chegando a 92,3%, na faixa de 80 anos e mais. O terceiro objetivo foi realizar a análise espacial dos óbitos em mulheres por câncer de mama no estado do Espírito Santo, nos anos de 2003 a 2007, com análise das correlações espaciais dessa mortalidade e componentes do município. O cenário foi o Estado do Espírito Santo, composto por 78 municípios. Para análise dos dados, utilizou-se a abordagem bayesiana (métodos EBest Global e EBest Local) para correção de taxas epidemiológicas. Calculou-se o índice I de Moran, para dependência espacial em nível global e a estatística Moran Local. As maiores taxas estão concentradas em 19 municípios pertencentes às Microrregiões: Metropolitana (Fundão, Vitória, Vila Velha, Viana, Cariacica e Guarapari), Metrópole Expandida Sul (Anchieta, Alfredo Chaves), Pólo Cachoeiro (Vargem Alta, Rio Novo do Sul, Mimoso do Sul, Cachoeiro de Itapemirim, Castelo, Jerônimo Monteiro, Bom Jesus do Norte, Apiacá e Muqui) e Caparaó (Alegre e São José do Calçado). Os resultados da Estimação Bayesiana (Índice de Moran) dos óbitos por câncer de mama em mulheres ocorridos no estado do Espírito Santo, segundo os dados brutos e 10 ajustados indicam a existência de correlação espacial significativa para o mapa Local (I = 0,573; p = 0,001) e Global (I = 0,118; p = 0,039). Os dados brutos não apresentam correlação espacial (I = 0,075; p = 0,142).
Resumo:
O presente trabalho objetiva avaliar o desempenho do MECID (Método dos Elementos de Contorno com Interpolação Direta) para resolver o termo integral referente à inércia na Equação de Helmholtz e, deste modo, permitir a modelagem do Problema de Autovalor assim como calcular as frequências naturais, comparando-o com os resultados obtidos pelo MEF (Método dos Elementos Finitos), gerado pela Formulação Clássica de Galerkin. Em primeira instância, serão abordados alguns problemas governados pela equação de Poisson, possibilitando iniciar a comparação de desempenho entre os métodos numéricos aqui abordados. Os problemas resolvidos se aplicam em diferentes e importantes áreas da engenharia, como na transmissão de calor, no eletromagnetismo e em problemas elásticos particulares. Em termos numéricos, sabe-se das dificuldades existentes na aproximação precisa de distribuições mais complexas de cargas, fontes ou sorvedouros no interior do domínio para qualquer técnica de contorno. No entanto, este trabalho mostra que, apesar de tais dificuldades, o desempenho do Método dos Elementos de Contorno é superior, tanto no cálculo da variável básica, quanto na sua derivada. Para tanto, são resolvidos problemas bidimensionais referentes a membranas elásticas, esforços em barras devido ao peso próprio e problemas de determinação de frequências naturais em problemas acústicos em domínios fechados, dentre outros apresentados, utilizando malhas com diferentes graus de refinamento, além de elementos lineares com funções de bases radiais para o MECID e funções base de interpolação polinomial de grau (um) para o MEF. São geradas curvas de desempenho através do cálculo do erro médio percentual para cada malha, demonstrando a convergência e a precisão de cada método. Os resultados também são comparados com as soluções analíticas, quando disponíveis, para cada exemplo resolvido neste trabalho.
Resumo:
No âmbito da condução da política monetária, as funções de reação estimadas em estudos empíricos, tanto para a economia brasileira como para outras economias, têm mostrado uma boa aderência aos dados. Porém, os estudos mostram que o poder explicativo das estimativas aumenta consideravelmente quando se inclui um componente de suavização da taxa de juros, representado pela taxa de juros defasada. Segundo Clarida, et. al. (1998) o coeficiente da taxa de juros defasada (situado ente 0,0 e 1,0) representaria o grau de inércia da política monetária, e quanto maior esse coeficiente, menor e mais lenta é a resposta da taxa de juros ao conjunto de informações relevantes. Por outro lado, a literatura empírica internacional mostra que esse componente assume um peso expressivo nas funções de reação, o que revela que os BCs ajustam o instrumento de modo lento e parcimonioso. No entanto, o caso brasileiro é de particular interesse porque os trabalhos mais recentes têm evidenciado uma elevação no componente inercial, o que sugere que o BCB vem aumentando o grau de suavização da taxa de juros nos últimos anos. Nesse contexto, mais do que estimar uma função de reação forward looking para captar o comportamento global médio do Banco Central do Brasil no período de Janeiro de 2005 a Maio de 2013, o trabalho se propôs a procurar respostas para uma possível relação de causalidade dinâmica entre a trajetória do coeficiente de inércia e as variáveis macroeconômicas relevantes, usando como método a aplicação do filtro de Kalman para extrair a trajetória do coeficiente de inércia e a estimação de um modelo de Vetores Autorregressivos (VAR) que incluirá a trajetória do coeficiente de inércia e as variáveis macroeconômicas relevantes. De modo geral, pelas regressões e pelo filtro de Kalman, os resultados mostraram um coeficiente de inércia extremamente elevado em todo o período analisado, e coeficientes de resposta global muito pequenos, inconsistentes com o que é esperado pela teoria. Pelo método VAR, o resultado de maior interesse foi o de que choques positivos na variável de inércia foram responsáveis por desvios persistentes no hiato do produto e, consequentemente, sobre os desvios de inflação e de expectativas de inflação em relação à meta central.
Resumo:
Este trabalho investiga, no mercado acionário brasileiro, o efeito da contabilidade de hedge na qualidade das informações contábeis divulgadas, no disclosure dos instrumentos financeiros derivativos e na assimetria de informação. Para medir a qualidade da informação contábil, foram utilizadas as métricas de relevância da informação contábil e informatividade dos lucros contábeis. Para a execução deste trabalho, foi constituída uma amostra geral com empresas brasileiras, não financeiras, listadas na Bolsa de Valores de São Paulo, compreendendo as 150 empresas com maior valor de mercado em 01/01/2014. A partir da amostra geral, foram constituídas amostras para a aplicação dos modelos de value relevance, informativeness, disclosure e assimetria de informação. A amostra para relevância contou com 758 observações firmas-anos, para o período de 2008 a 2013. A amostra para informatividade contou com 701 observações firmas-anos, para o período de 2008 a 2013. A amostra para disclosure contou com 100 observações firmas-anos, para o período de 2011 a 2012. A amostra para assimetria de informação contou com 100 observações firmas-anos, para o período de 2011 a 2012. Para as análises dos dados, utilizou-se regressões com errospadrão robustos com abordagem POLS e Efeitos Fixos, aplicadas sobre dados em painel. Complementarmente, para as análises do efeito do hedge accounting sobre o disclosure e assimetria de informação, foi aplicado o método de Propensity Score Matching. As evidências encontradas para a influência da contabilidade de hedge na relevância da informação contábil apontaram uma relação positiva e significante na interação com o LL. Na análise da informatividade dos lucros contábeis, a pesquisa evidenciou uma relação negativa e estatisticamente significante do lucro quando interagido com a variável dummy de hedge accounting. Quanto às evidências encontradas para a influência do hedge accounting sobre o disclosure dos derivativos, verificou-se uma relação positiva e estatisticamente significante da dummy de hedge accounting com o indicador de evidenciação dos derivativos. Em relação às evidências para a assimetria de informação, embora os coeficientes se mostrassem no sentido esperado, os mesmos não foram estatisticamente significativos. Adicionalmente, incorporamse às análises econométricas uma análise descritiva, na amostra geral, da utilização do hedge accounting no Brasil, para o ano de 2013. Dentre as 150 empresas da amostra, 49 empresas utilizaram hedge accounting, onde 41 empresas adotam apenas 1 tipo de hedge. O hedge de fluxo de caixa é o tipo de hedge mais adotado pelas empresas, sendo utilizado por 42 companhias.
Resumo:
Esta dissertação tem como objetivo abordar a relação entre justiça e educação, mais especificadamente, entre a teoria da justiça como equidade que foi desenvolvida por John Rawls, na obra Uma Teoria da Justiça, e a Constituição Federal de 1988 e a Lei de Diretrizes e Bases da Educação Nacional – LDBEN que regem o direito à educação no Brasil. O trabalho foi desenvolvido por meio de pesquisa bibliográfica e documental, em que analisamos as duas principais legislações que dirigem a educação nacional e os escritos da teoria rawlsiana. Com este processo analítico percebemos que a teoria da justiça de Rawls foi fundamentada pela teoria do contrato social e, buscava estabelecer-se como alternativa à doutrina utilitarista. E, por ser uma teoria de grande amplitude, que buscava intervir nas sociedades democráticas, foi possível encontrar ideais educacionais nos escritos de John Rawls. Além disso, conseguimos estabelecer a relação entre os estágios de aplicação dos princípios da justiça e a importância das leis para os Estados democráticos. Por fim, percebemos que há relação direta entre diversas partes das duas legislações estudadas e os ideais de John Rawls, o que demonstra a influência que o liberalismo político anglo-saxão exerce sobre nossas normativas educacionais.
Resumo:
Essa dissertação estuda as características relevantes na formação do preço de venda e aluguel, analisando também as diferenças entre esses atributos para apartamentos na cidade de Vitória/ES, preenchendo uma lacuna ainda não desenvolvida, tendo em vista a possibilidade de comparação entre preços de aluguel e venda. O constructo teórico teve como fundamento abordagem de preços hedônicos, aplicada em estudos de Waugh (1928) e Court (1939), mas formalmente desenvolvida teoricamente por Lancaster (1966) e Rosen (1974), e aplicadas e discutidas por Palmquist (1984) e Sheppard (1999). A revisão de literatura mostra que existe impactos tanto em relação aos aspectos físicos dos imóveis, como características externas, como violência, facilidade de acesso, ou presença de estações de trens ou mercados no entorno, dentre outras. A amostra partiu de uma listagem de oferta de imóveis no site da Netimóveis durante os meses de maio e junho de 2014, contando com um número de 563 observações para venda e 185 para locação. Além dessas duas amostras, foram elaboradas análises com relação a subamostras que possuíam a variável valor do condomínio, buscando ampliar as variáveis explicativas coletadas. A análise dos resultados foi feita com utilização da estatística descritiva, correlação entre variáveis e regressão múltipla, sendo essa última aplicada nos 6 modelos propostos para cada amostra, posteriormente propondo um modelo final para venda e aluguel. No que tange as hipóteses utilizadas e aplicadas nos modelos, parte delas foram utilizadas tendo em base estudos prévios, e outras, como o sol da manhã, por exemplo, foram apresentadas como propostas. Dos resultados encontrados, muitos corroboraram com estudos anteriores, confirmando que variáveis como área, vagas na garagem, varanda, anda e posição de frente da unidade, piscina e localização em bairros nobres impactam positivamente no preço dos imóveis, independente se venda ou aluguel. Como diferenças, foi possível identificar que as variáveis presença de elevador, playground e valor do condomínio participam positivamente da explicação do preço de venda, enquanto, presença de quadra, mobília e sol da manhã explicam positivamente o valor do aluguel na amostra.
Resumo:
O Teorema Central do Limite e a Lei dos Grandes Números estão entre os mais importantes resultados da teoria da probabilidade. O primeiro deles busca condições sob as quais [fórmula] converge em distribuição para a distribuição normal com parâmetros 0 e 1, quando n tende ao infinito, onde Sn é a soma de n variáveis aleatórias independentes. Ao mesmo tempo, o segundo estabelece condições para que [fórmula] convirja a zero, ou equivalentemente, para que [fórmula] convirja para a esperança das variáveis aleatórias, caso elas sejam identicamente distribuídas. Em ambos os casos as sequências abordadas são do tipo [fórmula], onde [fórmula] e [fórmula] são constantes reais. Caracterizar os possíveis limites de tais sequências é um dos objetivos dessa dissertação, já que elas não convergem exclusivamente para uma variável aleatória degenerada ou com distribuição normal como na Lei dos Grandes Números e no Teorema Central do Limite, respectivamente. Assim, somos levados naturalmente ao estudo das distribuições infinitamente divisíveis e estáveis, e os respectivos teoremas limites, e este vem a ser o objetivo principal desta dissertação. Para as demonstrações dos teoremas utiliza-se como estratégia principal a aplicação do método de Lyapunov, o qual consiste na análise da convergência da sequência de funções características correspondentes às variáveis aleatórias. Nesse sentido, faremos também uma abordagem detalhada de tais funções neste trabalho.