141 resultados para Compressão de dados (Telecomunicações)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

As telecomunicações no mundo têm avançado a passos largos na oferta de novas tecnologias e padrões que viabilizam e flexibilizam a transmissão / recepção de informações entre pessoas e a Internet. Em especial, no que tange à ubiqüidade, o uso de dispositivos de comunicações móveis sem fio, como telefones celulares e PDAs (Personnal Digital Assistant), tem permitido às empresas alcançarem seus clientes a qualquer hora e em qualquer lugar. Muitos padrões de comunicação wireless têm surgido, inicialmente na indústria de telefonia móvel celular e, em seguida, na indústria de computadores e PDAs, habilitando a comunicação wireless de dados em banda larga e o comércio eletrônico móvel (m-commerce). Em especial, o padrão Wi-Fi tem sido difundido mundialmente através da expansão de redes públicas sem fio (PWLANs). Assim, os fabricantes de equipamentos de telecomunicações, as empresas operadoras de serviços de telefonia fixa e móvel e até provedores de acesso à Internet têm manifestado grande interesse nessa área por perceberem novas oportunidades de aumento de receita através da tecnologia Wi-Fi. Todos estes aspectos da recente história do Wi-Fi têm gerado questionamentos quanto a seu futuro sucesso e real geração de vantagem competitiva sustentável, não obstante o volume de negócios relativos a esta tecnologia estar em franco crescimento. Este trabalho propõe-se a analisar o mercado de serviços PWLAN Wi-Fi brasileiro, identificando os principais atores e os modelos de negócio praticados por eles, comparando esses modelos aos modelos identificados por Shubar e Lechner. O estudo propõe-se, também, a avaliar tais empresas e seus respectivos modelos de negócio segundo o framework VRIO desenvolvido por Barney com base na visão estratégica baseada em recursos (RBV- Resource Based View).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo estimar um modelo empírico para relacionar os gastos em publicidade com a receita das firmas, de forma a servir como ferramenta de tomada de decisão, para isso vamos fazer um estudo de caso da indústria de telecomunicações. A Indústria de comunicação (publicidade) no Brasil, segundo dados do IBGE de 2008, é responsável por 4% do PIB, gerando receitas da ordem 115 bilhões de reais. Com 113 mil empresas que geram 711 mil empregos, ocupam 866 mil pessoas e pagam 11,8 bilhões em salários e encargos. No entanto, a maioria dos gestores de marketing declara não ter instrumentos para medir o impacto de suas ações no resultado das empresas. O modelo empírico será estimado tendo como base dados mensais dos serviços de ligações de longa distância nacional da Embratel para o período de janeiro de 2009 até dezembro de 2011. As informações quase sempre não disponíveis, só puderam ser usadas devido ao compromisso de confidencialidade. A partir de técnicas de cointegração, foi calculada a elasticidade de longo prazo da receita em relação aos gastos com publicidade e ao preço, assim com as respectivas velocidades de ajustamento aos desvios de curto prazo. Os resultados sugerem que a receita responde positivamente às variações dos gastos em publicidade, embora o percentual seja relativamente baixo, através do teorema de Dorfman-Steiner conseguimos indicar que o ponto ótimo da relação entre gastos com publicidade e a receita seria de aproximadamente 20%, respeitadas as limitações do modelo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho teve como objetivo contextualizar as F&A ocorridas no Brasil no setor das telecomunicações e fundamentou-se numa análise qualitativa de 5 eventos recorrendo à metodologia de estudo de eventos e o seu impacto sobre o valor das ações. De acordo com os 5 eventos analisados, 3 apresentaram retornos anormais acumulados negativos e 2 eventos com retornos anormais positivos para ambas as empresas (adquirente e adquirida), pelo que podemos inferir que esses 3 eventos de F&A não geraram valor às firmas envolvidas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A desoneração da folha é constituída pela eliminação da contribuição previdenciária patronal incidente sobre a folha de pagamento dos funcionários e pela adoção de uma nova contribuição previdenciária sobre a receita bruta das empresas. Um dos objetivos desta mudança, listados pelo Governo Federal do Brasil no programa Brasil Maior, é reduzir os custos de produção dos setores beneficiados através da diminuição da carga tributária, contribuindo, assim, para a geração de empregos e formalização de mão de obra. O objetivo deste trabalho, portanto, é estimar o impacto desta medida sobre a geração de empregos formais e também sobre o salário médio dos trabalhadores nos primeiros setores beneficiados, que foram, principalmente, Tecnologia da Informação (e Comunicação), Couro e Calçados, Vestuário e Têxtil, Hotéis e Call Center. Para isto, aplicou-se a metodologia econométrica difference-in-differences nos dados da Relação Anual de Informações Sociais (RAIS), disponibilizados pelo Ministério do Trabalho. Os resultados sugerem principalmente que a desoneração da folha de pagamentos parece ter gerado empregos apenas para o setor Tecnologia da Informação (e Comunicação), assim como aumento do salário médio dos empregados deste setor. Outro resultado interessante é que para o setor de Call Center o impacto em termos de emprego não foi significativo, mas a lei parece ter contribuído para um aumento do salário no setor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em 2000, o governo federal aprovou uma lei que permitiu aos Estados fixarem pisos salariais acima do salário mínimo. Os Estados do Rio de Janeiro e Rio Grande do Sul adotaram tal lei em 2001. Utilizando dados de painel da Pesquisa Mensal de Emprego de 2000 e 2001, encontramos um baixo cumprimento da lei nestes Estados. Adicionalmente, obtivemos evidências de efeito nulo sobre o nível de emprego. Estes resultados indicam um alto descumprimento da legislação devido a uma baixa efetividade da lei, como sugerido pela teoria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estimar e prever a volatilidade de um ativo é uma tarefa muito importante em mercados financeiros. Nosso objetivo neste trabalho é propor o conceito de deformação temporal neste contexto. A idéia é que o mercado modifica-se com a chegada de novas informações, e não com o decorrer do tempo de calendário. Nós estimamos a volatilidade dos retornos do IBOVESPA, aplicando Modelos de Volatilidade Estocástica sem e com Deformação Temporal.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This research attempts to analyze the effects of open government data on the administration and practice of the educational process by comparing the contexts of Brazil and England. The findings illustrate two principal dynamics: control and collaboration. In the case of control, or what is called the "data-driven" paradigm, data help advance the cause of political accountability through the disclosure of school performance. In collaboration, or what is referred to as the "data-informed" paradigm, data is intended to support the decision-making process of administrators through dialogical processes with other social actors.