866 resultados para Computação móvel
Resumo:
O Brasil possui um dos mercados de serviços de comunicação e mídia que mais cresce no mundo. Grande parte deste crescimento pode ser atribuída à evolução tecnológica e às recentes alterações no ambiente competitivo, os quais favoreceram a convergência de serviços antes vendidos separadamente - voz, dados e TV. Isto elevou a atratividade destes serviços, contribuindo também para a redução de seu preço, por meio, principalmente, dos ganhos de escala, impulsionando seu crescimento. Este crescimento atraiu mais competidores ao mercado, o que, intensificado por mudanças regulatórias, eleva a importância da correta precificação dos pacotes de serviços. Portanto, um entendimento apropriado dos atributos mais valorizados pelos consumidores no processo decisório de compra destes serviços é de fundamental importância para melhorar a alocação dos recursos e maximizar o retorno, sem perda de participação de mercado. Este trabalho aplica a Metodologia de Preços Hedônicos como ferramenta para auxiliar na identificação dos atributos relevantes dos pacotes de serviços multimídia comercializados no mercado da cidade de São Paulo e seus respectivos preços implícitos. São 371 pacotes distintos contendo de um a três tipos diferentes de serviços analisados com base nos preços praticados em março de 2009. Como resultado, foram identificados intensos prêmios de preço associados aos canais do grupo Telecine, aos canais esportivos, infantis e de filmes e séries, bem como às variáveis ligadas às velocidades de download e upload.
Resumo:
O modelo de três fatores de Fama & French (1993) é uma extensão do modelo de precificação de ativos de Sharpe (1963), Lintner (1965) e Black (1972), o CAPM. Em Fama & French (1993), o valor de mercado e o valor contábil das empresas são adicionados como variáveis explicativas ao fator de risco de mercado β do CAPM. O objetivo deste trabalho é testar o poder explicativo do modelo de três fatores para o mercado acionário brasileiro. A inovação deste trabalho foi a utilização de um universo de ações móvel, no qual os títulos que são lançados na Bovespa no período de análise vão sendo incorporadas à base de dados conforme atingem os requisitos do modelo. Trata-se de uma abordagem inovadora, já que tradicionalmente o universo de ações que compõe a amostra é rígido do início ao fim do período de análise. Esta abordagem foi desenvolvida com o intuito de mitigar o problema de falta de dados do mercado acionário brasileiro. O período de análise foi de 2000 à 2011, e as ações utilizadas foram todas aquelas que possuíam um histórico confiável e apresentaram pelo menos um negócio à cada dois meses. A análise do Modelo de Três Fatores foi realizada utilizando a metodologia de séries temporais de Black, Jensen e Scholes (1972), da mesma forma que Fama & French (1993). Como variável dependente foram utilizadas 16 carteiras, oriundas do cruzamento das ações dividas em 4 percentis iguais pelos seus valores de mercado (ME), e 4 percentis iguais pela razão valor de mercado pelo valor contábil (ME/BE). Como variáveis independentes foram construídas duas séries de retorno que replicam os fatores de risco valor de mercado, SMB, e a razão valor de mercado pelo valor contábil, HML. Estas foram construídas pela diferença dos retornos das ações de maior ME e menor ME; e pela diferença do retorno das de maior ME/BE, pelas de menor ME/BE. O método de estimação dos coeficientes das regressões utilizado foi o dos mínimos quadrados ordinários. Os resultados do Modelo encontrados para a bolsa brasileira foram similares àqueles encontrados por Fama & French (1993). O Modelo apresentou maior poder explicativo para os retornos dos portfolios analisados que o CAPM, e mostrou-se estatisticamente significante para 15 das 16 carteiras. Os coeficientes das regressões relativos aos fatores de risco SMB e HML apresentaram, em sua maioria, os mesmo sinais que os encontrados por Fama & French (1993). Foi encontrada uma discrepância relativa ao sinal do fator HML para as carteiras de maior ME/BE, cuja explicação está atrelada ao momento da economia e mercados no período. Por fim, o Modelo e a discrepância foram reavaliados dividindo-se o período de análise em pré e pós-crise de 2008. O modelo mostrou maior poder explicativo para o período pós-crise que para o pré-crise. A mesma discrepância do sinal de HML foi encontrada no pré-crise, entretanto não foi verificada no pós-crise.
Resumo:
Este trabalho apresenta um conjunto de ferramentas que exploram as capacidades recentes das placas gráficas de computadores pessoais para prover a visualização e a interação com volumes de dados. O objetivo é oferecer ao usuário ferramentas que permitam a remoção interativa de partes não relevantes do volume. Assim, o usuário é capaz de selecionar um volume de interesse, o que pode tanto facilitar a compreensão da sua estrutura quanto a sua relação com os volumes circundantes. A técnica de visualização direta de volumes através do mapeamento de texturas é explorada para desenvolver estas ferramentas. O controle programável dos cálculos realizados pelo hardware gráfico para gerar a aparência de cada pixel na tela é usado para resolver a visibilidade de cada ponto do volume em tempo real. As ferramentas propostas permitem a modificação da visibilidade de cada ponto dentro do hardware gráfico, estendendo o benefício da visualização acelerada por hardware. Três ferramentas de interação são propostas: uma ferramenta de recorte planar que permite a seleção de um volume de interesse convexo; uma ferramenta do tipo “borracha”, para eliminar partes não relevantes da imagem; e uma ferramenta do tipo “escavadeira”, para remover camadas do volume Estas ferramentas exploram partes distintas do fluxo de visualização por texturas, onde é possível tomar a decisão sobre a visibilidade de cada ponto do volume. Cada ferramenta vem para resolver uma deficiência da ferramenta anterior. Com o recorte planar, o usuário aproxima grosseiramente o volume de interesse; com a borracha, ele refina o volume selecionado que, finalmente, é terminado com a escavadeira. Para aplicar as ferramentas propostas ao volume visualizado, são usadas técnicas de interação conhecidas, comuns nos sistemas de visualização 2D. Isto permite minimizar os esforços do usuário no treinamento do uso das ferramentas. Finalmente, são ilustradas as aplicações potenciais das ferramentas propostas para o estudo da anatomia do fígado humano. Nestas aplicações foi possível identificar algumas necessidades do usuário na visualização interativa de conjuntos de dados médicos. A partir destas observações, são propostas também novas ferramentas de interação, baseadas em modificações nas ferramentas propostas.
Resumo:
O trabalho pedagógico, como produção coletiva, é vivido nas escolas de 1o e 2o graus? O seu fazer específico: como e percebido pelos que cotidianamente experenciam as contra dições da "educação como direito de todos" e como marginalização das classes menos favorecidas? são essas as questões básicas aqui colocadas, procurando resgatar o lugar da escola como produção e transmissão do conhecimento; do mínimo necessário à sobrevivência física e cultural dos que são geralmente excluídos do projeto educa cional. Por isso, a alfabetização - entendida como apropriação da palavra, como instrumento para aquisição de novos conhecimentos - é o foco dos tempos e movimentos da pesquisa, o móvel convergente e aglutinador das falas, anseios, esperanças e possibilidades dos que ensinam e aprendem nas escolas públicas da l4a. Delegacia Regional de Ensino em Nova Era, Minas Gerais. A metodologia foi-se construindo, portanto, à medida que o trabalho se realizou, nos cursos, encontros, estudos específicos, nos relatos de experiências e nas discussões, confrontando, todo o tempo, a fala do professor, do especialista, dos pais, das crianças e a dos técnicos da DRE (Delegacia Re gional de Ensino), dos autores e das autoridades pedagógicas. Os textos produzidos, as ações realizadas e as relações vividas expressam esse diálogo e colocam em questão a prática educativa de uma escola, que não ensina nem a ler, num contexto de crescente marginalização econômica, social, política e cultural da maioria da população. Desde as classes pré-escolares i -passando pelas "classes especiais", ou pela edu cação de adultos, até o 29 grau: qual a possibilidade de se pensar o "ensino para todos"? A alfabetização - a tarefabásica da escola - é possível compreendê-la e desmistificá-la corno mecanismo de exclusão dos despossuidos? Urna contribuição ao processo da perda da inocência de urna escola "neutra" e à tentativa de superação do seu fazer "técnico": eis o sentido desse trabalho, vivido, não como aplicação de instrumentos usuais 'de investigação, mas como uma construção coletivamente produzida. A educação corno ato cooperativo, corno um desafio ao mergulho nas condições concretas onde a mesma se dá, é a proposta que flui em toda a pesquisa, na certeza de que, do ponto de vista de quem o faz, é possivel construir os caminhosdo ensino fundamental.
Resumo:
Este trabalho apresenta um sistema multiagente que permite simular execuções musicais em violão. Em uma execução musical no violão observam-se elementos distintos que, trabalhando em conjunto, produzem a sonoridade desejada pelo músico. Ou seja, as ações tomadas pelo violonista, através do sincronismo de suas mãos sobre o instrumento, influenciam diretamente na sonoridade obtida. A idéia básica deste trabalho é desenvolver uma comunidade de agentes que represente as entidades envolvidas em uma performance musical de violão. Quatro agentes foram identificados e modelados no contexto desta dissertação. São eles: Mão Esquerda (ME): Responsável pela execução dos acordes, ou seja, deve possuir o conhecimento de formação de acordes dada a afinação do instrumento bem como a interpretação das cifras que representam os acordes. Agente Mão Direita (MD): Responsável pelo ritmo impresso na música; Caixa de Som (CS): Permite que os usuários simplesmente escutem a composição, sem nenhuma (ou muito pouca) interferência na composição. Agente Solista (SL): Projetado somente para ler arquivos MIDI e enviar notas para o Agente Caixa de Som (CS). O conhecimento relativo ao reconhecimento das cifras, geração do acorde e posterior cálculo do desenho do acorde para um instrumento de corda foi encapsulado em duas bibliotecas que visam auxiliar no desenvolvimento de outros novos projetos que necessitem de funcionalidades similares. Ainda, são abordadas as questões da comunicação entre os agentes e componentes gráficos utilizados na captura de informações rítmicas. O material musical produzido pelo sistema está contido no CD-ROM em anexo, bem como a documentação das API’s.
Resumo:
Uma metodologia de modelagem para a exploração do espaço de projeto de processadores é apresentada. A exploração do espaço de projeto constitui uma das etapas do fluxo de projeto dos atuais processadores de alto desempenho e de sistemas embarcados, que auxilia os projetistas no tratamento da complexidade inerente ao processo contemporâneo de projeto de sistemas computacionais. A principal característica desta metodologia é um processo de modelagem simples e rápido. Isso é obtido através da disponibilização dos recursos de modelagem em camadas com propósitos e níveis de complexidade de uso diferenciados e da limitação do número de elementos (palavras-chave, classes e métodos) que devem ser conhecidos pelo projetista para o acesso a estes recursos, independentemente da camada na qual eles se encontram. A única exigência para o uso de tais recursos são conhecimentos que estudantes de Computação adquirem ao longo dos seus cursos da área de Computação e Informática. Outras características da metodologia de modelagem incluem: recursos específicos e distintos para a descrição da organização, da arquitetura e de aspectos temporais do processador; um estilo de descrição estrutural de alto nível da organização; a possibilidade de uso de recursos gráficos em tempo de modelagem e em tempo de simulação; e a existência de informações nos modelos que podem ser usadas para a tradução das descrições para uma Hardware Description Language Todas estas características constituem um conjunto de soluções de modelagem e simulação de processadores que não é encontrado em outros ambientes usados na exploração do espaço de projeto, baseados em Architecture Description Languages, Hardware Description Languages e ferramentas de simulação. Além disso, os modelos de processadores, desenvolvidos com esta metodologia, fornecem os recursos para a aceleração do aprendizado de conteúdos de arquitetura de computadores que só são encontrados em simuladores para ensino. Uma infra-estrutura de software que implementa a metodologia de modelagem foi desenvolvida e está disponível. Ela foi usada no ensino e no contexto da pesquisa para a modelagem e simulação de diversos processadores. Uma comparação com a metodologia de modelagem de uma Architecture Description Language demonstra a simplicidade e a rapidez do processo de modelagem previsto na metodologia apresentada.
Resumo:
O Renascimento é um período de mudança no pensamento da civilização ocidental, principalmente no campo das artes e da ciência. A partir de Brunelleschi a arquitetura se estabelece como profissão tal como hoje é conhecida, dotada do status de ciência, isto é, passível de registro, sistematização, publicação e crítica. Para isto, o tratado de Vitrúvio serve de base de pesquisa para a fundamentação intelectual da arquitetura do Renascimento e na elaboração dos tratados deste período, elaborados por Alberti, Serlio e Palladio, entre outros. Palladio, através de seu tratado, I Quattro Libri di Architettura, nos deixa seu legado teórico e profissional, diferenciado dos demais na medida em que é exemplificado através de seus projetos. Neste legado, as villas palladianas constituem um referencial tipológico da arquitetura ocidental, que se difunde através dos séculos seguintes e que revela princípios e métodos de projeto que são independentes da questão estilística do Renascimento. O presente trabalho aborda as questões de entendimento da mudança do pensamento arquitetônico no Renascimento; suas referências na formação de Palladio; e a influência deste processo na elaboração e sistematização de projeto através das villas. Os projetos das villas palladianas são explorados através de sua reconstrução a partir da computação gráfica, apresentados no final deste trabalho. Sob esta ótica a dissertação estuda a presença destes modelos tipológicos e explora as operações de projeto elaboradas por Palladio no conjunto das villas representadas no tratado O manuseio destes projetos permitiu consolidar a análise do conjunto destas obras, permitindo o seu agrupamento segundo operações de projeto identificadas na análise e apresentados a seguir, interpretando as villas palladianas sob uma ótica contemporânea de representação e análise, extraindo seus valores como sistematização do conhecimento arquitetônico e referência de metodologia projetual.
Resumo:
A pesquisa sobre o processo de estratégia busca responder questões complexas de como as estratégias são formadas, executadas e modificadas, capturando a complexa e dinâmica relação entre o conteúdo da estratégia e seu contexto de utilização. Apesar da vasta literatura existente, relativamente pouco se sabe sobre como os processos afetam de fato a estratégia, tornando o trabalho em processo de estratégia mais sobre processos que estratégia. Este trabalho visa contribuir no conhecimento da estratégia empresarial, utilizando a estratégia como prática como maneira de observar no campo o fenômeno do processo de estratégia e explorando as práticas de estratégia na organização. Esta pesquisa se baseia num estudo de caso único exploratório em uma empresa fabricante de equipamentos de telecomunicações, líder global em tecnologia nos segmentos onde atua, identificando as mudanças no processo de estratégia ocorridas após a troca de CEO e seus resultados observados nas práticas da estratégia. São investigadas algumas das mudanças estratégicas ocorridas: realinhamento das soluções para novos negócios, foco em conteúdo para as redes celulares para captura de valor e internacionalização. São utilizadas algumas informações de mercado de instituições internacionais relevantes sobre o crescimento da internet, infra-estrutura de comunicações e mobilidade. Da academia, foram aproveitados conceitos para ampliar o entendimento do contexto e análise do ambiente externo a organização: economia da informação, internet e custos de transação, cadeia de valor e teoria dos jogos e velocidade evolutiva da indústria; e ambiente interno: estratégia, sua formação e prática, planejamento estratégico, valor da inovação nos negócios, internacionalização e influência da estrutura. Analisando-se o conjunto acima, observou-se o aumento da importância do tema da estratégia e de sua complexidade nas indústrias relacionadas de alguma forma com a internet, sugerindo, por exemplo, interpretações alternativas no relacionamento entre a estratégia e a estrutura organizacional.
Resumo:
Teoria das Categorias é uma ramificação da Matemática Pura com campo científico aparentemente distinto daquele que é objeto de estudo e pesquisa para a Ciência da Computação. Entretanto, algumas características dessa teoria matemática demonstram sua utilidade na pesquisa computacional. Dentre essas características podemos citar independência de implementação, dualidade, herança de resultados, possibilidade de comparação da expressividade de formalismos, notação gráfica e, sobretudo, expressividade das construções categoriais. Sua expressividade é explicitamente destacada pelo MEC nas Diretrizes Curriculares de Cursos da Área de Computação e Informática, onde afirma-se que “Teoria das Categorias possui construções cujo poder de expressão não possui, em geral, paralelo em outras teorias”. Entretanto, Teoria das Categorias tem encontrado obstáculos para ser efetivamente aplicada na Ciência da Computação. A baixa oferta de bibliografia - predominantemente de língua inglesa - e a falta de uniformidade na exposição do que sejam os tópicos introdutórios convergem e potencializam outro grande empecilho à sua propagação: a baixa oferta de cursos com enfoque em Teoria das Categorias. A fim de transpor essas dificuldades, Fábio Victor Pfeiff desenvolveu o CaTLeT, um aplicativo de interface visual que tinha como objetivo facilitar o acesso aos conceitos introdutórios de Teoria das Categorias Com inspiração fortemente educacional, CaTLeT somente é capaz de representar objetos e morfismos atômicos, o que o limita a servir somente aos conceitos iniciais. Em 2003, o CaTLeT foi ampliado e os objetos e morfismos, antes atômicos, passaram a representar conjuntos e relações, respectivamente. Este projeto consiste em uma ampliação tanto do CaTLeT quanto dos objetivos que justificaram sua criação. Esta dissertação trata de um projeto de simulador categorial e de sua respectiva implementação as quais visam fornecer suporte computacional a fim de facilitar o acesso a conceitos intermediários de Teoria das Categorias e servir como suporte à pesquisa na área. A construção desse simulador possui três critérios de avaliação como parâmetro: boa acessibilidade, alta relevância das estruturas implementadas e alta cobertura. A nova ferramenta - denominada CaTReS - deve manter a acessibilidade a usuários leigos que sua predecessora possui e ampliar significativamente as estruturas suportadas, além de incluir tratamento à conceitos funtoriais. Dessa maneira, este projeto vem para auxiliar na superação dos obstáculos anteriormente mencionados.