17 resultados para big data analytics
Resumo:
O estudo da FGV Projetos, coordenado pelo economista Fernando Blumenschein, desenvolve um quadro metodológico específico para compras governamentais com base em pesquisa realizada para o Fundo Nacional de Desenvolvimento da Educação (FNDE). Este estudo destaca o potencial de uso dos conceitos da teoria dos leilões, juntamente com métodos de análise de "Big Data" na formação de sessões públicas.
Resumo:
A coleta e o armazenamento de dados em larga escala, combinados à capacidade de processamento de dados que não necessariamente tenham relação entre si de forma a gerar novos dados e informações, é uma tecnologia amplamente usada na atualidade, conhecida de forma geral como Big Data. Ao mesmo tempo em que possibilita a criação de novos produtos e serviços inovadores, os quais atendem a demandas e solucionam problemas de diversos setores da sociedade, o Big Data levanta uma série de questionamentos relacionados aos direitos à privacidade e à proteção dos dados pessoais. Esse artigo visa proporcionar um debate sobre o alcance da atual proteção jurídica aos direitos à privacidade e aos dados pessoais nesse contexto, e consequentemente fomentar novos estudos sobre a compatibilização dos mesmos com a liberdade de inovação. Para tanto, abordará, em um primeiro momento, pontos positivos e negativos do Big Data, identificando como o mesmo afeta a sociedade e a economia de forma ampla, incluindo, mas não se limitando, a questões de consumo, saúde, organização social, administração governamental, etc. Em seguida, serão identificados os efeitos dessa tecnologia sobre os direitos à privacidade e à proteção dos dados pessoais, tendo em vista que o Big Data gera grandes mudanças no que diz respeito ao armazenamento e tratamento de dados. Por fim, será feito um mapeamento do atual quadro regulatório brasileiro de proteção a tais direitos, observando se o mesmo realmente responde aos desafios atuais de compatibilização entre inovação e privacidade.
Resumo:
As tecnologias digitais tornaram-se uma importante infraestrutura para as nossas vidas nas mais diversas dimensões – cultural, social, politicas e econômicas. As formas de mediação digital têm alterado meios tradicionais e convencionais de organização de tempo e espaço. No entanto, contextualizar e situar narrativas e práticas de produção e análise de dados de rede – gerados em grande volume e a uma grande velocidade – têm sido grandes desafios para pesquisadores de todo o mundo. Lançado no fim de 2014, o livro Big data? Qualitative approaches to digital research (Emerald Books, 2014) oferece uma visão crítica sobre análises qualitativas de novos tipos de dados, plataformas e meios de comunicação, suas implicações para o futuro e como melhorar ativamente a pesquisa em relação a estes. Com autores especialistas das áreas de sociologia, ciência politica, cultura, comunicação, metodologia e administração, os organizadores do livro, Martin Hand e Sam Hillyard, denominam de pesquisa social digital todas as perspectivas qualitativas de diversas disciplinas, conceitos e orientações metodológicas e empíricas que atestem a integração e a diversificação das tecnologias digitais e de dados na vida social de hoje.
Resumo:
EMAp - Escola de Matemática Aplicada
Resumo:
Apresentamos um projeto inovador na intersecção da tecnologia da informação, gestão, e direito, com o intuito de oferecer otimização de resultados, redução de custos e de tempo. A equipe proponente foi formada no projeto Big Data e Gestão Processual, do qual participam três escolas da Fundação Getulio Vargas que são referência em todo Brasil: as escolas de Direito, de Administração de Empresas e de Matemática Aplicada, todas do Rio de Janeiro.
Resumo:
O maior acesso dos brasileiros à internet e o aumento do volume de conteúdo disseminado pela web têm atraído atenção para as análises de big data. Mercado, imprensa e governos recorrem cada vez mais a técnicas de análise de rede para apoiar decisões. Mas essa prática embute riscos de manipulação pouco considerados. A DAPP/FGV — parceira do GLOBO no monitoramento de redes — tem desenvolvido mecanismos próprios de filtragem e identificou ao menos 25% de “lixo on-line” em pesquisas feitas nas duas últimas semanas.
Resumo:
Na moderna Economia do Conhecimento, na Era do Big Data, entender corretamente o uso e a gestão da Tecnologia de Informação e Comunicação (TIC) tendo como base o campo acadêmico de estudos de Sistemas de Informação (SI), torna-se cada vez mais relevante e estratégico para as organizações que pretendem: permanecer em atividade, estar aptas para atender novas demandas (internas e externas) e enfrentar as complexas mudanças na competição de mercado. Esta pesquisa utiliza a teoria dos estágios de crescimento, fundamentada pelos estudos de Richard L. Nolan nos anos 70. A literatura acadêmica relacionada com modelos de estágios de crescimento e o contexto do campo de estudo de SI, fornecem as bases conceituais deste estudo. A pesquisa identifica um modelo com seus construtos relacionados aos estágios de crescimento das iniciativas da TIC/SI organizacional, partindo das variáveis de benchmark de segundo nível de Nolan, e propõe sua operacionalização com a criação e desenvolvimento de uma escala. De caráter exploratório e descritivo, a pesquisa traz contribuição teórica ao paradigma da teoria dos estágios de crescimento, adicionando um novo processo de crescimento em sua estrutura conceitual. Como resultado, é disponibilizado além de um instrumento de escala bilíngue (português e inglês), recomendações e regras para aplicação de um instrumento de pesquisa do tipo survey, na continuidade deste estudo. Como implicação geral desta pesquisa, é esperado que seu uso e aplicação ao mensurar a avaliação do nível de estágio da TIC/SI em organizações, possam auxiliar dois perfis de indivíduos: acadêmicos que estudam essa temática, assim como, profissionais que buscam respostas de suas ações práticas nas organizações onde trabalham.
Resumo:
A quantificação do risco país – e do risco político em particular – levanta várias dificuldades às empresas, instituições, e investidores. Como os indicadores econômicos são atualizados com muito menos freqüência do que o Facebook, compreender, e mais precisamente, medir – o que está ocorrendo no terreno em tempo real pode constituir um desafio para os analistas de risco político. No entanto, com a crescente disponibilidade de “big data” de ferramentas sociais como o Twitter, agora é o momento oportuno para examinar os tipos de métricas das ferramentas sociais que estão disponíveis e as limitações da sua aplicação para a análise de risco país, especialmente durante episódios de violência política. Utilizando o método qualitativo de pesquisa bibliográfica, este estudo identifica a paisagem atual de dados disponíveis a partir do Twitter, analisa os métodos atuais e potenciais de análise, e discute a sua possível aplicação no campo da análise de risco político. Depois de uma revisão completa do campo até hoje, e tendo em conta os avanços tecnológicos esperados a curto e médio prazo, este estudo conclui que, apesar de obstáculos como o custo de armazenamento de informação, as limitações da análise em tempo real, e o potencial para a manipulação de dados, os benefícios potenciais da aplicação de métricas de ferramentas sociais para o campo da análise de risco político, particularmente para os modelos qualitativos-estruturados e quantitativos, claramente superam os desafios.
Resumo:
Our focus is on information in expectation surveys that can now be built on thousands (or millions) of respondents on an almost continuous-time basis (big data) and in continuous macroeconomic surveys with a limited number of respondents. We show that, under standard microeconomic and econometric techniques, survey forecasts are an affine function of the conditional expectation of the target variable. This is true whether or not the survey respondent knows the data-generating process (DGP) of the target variable or the econometrician knows the respondents individual loss function. If the econometrician has a mean-squared-error risk function, we show that asymptotically efficient forecasts of the target variable can be built using Hansens (Econometrica, 1982) generalized method of moments in a panel-data context, when N and T diverge or when T diverges with N xed. Sequential asymptotic results are obtained using Phillips and Moon s (Econometrica, 1999) framework. Possible extensions are also discussed.
Resumo:
Não é novidade que o presidente dos Estados Unidos, Barack Obama, é um grande entusiasta da tecnologia. Primeiro a contratar um especialista de big data para a Casa Branca, Obama avançou muito na comunicação digital institucional do governo e, na última segunda-feira (18) inovou outra vez ao abrir uma conta pessoal no Twitter (@POTUS, abreviação de "President of the United States"). Popular, o chefe de Estado americano entrou para o livro dos recordes como o mais rápido a obter 1 milhão de seguidores - foram apenas 5 horas.
Resumo:
Programas de saúde e bem-estar têm sido adotados por empresas como forma de melhorar a saúde de empregados, e muitos estudos descrevem retornos econômicos positivos sobre os investimentos envolvidos. Entretanto, estudos mais recentes com metodologia melhor têm demonstrado retornos menores. O objetivo deste estudo foi investigar se características de programas de saúde e bem-estar agem como preditores de custos de internação hospitalar (em Reais correntes) e da proporção de funcionários que têm licença médica, entre Abril de 2014 e Maio de 2015, em uma amostra não-aleatória de empresas no Brasil, através de parceria com uma empresa gestora de ‘big data’ para saúde. Um questionário sobre características de programas de saúde no ambiente de trabalho foi respondida por seis grandes empresas brasileiras. Dados retirados destes seis questionários (presença e idade de programa de saúde, suas características – inclusão de atividades de screening, educação sobre saúde, ligação com outros programas da empresa, integração do programa à estrutura da empresa, e ambientes de trabalho voltado para a saúde – e a adoção de incentivos financeiros para aderência de funcionários ao programa), bem como dados individuais de idade, gênero e categoria de plano de saúde de cada empregado , foram usados para construir um banco de dados com mais de 76.000 indivíduos. Através de um modelo de regressão múltipla e seleção ‘stepwise’ de variáveis, a idade do empregado foi positivamente associada e a idade do programa de saúde e a categoria ‘premium’ de plano de saúde do funcionário foram negativamente associadas aos custos de internação hospitalar (como esperado). Inesperadamente, a inclusão de programas de screening e iniciativas de educação de saúde nos programas de saúde e bem-estar nas empresas foram identificados como preditores positivos significativos para custos de admissão hospitalar. Para evitar a inclusão errônea de licenças-maternidade, apenas os dados de licença médica de pacientes do sexo masculino foram analisados (dados disponíveis apenas para duas entre as companhias incluídas, com um total de 18.957 pacientes do sexo masculino). Analisando estes dados através de um teste Z para comparação de proporções, a empresa com programa de saúde que inclui atividades voltadas a cessação de hábitos ruins (como tabagismo e etilismo), controle de diabetes e hipertensão, e que adota incentivos financeiros para a aderência de funcionários ao programa tem menor proporção de empregados com licençca médica no período analisado, quando comparada com a outra empresa que não tem estas características (também conforme esperado). Entretanto, a companhia com menor proporção de funcionários com licença médica também foi aquela que adota programa de screening entre as atividades de seu programa de saúde. Potenciais fontes de ameaça à validade interna e externa destes resultados são discutidas, bem como possíveis explicações para a associação entre programas de screening e educação médica a piores indicadores de saúde nesta amostra de companhias são discutidas. Novos estudos com melhor desenho, com amostras maiores e randômicas são necessários para validar estes resultados e possivelmente melhorar a validade interna e externa destes resultados.
Dando ouvidos aos dispositivos: como resolver controvérsias em um debate sobre cidades inteligentes?
Resumo:
Neste breve artigo, procuro analisar um workshop de pesquisa sobre o tema das “Cidades Inteligentes”, ou smart cities, no qual estive presente. Nessa análise, mostro como os conceitos de “cidade inteligente” e “big data” são construídos de modo distinto pelos dois grupos de pessoas presentes no evento, que classifico como “otimizadores” e “reguladores”. Essas diferentes formas de se enxergar os dispositivos em questão levam a uma série de controvérsias. Em um primeiro momento, procuro enquadrar o modo como algumas das controvérsias aparecem dentro do marco teórico da Construção Social da Tecnologia (SCOT). Posteriormente, pretendo mostrar que as controvérsias que apareceram ao longo do evento não foram solucionadas – e dificilmente serão, num futuro próximo – enquanto não se optar por um modelo analítico tal como a Teoria Ator-Rede, que dá ouvidos para um grupo ignorado naquelas discussões: os dispositivos empregados na construção do conceito de “Cidade Inteligente”.
Resumo:
O sociólogo que comanda um dos grandes centros de análise de big data no Brasil diz que os políticos só vão recuperar legitimidade quando aprenderem que "curtir" é coisa séria para detectar tendências e medir o pulso das aspirações sociais ganhou volume e tempo real no oceano de informações do big data, nome que se dá à gigantesca quantidade de dados produzidos diariamente na internet. É nessa mina inesgotável que o sociólogo carioca Marco Aurelio Ruediger, da Fundação Getulio Vargas, abastece a Diretoria de Análise de Políticas Públicas, um centro de estudo da visão que os brasileiros têm da máquina estatal e dos poderes da República.
Resumo:
Retirado do blog de Marc Pickren do dia 13 jun. 2014.
Resumo:
Retirado do Vice News.