996 resultados para Mídias digitais. Inclusão digital. Cibercultura


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação é apresentada sob a forma de quatro artigos. O artigo I avaliou a concordância e a acurácia no diagnóstico da situação do periápice de molares e prémolares inferiores portadores ou não de patologia periapical. Quarenta radiografias periapicais foram selecionadas, vinte de dentes com vitalidade pulpar e sem radiolucências periapicais e vinte de dentes com necrose pulpar. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. As imagens digitalizadas foram apresentadas no formato de slides com fundo preto no programa PowerPoint, sendo projetadas em equipamento multimídia para dois grupos de dez observadores, estudantes de pós-graduação de uma mesma instituição de ensino, simultaneamente, com repetição de 20% dos casos. Os observadores apresentaram ampla variação do percentual de concordância entre diagnósticos repetidos, contudo, quando agrupados por especialidade, endodontistas e radiologistas apresentaram percentuais de concordância de 62,50 e 66,25%, respectivamente. Na análise da concordância interobservadores, ambos os grupos apresentaram desempenho semelhante, sendo este superior entre os alunos de radiologia (Kendall´s W= 0,816 e 0,662 respectivamente). Em relação à especificidade, observou-se desempenho idêntico para os dois grupos (70 a 95%), contudo os alunos de radiologia apresentaram sensibilidade ligeiramente superior (70 a 95%). O artigo II verificou, in vitro, se é possível medir com confiabilidade, utilizando a tomografia computadorizada, a distância entre as corticais ósseas e os ápices dentários de molares e pré-molares em mandíbulas humanas secas, além de determinar a relação de proximidade, dos dois grupos, com as corticais. As imagens das peças ósseas foram obtidas por tomografia computadorizada. A partir delas mensurações foram realizadas, por quatro observadores, três não calibrados (A, B e C) e um calibrado (D). A concordância interexaminador, para os observadores A, B e C, assim como a intra para o observador D foram calculadas por meio do Teste de Concordância de Kendall. A partir das médias geradas (observador D) foi calculada a comparação entre os grupos de ápices e as medidas, utilizando os Testes Não-Paramétricos de Kruskal Wallis e Wilcoxon, ambos com a=5%. Uma boa concordância tanto inter quanto intra-examinador foi observada. A tomografia computadorizada mostrou-se reprodutível para a obtenção da distância entre os ápices dentários e as corticais ósseas, tanto na avaliação inter quanto intra-observador. Não foram encontradas diferenças estatisticamente significativas quanto á posição dos ápices de raízes de pré-molares e de molares, contudo os prémolares apresentaram seus ápices significativamente mais próximos da cortical vestibular do que da lingual. O artigo III avaliou o desempenho diagnóstico de radiografias periapicais em diferentes estágios de perda óssea (leve, moderada e severa), digitalmente simulada na região apical. A partir de radiografias trinta ápices dentários de pré-molares e molares inferiores sem radiolucências foram selecionados. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. Na imagem inicial (original) os sítios apicais selecionados foram demarcados por um quadrado, as mesmas foram digitalmente reproduzidas seis vezes e numeradas em ordem crescente, formando sete conjuntos. A perda óssea foi digitalmente simulada com as ferramentas lápis (modelo mecânico) e spray (modelo químico), com tinta preta, em intensidade de 3%, 5% e 8%. Os pares de imagens (inicial e experimental) e subtrações foram avaliados por três observadores, com repetição de 20% dos casos. O Coeficiente de Correlação de Spearman e o Teste Não Paramétrico de Wilcoxon mostraram uma boa concordância entre a primeira e a segunda medida para os dois modelos, com exceção de um observador. Através da análise das curvas ROC (p> 0,05) observou-se diferença significativa entre os métodos para ambos os modelos nas intensidades de 3% e 5%. Não houve diferença significativa para a intensidade de 8%. A subtração digital qualitativa mostrou desempenho significativamente melhor do que a avaliação de pares de radiografias para ambos os modelos de reabsorção simulada nas intensidades leve e moderada. O artigo IV avaliou, in vitro, os diagnósticos obtidos de pares de radiografias, subtração radiográfica de imagens digitais diretas e digitalizadas em defeitos ósseos periapicais incipientes criados por aplicação de solução ácida. Em quarenta sítios apicais de mandíbulas humanas secas foram criados defeitos ósseos, por meio da aplicação de ácido perclórico 70%, nos tempos 6, 10, 24, 48 e 54 horas. As radiografias convencionais e as imagens digitais diretas foram obtidas duas vezes no tempo zero e, seqüencialmente, antes de cada nova aplicação de ácido. As incidências foram padronizadas fixando os elementos geométricos. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas, assim como as digitais diretas, no formato TIFF. O programa Imagelab foi utilizado para a subtração das imagens digitais indiretas e diretas. A subtração radiográfica das imagens digitalizadas e os pares de imagem digital foram avaliados por um observador experiente, sendo 20% repetidas durante o exame. A análise quantitativa da subtração radiográfica de imagens diretas foi realizada no programa ImageTool. Os resultados das análises qualitativa e quantitativa foram avaliados por meio da ANOVA, sendo a primeira complementada pelo Teste de Comparações Múltiplas Dunnett T3 e a segunda pelo Teste de Tukey, ambos com a=5%. O observador apresentou coeficiente de Kappa = 0,739 para subtração e 0,788 para os pares de imagem. No tempo 0 houve acerto de diagnóstico em 100 e 90% dos casos para subtração e pares de imagem, respectivamente. Nos tempo 6 e 10/24 foram identificadas, para subtração, alterações em 20 e 25% dos casos e para os pares de imagem em 2,5 e 10% dos casos. A proporção de acertos aumentou significativamente nos tempos 48 e 54 horas, tanto para subtração – 80 e 82,5% – quanto para os pares de imagem – 47,5 e 52,5%. A ANOVA evidenciou diferenças estatisticamente significativas entre as áreas controle nos tempos 0/6 e 48/54. Comparando áreas teste e controle, observou-se que aquela apresentou valores médios de densidade óptica significativamente menores nos tempos 24, 48 e 54. Conclui-se que tanto a avaliação qualitativa como a quantitativa de imagens de subtração apresentaram melhor desempenho que a avaliação dos pares de imagem na detecção de defeitos incipientes no periápice.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O tema proposto para esta pesquisa tem como objetivo analisar os efeitos no mecanismo de formação de preços em um mercado digital decorrentes da adoção por parte de seus integrantes de agentes de software inteligentes que participem no processo decisório de compra e venda sob diferentes estratégias de negociação. Para tanto é realizado um estudo por simulação em computador da introdução em um mercado digital de participantes que utilizem tais recursos e mede-se o efeito de tal procedimento no preço de mercado decorrente das estratégias adotadas pelos diferentes agentes. A evolução tecnológica da informática nos últimos 30 anos foi enorme, sendo a forma mais visível o aumento da potência dos computadores e das possibilidades de interconexão dos mesmos. Por outro lado o ambiente de negócios caminhou em paralelo com este aumento, tendo contribuido para este desenvolvimento a rápida globalização dos mercados que comecou a ser sentida na década de 80 e hoje é vivenciada com todo o seu vigor pelas empresas em geral. Criou-se na verdade um ambiente em que demandas de negócio originadas pela globalização eram transferidas para as empresas provedoras de tecnologia, as quais por sua vez respondiam a este "drive" de negócios com inovações que permitiam as empresas incrementar seus resultados. Esta evolução sempre ocorreu através de transformações nos processos internos das empresas. No entanto, as facilidades de conexão dos sistemas, que a princípio serviram para interligar ilhas dentro das corporações, atingiram um nível tal de utilização que permitiram a interconexão rápida, barata e universal de todas ( ou quase todas ) as empresas em um ambiente comum. Neste momento cruzou-se um barreira qualitativa, pois os sistemas de informática deixaram de apenas melhorar a execução dos processos de negócios, passando a altera-los. A combinação destes fatores, gerou na verdade um novo segmento industrial, o das empresas e mercados virtuais, que ao interagir com os segmentos tradicionais, altera-os gerando oportunidades de negócio antes não existentes. Por terem se originado de transformações na economia tradicional, possuem elementos em comum, porém por representarem uma forma radicalmente nova de realizar negócios, possuem fatores com pesos diferentes ou até mesmo exclusivos. Um dos fatores que se apresentam como novos neste contexto é o da possibilidade de utilização em larga escala de agentes de software inteligentes os quais auxiliam e até mesmo realizam o processo de tomada de decisão de compra e venda. A análise dos efeitos destes fatores através de um modelo de simulação é o tema que será exposto no trabalho a seguir. Para tanto será apresentado um histórico da evolução tecnológica que proporcionou o surgimento dos mercados virtuais e como esta evolução afetou conceitos tradicionais de mercado. Em seguida serão apresentadas as bases de avaliação de um mercado digital. Em termos de pesquisa de campo, serão conduzidas análises de estudo de caso envolvendo empresas de um determinado setor industrial que esteja utilizando este conceito de mercado, de modo a determinar como os agentes de e-commerce estão sendo utilizados. Estes dois estudos ( teórico e de campo ) serão por último combinados em um modelo que servirá de base para a avaliação da existência ou não de efeitos no preço em um mercado digital. O método de avaliação do modelo será o da simulação. Espera-se com isto determinar se a adoção de diferentes estratégias de negociação por parte dos agentes tem ou não um efeito na formação do preço em tal tipo de mercado, bem como propor recomendações quanto ao uso de tais dispositivos em um determinado segmento de indústria.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo pretendia identificar o entendimento do cliente da área de business-to-business sobre a qualidade, o sacrifício e o valor percebidos, no processo para a tomada de decisão pela compra de produtos que estão passando pela transição de tecnologia analógica para a tecnologia digital. A pesquisa foi realizada por meio de um censo com as lojas de fotografia localizadas na cidade de São Paulo, consumidoras do produto Minilab Digital. Foi constatado que esse consumidor, por meio da utilização da tecnologia digital, reconhece o valor como vantagem (ganho), e que a estrutura do modelo de Zeithaml (1988) é adequada para esse mercado. Foram observados ainda a qualidade, o sacrifício e o risco percebidos por esse consumidor.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta pesquisa aborda o processo de reconhecimento, amadurecimento e conquista da temática da cultura digital pelo Ministério da Cultura brasileiro, na gestão de Gilberto Gil (de janeiro de 2003 a julho de 2008). Focaliza a genealogia da primeira política pública cultural voltada ao contexto das redes e tecnologias digitais: os Pontos de Cultura, integrantes do Programa Cultura Viva, dotados de estúdios de produção audiovisual com conexão à internet, distribuídos por todo o país, em áreas de vulnerabilidade social. A proposta dá centralidade, não à infraestrutura tecnológica, mas ao potencial de transformação suscitado pelos novos paradigmas de produção, circulação e consumo cultural do contexto das redes. Este trabalho se situa na interseção dos novos campos de saber dos Estudos Culturais e dos Estudos Culturais do Software, bem como da área dos estudos em comunicação, incorporando ainda a dimensão das políticas públicas e a perspectiva da contribuição de trajetórias pessoais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os equipamentos fotográficos digitais têm inovado a aerofotogrametria no que diz respeito à rapidez na coleta de informações geográficas referenciadas bem como o baixo custo da operação em comparação com os sistemas aerofotogramétricos convencionais. Na geração de produtos cartográficos, utilizando sistemas fotográficos digitais ou convencionais, o conhecimento dos parâmetros que definem a geometria interna da câmara é de fundamental importância. Este trabalho descreve uma das principais metodologias utilizadas atualmente para calibração analítica de câmaras. A câmara utilizada nesse trabalho é uma Kodak DCS460, e pertence à Fundação Universidade Federal do Rio Grande. O processo de calibração foi realizado na Universidade Federal do Paraná, com apoio do Programa de Pós-Graduação em Ciências Geodésicas, e o método utilizado foi o Método das Câmaras Convergentes Através do método paramétrico com injunções, o modelo final utilizado computacionalmente recupera os parâmetros intrínsecos como distância focal calibrada, posição do ponto principal, constantes da distorção radial simétrica e descentrada, bem como a matriz variância-covariância dos resultados obtidos no ajustamento. Os resultados da calibração foram analisados na matriz variância-covariância e foram satisfatórios. Para aplicação dos parâmetros em dados reais, uma imagem da região de Porto Alegre foi utilizada como objeto de estudo para geração de uma ortofoto, que é uma imagem corrigida geometricamente das distorções causadas pela variação de posição e altitude da plataforma. O Modelo Digital do Terreno é uma peça fundamental na geração de uma ortofoto e foi gerado a partir das curvas de nível fornecidas pela Prefeitura Municipal de Porto Alegre. Duas ortofotos foram geradas, a primeira levando em conta apenas o valor nominal da distância focal, e a segunda os parâmetros gerados no processo de calibração. Os resultados obtidos para a focal nominal apresentam resíduos maiores que os determinados com a distância focal calibrada, mostrando a necessidade de aplicação do método de calibração, como queria demonstrar.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho objetiva analisar como as novas mídias impactam na relação agência de comunicação (Grupo X) e cliente. Qual a força desse impacto, suas causas, efeitos e os pontos de vista não só de clientes, mas também de empregados, fornecedores e até concorrentes. Os dados para este estudo foram coletados por meio de entrevistas abertas, de acordo com Yin (2010) e usando-se uma metodologia de análise de conteúdo, com dados produzidos de forma qualitativa nestas entrevistas. O resultado pode servir de alerta para esse setor, uma vez que mudanças significativas estão produzindo constantes e rápidas formas novas de gestão desse segmento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mesa redonda com Marcos Galindo Lima, professor da Universidade Federal de Pernambuco; Cláudia Lacombe Rocha, supervisora de Documentos Digitais do Arquivo Nacional, e Verena Alberti, coordenadora de Documentação do CPDOC. O objetivo da mesa é tratar dos desafios do mundo digital nas atividades de preservação, acesso e difusão de acervos, diante dos impactos teórico-metodológicos que vêm incidindo sobre a arquivologia com o advento dos documentos digitais. Seminário Desafios Arquivísticos contemporâneos - seminário em torno dos 40 anos do CPDOC

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A era digital viu a ascensão da empresa focada no consumidor. Todos os dias, marcas e produtos são objeto de milhões de conversas em que os consumidores trocam pontos de vista, opiniões e informações antes de tomar a decisão de compra. Os profissionais de marketing entenderam a importância do boca a boca como um novo canal de comunicação estratégica e começaram a ancorar técnicas de boca a boca à estratégia de marketing global. A propaganda tornou-se um negócio de conversa: o novo desafio do marketing é criar um conteúdo envolvente e compartilhável que possa expandir e ressoar dentro de redes de sociais de consumidores. Quanto mais as pessoas falam sobre a sua marca, mais a probabilidade de ganhar a competição dura e aumentar as vendas. Mas como o boca a boca funciona? O que faz uma campanha de marketing um sucesso viral? Este trabalho tem como objetivo fornecer uma análise abrangente da teoria de marketing de boca a boca e usa um modelo descritivo para investigar as variáveis-chave de campanhas bem-sucedidas de marketing viral, a fim de proporcionar insights e sugestões para as práticas de marketing viral.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Até recentemente, pesquisas sobre a relação do usuário com o uso de tecnologia focaram sistemas utilitários. Com a popularização dos PCs para uso doméstico e o surgimento da Internet, a interação dos usuários com tecnologia deixou de ser vista apenas de forma utilitária, e passou a ser orientada também ao atendimento de necessidades hedônicas, fazendo com que as pesquisas em Tecnologia e Sistemas de Informação (SI) extrapolassem os limites da empresa. As pesquisas no campo tem dado atenção cada vez maior ao uso de sistemas hedônicos, cujo objetivo é satisfazer necessidades como entretenimento e diversão, ao invés de um valor instrumental. Entre os sistemas hedônicos, um em particular recebe cada vez mais destaque, os videogames. Jogos digitais estão presentes por toda a sociedade, existindo uma crescente adoção, institucionalização e ubiquidade dos videogames na vida diária. A nova geração foi criada com jogos interativos e espera o mesmo tipo de interação nos demais SI. Por serem divertidos e envolventes, organizações de diversos setores estão tentando integrar características dos jogos digitais em sistemas organizacionais, com a expectativa de melhorar a motivação e desempenho dos funcionários e engajar consumidores online. Para analisar a relação do usuário com jogos digitais foram desenvolvidas três pesquisas. A primeira aborda os motivos pelos quais o indivíduo se engaja com o jogo, definindo Engajamento com base em desafio, imersão e curiosidade. Já as motivações dos indivíduos são analisadas pelo divertimento e a competição. A partir do momento em que o indivíduo está engajado, é necessário medir a experiência holística que ele experimenta desta interação. Para tanto, a segunda pesquisa analisa os dois construtos mais utilizados no campo para mensurar tal experiência, Flow e Absorção Cognitiva. A última pesquisa se utiliza dos conceitos explorados nas duas anteriores para desenvolver uma rede nomológica para a predição da intenção comportamental do indivíduo para o uso de jogos digitais. Como resultados temos um esclarecimento sobre os fatores que levam a um comportamento engajado dos jogadores, com maior importância do desafio de dominar o jogo e divertimento em relação a competição com outros jogadores. Outra contribuição é a conclusão que Flow e Absorção Cognitiva, dois dos principais construtos utilizados em SI para medir a experiência hedônica do usuário, não são adequados para mensurar tal experiência para videogames. Por fim existe a proposta de uma rede nomológica em um contexto de utilização de um sistema hedônico interativo, permitindo que novos trabalhos possam se beneficiar.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O problema de pesquisa da presente dissertação reside no questionamento sobre quais são os fatores de adoção e resistência ao consumo de e-books em plataformas digitais. Para analisá-lo foi realizada uma pesquisa qualitativa e exploratória. Durante a coleta de dados, além da pesquisa bibliográfica realizou-se uma pesquisa de campo para obtenção de dados empíricos, com 12 entrevistas em profundidade, utilizando-se um roteiro semiestruturado. Os dados obtidos foram analisados por meio do método de análise de conteúdo. Ademais, este trabalho foi estruturado da seguinte forma: no capítulo 1 o problema de pesquisa é apresentando e contextualizado, bem como os objetivos e pressupostos desta dissertação; no capítulo 2 é abordado o referencial teórico pertinente, consistente no mercado de e-books, hábitos, atitudes e a relação entre hábitos e atitudes; no capítulo 3 é apresentada a metodologia de pesquisa utilizada; no capítulo 4 são apresentados e analisados os resultados da pesquisa de campo; no capítulo 5 apresentam-se as observações finais acerca deste trabalho. Assim, procurou-se por intermédio deste estudo articular a adoção do consumo de e-books com a teoria dos hábitos de consumo e das atitudes perante a tecnologia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho teve como principal objetivo avaliar o processo participativo digital relativo à segunda edição do Governador Pergunta. Nesse sentido, foram utilizadas algumas das categorias e critérios propostos por Villela (2012) cujos objetivos são a avaliação de processos participativos. A utilização de tais critérios se apoia na concepção de cidadania deliberativa, ampliada por conceitos de democracia digital. Optou-se por analisa-lo a partir de alguns critérios de avaliação de processos participativos deliberativos, quais sejam: Processos de Discussão, Inclusão, Pluralismo e Bem Comum. Os dados foram coletados, em um primeiro momento, por meio de pesquisa bibliográfica. Em seguida, foram realizadas entrevistas junto aos principais atores envolvidos no Gabinete Digital e na consulta pública digital do trânsito do Governador Pergunta. Em suma, os resultados apontam para a existência de espaços para discussão, contudo sem capacidade deliberativa. Entretanto, tal experiência participativa cidadã tratou por renovar e pautar a agenda pública no Estado do Rio Grande do Sul. Por fim, apresentam-se recomendações para o aperfeiçoamento do Gabinete Digital e da ferramenta do Governador Pergunta pela gestão pública.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

With the increasing importance of digital communication and its distinct characteristics, marketing tools and strategies adopted by companies have changed dramatically. Among the many digital marketing tools and new media channels available for marketers, the phenomenon known as social media is one of the most complex and enigmatic. It has a range that still is quite unexplored and deeply transforms the present view on the promotion mix (Mangold & Faulds, 2009). Conversations among users on social media directly affect their perceptions on products, services and brands. But more than that, a wide range of other subjects can also become topics of conversations on social media. Hit songs, sporting events, celebrity news and even natural disasters and politics are topics that often become viral on the web. Thus, companies must grasp that, and in order to become more interesting and relevant, they must take part in these conversations inserting their brands in these online dynamic dialogues. This paper focuses on how these social interactions are manifested in the web in to two distinct cultures, Brazil and China. By understanding the similarities and differences of these cultures, this study helps firms to better adjust its marketing efforts across regions, targeting and positioning themselves, not only geographically and culturally, but also across different web platforms (Facebook and RenRen). By examining how companies should focus their efforts according to each segment in social media, firms can also maximize its results in communication and mitigate risks. The findings suggest that differences in cultural dimensions in these two countries directly affect their virtual social networking behavior in many dimensions (Identity, Presence, Relationships, Reputation, Groups, Conversations and Sharing). Accordingly, marketing efforts must be tailored to each comportment and expectations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os videogames estão revolucionando a cultura de entretenimento digital e já movimentam U$27 bilhões anuais, mais do que a indústria de Hollywood foi capaz de arrecadar em 2004 em suas bilheterias de cinema. Encarados por alguns críticos como arte, por outros como escape e ainda como terapia por alguns psicólogos, os videogames apresentam muitos elementos que podem nos ajudar a traçar um panorama de algumas mudanças centrais na cultura do entretenimento no início deste século. Nessa pesquisa, os videogames serão tomados como paradigmáticos da “economia do acesso”. Esta é produto da imbricação entre tecnologia, mercado e cultura, que teria possibilitado a formação da economia de rede, promovendo um outro tipo de espaço para o capitalismo: não mais o mercado de compra e venda - que durante muito tempo significou algo geograficamente delimitado-, mas o ciberespaço, algo virtual, relacionado ao tempo, promotor de trocas de informações e experiências. Como etapa primeira de um projeto de pesquisa mais amplo, este atual projeto se focará em resgatar a história da indústria dos videogames: quando, onde, como e por que surgiu, e quais os seus desdobramentos contemporâneos. Ou seja: trata-se de um levantamento bibliográfico preliminar sobre o surgimento da "indústria dos videogames", tomando-o como modelo de uma nova forma de entretenimento – digital e interativo –, buscando-se compreender a lógica que o sustenta e a subjetividade que lhe corresponde.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo foi desenvolvido em um hospital privado, no Rio de Janeiro, com o intuito de demonstrar o valor de uma biblioteca médica digital, como ferramenta de suporte para fundamentação científica das condutas assistenciais adotadas pela equipe médica, que resultaram em glosas técnicas e perda de faturamento para a instituição. Para isso, por meio do método revisão integrativa, foi coletada a literatura clínica referente às glosas, ocorridas durante o período de janeiro a setembro de 2014, e analisada sob a perspectiva do modelo conceitual apresentado pela Cochrane (LEFEBVRE et al., 2011) que identifica o nível da evidência científica e estabelece o seu grau de recomendação para a prática clínica. Durante a análise de conteúdo, considerando as técnicas propostas por Bardin (1977), foram identificadas as evidências científicas que conferem valor à prática assistencial, conforme proposto pelo modelo conceitual. Além disso, o valor dos itens glosados foi incluído na análise dos resultados, reforçando a tendência do estudo para a validação do modelo conceitual que recomenda a prática clínica baseada em evidências científicas para geração de resultados mais efetivos e de melhor custo/benefício na saúde. Com base nos achados, são discutidas as implicações teóricas e práticas, assim como sugestões para futuros estudos sobre o tema.