957 resultados para Convergência midiática
Resumo:
The thesis investigates if with the free news production, people who post information on collaborative content sites, known as interacting, tend to reproduce information that was scheduled for Tv news. This study is a comparison of the collaborative content vehicles Vc reporter, Vc no G1 and Eu reporter with TV news SBT Brasil, Jornal Nacional, Jornal da Record and Jornal da Band. We sought to determine whether those newscasts guide the collaborative platforms. The hypothesis assumes that Brazilian TV news have been building over time a credible relationship with the viewer, so it is possible to think that the interacting use the same criteria for selecting the broadcasts and reproduce similar information in collaborative content sites. The method used was content analysis, based on the study of Laurence Bardin and the type of research used was quantitative. This research concluded that, within a small portion of the universe surveyed, there are schedules of television news across the collaborative content.
Resumo:
A expansão das redes sociais virtuais, o aperfeiçoamento das técnicas de informação, a penetrabilidade do capitalismo de concorrência e o fragmentado sujeito pós-moderno constituem, ao lado da sociedade de consumo, os pilares desta tese. Nossa hipótese central é que as redes sociais da Internet ampliam os espaços de participação, compartilhamento, colaboração e manifestação das decepções do consumidor, mas não diminuem as descontinuidades, a incompreensão e o desrespeito oriundos das relações e práticas de consumo, podendo, muitas vezes, aceleraremasconflitualidades. A abertura para o diálogo, o incitamento à tomada de poder do sujeito e a multiplicação das trocas entre empresas e consumidores representam a oportunidade e o desafio de valorizarmos a concepção normativa da comunicação, admitindo as dificuldades da intercompreensão, a urgência da coabitação e a realidade da incomunicação. Recorremos à Análise de Discurso de tradição francesa (AD) como campo teórico-metodológico para analisar o discurso do consumidor inscrito na plataforma Reclame AQUI e construir uma crítica à comunicação corporativa contemporânea; a partir dos conceitos de cenografia, ethos e esquematização enunciativa, verificamos como a ideologia opera no interior das cenas daenunciação do consumo, constituindo uma ordem própria ao discurso do reclamante decepcionado. Esta análise ratificou as discussões teóricas que levamos a cabo, servindo de suporte para a problematização e o debate das sete cenografias que se evidenciaram no/pelo discurso do sujeito/consumidor: respeito/desrespeito, ameaça, promessa e frustração, mau atendimento e problema não resolvido, negociação, clientes novos x antigos e consumidor enganado; a imbricação do nosso corpuse o arcabouço teórico coloca na ribalta a necessidade de políticas de comunicação organizacional norteadas pelo senso prático de outridade, transcendendo as relações puramente mercadológicas; ao mesmo tempo, lança luz sobre apremência de mais solidariedade, compaixão, capacidade de escuta, compreensão e coabitação para as corporações que funcionam em uma sociedade guiada pelo frenesi da ética da concorrência e da consumolatria. Esta tese evidencia que a atuação dos consumidores e das empresas no mundo on-line representa mais que um elemento circunstancial de (in) tolerância mútua; desenha um destino comum que pode ter como rumo a outridade solidária do próximo, aceitando a experiência da alteridade, o risco do fracasso e a esperança da confiança e do respeito que a comunicação pode conceber.
Resumo:
Esta pesquisa tem por objetivo analisar sob quais aspectos se dá a interação entre mídia e religião, bem como as tensões ou continuidades que a aproximação do ‘sagrado’ com o ‘profano’ na sociedade midiatizada evoca. Para tal, elegemos como objeto de estudo a participação dos artistas evangélicos no Programa Esquenta!, exibido nas tardes de domingo, pela Rede Globo. Tomamos como referencial teórico os conceitos de cultura gospel, de midiatização, especialmente o conceito de bios midiático, e a discussão sobre secularização proposta por Habermas. A metodologia empregada prevê duas etapas. A primeira consiste numa uma análise de conteúdo de cinco edições do programa que contaram com a participação de artistas evangélicos, exibidas nos anos de 2013 e 2014. Nesse momento, o objetivo foi perceber o lugar que a música gospel ocupa dentro da proposta do programa. A segunda etapa consiste na realização de dois grupos de discussão, um formado por evangélicos e o outro por não-evangélicos, para compreender como os conteúdos religiosos deslocados de seu contexto original são ressignificados pela audiência. Resulta desta pesquisa a observação de que a participação dos artistas gospel no Esquenta! oferece novos modos de olhar que ampliam o conceito de cultura gospel, bem como legitima a mídia como lugar de experiência religiosa. Além disso, ilustra a perspectiva habermasiana ao refletir a dupla afetação entre universo religioso e vida secular, que emerge do entrecruzamento entre mídia e religião.
Resumo:
O objetivo desta investigação foi verificar se, diante da autonomia e vocação que possuem, bem como da possibilidade de receber amparo e incentivos governamentais, as universidades pertencentes à região do Grande ABC atenderam as recomendações feitas pelo PNPG vigente. Para tanto, foram analisadas cinquenta e sete dissertações e duas teses da área de ciências sociais aplicadas, publicadas no período entre 2011 e 2014, pelas seguintes instituições: Universidade Metodista de São Paulo (UMESP); Universidade Municipal de São Caetano do Sul (USCS); Universidade Federal do ABC (UFABC) e Faculdade de Engenharia Industrial (FEI). Essa averiguação se deu ao redor de dois eixos organizadores do PNPG 2011-2014: o terceiro eixo – o aperfeiçoamento da avaliação e sua expansão para outros segmentos do sistema de CT&I (formação de pós-graduados voltados para atividades extra-acadêmicas/setor empresarial) e o quarto eixo – a multi e a interdisciplinaridade entre as principais características da pós-graduação e importantes temas da pesquisa (promover, por meio de programas, áreas de concentração e linhas de pesquisa, a convergência de temas e compartilhamento de problemas em oposição à sua mera associação ou sobreposição). Este estudo – qualitativo, bibliográfico, documental, exploratório, descritivo, tipo estado do conhecimento – se desenvolveu por meio de pesquisa documental e de análise de conteúdo temático categorial. A coleta de dados foi feita por meio dos repositórios digitais de teses e dissertações mantidos na internet pelas Universidades, cuja produção científica foi investigada. Após a análise dos dados ficou demonstrado que aproximadamente 68,96% da produção científica da área de ciências sociais aplicadas, publicada pelas universidades do Grande ABC, no período entre 2011 e 2014, corresponde às expectativas do PNPG atual no que diz respeito às recomendações constantes no terceiro eixo. Em relação às recomendações feitas no texto do quarto eixo, vemos que aproximadamente 31,03% dos trabalhos selecionados atendem às expectativas do Plano, apresentando em sua estrutura, segundo a fundamentação teórica utilizada neste trabalho, características de interdisciplinaridade.
Resumo:
O objetivo desta investigação foi verificar se, diante da autonomia e vocação que possuem, bem como da possibilidade de receber amparo e incentivos governamentais, as universidades pertencentes à região do Grande ABC atenderam as recomendações feitas pelo PNPG vigente. Para tanto, foram analisadas cinquenta e sete dissertações e duas teses da área de ciências sociais aplicadas, publicadas no período entre 2011 e 2014, pelas seguintes instituições: Universidade Metodista de São Paulo (UMESP); Universidade Municipal de São Caetano do Sul (USCS); Universidade Federal do ABC (UFABC) e Faculdade de Engenharia Industrial (FEI). Essa averiguação se deu ao redor de dois eixos organizadores do PNPG 2011-2014: o terceiro eixo – o aperfeiçoamento da avaliação e sua expansão para outros segmentos do sistema de CT&I (formação de pós-graduados voltados para atividades extra-acadêmicas/setor empresarial) e o quarto eixo – a multi e a interdisciplinaridade entre as principais características da pós-graduação e importantes temas da pesquisa (promover, por meio de programas, áreas de concentração e linhas de pesquisa, a convergência de temas e compartilhamento de problemas em oposição à sua mera associação ou sobreposição). Este estudo – qualitativo, bibliográfico, documental, exploratório, descritivo, tipo estado do conhecimento – se desenvolveu por meio de pesquisa documental e de análise de conteúdo temático categorial. A coleta de dados foi feita por meio dos repositórios digitais de teses e dissertações mantidos na internet pelas Universidades, cuja produção científica foi investigada. Após a análise dos dados ficou demonstrado que aproximadamente 68,96% da produção científica da área de ciências sociais aplicadas, publicada pelas universidades do Grande ABC, no período entre 2011 e 2014, corresponde às expectativas do PNPG atual no que diz respeito às recomendações constantes no terceiro eixo. Em relação às recomendações feitas no texto do quarto eixo, vemos que aproximadamente 31,03% dos trabalhos selecionados atendem às expectativas do Plano, apresentando em sua estrutura, segundo a fundamentação teórica utilizada neste trabalho, características de interdisciplinaridade.
Resumo:
O trabalho tem como proposta avaliar a postura das organizações nas mídias sociais digitais, considerando o fato de que esses novos ambientes virtuais têm modificado drasticamente a maneira pela qual elas promovem o relacionamento com seus públicos estratégicos. O objetivo principal da pesquisa é identificar e compreender como as organizações se posicionam diante de comentários desfavoráveis nas mídias sociais digitais que possam impactar sua imagem e reputação, bem como mostrar a importância de monitorar constantemente o consumidor e dialogar com ele nos canais digitais para evitar riscos à marca. A metodologia aplicada denomina-se Estudo de Casos Múltiplos, por meio da qual analisaram-se os comentários desfavoráveis às marcas: Vivo, Tim e Oi, na página do Facebook, durante o mês de setembro de 2015. Construiu-se um protocolo de pesquisa, e realizou-se o acompanhamento dessas marcas analisando-lhes os posts e os comentários desfavoráveis coletados no período. Constatou-se, após tais procedimentos que as operadoras apresentam frequentemente dificuldades para se relacionar com os públicos nas mídias sociais digitais, o que as coloca em risco quanto à sua imagem e reputação.
Resumo:
Com as crises econômicas recorrentes que assolaram o século XX e o início do século XXI verificou-se um grande impacto no mercado de trabalho mundial, com altos níveis de desemprego e proliferação de trabalho informal. Assim, a União Europeia, com o intuito de minimizar os impactos e aumentar a competitividade dos países europeus, adotou-se o conceito de flexisegurança, oriundo da Dinamarca e da Holanda. Concomitantemente, a OIT lança o conceito de Trabalho Decente, onde se busca a convergência dos objetivos estratégicos da instituição, propondo a criação de uma agenda pelos países onde se promova o diálogo social, proteção social e criação de empregos que efetivamente consolidem o valor social do trabalho. Assim, o presente trabalho se propõe em discutir quais são os limites da flexibilização dos direitos do trabalho no Brasil contrabalanceando-se os dois conceitos, bem como verificando a possibilidade da implementação de um modelo de flexisegurança no Brasil.
Resumo:
Atualmente vêm sendo desenvolvidas e utilizadas várias técnicas de modelagem de distribuição geográfica de espécies com os mais variados objetivos. Algumas dessas técnicas envolvem modelagem baseada em análise ambiental, nas quais os algoritmos procuram por condições ambientais semelhantes àquelas onde as espécies foram encontradas, resultando em áreas potenciais onde as condições ambientais seriam propícias ao desenvolvimento dessas espécies. O presente estudo trata do uso da modelagem preditiva de distribuição geográfica, através da utilização de algoritmo genético e algoritmo de distância, de espécies como ferramenta para a conservação de espécies vegetais, em três situações distintas: modelagem da distribuição do bioma cerrado no estado de São Paulo; previsão da ocorrência de espécies arbóreas visando à restauração da cobertura vegetal na bacia do Médio Paranapanema e modelagem da distribuição de espécies ameaçadas de extinção (Byrsonima subterranea). A metodologia empregada e os resultados obtidos foram considerados satisfatórios para a geração de modelos de distribuição geográfica de espécies vegetais, baseados em dados abióticos, para as regiões de estudo. A eficácia do modelo em predizer a ocorrência de espécies do cerrado é maior se forem utilizados apenas pontos de amostragem com fisionomias de cerrado, excluindo-se áreas de transição. Para minimizar problemas decorrentes da falta de convergência do algoritmo utilizado GARP (Genetic Algorithm for Rule Set Production), foram gerados 100 modelos para cada espécie modelada. O uso de modelagem pode auxiliar no entendimento dos padrões de distribuição de um bioma ou ecossistema em uma análise regional e local.
Resumo:
Para dar suporte ao atual debate sobre as consequências climáticas da liberação antropogênica de CO2 na atmosfera, o refinamento do conhecimento sobre mudanças climáticas e oceanográficas no passado é necessário. A Circulação de Revolvimento Meridional do Atlântico (CRMA) tem papel fundamental na oceanografia e clima das áreas sob influência do Oceano Atlântico, controlando diretamente a estratificação e distribuição de massas d\'água, a quantidade de calor transportada pelo oceano e os ciclo e armazenamento de compostos químicos, como o CO2 em mar profundo. A formação e circulação da Água Intermediária Antártica (AIA), envolvida no transporte de calor e sal para o giro subtropical do Hemisfério Sul e nas teleconexões climáticas entre altas e baixas latitudes, é componente importante do ramo superior da CRMA. A reconstrução de propriedades de massas de água intermediárias é, portanto, importante para a compreensão dos sistemas de retroalimentação entre oceano-clima. No entanto, informações quanto a evolução da AIA continuam limitadas. Oscilações da CRMA e consequentes mudanças na distribuição de calor tem implicações importantes para o clima Sul Americano, influenciando a disponibilidade de umidade para o Sistema de Monções Sul Americano (SMSA), via temperatura da superfície marinha e posicionamento da Zona de Convergência Intertropical. Neste trabalho nós reconstruímos a assinatura isotópica da AIA durante os estágios isotópicos marinhos 2 e 3 (41-12 cal ka AP) usando isótopos de carbono e oxigênio de foraminíferos bentônicos (gêneros Cibicidoides e Uvigerina) de um testemunho de sedimentos marinhos datados por radiocarbono (1100 m de profundidade e a 20°S na costa do Brasil). Concluímos que propriedades físicas e químicas da AIA mudaram durante os estadiais Heinrich 3 e 4, provavelmente como consequência de enfraquecimento da CRMA durante estes períodos. Também reconstruímos as condições continentais do leste brasileiro entre o último máximo glacial e a deglaciação (23-12 cal ka AP) baseadas em razões Ti/Ca de nosso testemunho de sedimentos marinhos como indicadoras de aporte terrígeno do Rio Doce. A maior parte da chuva que cai na Bacia do Rio Doce está relacionada a atividade do SMAS. Nosso registro de Ti/Ca em conjunto com \'\'delta\' POT.18\'O de espeleotemas da Caverna Lapa Sem Fim, também no leste do Brasil, sugere diminuição marcante da chuva durante o interestadial Bølling-Allerød, provavelmente relacionada a enfraquecimento do SMAS. Ademais comparamos as razões de Ti/Ca com dados de saída da rodada SYNTRACE do modelo climático CCSM3 com forçantes transientes para a última deglaciação. Os registros geoquímicos e a saída do modelo mostram resultados consistentes entre si e sugerem que o leste da América do Sul passou pelo seu período mais seco de toda a última deglaciação durante o interestadial Bølling-Allerød, provavelmente relacionado ao enfraquecimento do SMAS.
Resumo:
Este trabalho propõe uma extensão do método de propagação de feixe (BPM - Beam Propagation Method) para a análise de guias de ondas ópticos e acopladores baseados em materiais não-lineares do tipo Kerr. Este método se destina à investigação de estruturas onde a utilização da equação escalar de Helmholtz (EEH) em seu limite paraxial não mais se aplica. Os métodos desenvolvidos para este fim são denominados na literatura como métodos de propagação de feixe de ângulo largo. O formalismo aqui desenvolvido é baseado na técnica das diferenças finitas e nos esquemas de Crank-Nicholson (CN) e Douglas generalizado (GD). Estes esquemas apresentam como característica o fato de apresentarem um erro de truncamento em relação ao passo de discretização transversal, Δx, proporcional a O(Δx2) para o primeiro e O(Δx4). A convergência do método em ambos esquemas é otimizada pela utilização de um algoritmo interativo para a correção do campo no meio não-linear. O formalismo de ângulo largo é obtido pela expansão da EEH para os esquemas CN e GD em termos de polinômios aproximantes de Padé de ordem (1,0) e (1,1) para CN e GD, e (2,2) e (3,3) para CN. Os aproximantes de ordem superior a (1,1) apresentam sérios problemas de estabilidade. Este problema é eliminado pela rotação dos aproximantes no plano complexo. Duas condições de contorno nos extremos da janela computacional são também investigadas: 1) (TBC - Transparent Boundary Condition) e 2) condição de contorno absorvente (TAB - Transparent Absorbing Boundary). Estas condições de contorno possuem a facilidade de evitar que reflexões indesejáveis sejam transmitidas para dentro da janela computacional. Um estudo comparativo da influência destas condições de contorno na solução de guias de ondas ópticos não-lineares é também abordada neste trabalho.
Resumo:
Registros isotópicos de oxigênio obtidos em alta resolução das estalagmites CL2 e MAG das cavernas Calixto e Marota, região da Chapada Diamantina (CD) (12ºS), Estado da Bahia, sul do Nordeste brasileiro (sNEB), permitiram reconstituir as mudanças passadas da precipitação entre 165-128 e 59-39 mil anos A.P. Para a reconstituição paleoclimática considerou-se resultados de um estudo de calibração realizado em duas cavernas da CD o qual demonstrou uma relação entre composição isotópica da água meteórica e de gotejamento e sugeriu um ambiente adequado para a deposição do espeleotema em condições equilíbrio e/ou próximas com a água de gotejamento. A interpretação da paleoprecipitação através dos registros isotópicos \'\'delta\' POT.18\'O das estalagmites também foi baseada na relação entre composição isotópica da água da precipitação e a quantidade de chuva obtidos em estações da IAEA-GNIP no Brasil e de simulações das variações do \'\'delta\' POT.18\'O da chuva através do modelo climático ECHAM-4. Esses dados indicaram o efeito quantidade (amount effect) como fator preponderante de controle isotópico da água da chuva que formam os espeleotemas na CD, significando que a diminuição dos valores de \'\'delta\' POT.18\'O está associada ao aumento do volume de chuvas e vice-versa. Os registros de \'\'delta\' POT.18\'O dos espeleotemas permitiram reconstituir a variação da paleoprecipitação na escala orbital e milenar durante o penúltimo glacial bem como correlacionar mudanças na paleoprecipitação no sNEB com eventos milenares registrados na Groelândia no último glacial. Os registros da CD indicaram um aumento (diminuição) da paleoprecipitação na Bahia relacionado a diminuição (aumento) da insolação austral de verão a 10ºS durante o penúltimo glacial, similar ao observado no último ciclo precessional. Na escala orbital os registros da CD estiveram em antifase com os paleoindicadores isotópicos do Sudeste brasileiro e em fase com os valores de\'\'delta\' POT.18\'O dos espeleotemas do leste da China. Esse padrão de precipitação é similar ao observado na última glaciação e sugere que a variação na insolação de verão afetou as monções sul-americanas (MSA) promovendo mudanças na precipitação no sNEB no penúltimo glacial. Condições áridas no sNEB durante o aumento da insolação de verão estariam provavelmente associadas ao aprofundamento da subsidência de ar provocado pelo fortalecimento da circulação leste-oeste da MSA devido ao aumento das atividades convectivas na Amazônia o que teria, favorecido um posicionamento mais a sul da Zona de Convergência do Atlântico Sul (ZCAS). O oposto também ocorreria durante as fases de baixa insolação de verão quando a MSA estaria provavelmente mais desintensificada. Durante o penúltimo glacial (Terminação Glacial II) abruptas oscilações nos registros da CD para valores mais baixos de \'\'delta\' POT.18\'O indicaram um profundo aumento da precipitação coincidente com o evento Heinrich (H11). Nesse período a paleoprecipitação no sNEB esteve correlacionada negativamente com as mudanças climáticas na China e no oeste amazônico (Peru) e positivamente com o Sudeste brasileiro. Interpretou-se que as anomalias positivas da precipitação no sNEB podem ter estado relacionadas ao deslocamento para sul da Zona de Convergência Intertropical (ZCIT) bem como com a intensificação da MSA e ZCAS nesse período. Finalmente, oscilações isotópicas abruptas para valores mais altos observadas durante o estágio marinho isotópico 3 coincidentes com os eventos quentes registrados na Groelândia, denominados de eventos Dansgaard-Oeschger (DO), foram interpretados como a ocorrência de eventos muito secos no sNEB. Essas variações da precipitação na escala milenar, que estão em fase com os registros no Peru, podem ter estado relacionadas ao deslocamento para norte da ZCIT o que teria promovido uma profunda desintensificação da MSA.
Resumo:
Reatores tubulares de polimerização podem apresentar um perfil de velocidade bastante distorcido. Partindo desta observação, um modelo estocástico baseado no modelo de dispersão axial foi proposto para a representação matemática da fluidodinâmica de um reator tubular para produção de poliestireno. A equação diferencial foi obtida inserindo a aleatoriedade no parâmetro de dispersão, resultando na adição de um termo estocástico ao modelo capaz de simular as oscilações observadas experimentalmente. A equação diferencial estocástica foi discretizada e resolvida pelo método Euler-Maruyama de forma satisfatória. Uma função estimadora foi desenvolvida para a obtenção do parâmetro do termo estocástico e o parâmetro do termo determinístico foi calculado pelo método dos mínimos quadrados. Uma análise de convergência foi conduzida para determinar o número de elementos da discretização e o modelo foi validado através da comparação de trajetórias e de intervalos de confiança computacionais com dados experimentais. O resultado obtido foi satisfatório, o que auxilia na compreensão do comportamento fluidodinâmico complexo do reator estudado.
Resumo:
The low complexity of IIR adaptive filters (AFs) is specially appealing to realtime applications but some drawbacks have been preventing their widespread use so far. For gradient based IIR AFs, adverse operational conditions cause convergence problems in system identification scenarios: underdamped and clustered poles, undermodelling or non-white input signals lead to error surfaces where the adaptation nearly stops on large plateaus or get stuck at sub-optimal local minima that can not be identified as such a priori. Furthermore, the non-stationarity in the input regressor brought by the filter recursivity and the approximations made by the update rules of the stochastic gradient algorithms constrain the learning step size to small values, causing slow convergence. In this work, we propose IIR performance enhancement strategies based on hybrid combinations of AFs that achieve higher convergence rates than ordinary IIR AFs while keeping the stability.
Resumo:
Muito se fala na crescente velocidade de inovações tecnológicas que se apresenta ao mundo e que vai se acelerando. Antes, gerações se passavam para termos uma evolução tecnológica. Hoje, uma mesma geração presencia vários saltos tecnológicos. Neste contexto de inovações frequentes, surge a preocupação sobre como formar um profissional responsável, ético e que consiga acompanhar e ser protagonista de tais mudanças. O trabalho desenvolvido nesta tese busca colaborar na discussão sobre a formação do engenheiro, com foco na engenharia elétrica e de computação, revisitando as definições de conceitos como educação em engenharia, aprendizagem ativa, inovação, Design Thinking e competências transversais, e definindo, como contribuição de pesquisa, os conceitos de tecno-pedagogia e ambientes tecno-pedagógicos, como pressuposto de convergência de estruturas tecnológicas, estratégias pedagógicas e métodos de avaliação em aprendizagem ativa para a inovação. Apresenta um método para identificar e quantificar o grau de ênfase das competências transversais para a inovação a partir da demanda de mercado para engenheiros eletricistas e da computação; e um método de observação, coleta e análise de dados sobre o desenvolvimento de competências transversais na participação em duas experiências de aula: na disciplina global ME310 da Universidade de Stanford; e na disciplina 030-3410 da Escola Politécnica da Universidade de São Paulo. Com isso, foi possível elaborar um método para auxiliar no planejamento de disciplinas e cursos com foco em inovação, identificando as competências transversais que devem ser incentivadas e relacionando tais competências com estratégias de ensino e aprendizagem e sugerindo a estrutura tecnológica e método de avaliação a serem adotados.
Resumo:
Trabalho Final do Curso de Mestrado Integrado em Medicina, Faculdade de Medicina, Universidade de Lisboa, 2014