826 resultados para Gerenciamento da informação - modelos
Resumo:
O presente trabalho tem como objetivo comparar o modelo de gerenciamento de hospitais públicos da Secretaria de Estado da Saúde de Sâo Paulo por meio das organizações sociais de saúde com o modelo de gerenciamento realizado diretamente pelo governo nos aspectos administrativos operacionais. Os dois modelos são comparados sob o enfoque de suas práticas gerenciais nas áreas de recursos huanos, gestção orçamentária e financeira, de contratos de serviços e de materiais. Foi realizada pesquisa qualitativa, sendo entrevistados diretores de 10 hospitais, 5 de cada modelo. Os resultados mostraram vantagem das organizações sociais em todas as áreas, exceto na de gestão de contratos. Como conclusão temos a necessidade da reforma da administração pública e a necessidade de estabelecer mecanismos adequados de responsabilização e de controle social no modelo das organizações sociais de saúde.
Resumo:
As questões ligadas a gestão de riscos associados a segurança da informação já é uma realidade no cenário empresarial brasileiro. O crescimento das operações de negócios em direção aos sistemas de informação baseados em tecnologia fez com que os números de ameaças e de vulnerabilidades sobre as redes de computadores e comunicações aumentassem. Vários são os desafios de estruturação e implementação de uma área de segurança da informação dentro das empresas. Este trabalho analisa as diversas formas de construção de uma infra-estrutura de gestão de risco em segurança de informação, não só no âmbito tecnológico, mas também, no operacional e no mercadológico, de forma a estabelecer uma relação transparente às demais áreas internas da organização, aos clientes e a todo o mercado. A segurança da informação, vista freqüentemente como um assunto ligado a tecnologia, passa a ser entendida cada vez mais como um processo de negócio, e conseqüentemente, uma grande vantagem competitiva para o mundo empresarial.
Resumo:
O cenário que se desenha é fortemente marcado pela informação intensiva e pelas redes, além de evolução acelerada da tecnologia e globalização. Além disso, o contínuo aumento da competição tem tornado mais difícil a diferenciação com base em custos ou qualidade, gerando uma oportunidade para que a introdução de novos produtos se destacasse e se transformasse em uma fonte de ganhos competitivos. Vários são os exemplos de empresas que tiveram (e têm) sucesso em grande medida através de inovações em seus produtos ou serviços. O propósito desta pesquisa é o estudo de instituições financeiras, particularmente a análise de bancos de varejo no Brasil e seus respectivos processos de desenvolvimento de produtos e serviços. As instituições financeiras, do qual o setor bancário brasileiro faz parte, têm sofrido grandes e significativas transformações nos anos recentes. Este segmento possui expressiva participação no cenário nacional, apresentando taxas positivas de crescimento de ativos e lucros nos últimos anos. Esse cenário de intensas mudanças apresenta uma rara oportunidade de estudos nessa área. Dessa maneira, conduziu-se uma pesquisa de cunho exploratório que fez uso de estudos de casos múltiplos. Utilizou-se uma amostra de seis bancos que respondem por cerca de 50% do segmento no país. Para a análise dos casos, utilizaram-se alguns modelos conceituais clássicos a respeito de desenvolvimento de novos produtos, além de referências acerca do cenário em que a amostra está imersa. Pela aplicação deste arcabouço aos estudos de casos, mapeou-se o processo de desenvolvimento de produtos, bem como suas etapas. A análise possibilitou ainda a compreensão de questões subjacentes ao tema principal que surgiram ao longo do trabalho.
Resumo:
Procura discutir os modelos de administração pública burocrático e gerencial, as compras governamentais e o governo eletrônico no Brasil e no exterior, utilizando-se da BEC/SP como estudo de caso para exemplificar toda a discussão apresentada
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.
Resumo:
Este trabalho visa obter e verificar empiricamente um meta-modelo que possa apoiar e aprofundar a compreensão do fenômeno da resistência a sistemas de informação. Tratase de uma pesquisa explanatória e quantitativa na qual faz-se, por meio de uma extensa revisão da literatura mundial, o levantamento e consolidação das principais teorias e modelos existentes sobre o tema. Dessa forma, buscando obter um melhor entendimento do problema de pesquisa, propõe-se um meta-modelo de fatores pertinentes ao comportamento de resistência a sistemas de informação. Neste modelo, considera-se um conjunto de aspectos que, embora já abordados anteriormente, em sua maior parte ainda não haviam sido testados empiricamente, quais sejam: (i) as características idiossincráticas dos indivíduos, (ii) os aspectos técnicos inerentes aos sistemas de informação, (iii) as características da interação sócio-técnica, (iv) as características da interação de poder e políticas e, finalmente, (v) as características das organizações nas quais a tecnologia e o homem estão inseridos e interagem entre si. O instrumento de pesquisa utilizado no trabalho foi um questionário estruturado, aplicado via Internet, com suas questões contextualizadas quanto aos sistemas de gestão empresarial ERPs: Enterprise Resource Planning Systems. Obteve-se um total de 169 respondentes, considerando-se uma amostra composta exclusivamente por gestores de tecnologia da informação (TI) brasileiros e que tenham vivenciado pelo menos uma experiência de implantação de sistemas ERP ao longo de suas carreiras. Uma vez realizada a coleta dos dados, foram empregados testes estatísticos relativos à análise fatorial, visando alcançar um modelo definitivo. A partir do novo modelo encontrado, por meio da validação proporcionada pela análise fatorial, cada fator identificado representou uma causa para o comportamento de resistência a sistemas de informação. Por fim, testou-se também hipóteses a partir do novo modelo identificado, verificando-se as relações entre a percepção direta dos gestores quanto à resistência e os diversos fatores considerados relevantes para a explicação deste comportamento. Como resultado do estudo, consolidou-se um modelo de análise do comportamento de resistência a sistemas de informação, baseado na percepção do gestor de TI e contextualizado nos sistemas ERPs.
Resumo:
O estudo foi feito através de séries históricas de dados de um incubatório pertencente a uma integração avícola do Rio Grande do Sul, durante os anos de 1999 a 2003, com os quais foram feitas análises do tipo observacional analítico e transversal. Primeiramente usou-se os registros de 5 linhagens de frangos utilizadas pela empresa no transcorrer do período de 23 de fevereiro de 1995 a 25 de janeiro de 2002. As linhagens foram identificadas da seguinte forma: COBB, HIGH YIELD, MPK, ROSS308, e X. Esses 81 lotes analisados foram estudados através dos seus respectivos registros que continham: o número inicial de fêmeas, número inicial de machos, ração total/cabeça, ração/cabeça/inicial/recria, ração/cabeça/inicial/postura, ovos postos, ração p/ovo posto, pintos nascidos, percentagem viabilidade postura fêmea, percentagem viabilidade postura machos. O método aqui proposto provou ser capaz de classificar as linhagens a partir das entradas escolhidas. Na linhagem que apresentava uma grande quantidade de amostras a classificação foi muito precisa. Nas demais, com menor número de dados, a classificação foi efetuada, e, como era de se esperar, os resultados foram menos consistentes. Com o mesmo banco de dados dos lotes fechados, realizou-se a segunda etapa da dissertação. Nela, procedeu-se o treinamento das redes neurais artificiais onde foram utilizadas as seguintes variáveis de saída: ovos incubáveis, percentagem de ovos incubáveis, ovos incubados, percentagem de ovos incubados, pintos nascidos e pintos aproveitáveis. Os resultados apresentaram R2 oscilando entre 0,93 e 0,99 e o erro médio e o quadrado médio do erro ajustados, demonstrando a utilidade das redes para explicar as variáveis de saída. Na terceira e última etapa da dissertação, destinada à validação dos modelos, foram usados quatro arquivos distintos denominados da seguinte forma: INPESO (3.110 linhas de registros de pesos dos reprodutores), ININFO (56.018 linhas de registros com as informações diárias do ocorrido nas granjas de reprodução até o incubatório), INOVOS (35.000 linhas de registros com informações sobre os ovos processados), INNASC: 43.828 linhas de registros com informações sobre os nascimentos. O modelo gerado para o ano de 1999 foi capaz de predizer corretamente os resultados deste mesmo ano e dos anos de 2000, 2001, 2002 e 2003. O mesmo procedimento foi repetido criando modelo com os registros do ano em questão e validando-o com os registros dos anos subseqüentes. Em todas as ocasiões foram obtidos bons resultados traduzidos por um alto valor no R2. Concluindo, os fenômenos próprios do incubatório puderam ser explicados através das redes neurais artificiais. A técnica, seguindo a mesma tendência das dissertações que anteriormente já haviam demonstrado que esta metodologia pode ser utilizada para o gerenciamento de reprodutoras pesadas e de frangos de corte, pode realizar simulações, predições e medir a contribuição de cada variável no fenômeno observado, tornando-se uma poderosa ferramenta para o gerenciamento do incubatório e num suporte cientificamente alicerçado para a tomada de decisão.
Resumo:
As rápidas mudanças que se desenvolvem no planeta varrem conceitos antigos, alteram estratégias de empresas e mudam o comportamento de governos e nações. O agronegócio não fica incólume neste intenso processo. As políticas agrícolas e a estrutura do setor passam por ajustes e revisões. Dentro desta linha de pensamento, um cenário que se torna cada vez mais evidente é a competição entre cadeias, além da competição entre empresas de forma isolada. Nesta perspectiva, o gerenciamento da cadeia de abastecimento pode ser considerado um importante vetor na competitividade da cadeia, no momento em que preconiza a customização das atividades que agregam valor, integrando cada vez mais clientes e fornecedores. Mas para a efetividade deste gerenciamento, a gestão da informação ao longo da cadeia assume importância maior ainda, em relação ao seu uso nas empresas de forma isolada. Dentro do ambiente de mudanças do agronegócio, após a abertura da economia brasileira de 1990, a cadeia de abastecimento do arroz vem passando por intensas transformações para se manter competitiva. Dentre estas, surge o arroz orgânico como forma de segmentar mercados consumidores através da diferenciação, e o que é mais importante, a adição de valor ao produto, desde a produção rural. Por se tratar o arroz orgânico de um produto diferenciado, pressupôs-se que a cadeia de abastecimento para este produto, apresente diferenças da cadeia de abastecimento para o arroz commodity. Considerando isto é que se objetivou com esta pesquisa “analisar o processamento da informação na cadeia de abastecimento do arroz com transações de dois tipos de produtos: arroz commodity e arroz orgânico”. O método científico utilizado foi o estudo de caso, onde foram levantados dados e fatos dos agentes que formam os elos da cadeia de abastecimento do arroz commodity e do arroz orgânico, para subsidiar as análises necessárias a atingir o objetivo proposto. As principais conclusões a que se chegou são: quanto à cadeia, esta apresenta diferenças que vão desde as relacionadas aos produtos, até as transações realizadas entre os agentes da cadeia. Quanto à informação ao longo da cadeia, o agente de produção do arroz commodity e do arroz orgânico, é o elo que menos utiliza informações sistematizadas em suas decisões. Também, que existem diferenças nos fluxos de informações ao longo da cadeia de abastecimento quando ocorrem transações com arroz commodity e quando com arroz orgânico. Estas diferenças vão desde as informações trocadas, o conteúdo e objetivos com que são trocadas, o sentido e o envolvimento dos departamentos dos agentes da cadeia. Pode-se acrescentar ainda, que em transações com arroz orgânico houve maior diálogo entre os agentes ao longo da cadeia, que foi mais representativo no segmento Produção x Beneficiamento.
Resumo:
Recentes pesquisas têm apontado o Alinhamento Estratégico (AE) como uma das principais preocupações dos executivos. Extrair informações úteis a partir dos investimentos realizados em Tecnologia da Informação (TI) está entre os principais objetivos dos chefes executivos das organizações (CEO). A presente pesquisa tenta identificar os critérios de AE, juntamente com as suas práticas, que são mais promovidos em organizações da Região Sul do Brasil. Esta pesquisa pode ser classificada como um estudo quantitativo-descritivo, e utiliza o método estatístico para a obtenção, processamento e validação dos dados. O método empregado foi o de um levantamento de informações (survey), e a coleta de dados obedeceu à concepção dos estudos transversais. Como instrumentos de coleta, foram utilizados questionários auto-aplicáveis, preenchidos por chefes de informática (CIO) das empresas e por executivos de médio e alto escalões de outras áreas, tais como compras, vendas, controladoria, financeira, recursos humanos, etc. Responderam os questionários 259 executivos de 72 empresas industriais pertencentes à região sul do Brasil. A partir do procedimento de refinamento do questionário, que foi baseado nos modelos de Luftman (2000) e de Brodbeck e Hoppen (2003), foi elaborado um instrumento formado por seis critérios e por trinta práticas, postulado como adequado ao contexto brasileiro. Quanto à promoção destes critérios, o de Comunicação foi considerado o mais importante e promovido, enquanto que o critério de Medidas de Valor e Competência foi considerado o de menor promoção. A partir da realização de análise de regressão, foi possível determinar que o critério Comunicação é mais impactado pelo critério de Escopo e Arquitetura. Através da realização de análises de variância, foi possível observar que as empresas de grande porte promoveram mais os critérios de de Habilidades, Governança, Medidas de Valor e Competência e Escopo e Arquitetura, quando comparados com os resultados obtidos em empresas de pequeno porte. Como contribuições práticas, foram obtidas listagens das práticas mais importantes, mais promovidas, de implementação mais fácil e mais difícil. Estas listagens podem auxiliar gestores de empresas na promoção de níveis mais elevados de maturidade de AE.
Resumo:
Em sistemas de controle de tráfego veicular urbano existem diversas abordagens que lidam com o problema da redução do congestionamento de tráfego. Uma classe destas abordagens aplica a sincronização de semáforos a m de permitir que os veículos que viajam em um sentido possam passar diversos cruzamentos sem paradas. Este trabalho apresenta dois métodos de coordenação de agentes aplicados à sincroniza ção de semáforos. O primeiro método inspira-se em mecanismos de coordenação observados em insetos sociais e o segundo modela o problema de coordenação de semá- foros como um problema de otimização de restrições distribuído e faz sua resolução em tempo real utilizando mediação cooperativa. Inicialmente são apresentados conceitos básicos de sistemas de tráfego urbano, Swarm Intelligence e problemas de otimização de restrições. A partir dos conceitos iniciais, são apresentados os modelos propostos. Os resultados mostram que as abordagens propostas geram a coordenação entre os sem áforos sendo que o modo que os agentes estão coordenados pode mudar para se adaptar às mudanças nas condições do ambiente, gerando melhores condições de uxo de tráfego.
Resumo:
Adminsitração, análise e tecnologia da informação
Resumo:
Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.
Resumo:
Baseado no referencial teórico existente se pode constatar que as principais funções da TI que são comumente terceirizadas são: as operações de infraestrutura; o desenvolvimento e a manutenção de aplicações (fábrica de software); e o gerenciamento de redes e computadores (service desk). Dentre as funções comumente terceirizadas, uma que parece ter menor potencial de contribuição diferencial quanto ao seu valor para o negócio é a de infraestrutura, uma atividade bastante estruturada que normalmente é uma das primeiras a serem terceirizadas, parecendo ser corriqueiro que empresas optem por essa terceirização. Este trabalho teve como principal objetivo identificar a associação que pode existir entre o anúncio de terceirização da TI, especialmente infraestrutura, e o valor de mercado das empresas, e para tanto teve como foco empresas brasileiras de capital aberto. Já é sabido que investidores levam em consideração tanto as informações financeiras como não financeiras das empresas que pretendem investir, o que resulta em menor ou maior valorização dessas empresas. O valor da ação no mercado representa o retorno superior esperado em certos momentos, como reflexo da expectativa futura de desempenho que a empresa possa ter. Neste estudo queremos verificar se o anúncio da terceirização da TI levando a essa expectativa de desempenho superior, ou geração de valor futuro, leva também a alguma alteração no valor da ação no mercado. Isto foi feito por meio da comparação da variação do valor de mercado de algumas empresas antes e após o anúncio da realização da terceirização da TI. A metodologia utilizada foi o Estudo de Eventos e, para mensuração dos retornos normais e anormais, utilizamos um modelo de retornos ajustados ao risco e ao mercado, adotando o Capital Asset Pricing Model (CAPM) como modelo econômico para precificação de ativos. O tratamento dos dados das 11 empresas que compuseram a nossa amostra apontou que o anúncio da terceirização da TI parece ter afetado o comportamento das ações dessas empresas. Tomando por base a amostra escolhida, pudemos identificar que houve um impacto positivo no valor de mercado das empresas estudadas, o que pode ter ocorrido em função dos anúncios publicados.
Resumo:
A internet é considerada a mais completa manifestação da nova mídia e tem causado um impacto relevante no campo da comunicação. Os veículos de comunicação tradicionais enfrentam hoje um cenário de incerteza em relação ao futuro. As mudanças provocadas pela nova mídia criam inúmeras possibilidades, que podem ser ameaças ou novas oportunidades, mas que, em ambos os casos, exigem reações dos participantes deste mercado. Este estudo tem por objetivo identificar como os jornais diários brasileiros estão atuando no meio online em reação a estas mudanças. O processo para se atingir este objetivo ocorreu, primeiramente por meio da identificação das características e da classificação dos principais jornais brasileiros nos meios impresso e online. Em seguida, houve um aprofundamento desta pesquisa em entrevistas com profissionais deste mercado. Com base nos conceitos teóricos da economia da informação, foi construída a estrutura de uma taxonomia que permitisse uma análise mais objetiva dos veículos estudados. A avaliação dos dados coletados, tendo o apoio das informações capturadas nas entrevistas, resultou em uma análise bastante rica, da qual algumas conclusões importantes foram extraídas. Identificou-se, por exemplo, uma possível relação entre o nível de adaptação do jornal ao meio online a categoria de seu conteúdo. Outra constatação é a grande importância que o meio impresso ainda tem em termos de resultados financeiros dos jornais. Em relação ao futuro, existem muitas expectativas para o mercado de notícias, mas seu rumo ainda é muito incerto. Apesar disso, uma coisa parece clara: é importante a construção de uma marca forte baseada em credibilidade. No futuro, independentemente dos modelos de negócios que vigorarem, este será um diferencial importante para a sobrevivência dos jornais.