408 resultados para Segmentação
Resumo:
Investigação sobre a regionalização das redes de comunicação, em especial a televisão, fenômeno que representa uma realidade de segmentação da comunicação massiva. Objetiva-se analisar e classificar as emissoras regionais de televisão com relação aos seus modos de inserção local, observando-se suas especificidades, programação, estratégias de comunicação e ações de conquista de identidade com a comunidade onde estão inseridas, além de tentar compreender como se deu a expansão da televisão nessa região, desde a implantação da primeira emissora, em 1988, na cidade de São José dos Campos SP. Tomando-se como recorte de estudo, as emissoras de televisão regional de sinal aberto no Vale do Paraíba, estado de São Paulo, foram realizadas entrevistas semi-abertas com profissionais das áreas comercial e de programação das mesmas e aplicados questionários junto a uma amostra da população do Vale do Paraíba que representa os telespectadores potenciais da área de cobertura dessas emissoras, a fim de se identificar a percepção que o público receptor tem a respeito da presença e atuação das televisões locais. Conclui-se que os diferentes modos de inserção local das emissoras influem diretamente na relação de identidade das mesmas com os telespectadores da região.(AU)
Resumo:
Investigação sobre a regionalização das redes de comunicação, em especial a televisão, fenômeno que representa uma realidade de segmentação da comunicação massiva. Objetiva-se analisar e classificar as emissoras regionais de televisão com relação aos seus modos de inserção local, observando-se suas especificidades, programação, estratégias de comunicação e ações de conquista de identidade com a comunidade onde estão inseridas, além de tentar compreender como se deu a expansão da televisão nessa região, desde a implantação da primeira emissora, em 1988, na cidade de São José dos Campos SP. Tomando-se como recorte de estudo, as emissoras de televisão regional de sinal aberto no Vale do Paraíba, estado de São Paulo, foram realizadas entrevistas semi-abertas com profissionais das áreas comercial e de programação das mesmas e aplicados questionários junto a uma amostra da população do Vale do Paraíba que representa os telespectadores potenciais da área de cobertura dessas emissoras, a fim de se identificar a percepção que o público receptor tem a respeito da presença e atuação das televisões locais. Conclui-se que os diferentes modos de inserção local das emissoras influem diretamente na relação de identidade das mesmas com os telespectadores da região.(AU)
Resumo:
O jornalismo é um dos principais meios de oferta de temas para a discussão e formação da opinião pública, porém depende de um sistema técnico para ser transmitido. Durante mais de cem anos as informações produzidas pela imprensa foram emitidas, armazenadas, transmitidas e recebidas pelos chamados veículos de comunicação de massa que utilizam a rede centralizada cujas características estão na escassez material, produção em série e massificação. Esse sistema separa no tempo e no espaço emissores e receptores criando uma relação desigual de força em que as grandes empresas controlaram o fluxo informativo, definindo quais fatos seriam veiculados como notícia. Em 1995, a internet cuja informação circula sob a tecnologia da rede distribuída, foi apropriada pela sociedade, alterando a forma de produção, armazenamento e transmissão de informação. A tecnologia despertou a esperança de que esta ferramenta poderia proporcionar uma comunicação mais dialógica e democrática. Mas aos poucos pode-se perceber novas empresas se apropriando da tecnologia da rede distribuída sob a qual circula a internet, gerando um novo controle do fluxo informativo. Realizou-se nessa pesquisa um levantamento bibliográfico para estabelecer uma reflexão crítica dos diferentes intermediários entre fato e a notícia tanto da rede centralizada como na rede distribuída, objetivando despertar uma discussão que possa oferecer novas ideias para políticas, bem como alternativas para uma comunicação mais democrática e mais libertária.
Resumo:
A literatura acadêmica sobre o comportamento do investidor financeiro é bastante escassa. A pesquisa sobre o processo de decisão, em geral, aborda tradeoffs na aquisição de produtos e pouco se discute o processo de decisão de investimento. Esta tese pretende contribuir para a redução deste gap ao discutir fatores determinantes para a tomada de decisão do investidor pessoal em produtos financeiros. A decisão de investimento é complexa, envolve, entre outros, o tradeoff entre renunciar o consumo presente pela possibilidade de maior bem estar no futuro. Adicionalmente, em muitas situações, existe possibilidade real de perda dos recursos financeiros investidos. Para investigar os percursos desta decisão foram realizadas entrevistas em profundidade com executivos ligados ao setor de fundos de investimento e ao de distribuição de produtos de investimento dos maiores bancos brasileiros atuantes no segmento de varejo. Os conhecimentos recolhidos e a revisão de literatura efetuada subsidiaram a elaboração do questionário de pesquisa aplicado em plataforma web junto a potenciais investidores. Os atributos rentabilidade, possibilidade de perda (proxy de risco), liquidez, taxa de administração e recomendação do gerente foram identificados como os mais relevantes para a decisão do investidor. Para construção dos estímulos e decomposição da utilidade da decisão foi utilizada a técnica conjoint based choice (CBC) que simula uma decisão real. Os resultados apontaram ser a recomendação do gerente o atributo mais importante para a formação da preferência por uma alternativa de investimento, resultado que, por si só, indica que fatores não racionais exercem influência na decisão. Estudou-se, então, o impacto da aversão ao risco e do estilo cognitivo do investidor. Os resultados denotam que os mais avessos e os mais intuitivos são mais suscetíveis à recomendação do gerente, mas que seus efeitos são independentes entre si. As evidências sugerem que os mais intuitivos utilizam o gerente para alcançar conforto cognitivo na decisão e que os mais avessos para mitigar a sensação de risco associada ao produto. Uma análise de cluster indicou ser possível segmentar a amostra em dois grupos, um mais propenso à recomendação do gerente e outro aos atributos do produto. A recomendação do gerente mostrou ser o atributo mais forte na distinção dos grupos. Os resultados indicam que uma segmentação de mercado baseada na propensão à recomendação do gerente pode ser efetiva para direcionar a construção de uma estratégia de relacionamento que busque incrementar os resultados de longo prazo.
Resumo:
O objetivo deste trabalho é apresentar uma técnica automática baseada em morfologia matemática para medida de sinal em imagens de cDNA desenvolvida no BIOINFO,em parceria com o Instituto Ludwig de Pesquisa contra o Câncer. A tecnologia de lâminas de cDNA é um processo baseado em hibridização que possibilita observar a concentração relativa de mRNA de amostras de tecidos analisando a luminosidade de sinais fluorescentes ou radioativos. Hibridização é o processo bioquímico onde duas fitas de ácido nucleico com seqüências complementares se combinam. A técnica apresentada permite o cálculo da expressão gênica com alto grau de automação, podendo o usuário corrigir com facilidade eventuais erros de segmentação. O usuário interage com o programa apenas para selecionar as imagens e inserir os dados de geometria da lâmina. A estratégia de solução usada tem três fases: gradeamento dos blocos, gradeamento dos spots e segmentação dos spots. Todas as fases utilizam filtros morfológicos e as fases de gradeamento possuem um passo final de correção baseado nos dados de geometria da lâmina o que aumenta a robustez do processo, que funciona bem mesmo em imagens ruidosas.
Resumo:
A presença da Medicina Nuclear como modalidade de obtenção de imagens médicas é um dos principais procedimentos utilizados hoje nos centros de saúde, tendo como grande vantagem a capacidade de analisar o comportamento metabólico do paciente, traduzindo-se em diagnósticos precoces. Entretanto, sabe-se que a quantificação em Medicina Nuclear é dificultada por diversos fatores, entre os quais estão a correção de atenuação, espalhamento, algoritmos de reconstrução e modelos assumidos. Neste contexto, o principal objetivo deste projeto foi melhorar a acurácia e a precisão na análise de imagens de PET/CT via processos realísticos e bem controlados. Para esse fim, foi proposta a elaboração de uma estrutura modular, a qual está composta por um conjunto de passos consecutivamente interligados começando com a simulação de phantoms antropomórficos 3D para posteriormente gerar as projeções realísticas PET/CT usando a plataforma GATE (com simulação de Monte Carlo), em seguida é aplicada uma etapa de reconstrução de imagens 3D, na sequência as imagens são filtradas (por meio do filtro de Anscombe/Wiener para a redução de ruído Poisson caraterístico deste tipo de imagens) e, segmentadas (baseados na teoria Fuzzy Connectedness). Uma vez definida a região de interesse (ROI) foram produzidas as Curvas de Atividade de Entrada e Resultante requeridas no processo de análise da dinâmica de compartimentos com o qual foi obtida a quantificação do metabolismo do órgão ou estrutura de estudo. Finalmente, de uma maneira semelhante imagens PET/CT reais fornecidas pelo Instituto do Coração (InCor) do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (HC-FMUSP) foram analisadas. Portanto, concluiu-se que a etapa de filtragem tridimensional usando o filtro Anscombe/Wiener foi relevante e de alto impacto no processo de quantificação metabólica e em outras etapas importantes do projeto em geral.
Resumo:
O estudo do movimento pulmonar é assunto de grande interesse na área médica. A observação direta do mesmo é inviável, uma vez que o pulmão colapsa quando a caixa torácica é aberta. Dentre os meios de observação indireta, escolheu-se o imageamento por ressonância magnética em respiração livre e sem uso de nenhum gás para melhorar o contraste ou qualquer informação de sincronismo. Esta escolha propõe diversos desafios, como: a superar a alta variação na qualidade das imagens, que é baixa, em geral, e a suscetibilidade a artefatos, entre outras limitações a serem superadas. Imagens de Tomografia Computadorizada apresentam melhor qualidade e menor tempo de aquisição, mas expõem o paciente a níveis consideráveis de radiação ionizante. É apresentada uma metodologia para segmentação do pulmão, produzindo um conjunto de pontos coordenados. Isto é feito através do processamento temporal da sequência de imagens de RM. Este processamento consiste nas seguintes etapas: geração de imagens temporais (2DSTI), transformada de Hough modificada, algoritmo de contornos ativos e geração de silhueta. A partir de um dado ponto, denominado centro de rotação, são geradas diversas imagens temporais com orientações variadas. É proposta uma formulação modificada da transformada de Hough para determinar curvas parametrizadas que sejam síncronas ao movimento diafragmático, chamados movimentos respiratórios. Também são utilizadas máscaras para delimitar o domínio de aplicação da transformada de Hough. São obtidos movimentos respiratórios que são suavizados pelo algoritmo de contornos ativos e, assim, permitem a geração de contornos para cada quadro pertencente a sequência e, portanto, de uma silhueta do pulmão para cada sequência.
Resumo:
O presente trabalho apresenta uma alternativa ao processo de classificação do defeito da segregação central em amostras de aço, utilizando as imagens digitais que são geradas durante o ensaio de Baumann. O algoritmo proposto tem como objetivo agregar as técnicas de processamento digital de imagens e o conhecimento dos especialistas sobre o defeito da segregação central, visando a classificação do defeito de referência. O algoritmo implementado inclui a identificação e a segmentação da linha segregada por meio da aplicação da transformada de Hough e limiar adaptativo. Adicionalmente, o algoritmo apresenta uma proposta para o mapeamento dos atributos da segregação central nos diferentes graus de severidade do defeito, em função dos critérios de continuidade e intensidade. O mapeamento foi realizado por meio da análise das características individuais, como comprimento, largura e área, dos elementos segmentados que compõem a linha segregada. A avaliação do desempenho do algoritmo foi realizada em dois momentos específicos, de acordo com sua fase de implementação. Para a realização da avaliação, foram analisadas 255 imagens de amostras reais, oriundas de duas usinas siderúrgicas, distribuídas nos diferentes graus de severidade. Os resultados da primeira fase de implementação mostram que a identificação da linha segregada apresenta acurácia de 93%. As classificações oriundas do mapeamento realizado para as classes de criticidade do defeito, na segunda fase de implementação, apresentam acurácia de 92% para o critério de continuidade e 68% para o critério de intensidade.
Resumo:
Em Bioinformática são frequentes problemas cujo tratamento necessita de considerável poder de processamento/cálculo e/ou grande capacidade de armazenamento de dados e elevada largura de banda no acesso aos mesmos (de forma não comprometer a eficiência do seu processamento). Um exemplo deste tipo de problemas é a busca de regiões de similaridade em sequências de amino-ácidos de proteínas, ou em sequências de nucleótidos de DNA, por comparação com uma dada sequência fornecida (query sequence). Neste âmbito, a ferramenta computacional porventura mais conhecida e usada é o BLAST (Basic Local Alignment Search Tool) [1]. Donde, qualquer incremento no desempenho desta ferramenta tem impacto considerável (desde logo positivo) na atividade de quem a utiliza regularmente (seja para investigação, seja para fins comerciais). Precisamente, desde que o BLAST foi inicialmente introduzido, foram surgindo diversas versões, com desempenho melhorado, nomeadamente através da aplicação de técnicas de paralelização às várias fases do algoritmo (e. g., partição e distribuição das bases de dados a pesquisar, segmentação das queries, etc. ), capazes de tirar partido de diferentes ambientes computacionais de execução paralela, como: máquinas multi-core (BLAST+ 2), clusters de nós multi-core (mpiBLAST3J e, mais recentemente, co-processadores aceleradores como GPUs" ou FPGAs. É também possível usar as ferramentas da família BLAST através de um interface/sítio WEB5, que permite, de forma expedita, a pesquisa de uma variedade de bases de dados conhecidas (e em permanente atualização), com tempos de resposta suficientemente pequenos para a maioria dos utilizadores, graças aos recursos computacionais de elevado desempenho que sustentam o seu backend. Ainda assim, esta forma de utilização do BLAST poderá não ser a melhor opção em algumas situações, como por exemplo quando as bases de dados a pesquisar ainda não são de domínio público, ou, sendo-o, não estão disponíveis no referido sitio WEB. Adicionalmente, a utilização do referido sitio como ferramenta de trabalho regular pressupõe a sua disponibilidade permanente (dependente de terceiros) e uma largura de banda de qualidade suficiente, do lado do cliente, para uma interacção eficiente com o mesmo. Por estas razões, poderá ter interesse (ou ser mesmo necessário) implantar uma infra-estrutura BLAST local, capaz de albergar as bases de dados pertinentes e de suportar a sua pesquisa da forma mais eficiente possível, tudo isto levando em conta eventuais constrangimentos financeiros que limitam o tipo de hardware usado na implementação dessa infra-estrutura. Neste contexto, foi realizado um estudo comparativo de diversas versões do BLAST, numa infra-estrutura de computação paralela do IPB, baseada em componentes commodity: um cluster de 8 nós (virtuais, sob VMWare ESXi) de computação (com CPU Í7-4790K 4GHz, 32GB RAM e 128GB SSD) e um nó dotado de uma GPU (CPU Í7-2600 3.8GHz, 32GB RAM, 128 GB SSD, 1 TB HD, NVIDIA GTX 580). Assim, o foco principal incidiu na avaliação do desempenho do BLAST original e do mpiBLAST, dado que são fornecidos de base na distribuição Linux em que assenta o cluster [6]. Complementarmente, avaliou-se também o BLAST+ e o gpuBLAST no nó dotado de GPU. A avaliação contemplou diversas configurações de recursos, incluindo diferentes números de nós utilizados e diferentes plataformas de armazenamento das bases de dados (HD, SSD, NFS). As bases de dados pesquisadas correspondem a um subconjunto representativo das disponíveis no sitio WEB do BLAST, cobrindo uma variedade de dimensões (desde algumas dezenas de MBytes, até à centena de GBytes) e contendo quer sequências de amino-ácidos (env_nr e nr), quer de nucleótidos (drosohp. nt, env_nt, mito. nt, nt e patnt). Para as pesquisas foram 'usadas sequências arbitrárias de 568 letras em formato FASTA, e adoptadas as opções por omissão dos vários aplicativos BLAST. Salvo menção em contrário, os tempos de execução considerados nas comparações e no cálculo de speedups são relativos à primeira execução de uma pesquisa, não sendo assim beneficiados por qualquer efeito de cache; esta opção assume um cenário real em que não é habitual que uma mesma query seja executada várias vezes seguidas (embora possa ser re-executada, mais tarde). As principais conclusões do estudo comparativo realizado foram as seguintes: - e necessário acautelar, à priori, recursos de armazenamento com capacidade suficiente para albergar as bases de dados nas suas várias versões (originais/compactadas, descompactadas e formatadas); no nosso cenário de teste a coexistência de todas estas versões consumiu 600GBytes; - o tempo de preparação (formataçâo) das bases de dados para posterior pesquisa pode ser considerável; no nosso cenário experimental, a formatação das bases de dados mais pesadas (nr, env_nt e nt) demorou entre 30m a 40m (para o BLAST), e entre 45m a 55m (para o mpiBLAST); - embora economicamente mais onerosos, a utilização de discos de estado sólido, em alternativa a discos rígidos tradicionais, permite melhorar o tempo da formatação das bases de dados; no entanto, os benefícios registados (à volta de 9%) ficam bastante aquém do inicialmente esperado; - o tempo de execução do BLAST é fortemente penalizado quando as bases de dados são acedidas através da rede, via NFS; neste caso, nem sequer compensa usar vários cores; quando as bases de dados são locais e estão em SSD, o tempo de execução melhora bastante, em especial com a utilização de vários cores; neste caso, com 4 cores, o speedup chega a atingir 3.5 (sendo o ideal 4) para a pesquisa de BDs de proteínas, mas não passa de 1.8 para a pesquisa de BDs de nucleótidos; - o tempo de execução do mpiBLAST é muito prejudicado quando os fragmentos das bases de dados ainda não se encontram nos nós do cluster, tendo que ser distribuídos previamente à pesquisa propriamente dita; após a distribuição, a repetição das mesmas queries beneficia de speedups de 14 a 70; porém, como a mesma base de dados poderá ser usada para responder a diferentes queries, então não é necessário repetir a mesma query para amortizar o esforço de distribuição; - no cenário de teste, a utilização do mpiBLAST com 32+2 cores, face ao BLAST com 4 cores, traduz-se em speedups que, conforme a base de dados pesquisada (e previamente distribuída), variam entre 2 a 5, valores aquém do máximo teórico de 6.5 (34/4), mas ainda assim demonstradores de que, havendo essa possibilidade, compensa realizar as pesquisas em cluster; explorar vários cores) e com o gpuBLAST, realizada no nó com GPU (representativo de uma workstation típica), permite aferir qual a melhor opção no caso de não serem possíveis pesquisas em cluster; as observações realizadas indicam que não há diferenças significativas entre o BLAST e o BLAST+; adicionalmente, o desempenho do gpuBLAST foi sempre pior (aproximadmente em 50%) que o do BLAST e BLAST+, o que pode encontrar explicação na longevidade do modelo da GPU usada; - finalmente, a comparação da melhor opção no nosso cenário de teste, representada pelo uso do mpiBLAST, com o recurso a pesquisa online, no site do BLAST5, revela que o mpiBLAST apresenta um desempenho bastante competitivo com o BLAST online, chegando a ser claramente superior se se considerarem os tempos do mpiBLAST tirando partido de efeitos de cache; esta assunção acaba por se justa, Já que BLAST online também rentabiliza o mesmo tipo de efeitos; no entanto, com tempos de pequisa tão reduzidos (< 30s), só é defensável a utilização do mpiBLAST numa infra-estrutura local se o objetivo for a pesquisa de Bds não pesquisáveis via BLAS+ online.
Resumo:
Tese de doutoramento, Linguística (Linguística Educacional), Universidade de Lisboa, Faculdade de Letras, 2016
Resumo:
Tese de mestrado integrado em Engenharia Biomédica e Biofísica, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2016
Resumo:
Tese de mestrado integrado em Engenharia Biomédica e Biofísica, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2016
Resumo:
O plasma não térmico nos cuidados de saúde é um campo emergente que tem as suas raízes na ciência de plasmas. Este tipo de investigação tem crescido rapidamente e é agora objeto de um amplo esforço de pesquisa interdisciplinar envolvendo a medicina, a biologia, a física, a química e a engenharia. Têm sido feitos vários trabalhos de modo a elucidar quais as interações das espécies produzidas pelo plasma com os sistemas vivos. É evidente que o mecanismo da interação do plasma com os sistemas vivos é complexo, em parte devido à complexidade do plasma mas principalmente devido à enorme complexidade da biologia. O principal objetivo desta dissertação foi observar os efeitos do plasma não térmico à pressão atmosférica (PNTPAs) no desenvolvimento larval e anomalias morfológicas de Drosophila melanogaster. Para o efeito, foram expostas e analisadas fenotipicamente 2.566 larvas após exposição, dos diferentes estádios (1.º, 2.º e 3.º) de desenvolvimento. Os testes foram realizados com aplicações de plasma com e sem ultra violeta, em duas linhas diferentes de Drosophila; uma linha selvagem preparada por nós e uma linha laboratorial. A análise fenotípica revelou que após exposição as larvas apresentavam alterações no fenótipo e no comportamento que não foram observadas no controlo, nomeadamente anomalias nas mudas, traqueias partidas, formação de massas melanóticas que podiam persistir até à fase adulta, excesso de gotículas lipídicas, atraso no desenvolvimento, comportamento de não alimentação e formação de pupa imatura que levava à formação de pupa precoce e morte pupal. Na fase pupal, as anomalias mais comuns estavam relacionadas com a forma do pupário (causadas pela pipação prematura), apresentando um desenvolvimento aberrante. Entre os vários fenótipos observados, o mais significativo foi o criptocefálico (alterações na eversão dos discos imaginais) levando à morte pupal. Nos adultos, as principais anomalias morfológicas foram registadas na formação e segmentação das patas, na forma e padrão das nervuras das asas e na formação do tórax. A similaridade destes resultados com trabalhos publicados relacionados com a hormona esteróide ecdisona indicam que provavelmente o PNTPA poderá ter influenciado a biossíntese e/ou a regulação da ecdisona, a principal hormona que regula o desenvolvimento e a metamorfose em Drosophila.
Resumo:
O trabalho que se apresenta nesta dissertação pretende ser uma contribuição para o desenvolvimento de métodos de avaliação da recuperação da marcha em pacientes pós acidente vascular cerebral (AVC), envolvidos em programas de reabilitação e que sejam utilizadores de ortóteses tornozelo-pé (AFO – Ankle Foot Orthosis). A metodologia desenvolvida considera uma AFO em polipropileno (PP), que é instrumentada com uma unidade de medição inercial (UMI) e oito extensómetros elétricos de resistência. A UMI é fixa com uma tira elástica na posição do retro pé. Os dados recolhidos a partir da instrumentação são utilizados para monitorizar a marcha de doentes pós AVC, a partir do qual podem ser estimados diversos parâmetros espácio-temporais. Os sinais recolhidos nos extensómetros permitem a identificação dos eventos da marcha, necessários para a segmentação do sinal da aceleração, enquanto o sinal da aceleração do eixo horizontal da UMI, no plano sagital, garante a identificação da velocidade da marcha, tempo de apoio e comprimento do ciclo da marcha. Nos testes ao método desenvolvido foram utilizados dois voluntários: um indivíduo saudável e um paciente em recuperação pós AVC, tendo sido definido um protocolo de marcha com dez metros (10 MWT). Os dados recolhidos no indivíduo saudável foram enquadrados no padrão de referência. O paciente executou o protocolo antes e após tratamento com toxina botulínica (TB). Este estudo propõe a definição de um novo parâmetro, o índice de confiança ic, que avalia a confiança do sujeito espástico durante a marcha, com base na transferência do centro da gravidade do corpo na fase do balanço. O método Bland –Altman foi aplicado para validar o método da UMI de medição da velocidade de marcha, comparando com um método de referencia que utiliza medição temporal com cronómetro. A média das diferenças entre os dois métodos foi determinada junto aos limites de concordância. O t Student test permitiu a validação dos dados utilizados no cálculo do índice de confiança. A correlação forte entre as velocidades da marcha e os tempos de apoio e a cadência, fortalece a confiabilidade dos dados obtidos e dos parâmetros calculados utilizando os métodos desenvolvidos neste trabalho. Os resultados obtidos com a metodologia desenvolvida, que apresenta uma estratégia inovadora que recorre aos ângulos da orientação de uma UMI no plano sagital mostraram que é possível monitorizar a evolução dos doentes pós-AVC com recurso a uma AFO.
Resumo:
Por um lado, o mundo do Século XXI com ferramentas que possibilitam cada vez mais estarmos conectados e dependentes das tecnologias de comunicação, em que a internet prevalece como meio principal para as pessoas se relacionarem, interagirem, consumirem, se divertirem e se informarem. Do outro lado, quase que uma ilha à parte dessa tendência tecnológica, um espaço em que a comunicação oral, a confiança, o valor da palavra, o conhecer o vizinho do bairro e a comunidade são o que prevalece. Trata-se de mais um fenômeno decorrente do crescimento da Classe C no Brasil, posterior ao lançamento do Plano Real, por Fernando Henrique Cardoso no governo do ex-presidente Itamar Franco, e da implantação de medidas sociais nos anos seguintes, durante o governo de Luiz Inácio Lula da Silva. O segmento que representa 54% da população brasileira e desperta a atenção das empresas como uma nova frente de geração de riquezas e negócios. Por meio de pesquisa bibliográfica e análise documental para análise de conteúdo, este estudo de caso único investigará como o Banco Itaú se comunica com esse público para oferecer o microcrédito na periferia da cidade de São Paulo. Num mundo em que se pensa quanto mais rápidas e sensoriais serão as tecnologias de informação no futuro, o bom e velho bate-papo pode levar a conhecimentos importantes quando queremos nos comunicar com as camadas populares da população.