20 resultados para Massive Parallelization

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Bacia do Rio Iguaçu-Sarapuí integra a região hidrográfica da Baía de Guanabara. Sua área de drenagem, com cerca de 726 km2, corresponde a aproximadamente 20% do total da área de contribuição à Baía, da ordem de 4600 km2 . Os municípios abrangidos pela bacia do Rio Iguaçu são: Nova Iguaçu, Duque de Caxias, Belford Roxo, São João de Meriti, Nilópolis, Mesquita e uma pequena parte do município do Rio de Janeiro. O presente trabalho tem como objetivo utilizar metodologias destinadas à identificação das unidades de paisagem na Bacia Hidrográfica do Rio Iguaçu, baseado nos conceitos de Paisagem Integrada e utilizando como suporte tecnologias digitais de geoprocessamento. Para o desenvolvimento desta pesquisa foram utilizados dados de diferentes fontes e órgãos governamentais de planejamento que trate desta temática. Os dados ao qual o texto se refere são: bases cartográficas em diferentes escalas de abordagem, Imagens Sensoriais Landsat 7, relatórios e diagnóstico da área em estudo. A identificação das unidades de paisagem na bacia do Rio Iguaçu-Sarapuí é feita a partir da delimitação das unidades de relevo e informações sobre o uso do solo, aspectos geológicos e pedológicos. O trabalho foi baseado no apoio das tecnologias digitais de geoprocessamento que permite uma melhor correlação entre diferentes tipos de informações tanto dos aspectos físicos, geológicos como também das ações antrópicas, classificando-as quanto ao grau de intervenção. O resultado do trabalho nesta região foi a elaboração de um diagnóstico ambiental das limitações e susceptibilidade ao desenvolvimento de determinadas atividades distribuindo-as espacialmente na bacia. A utilização de um Sistema de Informação Geográfica, em especial o Arc Gis 9.2 teve uma importância relevante na elaboração da pesquisa. Uma vez que este sistema trabalha com grandes volumes de informações e na análise integrada de objetos complexos, além de permitir a elaboração de um banco de dados espacial no próprio projeto. O que o diferencia dos demais Sistema de Informação Geográfica, tornando-o uma ferramenta eficiente na gestão integrada dos recursos naturais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diferentes organizações públicas e privadas coletam e disponibilizam uma massa de dados sobre a realidade sócio-econômica das diferentes nações. Há hoje, da parte do governo brasileiro, um interesse manifesto de divulgar uma gama diferenciada de informações para os mais diversos perfis de usuários. Persiste, contudo, uma série de limitações para uma divulgação mais massiva e democrática, entre elas, a heterogeneidade das fontes de dados, sua dispersão e formato de apresentação pouco amigável. Devido à complexidade inerente à informação geográfica envolvida, que produz incompatibilidade em vários níveis, o intercâmbio de dados em sistemas de informação geográfica não é problema trivial. Para aplicações desenvolvidas para a Web, uma solução são os Web Services que permitem que novas aplicações possam interagir com aquelas que já existem e que sistemas desenvolvidos em plataformas diferentes sejam compatíveis. Neste sentido, o objetivo do trabalho é mostrar as possibilidades de construção de portais usando software livre, a tecnologia dos Web Services e os padrões do Open Geospatial Consortium (OGC) para a disseminação de dados espaciais. Visando avaliar e testar as tecnologias selecionadas e comprovar sua efetividade foi desenvolvido um exemplo de portal de dados sócio-econômicos, compreendendo informações de um servidor local e de servidores remotos. As contribuições do trabalho são a disponibilização de mapas dinâmicos, a geração de mapas através da composição de mapas disponibilizados em servidores remotos e local e o uso do padrão OGC WMC. Analisando o protótipo de portal construído, verifica-se, contudo, que a localização e requisição de Web Services não são tarefas fáceis para um usuário típico da Internet. Nesta direção, os trabalhos futuros no domínio dos portais de informação geográfica poderiam adotar a tecnologia Representational State Transfer (REST).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho se propõe a uma discussão sobre como pode ser encarada a questão da responsabilidade penal em relação às violações massivas de direitos humanos praticadas durante situações de repressão, considerando o caso brasileiro da edição da Lei n 6.683. Para tanto, apresenta-se o conceito de justiça de transição e o seu surgimento, que é acompanhado pela afirmação da proteção internacional dos direitos humanos. Este processo é dividido em três fases distintas, relacionadas ao fim da Segunda Guerra e o estabelecimento dos Tribunais de Nuremberg e Tóquio; à onda de democratização em algumas nações com o fim da Guerra-Fria e à criação dos tribunais internacionais e do TPI. Como forma de efetivação da justiça de transição, são apresentados os Princípios de Chicago, diretrizes a serem seguidas pelos Estados na transição democrática, que sugerem abordagens de diversas naturezas em relação às violações de direitos humanos. Como fundamento da justiça de transição, dando destaque à questão da responsabilização penal, são trazidos os dispositivos sobre o tema presentes em normas e tratados internacionais, enfatizando os aspectos do Sistema Interamericano de Direitos Humanos. Parte-se, em seguida, à apresentação do exemplo argentino na realização da justiça de transição sob o aspecto da declaração de inconstitucionalidade de suas leis de anistia, como meio de reflexão para o caso brasileiro. Conjugando os elementos anteriores, apresenta-se a situação brasileira no contexto da realização da justiça de transição, com o julgamento da ADPF 153 e com a condenação do Estado pela Corte Interamericana de Direitos Humanos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante a exploração de petróleo offshore (fora da costa), a injeção de água do mar no processo de recuperação secundária de petróleo, ocasiona a produção de sulfeto de hidrogênio (H2S) pela presença das bactérias redutoras de sulfato (BRS), que reduzem o sulfato presente na água em sulfeto. A produção intensiva de H2S tem sido um dos maiores problemas das indústrias petrolíferas, pois constitui-se uma das principais causas de corrosão em linhas de produção (tubulações), equipamentos e tanques metálicos. Os principais micro-organismos presentes em amostras salinas provenientes de tanques de armazenamento de água e óleo da indústria do petróleo são as bactérias anaeróbias heterotróficas totais (BANHT) e as bactérias redutoras de sulfato (BRS). Atualmente, a quantificação desses grupos microbianos é realizada através da técnica do Número Mais Provável (NMP) que estima o resultado em aproximadamente 28 dias. Neste trabalho foi utilizada a metodologia de produção semi-contínua de sulfetos biogênicos por 15 dias, numa tentativa de correlacionar com os resultados de quantificação de BANHT e BRS através da técnica convencional do NMP. Nesse caso, avaliou-se as condições mais adequadas para a produção biogênica de sulfetos em tanques, alterando-se parâmetros tais como salinidade, temperatura e composição do meio de cultura. Verificou-se que os aumentos da salinidade e da temperatura do meio implicaram na diminuição da atividade biogênica semi-contínua de geração de sulfetos. E conforme dilui-se o meio de cultura, o crescimento de bactérias foi reduzido, assim como a geração de sulfetos. A quantificação de BRS e BANHT foi avaliada pela técnica do NMP de acordo com o método do FDA em 2011 e de Harrigan em 1998. Este último subestima a população microbiana, desconsiderando os limites e erros provenientes da técnica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é estudada a viabilidade de uma implementação em paralelo do algoritmo scale invariant feature transform (SIFT) para identificação de íris. Para a implementação do código foi utilizada a arquitetura para computação paralela compute unified device architecture (CUDA) e a linguagem OpenGL shading language (GLSL). O algoritmo foi testado utilizando três bases de dados de olhos e íris, o noisy visible wavelength iris image Database (UBIRIS), Michal-Libor e CASIA. Testes foram feitos para determinar o tempo de processamento para verificação da presença ou não de um indivíduo em um banco de dados, determinar a eficiência dos algoritmos de busca implementados em GLSL e CUDA e buscar valores de calibração que melhoram o posicionamento e a distribuição dos pontos-chave na região de interesse (íris) e a robustez do programa final.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De um território livre, construído em torno dos princípios da liberdade e da colaboração um ambiente onde pode ser exercida a liberdade de ser (ou parecer), de dizer (ou escrever) e de ouvir (ou ler), para o bem ou para o mal, a massificação do uso da Internet tem constituído um espaço social (virtual) contraditório e diversificado, onde forças cuja vocação parece ser homogeneizar (e possivelmente pasteurizar) esse território livre da diferença têm sido postas em cena. Dentre essas forças, lugar especial é ocupado pelo que se convencionou chamar portais de interesse geral. Tais sites, ao procurar responder a diferentes interesses, de modo a assegurar que o máximo possível de anseios de seus usuários seja satisfeito sem a necessidade de navegarem para fora dos seus domínios, são construídos como empreendimentos cujo sucesso requer o controle do comportamento de navegação dos usuários o que, neste caso, não pode ser feito senão através do discurso (persuasivo). A hipótese que salta aos olhos é evidente: e se este não for apenas um controle pelo discurso, mas um controle do discurso? A premissa é, evidentemente, que tais sites constituem uma categoria especial de artefatos de linguagem produzidos no interior de eventos comunicativos bem determinados, isto é, um gênero emergente do discurso. Assim, o objetivo primário da presente pesquisa consistiu em determinar como o modo de funcionamento discursivo do portal contribui para afetar os hábitos de navegação dos seus usuários, curvando e distorcendo o ciberespaço nas suas vizinhanças. Para isso procuramos abordar o que chamamos atratores retóricos, isto é, aquelas estratégias (discursivas) destinadas a seduzir, convencer ou mesmo fraudar os usuários de modo a assegurar sua permanência na órbita dos portais, fazendo desses websites vetores da ordem do discurso, um elemento de controle do caos típico do ciberespaço, um agente de exorcismo da diferença e subjugação do discurso desenfreado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo de envelhecimento populacional, ainda que amplamente reconhecido como uma das principais conquistas do século XX engendra o desafio de assegurar que o processo de desenvolvimento ocorra com base em princípios capazes de garantir a dignidade humana e a equidade entre os grupos etários na partilha dos recursos, direitos e responsabilidades sociais. Além dos desafios impostos aos já tradicionais programas constantes dos atuais sistemas de seguridade social, o envelhecimento populacional acrescenta uma nova questão ou risco social: os cuidados de longa duração, demandados pelos idosos com perda de capacidade instrumental e/ou funcional para lidar com as atividades do cotidiano. Por capacidade instrumental pode-se entender a capacidade para a realização de atividades relacionadas a, por exemplo: preparar refeições, fazer compras no mercado, ir ao banco, cuidar da casa etc. Capacidade funcional, por sua vez, refere-se às seguintes atividades: alimentar-se, banhar-se, caminhar distâncias curtas, vestir-se etc. A preocupação com os cuidados de longa duração dos idosos nos países desenvolvidos, onde o processo de envelhecimento populacional já se encontra mais avançado, surgiu como uma necessidade de se separar os custos crescentes com o tratamento dos idosos dos demais gastos com saúde. Os custos, tangíveis ou não, envolvidos na atividade de cuidar/assistir aos idosos tendem a aumentar em função da entrada maciça das mulheres no mercado de trabalho e das mudanças nos contratos de gênero, sugerindo crescentes dificuldades para que as famílias arquem com a responsabilidade pelo cuidado de seus idosos. Em países em desenvolvimento, como o Brasil, essa questão é agravada por se somar a uma ampla lista a ser respondida pelos sistemas de seguridade social, tais como a pobreza, a exclusão de crescentes contingentes da população e o nível de desigualdade vigente. No Brasil, para que se possa avançar no debate sobre os cuidados de longa duração voltados para uma população idosa crescente, faz-se necessário rediscutir e redefinir uma série de parâmetros do atual sistema de seguridade social, em especial, a expressiva parcela de trabalhadores informais alijados do mesmo. O precário equilíbrio, ou resultado, do sistema de seguridade social brasileiro precisa ser revisto e analisado a luz das tendências demográficas, sociais e econômicas que se vislumbram para os próximos 20 ou 30 anos. Somente após o reequacionamento do sistema é possível pensar a incorporação desta nova e latente demanda da sociedade brasileira.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Somente no ano de 2011 foram adquiridos mais de 1.000TB de novos registros digitais de imagem advindos de Sensoriamento Remoto orbital. Tal gama de registros, que possui uma progressão geométrica crescente, é adicionada, anualmente, a incrível e extraordinária massa de dados de imagens orbitais já existentes da superfície da Terra (adquiridos desde a década de 70 do século passado). Esta quantidade maciça de registros, onde a grande maioria sequer foi processada, requer ferramentas computacionais que permitam o reconhecimento automático de padrões de imagem desejados, de modo a permitir a extração dos objetos geográficos e de alvos de interesse, de forma mais rápida e concisa. A proposta de tal reconhecimento ser realizado automaticamente por meio da integração de técnicas de Análise Espectral e de Inteligência Computacional com base no Conhecimento adquirido por especialista em imagem foi implementada na forma de um integrador com base nas técnicas de Redes Neurais Computacionais (ou Artificiais) (através do Mapa de Características Auto- Organizáveis de Kohonen SOFM) e de Lógica Difusa ou Fuzzy (através de Mamdani). Estas foram aplicadas às assinaturas espectrais de cada padrão de interesse, formadas pelos níveis de quantização ou níveis de cinza do respectivo padrão em cada uma das bandas espectrais, de forma que a classificação dos padrões irá depender, de forma indissociável, da correlação das assinaturas espectrais nas seis bandas do sensor, tal qual o trabalho dos especialistas em imagens. Foram utilizadas as bandas 1 a 5 e 7 do satélite LANDSAT-5 para a determinação de cinco classes/alvos de interesse da cobertura e ocupação terrestre em três recortes da área-teste, situados no Estado do Rio de Janeiro (Guaratiba, Mangaratiba e Magé) nesta integração, com confrontação dos resultados obtidos com aqueles derivados da interpretação da especialista em imagens, a qual foi corroborada através de verificação da verdade terrestre. Houve também a comparação dos resultados obtidos no integrador com dois sistemas computacionais comerciais (IDRISI Taiga e ENVI 4.8), no que tange a qualidade da classificação (índice Kappa) e tempo de resposta. O integrador, com classificações híbridas (supervisionadas e não supervisionadas) em sua implementação, provou ser eficaz no reconhecimento automático (não supervisionado) de padrões multiespectrais e no aprendizado destes padrões, pois para cada uma das entradas dos recortes da área-teste, menor foi o aprendizado necessário para sua classificação alcançar um acerto médio final de 87%, frente às classificações da especialista em imagem. A sua eficácia também foi comprovada frente aos sistemas computacionais testados, com índice Kappa médio de 0,86.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Restauração de Imagens é uma técnica que possui aplicações em várias áreas, por exemplo, medicina, biologia, eletrônica, e outras, onde um dos objetivos da restauração de imagens é melhorar o aspecto final de imagens de amostras que por algum motivo apresentam imperfeições ou borramentos. As imagens obtidas pelo Microscópio de Força Atômica apresentam borramentos causados pela interação de forças entre a ponteira do microscópio e a amostra em estudo. Além disso apresentam ruídos aditivos causados pelo ambiente. Neste trabalho é proposta uma forma de paralelização em GPU de um algoritmo de natureza serial que tem por fim a Restauração de Imagens de Microscopia de Força Atômica baseado na Regularização de Tikhonov.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho que envolve matemática aplicada e processamento paralelo: seu objetivo é avaliar uma estratégia de implementação em paralelo para algoritmos de diferenças finitas que aproximam a solução de equações diferenciais de evolução. A alternativa proposta é a substituição dos produtos matriz-vetor efetuados sequencialmente por multiplicações matriz-matriz aceleradas pelo método de Strassen em paralelo. O trabalho desenvolve testes visando verificar o ganho computacional relacionado a essa estratégia de paralelização, pois as aplicacações computacionais, que empregam a estratégia sequencial, possuem como característica o longo período de computação causado pelo grande volume de cálculo. Inclusive como alternativa, nós usamos o algoritmo em paralelo convencional para solução de algoritmos explícitos para solução de equações diferenciais parciais evolutivas no tempo. Portanto, de acordo com os resultados obtidos, nós observamos as características de cada estratégia em paralelo, tendo como principal objetivo diminuir o esforço computacional despendido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos, temos nos deparado com a difusão maciça e a popularização crescente de descrições biológicas para aspectos outrora pensados como mentais, sociais, ou relacionais. Visível em diversas arenas leigas e científicas, esta tendência freqüentemente elege o cérebro como o órgão privilegiado da sua atenção. A cada semana é divulgada uma nova localização cerebral correlacionada os mais variados aspectos comportamentais e ou de personalidade. Acompanhando este movimento, é notável o esforço intelectual e financeiro despendido nos últimos anos no campo da saúde mental, no sentido de fazer avançar pesquisas cujo foco central é a descoberta das bases neurobiológicas dos transtornos mentais. Esta tendência apontaria na direção de uma fusão entre a psiquiatria e a neurologia em uma disciplina única, de teor fisicalista, chamada por alguns de cerebrologia. Dentre os acontecimentos que serviram de alicerce para a legitimação e a popularização desta tendência, o desenvolvimento nas últimas décadas de novas técnicas e tecnologias de visualização médica, como a tomografia por emissão de pósitrons (PET scan) e a ressonância magnética funcional (fMRI), foi fundamental. Elas permitiram a construção de imagens das mais diversas categorias nosográficas construídas no campo psiquiátrico, veiculando tacitamente uma série de pressupostos e promessas. Malgrado o imaginário cultural sustentado por estas tecnologias e todo o esforço despendido nas últimas décadas no sentido de se tentar localizar os marcadores biológicos dos transtornos psiquiátricos, não há, até o presente momento, nenhum resultado conclusivo que autorize o diagnóstico por imagem de nosografias como a esquizofrenia, a depressão, e muito menos o jogo patológico. Apesar de todo o alarde midiático e dos montantes milionários direcionados para pesquisas nesta área, os resultados concretos obtidos até agora não estão livres das mais ferozes controvérsias. Entretanto, ainda que estejamos muito longe da construção de mapas precisos para as perturbações mentais é espantoso o poder de convencimento que as neuro-imagens comportam na atualidade. Os scans são exibidos como verdades visuais, ou fatos acerca das pessoas e do mundo, numa proporção muito superior aos dados que apresentam. Alguns críticos chamam este aspecto de neurorealismo, ou de retórica da auto-evidência. A intenção deste trabalho é problematizar o poder persuasivo que as neuro-imagens detém na contemporaneidade, especialmente quando utilizadas com a finalidade diagnóstica no campo da saúde mental. Se estas imagens transmitem uma ideia de neutralidade, transparência imediata e auto-evidência, este trabalho almeja inseri-las num contexto sócio-histórico, a partir do qual puderam adquirir sentido, familiaridade e valor de verdade. O ponto de partida é o de que elas estão localizadas no cruzamento de dois movimentos históricos distintos: o das ilustrações médicas, em sua relação com a produção de conhecimento objetivo; e o das pesquisas acerca da localização no córtex cerebral de comportamentos complexos e traços de personalidade. Além de estabelecer algumas condições históricas de possibilidade para a emergência de um neo-localizacionismo cerebral, mediado pelas novas tecnologias de imageamento, pretende-se enfatizar algumas descontinuidades com projetos anteriores e marcar a influência do contexto cultural da atualidade para o sucesso e poder persuasivo deste tipo de tecnologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Multi-Processor System-on-Chip (MPSoC) possui vários processadores, em um único chip. Várias aplicações podem ser executadas de maneira paralela ou uma aplicação paralelizável pode ser particionada e alocada em cada processador, a fim de acelerar a sua execução. Um problema em MPSoCs é a comunicação entre os processadores, necessária para a execução destas aplicações. Neste trabalho, propomos uma arquitetura de rede de interconexão baseada na topologia crossbar, com memória compartilhada. Esta arquitetura é parametrizável, possuindo N processadores e N módulos de memórias. A troca de informação entre os processadores é feita via memória compartilhada. Neste tipo de implementação cada processador executa a sua aplicação em seu próprio módulo de memória. Através da rede, todos os processadores têm completo acesso a seus módulos de memória simultaneamente, permitindo que cada aplicação seja executada concorrentemente. Além disso, um processador pode acessar outros módulos de memória, sempre que necessite obter dados gerados por outro processador. A arquitetura proposta é modelada em VHDL e seu desempenho é analisado através da execução paralela de uma aplicação, em comparação à sua respectiva execução sequencial. A aplicação escolhida consiste na otimização de funções objetivo através do método de Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO). Neste método, um enxame de partículas é distribuído igualmente entre os processadores da rede e, ao final de cada interação, um processador acessa o módulo de memória de outro processador, a fim de obter a melhor posição encontrada pelo enxame alocado neste. A comunicação entre processadores é baseada em três estratégias: anel, vizinhança e broadcast. Essa aplicação foi escolhida por ser computacionalmente intensiva e, dessa forma, uma forte candidata a paralelização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo apresenta uma análise dos fios/vazios que se traçam na elaboração da fanpage Diário de Classe: a verdade, criada pela adolescente Isadora Faber. A página, que tornou-se manchete em diferentes canais midiáticos, apresenta denúncias sobre a situação de precariedade de algumas instalações que a escola Maria Tomázia Coelho, localizada na cidade de Florianópolis em Santa Catarina, apresentava. Desta forma, o objetivo deste trabalho está em investigar de que maneira a página em questão tornou-se um fenômeno na grande rede a partir das publicações realizadas por Isadora Faber. Para a realização da pesquisa baseamo-nos na entrevista cedida pela autora da página, de algumas reportagens publicadas online e de uma análise exploratória do corpo da fanpage. O trabalho apresenta apontamentos que retratam inicialmente de que maneira as novas Tecnologias de Informação e Comunicação estão inseridas em nossas vidas e em especial, na escola, tratando o tema como uma expressão que vem sendo abordada como uma ideia de impacto, todavia. A abordagem rede/nós e vazio/furo foram trabalhados de maneira a estabelecermos um paralelo entre os termos e delinearmos nossa metodologia de estudo, então. Em um terceiro momento, os termos massivo e pós-massivo de comunicação foram tratados nesta pesquisa como forma de entendimento do que se configuraria suas características e de uma relação que o primeiro estabelece no segundo. As considerações do estudo, indica, então, outros furos e nós que serão estabelecidos pelo leitor deste texto, no entanto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente o tabagismo é considerado pela Organização Mundial da Saúde (OMS) como um fator de risco à vida a ser combatido com alta prioridade. No entanto, um processo maciço de propaganda e marketing parece ter sido historicamente decisivo para dar à prática de fumar uma representação positiva, através de uma associação sistemática entre o consumo de derivados do tabaco e o ideal de auto-imagem, como beleza, sucesso, saúde e liberdade. Essa transformação da imagem do cigarro de símbolo de status e saúde para uma séria doença a ser combatida evidencia a importância de analisar o tabagismo como um fenômeno psicossocial. O objetivo geral desta investigação consiste, portanto, em analisar comparativamente as representações sociais acerca do tabagismo construídas por grupos de indivíduos que se incluam diferencialmente nas condições de fumantes, ex-fumantes e não-fumantes. A pesquisa foi realizada com uma amostra de 500 (quinhentos) participantes residentes no Estado do Rio de Janeiro, de ambos os sexos, podendo pertencer às categorias de fumantes, ex-fumantes e não-fumantes. A coleta de dados foi realizada por meio eletrônico, através da aplicação de um questionário, que em parte focaliza os dados sóciodemográficos dos participantes e, em outra, apresenta questões abertas e fechadas, incorporando ainda uma tarefa de evocação livre ante o termo indutor tabagismo ou prática de fumar. Os resultados da análise estrutural da representação social do tabagismo possibilitou verificar uma unanimidade quanto à significação controversa que é atribuída a ele. De um lado, verificam-se dimensões negativas desta prática, que são objetivadas pelas implicações e repercussões na saúde dos fumantes ativos e passivos e, por outro lado, existem as dimensões positivas, que representam as funções sociais do tabagismo, e as sensações prazerosas que ele provoca nos fumantes. Observa-se o processo de construção de uma nova representação social do tabagismo, onde é estabelecida uma conexão entre uma velha representação do tabagismo enquanto hábito de vida, estilo de vida, com uma nova representação, o tabagismo como vício/dependência, criando novos significados e imagens do objeto. Para concluir, vale ressaltar que as representações sociais dos ex-fumantes e dos não-fumantes mostraram-se bastantes próximas, ressaltando essencialmente os aspectos negativos do tabagismo, enquanto que a dos fumantes diferenciam-se um pouco ao apresentar elementos como prazer. Mas de modo geral, as representações não mostraram-se tão distintas, revelando que os próprios fumantes vivenciam uma relação muito antagônica com o tabagismo, manifestando em diversos momentos vontade de tornarem-se ex-fumantes. Parece que a representação do tabagismo como um hábito glamoroso não mais existe e que de fato a política de controle a ele vem obtendo êxito com suas medidas restritivas o que é algo extremamente positivo para nossa sociedade do ponto de vista da saúde pública. No entanto, na esfera social, parece necessário que essa atmosfera de temor e asco envolta no tabagismo seja pensada e refletida, para que não resulte em discriminação social com os tabagistas, tornando-os novamente vítima, mas de uma nova situação social