107 resultados para Belisario, Flavio


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Incialmente, este trabalho buscou entender a origem e a evolução das abordagens das capacitações e do desenvolvimento humano. Este processo exigiu o entendimento de abordagens relacionadas, tais como a do Desenvolvimento Econômico e Teorias das Necessidades Humanas (e teoria das necessidades básicas). Exigiu também, o entendimento de como essas teorias foram operacionalizadas, como são medidas, quais as limitações que apresentaram e em que contribuíram para a construção das abordagens atualmente em uso. Por fim, buscou explorar possibilidades práticas de aplicação da Abordagem das Capacitações. Utilizando dados primários, foram utilizadas diferentes técnicas estatisticas que vêm sendo exploradas na literatura internacional no processo de operacionalização dessa abordagem. Os dados são provenientes de um survey que avaliou o programa Você Apita. A partir do estudo desenvolvido pode-se perceber uma evolução signficativa tanto em termos práticos quanto teóricos nas questões relativas ao desenvolvimento humano. Porém, apesar das contribuições já existentes, a operacionalização da abordagem das capacitações precisa ser melhor explorada. No que tange a comparação entre a Abordagem das Capacitações (CA) e Teoria das Necessidades Humanas, nota-se que são abordagens similares em vários aspectos. As críticas direcionadas a Teoria das Necessidade Humanas (HNT) pelos simpatizantes da Abordagem das Capacitações, são apropriadas quando direcionadas apenas a Teoria das Necessidade Básicas, mas não a Teoria das Necessidade Humanas como um todo. Na análise do IDH percebe-se que o indice representa uma evolução se comparado aos indices anteriores porém, não é capaz de acrescentar muito em termos de mensuração das capacitações das pessoas. Por fim, a utilização de técnicas alternativas para avaliar a eficácia de políticas socias em termos de promoção de capacitações, evidencia robustez entre as técnicas atualmente em uso na literatura internacional e constituí-se num exemplo de operacionalização da abordagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem conjunta de média e variância tem se mostrado particularmente relevante na obtenção de processos e produtos robustos. Nesse contexto, deseja-se minimizar a variabilidade das respostas simultaneamente com o ajuste dos fatores, tal que se obtenha a média da resposta próxima ao valor alvo. Nos últimos anos foram desenvolvidos diversos procedimentos de modelagem conjunta de média e variância, alguns envolvendo a utilização dos Modelos Lineares Generalizados (GLMs) e de projetos fatoriais fracionados. O objetivo dessa dissertação é apresentar uma revisão bibliográfica sobre projetos fatoriais fracionados e GLM, bem como apresentar as propostas de modelagem conjunta encontradas na literatura. Ao final, o trabalho enfatiza a proposta de modelagem conjunta de média e variância utilizando GLM apresentada por Lee e Nelder (1998), ilustrando-a através de um estudo de caso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essa dissertação apresenta a aplicação em um estudo de caso,da metodologia Quality Function Deployment - QFD - Desdobramento da Função Qualidade, para o desenvolvimento e planejamento da qualidade de veículos destinados ao transporte coletivo de passageiros. Para identificar as necessidades dos clientes, realizou-se uma Pesquisa de Marketing, do tipo qualitativa, com questionário de perguntas abertas, utilizando-se entrevistas em profundidade e grupos focados. O desdobramento das qualidades demandadas pelos clientes,foi realizado utilizando-se um modelo conceitual para o produto, através de oito matrizes, sendo a primeira, a matriz da qualidade, e a última, a matriz dos custos relativos aos processos de montagem. Através das conversões e considerações sobre importâncias, dificuldades de atuação, tempo necessário para adequações, custos para melhorias e outros critérios, foram identificados os itens a serem priorizaos quanto ao planejamento da qualidade. A partir dessas priorizações foram estabelecidos planos de melhoria da qualidade para as características de qualidade, componentes do produto, processos de montagem, recursos humanos e recursos de infra-estrutura, definidos nas matrizes de QFD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O entendimento da manufatura celular passa pelo estudo das rotas de fabricação e pelos métodos de agrupamento de máquinas e de peças. Neste contexto, o objetivo principal deste trabalho é a implemetação de uma ferramenta de auxílio ao projeto de células de manufatura, abordando uma metodologia fundamentada na Tecnologia de Grupo para agrupamento de máquinas em células de manufatura com as respectivas famílias de peças. A base de dados com as informações das peças, das máquinas e das rotas que compõe o fluxo de produção é implementada em um banco de dados relacional. A matriz incidência peça-máquina é montada a partir das rotas armazenadas no banco de dados através de um aplicativo desenvolvido em Visual Basic. Os agrupamentos em famílias de peças e células de manufatura são gerados por três diferentes algoritmos: o Rank Order Clustering (ROC), o Close Neighbor Algorithm (CNA) e um algoritmo heurístico (HEU). São aplicadas restrições referentes a limite de carregamento, tamanho de célula e resolução de situações de “gargalo”. Processados os algoritmos de agrupamento, são analisados os resultados em função da densidade e da eficiência do agrupamento. O sistema apresenta o resultado final em planilhas no formato MS Excel. A primeira planilha, chamada resultados, exibe os valores das restrições de projeto das células (número de máquinas por célula, tempo limite de carregamento e tempo limite para duplicação da máquina), o número de peças (colunas) e de máquinas (linhas) da matriz incidência, os valores de eficiência do agrupamento de peças, do agrupamento de máquinas e do aproveitamento dos recursos, bem como o número de células independentes e a quantidade de máquinas duplicadas, obtidos por cada algoritmo no sistema, destacando os melhores resultados. A segunda planilha mostra a matriz incidência peça-máquina. As demais planilhas apresentam, respectivamente, a matriz diagonalizada com o algoritmo original (ROC e CNA), a matriz diagonalizada levando-se em consideração as restrições de projeto das células (análise ROC, análise CNA e HEU) e por fim, uma planilha relatório. A planilha relatório tabula os mesmos valores citados na primeira planilha e lista as peças associadas a cada família, as máquinas associadas a cada célula, as peças rejeitadas, por não se enquadrarem nos agrupamentos, e que devem ser tratadas fora do ambiente celular e as máquinas duplicadas. A comparação dos resultados é efetuada considerando as características adicionadas aos algoritmos originais. Dos três estudados, as restrições de projeto são tratadas na implementação do HEU. Os demais, ROC e CNA, têm incorporado um pós processamento. Em análises comparativas observa-se a superioridade dos algoritmos ROC e HEU em relação ao CNA e os resultados do ROC são melhores ou iguais aos demais, dificilmente inferiores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em sistemas produtivos onde a diversificação da produção é vista como estratégia competitiva, a customização torna-se uma ferramenta importante, pois possibilita a produção de itens diferenciados a custos similares aos de produtos padronizados. No entanto, sua implementação requer certa flexibilidade no processo produtivo, sendo esta adquirida através da adoção de linhas de montagem capazes de alternar diferentes modelos de um mesmo produto, denominadas como linhas de montagem multi-modelos. Neste tipo de sistema produtivo, a distribuição das tarefas de montagem entre as estações de trabalho tende a ser mais complexa, devido às características de cada modelo produzido pela linha. Dessa forma, o estudo do problema de balanceamento de linhas de montagem multi-modelos é necessário ao desejar-se obter uma melhor distribuição da carga de trabalho entre as estações e, conseqüentemente, um aumento de produtividade. Esta dissertação propõe uma sistemática para realização de balanceamento em linha de montagem multi-modelos. Para tanto, são classificados quanto às suas características e aplicabilidade procedimentos de balanceamento de linhas multi-modelos desenvolvidos por diversos autores. Um desses procedimentos, inserido na sistemática proposta, tem sua aplicação ilustrada através de um estudo de caso em uma indústria de manufatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A formulação de planejamentos e o direcionamento estratégico das empresas dependem da identificação e a previsão correta das mudanças emergentes no ambiente de negócios, o que torna a previsão de demanda um elemento chave na tomada de decisão gerencial. Um dos maiores problemas associados com o uso de previsões de demanda no apoio à tomada de decisões é a escolha do método de previsão a ser implementado. Organizações com necessidades e características distintas em relação aos seus produtos e serviços atuam em diferentes cenários de mercado. Diferentes cenários necessitam de diferentes métodos de previsão, de forma a refletir mudanças na estrutura do mercado (como entrada de novos produtos, novos competidores e/ou mudanças no comportamento dos consumidores). Assim, uma metodologia que direcione diferentes métodos de previsão de demanda para as situações em que são mais eficientes pode auxiliar o processo preditivo e de tomada de decisões das organizações, minimizando erros de planejamentos estratégico, tático e operacional. Esta dissertação apresenta uma metodologia de seleção de métodos de previsão de demanda mais apropriados para diferentes situações. Métodos de integração de métodos qualitativos e quantitativos de previsão melhoram a acurácia nos processo preditivos e também são abordados na metodologia de seleção de métodos de previsão. A metodologia proposta é ilustrada através de dois estudos de caso. No primeiro estudo investigou-se o caso de um produto com demanda regular. No segundo estudo, detalhou-se o processo de previsão para um cenário de lançamento de um novo produto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho aborda o desenvolvimento e aplicação de um sistema de visão para um robô industrial, dedicado a tarefas de manipulação. Para seu desenvolvimento, foi feita a integração de equipamentos comerciais de captação de vídeo com um PC, onde é executada a análise das imagens. Os resultados são enviados ao controlador do robô através de um sistema de comunicação, sendo recebidos por um programa de manipulação que executa as tarefas. Como peça central do sistema de captura e processamento de imagens tem-se o programa RobVis, desenvolvido em linguagem Visual Basic e que tem a função principal de identificar a posição e orientação de objetos a serem manipulados pelo robô, que interpreta as imagens captadas por uma câmera de vídeo do tipo CCD, ligada a uma placa de captura de imagens. Após definidas as variáveis de interesse, estas são transmitidas ao controlador do robô, através de um sistema de comunicação IRBCom, desenvolvido no Laboratório de Robótica da UFRGS. No controlador, um programa de manipulação escrito em linguagem Rapid, nativa do manipulador empregado, recebe as variáveis para execução da tarefa de captura de objetos em posições aleatórias e depósito em um ponto de descarga pré-definido. O sistema de visão desenvolvido caracteriza-se como de fácil implementação e aplicação em tarefas de manipulação robótica industrial que exijam a determinação da posição e orientação de objetos de trabalho dentro de uma porção do volume de trabalho do robô, coberta por um sistema de visão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objeto de estudo deste trabalho é uma avaliação dos impactos econômicos e ambientais de um possível acordo comercial da Área de Livre Comércio da Américas (ALCA) concomitantemente com as reduções de emissões de CO2 tratadas pelo Protocolo de Quioto. Acordos globais de redução de CO2 podem distorcer os resultados que seriam obtidos pelos acordos comerciais, e os acordos comerciais tendem a gerar mais emissões de CO2. Os cenários são construídos para a simulação de eliminação dos gravames tarifários entre os membros da ALCA bem como de redução de emissão de CO2 para os signatários do Protocolo, admitindo ainda a possibilidade de execução de um dos mecanismos de flexibilidade do Protocolo de Quioto – o comércio de emissões. O instrumento utilizado para as simulações - GTAP-E - é uma versão modificada do GTAP (Global Trade Analysis Project) desenvolvido pela Universidade de Purdue. O GTAP-E (energia), foi projetado para analisar assuntos relacionados ao uso de energia e impactos de políticas de mudança climática. Ele difere do modelo GTAP padrão principalmente pela descrição mais detalhada das possibilidades de substituição de uso entre as diferentes fontes de energia. Esse modelo utiliza uma base de dados que, além dos dados usualmente utilizados pelo GTAP padrão, inclui elasticidades de substituição para o uso dos commodities energia e quantidades de emissões de CO2 gerados pela queima dos combustíveis fósseis (carvão, petróleo cru e gás natural), e também pelo uso de produtos derivados do petróleo e geração de eletricidade Os resultados obtidos corroboraram a hipótese que a política ambiental de redução de emissões, apesar de contribuir para a diminuição de CO2 na atmosfera, de forma geral, afeta negativamente o bem-estar econômico dos países que abatem emissões, principalmente através do encarecimento das commodities de energia e a conseqüente redução do seu uso. Esse efeito é mais pronunciado em países cuja matriz energética é mais intensiva em carvão e petróleo. Para o Brasil, os resultados mostraram que a melhor estratégia para participar do processo de redução de emissões seria a de o país estar inserido diretamente no mecanismo de comércio de emissões. Essa situação traria ganhos de bemestar econômico, avaliados pela variação equivalente da renda, superiores, em comparação às alternativas em que o mesmo não participa de tal mecanismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A correta utilização do espaço físico de uma fábrica é fator importante para o seu bom funcionamento, já que estabelece a sua organização fundamental, bem como os padrões de fluxo de materiais e informações, com efeitos que se farão presentes no longo prazo. A fim de sistematizar um adequado planejamento de layout, métodos para planejamento do macro-espaço, como o SLP (Systematic Layout Planning – Planejamento Sistemático de Layout), podem auxiliar no desenvolvimento de alternativas de layout. Contudo, devido à geração de soluções sub-ótimas com benefícios e desvantagens diferentes, o processo decisório da melhor alternativa de layout torna-se crítico para garantir a eficiência e flexibilidade de empresas frente aos diferentes cenários de mercado. O objetivo principal desta dissertação é a utilização de ferramentas de apoio à decisão multicritério em sistemáticas de planejamento de layout. A metodologia de análise multicritério proposta foi colocada em prática na seleção de alternativas de layout em uma empresa do ramo automotivo, que necessita ampliar seu parque fabril de modo a possibilitar a incorporação de novos equipamentos e otimização do fluxo de materiais. Nove alternativas de macro-layout diferentes foram geradas sendo avaliada a melhor alternativa geral em relação a sete critérios de avaliação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas produtivos industriais podem combinar, em células de manufatura, diferentes características de automação de processos permitindo interfaceamento e possibilitando a flexibilização e otimização da manufatura. Nos processos de fabricação, as dificuldades para a execução de processos de usinagem convencional ou mesmo através de comando numérico, quando se dispõe de máquinas adequadas para a fabricação de peças de geometrias complexas, podem limitar a criatividade, bem como dificultar o desenvolvimento do processo produtivo de forma otimizada. As dificuldades encontradas vão desde fixação das peças, necessidades de dispositivos especiais, restrições nos volumes de trabalho de máquinas CNC e mesmo a geração de trajetórias complexas para máquinas com limitações de eixos. Este trabalho propõe uma metodologia alternativa para usinagem, especialmente fresamento, com desenvolvimento de um algoritmo capaz de, através da utilização de recursos de sistemas CAD/CAM, traduzir arquivos gráficos para uma linguagem de programação utilizada em robôs. Na aplicação utilizam-se recursos dos sistemas CAD/CAM para gerar, numa primeira etapa, o código de programação para máquinas-ferramenta de comando numérico e posterior adaptação, para aplicação em sistemas robóticos. Informações de caminhos de ferramenta para usinagem em máquinas CNC são convertidos, através de uma interface computacional, em trajetórias a serem seguidas por uma ferramenta guiada por um manipulador de robô industrial. Os parâmetros de processo são também adequados as restrições dos sistemas robotizados. A viabilidade do sistema proposto é confirmada através de testes realizados em modelos de superfícies complexas, onde o objetivo do referido trabalho foi alcançado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Historicamente, devido à incompreensibilidade dos fenômenos físicos envolvidos, diversas técnicas de análise experimental de escoamentos foram desenvolvidas. Inicialmente, estas técnicas consistiam em uma simples visualização do escoamento em questão. Visava-se com isto produzir a intuição física a respeito do sistema físico para que futuras teorias pudessem ser formuladas. No entanto, nos anos posteriores, tornou-se necessária a criação de técnicas quantitativas. Neste segmento, a evolução tecnológica da eletrônica propiciou que técnicas intrusivas e não intrusivas fossem criadas. Tal processo culminou com o surgimento da microeletrônica, quando sensores eletrônicos de imagem puderam ser fabricados. Assim, técnicas não intrusivas de velocimetria através de processamento digital de imagens tornaram-se referência, possibilitando a medição de campos de velocidade do escoamento em análise. Tais técnicas são atualmente utilizadas não apenas no meio acadêmico, na investigação da turbulência, como na indústria, em projetos de engenharia que envolvam alta tecnologia. Neste trabalho, apresenta-se uma metodologia para a concepção de um sistema de velocimetria de 2 dimensões por processamento digital de imagens. Para tanto, o sistema de velocimetria foi dividido em duas partes, sendo os equipamentos bem como os conceitos físicos envolvidos em cada uma analisados e descritos Por fim, projetou-se e implementou-se um sistema de velocimetria de 2 dimensões através de processamento digital de imagens, modo PIV. A sua validação foi efetuada sobre um escoamento altamente turbulento interno a um duto circular, cuja solução é conhecida e exaustivamente estudada no decorrer dos anos. O resultado obtido se apresentou totalmente satisfatório e demonstrou a grande importância atual de tal técnica de medição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo identificar, através de um estudo transversal, associações entre as características demográficas, comportamentos de risco sexual e por drogas, sintomatologia psiquiátrica e autoconceito em uma amostra de adolescentes, comparando-os pela soropositividade HIV. Foram entrevistados 388 adolescentes entre 13 e 20 anos que procuraram espontaneamente o Centro de Triagem e Avaliação (CTA) Paulo César Bonfim para realizar o teste anti-HIV. Foram utilizados os questionários CRA (Comportamentos de Risco para AIDS), SCL-90-R (The Symptom Check-List-90-R) e EFA (Escala Fatorial de Autoconceito). A média da idade foi de 17,7 anos (±2,0). A maioria da amostra era do sexo feminino, solteiro ou sem companheiro/a fixo/a, sem trabalho, com baixas escolaridade e renda familiar. Em relação ao teste sorológico, 73% estavam realizandoo pela primeira vez, e a soropositividade geral da amostra foi de 6,2%. A escolaridade foi significativamente mais baixa em soropositivos (OR= 7,8) e não houve diferença estatística entre os grupos nas demais variáveis demográficas. Houve associação direta entre soropositividade e precocidade de início da vida sexual (OR= 3,6), história de gravidez (OR=4,7), prática de aborto prévio (OR= 5,9) e relação sexual com parceiro sem preservativo (OR=3,2). Do total da amostra, 8% dos adolescentes recebeu dinheiro em troca de relação sexual, e isto foi associado à soropositividade (OR=4,5). O mesmo ocorreu nos 13,2% que tiveram relação sexual com paceiro/a possivelmente soropositivo (OR=8,3). Apenas 18,9% da amostra afirmaram usar preservativos nos 6 meses prévios à coleta e 81,4% da amostra não haviam usado preservativo nas relações sexuais ao longo da vida. A prevalência geral de uso de drogas no mês anterior à coleta foi alta, com relato freqüente de uso de múltiplas drogas, sendo as mais freqüentes o álcool (71,6 %), maconha (24,7%), cocaína intranasal (12,4%) e solventes (9,3 %). A soropositividade foi mais alta nos usuários recentes de maconha (OR= 2,8), estimulantes (OR=2,9) e solventes (OR= 7,5). A freqüência a local específico para uso de drogas ocorreu em 22,5% do total da amostra e foi estatisticamente maior nos soropositivos (OR=2,6). Os adolescentes soropositivos apresentaram siginficativamente mais sintomatologia psiquiátrica em todas as dimensões avaliadas. Não houve diferença nas dimensões de autoconceito. O Tamanho de Efeito Padronizado foi maior nas variáveis da sintomatologia psiquiátrica do que nas do autoconceito. Os resultados indicam que os adolescentes estudados ainda não possuem cuidados preventivos suficientes para diminuir o contágio pelo vírus da AIDS. São indivíduos sob risco constante por apresentarem maior freqüência de exposição ao HIV associada à baixa escolaridade, comportamento sexual, uso de drogas e sintomatologia psiquiátrica. A falta de diferenças no autoconceito dos adolescentes soropositivos e soronegativos pode estar associada ao senso de invulnerabilidade próprio da faixa etária. Os achados apontam para a necessidade de programas específicos de prevenção para adolescentes. Medidas de intervenção futuras deverão levar em conta a interação de fatores individuais, ambientais, comportamentais e psicológicos, com o objetivo de implementar mudanças efetivas no comportamento de risco para que se detenha o avanço da epidemia nessa faixa etária.