1000 resultados para Ferramenta de trabalho
Resumo:
Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.
Resumo:
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
Resumo:
Esta dissertação trata do desenvolvimento e avaliação de uma ferramenta computacional multimeios utilizada no auxílio ao aprendizado de projetos de experimentos básicos. A busca da sociedade por novos produtos e processos, cada vez melhores e de forma mais rápida, determina a necessidade da aplicação de técnicas mais objetivas e eficientes para se alcançar estes desafios. O trabalho de execução visando contemplar o mencionado anteriormente, procedeu-se da seguinte forma: (i) revisão e descrição dos conceitos relativos à Engenharia da Qualidade e ao Planejamento, Projeto e Análise de Experimentos (PPAE); (ii) identificação e descrição de métodos ou regras de planejamento experimental; (iii) investigação e identificação dos projetos e análises de experimentos considerados básicos; (iv) desenvolvimento de uma ferramenta multimeios para o auxílio ao aprendizado de PPAE; (v) avaliação da ferramenta desenvolvida, através de um estudo de caso; (vi) conclusões relacionadas ao trabalho desenvolvido. A abordagem adotada para apresentar a técnica experimental, destacou o planejamento, do projeto e análise, detalhando separadamente os mesmos. Este passo almejou, de forma objetiva, identificar aqueles projetos e análises básicos, iniciais ao aprendizado. A elaboração e posterior avaliação da ferramenta multimeios permitiu perceber a potencialidade da mesma, como um meio instrucional para o tema específico de projetos de experimentos, sendo sua aplicação de relativa facilidade. A avaliação mostrou ainda que existe muito a se avançar nos meios físicos de apresentação/execução deste tipo de ferramenta multimeios.
Resumo:
Dentre as principais áreas que constituem a Ciência da Computação, uma das que mais influenciam o mundo atual é a Engenharia de Software, envolvida nos aspectos científicos e tecnológicos do desenvolvimento de software. No desenvolvimento de software, a fase de especificação dos requisitos é uma das mais importantes, visto que erros não detectados nesta são propagados para as fases posteriores. Quanto mais avançado estiver o desenvolvimento, mais caro custa reparar um erro introduzido nas fases iniciais, pois isto envolve reconsiderar vários estágios do desenvolvimento. A prototipação permite que os requisitos do software sejam validados logo no início do desenvolvimento, evitando assim a propagação de erros. Paralelamente, a utilização de métodos formais visa revelar inconsistências, ambigüidades e falhas na especificação do software, que podem caso contrário, não serem detectadas. Usar a prototipação de software juntamente com uma notação formal enfatiza a especificação do problema e expõe o usuário a um sistema “operante” o mais rápido possível, de modo que usuários e desenvolvedores possam executar e validar as especificações dos requisitos funcionais. O objetivo principal deste trabalho é instanciar uma técnica da área de Prototipação de Software que capacite o engenheiro de software gerar automaticamente protótipos executáveis a partir de especificações formais de tipos abstratos de dados, na notação PROSOFT-algébrico, visando a validação dos requisitos funcionais logo no início do desenvolvimento do software. Para tanto foi proposto um mapeamento da linguagem PROSOFT-algébrico para OBJ. Como OBJ possui um eficiente sistema de reescrita de termos implementado, a utilização deste propicia a prototipação de tipos abstratos de dados, especificados em PROSOFT-algébrico. Os componentes envolvidos na definição deste trabalho, assim como o mapeamento entre as linguagens, foram especificados algebricamente e implementados no ambiente de desenvolvimento de software PROSOFT. A implementação serviu para validar o mapeamento proposto através de dois estudos de caso. Por fim, são apresentadas as conclusões alcançadas e as atividades adicionais vislumbradas a partir do trabalho proposto.
Resumo:
Este trabalho apresenta um estudo de camada “duplex” em aços para trabalho à quente da classe AISI H13, com enfoque em matrizes de injeção de ligas de alumínio, visando otimizar a vida das matrizes atuando tanto sobre os mecanismos de ataque superficial da matriz pelo alumínio como sobre a formação de trincas por fadiga térmica. O tratamento duplex consistiu em nitretação à plasma, com gás contendo 5% de nitrogênio e diferentes parâmetros de tempos e temperaturas, sendo as amostras posteriormente revestidas com nitreto de titânio (TiN) ou nitreto de cromo (CrN). As camadas nitretadas foram avaliadas através de análises metalográficas, perfis de dureza e difração de raios X, buscando caracterizar e qualificar a camada nitretada. Tendo sido observado na difração de raios X a presença de camada de compostos (nitretos de ferro ε e γ’) mesmo com a utilização de gás pobre em nitrogênio, foram também avaliados substratos nitretados sem a remoção mecânica dos nitretos e com um polimento para remoção destes antes da deposição. A rugosidade dos substratos nitretados com e sem a realização do polimento mecânico também foram determinados, buscando relação deste parâmetro com os resultados obtidos. O conjunto camada nitretada e depósitos (TiN ou CrN) com e sem o polimento mecânico após-nitretação foram avaliados em termos de adesão com ensaios de indentação Rockwell C com análise em microscopia eletrônica de varredura (qualitativamente) e com o teste do risco (quantitativamente) avaliando tanto as cargas críticas para a falha do filme como o modo de falha também em microscopia eletrônica de varredura. Além disso, foram realizados testes de fadiga térmica em banho de alumínio para simulação e avaliação do desempenho da camada “duplex” em condições de trabalho, bem como foram testadas duas condições de nitretação com TiN ou CrN em regime industrial. Os resultados mostram ganhos de adesão crescentes com o aumento dos tempos e das temperaturas de nitretação, além de maiores ganhos com a remoção mecânica (polimento) do substrato nitretado antes da deposição dos filmes. O comportamento, frente às condições de trabalho também foi superior para condições de nitretação com maiores tempos e temperaturas, tanto nos ensaios de laboratório com nos testes em regime industrial.
Resumo:
Teoria das Categorias é uma ramificação da Matemática Pura relativamente recente, tendo sua base sido enunciada ao final da primeira metade do século XX. Embora seja Teoria de grande expressividade, sua aplicação efetiva tem encontrado até o momento grandes obstáculos, todos decorrência natural da brevidade de sua História. A baixa oferta de bibliografia (e predominantemente em língua inglesa) e a falta de uniformidade na exposição do que sejam os tópicos introdutórios convergem e potencializam outro grande empecilho à sua propagação - a baixa oferta de cursos com enfoque em Teoria das Categorias. Consegue, a despeito destes obstáculos, arrebanhar admiradores em inúmeros centros de reconhecida excelência técnica e científica. Dentre todas as áreas do conhecimento, atrai em especial a atenção da Ciência da Computação, por características como independência de implementação, dualidade, herança de resultados, possibilidade de comparação da expressividade de outros formalismos, forte embasamento em notação gráfica e, sobretudo, pela expressividade de suas construções [MEN2001]. No Brasil, já conta com o reconhecimento de seu papel no futuro da Ciência da Computação por parte de instituições como SBC e MEC. Os obstáculos aqui descritos, entretanto, ainda necessitam ser transpostos. O presente trabalho foi desenvolvido visando contribuir nesta tarefa. O projeto consiste em uma iniciativa aplicada em Ciência da Computação, a qual visa oportunizar o franco acesso aos conceitos categoriais introdutórios: uma aplicação de computador que faça amplo uso de representação diagramática para apresentar a proposição de conceitos básicos do grupo de pesquisa em Teoria das Categorias do Instituto de Informática da UFRGS. A proposição e implementação de uma ferramenta, embora não constitua iniciativa inédita no mundo, até onde se sabe é a segunda experiência desta natureza. Ademais, vale destacar que os conceitos tratados, assim como os objetivos visados, são atendidos de forma única e exclusiva por esta aplicação. Conjuntamente, vislumbra-se a aplicação desenvolvida desempenhando importante papel de agente catalisador na propagação da visão dos Grupos de Pesquisa em Teoria das Categorias da UFRGS e da PUC/RJ do que sejam os "conceitos categoriais introdutórios".
Resumo:
Com a globalização do mercado e o alto nível de competitividade no setor educacional, as organizações, para manterem-se, devem ser ágeis e competentes. Neste contexto, a gestão eficiente dos recursos e a obtenção de informações precisas que apóiem a tomada de decisão dependerão, em grande parte, de um sistema de informações de custos. Este sistema deverá ter como base um método de custeio que forneça informações, a fim de atender as distintas necessidades dos gestores dos diversos níveis hierárquico e das diversas áreas de atuação. O trabalho consiste no estudo de uma metodologia de custeio aplicável a uma Instituição de Ensino Superior – IES privada, a qual atenda as três perspectivas que são fornecer informações para embasar a composição dos preços, para apoiar o processo decisório e para o planejamento e controle de gastos. Para tanto, partiu-se da pesquisa bibliográfica no levantamento do estado da arte relacionada ao tema. Com o estudo de caso buscou-se a identificação das necessidades de informações de custos, demandadas pelos gestores da IES, por meio de pesquisa qualitativa. A partir dessa identificação, as necessidades foram cruzadas com os métodos de custeio existentes, o que permitiu a identificação do método mais adequado a IES. Nesta etapa foi possível o cruzamento entre a teoria e a prática, onde foram comparados o método proposto em relação ao atual método adotado pela IES o que possibilitou a identificação das deficiências do modelo atual e suas causas. A partir disto, propõe-se uma sistemática mais adequada para apoiar a tomada de decisão, com o intuito de melhoria do desempenho da instituição. Os resultados obtidos demonstram o cumprimento do objetivo onde, considerando as necessidades de informações de custos dos gestores, o método de custeio por atividades é o mais adequado para o suporte a gestão da IES.
Resumo:
Visando consolidar uma estratégia de produção, junto a uma empresa do ramo metalmecânico de Caxias do Sul, este trabalho implanta e analisa através de uma pesquisa-ação a utilização de um método de formulação de estratégia de produção seguindo a orientação de GAP ou lacuna. O trabalho foi desenvolvido no setor de forjaria e buscou a melhoria dos critérios competitivos junto aos seus clientes. Após descrever o processo de implantação desse método e avaliar seus resultados, é traçado um plano de ação a ser aplicado, evidenciando seus resultados. Como resultados pode-se citar que qualidade como critério competitivo não depende apenas dos sistemas de garantia mas também de uma abordagem mais próxima da área de recursos humanos.
Resumo:
Esta pesquisa propõe um modelo de avaliação dos custos dos acidentes do trabalho e das doenças relacionadas com o trabalho sob uma nova ótica, fundamentado no método de custeio por atividades (ABC – Activity-Based Costing). Basicamente, no modelo proposto, soma-se, às duas fases do método ABC (rastreamento dos recursos às atividades e das atividades aos objetos de custo parciais), uma terceira fase de alocação dos objetos de custo parciais ao acidente do trabalho ou à doença relacionada com o trabalho. Os elementos constituintes e os componentes de custo incluídos no modelo proposto foram baseados na revisão bibliográfica sobre os custos dos acidentes e das doenças do trabalho, contabilidade e sistemas de custos. O modelo foi validado por meio de um estudo de caso na indústria da construção, tendo-se considerado sua aplicabilidade, confiabilidade dos resultados e auxílio no processo de tomada de decisões. Os resultados obtidos no estudo de caso mostraram que o modelo proposto possibilitou a visão de custos inicialmente não captados pelo modelo em uso na empresa e que pode atuar como ferramenta de apoio ao processo de tomada de decisões em segurança e saúde no trabalho porque estabelece novos parâmetros para tal avaliação: alocação dos recursos e atividades destinadas ao atendimento do acidente/doença em centros de atividades e objetos de custo parciais. Foram, também, identificadas oportunidades de aperfeiçoamento do modelo, pois o estudo de caso evidenciou que a aplicação do modelo não foi tão fácil como se esperava e, portanto, evidenciando a necessidade da introdução de uma primeira etapa de lançamento do modelo para melhor aplicação em empresas.
Resumo:
Esta dissertação apresenta a análise ergonômica do trabalho no setor de envase de hidroalcoólicos, de uma empresa de artigos de perfumaria e cosméticos na região metropolitana de Curitiba. A ferramenta Design Macroergonômico (DM), proposta por Fogliatto e Guimarães (1999), permitiu identificar os itens de demanda ergonômica dos usuários e evidenciou diferenças entre as demandas de usuários que realizam as mesmas tarefas em turnos diferentes. As questões de organização do trabalho são as que mais afetam os funcionários, principalmente aqueles que trabalham em turnos que incorporam o trabalho no sábado. Como antes da ampliação da fábrica, o trabalho estava organizado sem o turno de sábado, e tendo em vista o impacto negativo deste horário sobre as pessoas, propõe-se que a organização de trabalho seja revista.
Resumo:
Com a proliferação de computadores pessoais e a popularização da Internet, as novas tecnologias da comunicação começam a provocar impactos no setor educacional, com a promessa de construção de cenários inovadores, apoiados em diferentes formas de educação baseada na Web. Estas inovações tecnológicas aplicadas ao ensino caracterizam a intensificação dos processos de educação à distância como uma das tendências mais marcantes desse final de milênio. A tendência destas inovações é crescer e juntamente com a Internet contribuir para a melhoria do ensino e/ou aprendizagem a distância. A Educação à Distância (EAD) tem sido um termo usado para qualquer forma de estudo em que os alunos não estejam em contato direto com seu professor. Este tipo de ensino pode ser considerado como uma alternativa educacional capaz de propiciar a ampliação de oportunidades educativas, através de programas de qualidade. Atualmente, para desenvolver ambientes para o ensino a distância são utilizados os conceitos de Inteligência Artificial Distribuída, mais precisamente o conceito de sistemas multiagentes, com a finalidade de aprimorar e monitorar o ensino através da Internet. O sistema AME-A proposto por D’Amico é um exemplo de ambiente que utiliza a tecnologia de multiagentes. Ele é constituído de vários agentes inteligentes que atuam de forma concorrente e comunicam-se através de mensagens. Dessa maneira, transformam o sistema em um conjunto de agentes cooperantes em busca de um objetivo que é o de ensinar e/ou aprender. Este trabalho tem como objetivo utilizar o estudo e a abordagem de modelagem do sistema de ensino/aprendizagem definido por D’Amico no que se refere ao agente ferramentas para o professor. Propõe-se a desenvolver uma ferramenta que irá auxiliar o professor na distribuição de seus conhecimentos na Internet, armazenando as informações inseridas pelo professor bem como fornecer orientações a respeito de determinadas operações que o sistema realiza. Estas orientações também apresentam como foco os seguintes fatores: descrição da importância da motivação e interatividade num curso a distância, sugestões de metodologias de ensino que o professor pode usar nas suas aulas, orientações a respeito de avaliação do aprendizado do aluno, dicas sobre conteúdos de materiais complementares às aulas e por fim, menciona exemplos de ferramentas em modo texto e multimídia que podem ser utilizadas para comunicação.
Resumo:
O entendimento do processo de fabricação por usinagem passa pelo estudo de fenômenos de formação de cavaco, esforços de corte, qualidade superficial do material usinado, mecanismos de desgaste de ferramenta e a influência de parâmetros de corte e tipo de material usado sobre essas variáveis. Neste contexto, o objetivo principal deste trabalho é analisar os efeitos do desgaste de ferramenta sobre as forças de corte e a rugosidade dos componentes usinados. O procedimento adotado foi a realização de ensaios de usinabilidade de longa duração em torneamento cilíndrico externo, durante os quais foram medidos desgaste de flanco, força de corte, força de avanço e rugosidade média dos componentes usinados. Os ensaios foram realizados para os aços ABNT 1040 e 1045 usando ferramentas de metal duro com revestimento duplo (TiN-Al2O3). Os resultados de vida de ferramenta foram analisados através da equação de Taylor, com maiores vidas de ferramenta observadas para o aço ABNT 1040 em todas as velocidades de corte testadas. As demais variáveis medidas foram analisadas em função do tempo de usinagem, desgaste de flanco máximo e acabamento superficial No domínio do tempo, foram encontradas correlações fortes para o desgaste de flanco máximo, força de corte e força de avanço para ambos os materiais. A relação entre a rugosidade média e o tempo de corte observada foi mais “estável” para o aço ABNT 1040. Contudo, variações no comportamento da rugosidade média foram observadas na velocidade de corte inferior usada na usinagem do aço ABNT 1045, devido ao desgaste mais lento do raio de ponta de ferramenta. Não se observou relação entre as forças de usinagem e a rugosidade média. A relação entre a força de corte e o desgaste de flanco máximo apresentou forte correlação para ambos os materiais, assim como a relação entre a força de avanço e o desgaste de flanco máximo, sendo realizada regressão linear para ambas as relações. Foi observada fraca influência da velocidade de corte nas relações força-desgaste de flanco, o que sugere que uma única equação pode descrever estas relações para toda a faixa de condições de corte estudada. Os resultados da análise de regressão permitem a determinação do desgaste de flanco máximo em função da força de corte com um erro médio de 15% para os aços ABNT 1040 e 1045. Para a previsão do desgaste de flanco em função da força de avanço, o erro médio encontrado foi de 19% para o aço ABNT 1040 e 15% para o aço ABNT 1045.
Resumo:
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.
Resumo:
Antigamente as informações que as organizações utilizavam durante a sua gestão eram suficientemente armazenadas em arquivos. A própria aplicação era responsável pela manipulação dos dados e pela função de guardá-los de maneira segura. No entanto, a sociedade evoluiu com tamanha rapidez que as organizações começaram a gerar uma quantidade cada vez maior de informação e, também, a rapidez de acesso às informações armazenadas tornou-se cada vez mais importante. Os antigos sistemas de arquivos tornaram-se complexos sistemas de armazenamento de informações responsáveis por gerir grandes volumes de dados, chamados Sistemas Gerenciadores de Banco de Dados - SGBD’s. Devido à complexidade dos bancos de dados e à necessidade de sua operação ininterrupta surge a tarefa do Administrador, cuja função é assegurar que os bancos de dados permaneçam operantes, íntegros e rápidos. Para realizar suas tarefas o Administrador precisa contar com boas ferramentas de modo a tornar as intervenções no banco de dados rápidas e seguras. Existem no mercado, boas ferramentas para administração de banco de dados. No entanto, são todas proprietárias, possuem custo elevado e apresentam deficiências quando o DBA e o BD estão localizados logicamente em redes de dados distintas. Para tentar resolver este problema, este trabalho se propõe a desenvolver uma ferramenta de administração de banco de dados que o DBA possa utilizar para gerenciar os bancos de dados, utilizando a Web como instrumento.
Resumo:
Este trabalho investiga a mediação comunitária como ferramenta de acesso à justiça para a população de baixa renda no Brasil, a partir da sua implementação por meio de um projeto social, conduzido nos limites de uma organização não governamental. Sua elaboração partiu do estudo sobre o funcionamento de três núcleos do "Balcão de Direitos" da ONG Viva Rio. A resolução de conflitos em ambiente institucional caracterizada pela impositividade do direito difere da disputa administrada em ambiente informal, onde a vontade e a cooperação dos pares são os elementos que conduzem a efetividade da lei. O "campo" objeto do nosso estudo conforma uma arena interacional com características peculiares que comporta poder comunicacional, autoridade e legitimidade local. Analisando a atividade dos núcleos de mediação do Balcão de Direitos neste contexto, observei a sua vocação para a valorização da cidadania, e a mediação comunitária como processo multidisciplinar e transversal orientado para o "empoderamento" dos setores vulneráveis, através do investimento nas formas de "comunicação" entre os interlocutores das possíveis relações sociais. Em minha conclusão, o modelo pelo qual tal enfrentamento poderia ser conduzido, parece, ainda, uma hipótese sujeita a melhor verificação.