1000 resultados para letramentos múltiplos
Resumo:
O crescimento desordenado da população e a expansão mal planejada das cidades, tem levado a precariedade das condições de saneamento e abastecimento hídrico, tornando a água um importante meio de desenvolvimento e transporte de microrganismos, muitos destes patogênicos. Desta maneira, torna-se necessário além da busca de soluções, o monitoramento eficiente e constante dos níveis e focos de contaminação. O presente trabalho teve como objetivo principal diferenciar ambientes aquáticos poluídos de não poluídos por contaminação de origem fecal, através de padrões moleculares. Para tanto foram escolhidos os arroios Feijó e Carvão, localizados na região metropolitana de Porto Alegre, Rio Grande do Sul, de onde foram coletadas amostras de água no verão e no inverno de 2001, submetidas a determinação do número mais provável (NMP) de coliformes totais e fecais, através da fermentação em tubos múltiplos. No Arroio Feijó foram observados índices de coliformes fecais superiores ao arroio Carvão, portanto o primeiro foi considerado modelo de ambiente aquático poluído e o segundo, não poluído. Seguiu-se a extração do DNA total das amostras brutas, amplificação do rDNA 16S pela PCR e clivagem destes com as enzimas de restrição Rsa I, Taq I e Alu I. Os padrões de clivagens observados com Rsa I sugerem a discriminação destes ambientes, uma variação sazonal foi observada entre as amostras de verão e inverno. O método mostrou-se sensível para uma análise comparativa entre estruturas de comunidades bacterianas em ambientes aquáticos.
Resumo:
O setor residencial no Brasil consome cerca de 24% do total da energia elétrica consumida no país, e a maior parcela desta demanda se concentra nos grandes centros urbanos. Os fatores atrelados à demanda de energia elétrica deste setor são extremamente complexos e variados. A atualização de dados, o seu conhecimento, entendimento e verificação de suas relações são de extrema importância para a programação de ações, tanto visando o suprimento deste mercado, como para aquelas que busquem a otimização do uso de energia elétrica. O presente trabalho de pesquisa envolve a análise e o estudo do consumo de energia elétrica do setor residencial, onde são analisados os múltiplos aspectos relacionados ao consumo de energia elétrica de dez diferentes tipologias de edificação de uso residencial, escolhidas em uma área de 1.500 ha, situada na zona sul da cidade de Porto Alegre. Procurou-se também estabelecer relações entre as tipologias de edificação escolhidas para análise e os respectivos consumos de energia elétrica. Buscou-se ainda verificar qual o peso desta relação frente aos demais aspectos relacionados com o consumo de energia elétrica, tais como renda familiar, densidade habitacional e hábitos de uso entre outros. Concluiu-se que a correlação, entre as variáveis relacionadas com as tipologias e o consumo de energia elétrica se apresentou muito baixa. No entanto a correlação entre os valores médios das diversas variáveis estudadas e o consumo de energia elétrica se apresentou bastante alto.
Resumo:
A justificativa de investimentos em Tecnologia da Informação (TI) é um processo de decisão estratégico. Contudo, muitos tomadores de decisão, dada a complexidade dos problemas, acabam por reduzi-lo a um único critério, normalmente monetário, ou a utilizar critérios mais facilmente mensuráveis, em detrimento daqueles relacionados a possíveis benefícios estratégicos ligados à TI. Esse fato pode ser associado à falta de instrumentos de apoio à decisão com habilidade de capturar todos os múltiplos aspectos envolvidos na justificativa de investimentos em TI. A Pesquisa Operacional pode auxiliar esse processo através do desenvolvimento de modelos multicriteriais, visando contemplar, conjuntamente, os aspectos tangíveis e intangíveis normalmente associados a esse tipo de investimento. Nesse sentido, este trabalho apresenta o desenvolvimento de um modelo de decisão multicriterial para a justificativa de investimentos em TI. A implementação do modelo foi realizada utilizando-se o método AHP (do inglês, “Analytic Hierarchy Process”), através do software Expert Choiceâ. O modelo foi validado através da sua submissão a vinte especialistas da área e através da sua aplicação em problemas de decisão. Os resultados obtidos na validação comprovam a generalidade e o potencial do modelo como ferramenta de decisão para o processo de justificativa de investimentos em TI.
Resumo:
A programação paralela é sem dúvida mais complexa do que a programação seqüencial. O controle de múltiplos processos e de suas interações são as principais razões para tal complexidade. Apesar da existência de algumas ferramentas que atendem à fase de desenvolvimento de programas paralelos, a complexidade é normalmente passada para as ferramentas paralelas, isto é, as ferramentas não são de fácil utilização. Assim, existe uma necessidade de ambientes e ferramentas realmente fáceis de usar no âmbito da programação paralela. Embora existam algumas ferramentas interessantes, inclusive algumas comerciais, seu uso permanece insuficiente, em parte devido à complexidade na utilização de algumas delas, em parte devido ao seu uso específico em determinadas plataformas. Portanto, existe ainda um grande campo de estudo no que diz respeito a melhorias de projeto sobre ferramentas existentes e desenvolvimento de ferramentas com um maior número de recursos. Provavelmente, a ferramenta paralela mais necessária aos programadores é o depurador paralelo. Por sua vez, ferramentas de depuração paralela estão entre as mais complexas de se desenvolver e talvez isso explique o motivo pelo qual poucas têm sido efetivamente utilizadas. Este trabalho descreve uma contribuição no campo da depuração paralela através da análise de interfaces de depuração paralela e da proposta de um modelo. A partir deste modelo, uma interface de depuração paralela – PADI (PArallel Debugger Interface) foi desenvolvida e seu principal objetivo é o de oferecer uma interface intuitiva e de fácil utilização. O modelo proposto e conseqüentemente a ferramenta PADI tratam da depuração paralela simbólica on-line. A depuração on-line trata do oferecimento de acesso aos símbolos do programa, como variáveis e registradores. A depuração on-line diferencia-se da off-line pelo tipo de interação com a execução do programa. A depuração on-line oferece interação direta com a aplicação, enquanto que a off-line interage com um arquivo de monitoração gravado durante a execução da aplicação paralela. A depuração on-line é similar à depuração seqüencial tradicional e, conseqüentemente, é de mais fácil utilização por parte da maioria dos programadores.
Resumo:
Neste trabalho investigamos a física de Pomeron, tanto em sua formulação perturbativa dada pela Cromodinâmica Quântica como o aspecto não-perturbativo dado pela teoria de Regge. Estes formalismos teóricos levam em consideração o fato que o Pomeron porta os números quânticos do vácuo e deve dominar o espalhamento entre partículas em altas energias. Partindo do formalismo de dipolos de cor, estudamos a interação perturbativa usual corrigida por efeitos de unitariedade em altas energias para os processos DIS e Drell- Yan, determinando a importância destas correções para ambos processos. Referente ao Pomeron não-perturbativo, investigamos os aspectos do modelo de múltiplos espalhamentos, o qual também contribui também para a unitariedade no setor suave. Dado os resultados similares entre modelos QCD e de Regge na descrição de DIS difrativo, propomos um novo observável, o coeficiente angular difrativo da função de estrutura difrativa, que permitirá discriminar dinâmicas subjacentes ao processo. Finalmente estudamos a fenomenologia associada à truncagem da série assintótica advinda do formalismo BFKL, e a utilizamos para descrever os principais observáveis em colisões hadrônicas e elétron-próton.
Resumo:
Neste artigo analisamos um setor específico da intermediação financeira, particularmente afetado pelas medidas de contenção ao crédito implantadas no contexto do Plano Real, ao final de 1994, com o objetivo de analisar o ocorrido sob a ótica do agente regulado. Neste período, algumas instituições de crédito tiveram seus negócios ampliados, ao mesmo tempo em que, para outras, houve redução. Com base nos demonstrativos contábeis de oito SCFIs independentes (não vinculadas a bancos múltiplos) referentes aos exercícios de 1994 e 1995, estabelecem-se alguns resultados indicativos do desempenho desse segmento neste último ano. Conclui-se que a rentabilidade do patrimônio líquido das instituições analisadas apresentou uma redução da ordem de 32%, passando de 25,31% em 1994 para 17,18% em 1995. Trata-se de um resultado melhor do que o obtido pelo conjunto de bancos múltiplos de pequeno porte, cuja rentabilidade caiu de 20,2% em 1994 para 4,3% em 1995.
Resumo:
Este trabalho é uma contribuição para o conhecimento de metodologias de projeto de estruturas de material composto, aplicando métodos de otimização estrutural a cascas laminadas e apresentando uma estratégia em dois níveis. No primeiro nível é realizada a minimização da flexibilidade da estrutura, tendo como variável de projeto a orientação de cada lâmina da estrutura. Utiliza-se Programação Linear Seqüencial (SLP) e direção de tensão principal para otimização da orientação. No segundo nível minimiza-se o volume de cada lâmina, usando a flexibilidade total da estrutura como restrição e a densidade relativa como variável de projeto, também através de SLP. Para evitar aparecimento de áreas com densidades intermediárias, utiliza-se um Método de Continuação, dividindo o nível de otimização topológica em duas ou mais etapas. As formulações desenvolvidas permitem a solução de problemas com múltiplos casos de carregamento. Para a solução da equação de equilíbrio de casca laminada, utiliza-se um elemento finito de casca degenerado de oito nós com integração explícita na direção da espessura. A implementação desse elemento é feita de modo a facilitar a obtenção das derivadas da matriz de rigidez, necessárias na linearização das funções objetivo e restrições. Evita-se assim o uso de derivadas numéricas. Resultados para vários tipos de estrutura são apresentados, incluindo comparações entre diferentes carregamentos, condições de contorno, número de lâminas, espessuras, etc. As soluções obtidas, formas de análise e possíveis aplicações são discutidas.
Resumo:
As rápidas e abrangentes mudanças nos mercados mundiais e regionais de vinhos, com significativos impactos sobre algumas vinícolas, estimularam a realização deste estudo. O objetivo central foi descrever e comparar o processo de formulação e de implementação das estratégias empresariais para os vinhos finos das vinícolas brasileiras e uruguaias, após 1990. Para tanto, foram realizadas duas pesquisas qualitativas. Na primeira, foi realizado um levantamento de dados e colhidas informações em fontes secundárias e em uma pesquisa, onde foram feitas entrevistas em profundidade com especialistas em vinhos, sendo oito entrevistados no Brasil e sete no Uruguai. Posteriormente, foi feita uma pesquisa exploratória, através do método de estudos de casos múltiplos com duas unidades de análise, em cada caso. Foram realizadas entrevistas em profundidade em cinco vinícolas no Brasil e quatro no Uruguai, selecionadas entre as maiores elaboradoras de vinhos finos, observando-se as peculiaridades do setor em cada país. De acordo com a análise de conteúdo realizada, foi confirmado o previsto na literatura sobre estratégias. A globalização e o Mercado Comum do Sul (Mercosul) afetaram, de forma direta ou indireta, as estratégias de produto e de mercados para os vinhos finos. As ações estratégicas também foram moldadas e seus retornos influenciados pelo ambiente dos países e da indústria em particular, assim como pelo ambiente interno das empresas. No ambiente da indústria, salienta-se, no Uruguai, o planejamento setorial da cadeia produtiva. Quanto ao processo estratégico, verificou-se que a formulação e implementação das estratégias ocorreram, preponderantemente, de forma simultânea. Com relação ao conteúdo das estratégias, cabe ressaltar que as estratégias de produtos e produção foram semelhantes em todas as vinícolas participantes da pesquisa. Em relação às demais estratégias, nota-se maiores similaridades entre as vinícolas de um mesmo país. Quanto às estratégias de mercados e distribuição, destacaram-se as significativas diferenças relatadas nas estratégias para os mercados internos de ambos países. No que se refere às alianças estratégicas, oito vinícolas realizaram algum tipo de aliança. Também foi possível detectar que todas as estratégias estão inter-relacionadas, tendo em vista os objetivos da organização. Algumas estratégias foram deliberadas racionalmente, enquanto outras foram emergentes. Pôde-se concluir que, não obstante a complexidade de se definir o que é estratégia e das diferenças das vinícolas pesquisadas e de seus ambientes externos, os estudos de casos investigados possibilitam a generalização analítica.
Resumo:
Universidades são organizações sociais complexas. Elas estão sujeitas aos problemas clássicos de controle e coordenação, e ao problema, igualmente clássico, da alocação eficiente de recursos, universidades também se caracterizam por gerarem múltiplos bens e serviços, através da transformação de múltiplos fatores de produção. Este é um estudo sobre o processo produtivo e sobre a alocação de recursos na Universidade Federal do Rio de Janeiro - UFRJ, a maior Instituição Federal de Ensino Superior do Brasil. A metodologia básica, os objetivos, e a forma de apresentação da pesquisa serão detalhadamente descritos nos capítulos que se seguem, mas podem ser brevemente resumidos nesta Apresentação.
Resumo:
Alta disponibilidade é uma das propriedades mais desejáveis em sistemas computacionais, principalmente em aplicações comerciais que, tipicamente, envolvem acesso a banco de dados e usam transações. Essas aplicações compreendem sistemas bancários e de comércio eletrônico, onde a indisponibilidade de um serviço pode representar substanciais perdas financeiras. Alta disponibilidade pode ser alcançada através de replicação. Se uma das réplicas não está operacional, outra possibilita que determinado serviço seja oferecido. No entanto, réplicas requerem protocolos que assegurem consistência de estado. Comunicação de grupo é uma abstração que tem sido aplicada com eficiência a sistemas distribuídos para implementar protocolos de replicação. Sua aplicação a sistemas práticos com transações e com banco de dados não é comum. Tipicamente, sistemas transacionais usam soluções ad hoc e sincronizam réplicas com protocolos centralizados, que são bloqueantes e, por isso, não asseguram alta disponibilidade. A tecnologia baseada em componentes Enterprise JavaBeans (EJB) é um exemplo de sistema prático que integra distribuição, transações e bancos de dados. Em uma aplicação EJB, o desenvolvedor codifica o serviço funcional que é dependente da aplicação, e os serviços não–funcionais são inseridos automaticamente. A especificação EJB descreve serviços não–funcionais de segurança, de transações e de persistência para bancos de dados, mas não descreve serviços que garantam alta disponibilidade. Neste trabalho, alta disponibilidade é oferecida como uma nova propriedade através da adição de serviços não–funcionais na tecnologia EJB usando abstrações de comunicação de grupo. Os serviços para alta disponibilidade são oferecidos através da arquitetura HA (highly-available architecture) que possui múltiplas camadas. Esses serviços incluem replicação, chaveamento de servidor, gerenciamento de membros do grupo e detecção de membros falhos do grupo. A arquitetura HA baseia-se nos serviços já descritos pela especificação EJB e preserva os serviços EJB existentes. O protocolo de replicação corresponde a uma subcamada, invisível para o usuário final. O serviço EJB é executado por membros em um grupo de réplicas, permitindo a existência de múltiplos bancos de dados idênticos. Conflitos de acesso aos múltiplos bancos de dados são tratados estabelecendo–se uma ordem total para aplicação das atualizações das transações. Esse grupo é modelado como um único componente e gerenciado por um sistema de comunicação de grupo. A combinação de conceitos de bancos de dados com comunicação de grupo demonstra uma interessante solução para aplicações com requisitos de alta disponibilidade, como as aplicações EJB. Os serviços adicionais da arquitetura HA foram implementados em protótipo. A validação através de um protótipo possibilita que experimentos sejam realizados dentro de um ambiente controlado, usando diferentes cargas de trabalho sintéticas. O protótipo combina dois sistemas de código aberto. Essa característica permitiu acesso à implementação e não somente à interface dos componentes dos sistemas em questão. Um dos sistemas implementa a especificação EJB e outro implementa o sistema de comunicação de grupos. Os resultados dos testes realizados com o protótipo mostraram a eficiência da solução proposta. A degradação de desempenho pelo uso de réplicas e da comunicação de grupo é mantida em valores adequados.
Resumo:
O presente trabalho é parte integrante de um projeto multidisciplinar cujo objetivo é construir uma ferramenta computacional capaz de simular a operação de uma Usina Termoelétrica tratando, especificamente, da câmara de reação (local da caldeira onde se desenvolve a queima do combustível). Foi desenvolvido um modelo matemático dinâmico, pseudo-homogêneo, unidimensional e, com propriedades físicas variáveis, com o objetivo de descrever a conversão do calor gerado pela combust em energia térmica, que está baseado em balanços de massa e energia. Este modelo foi implementado no simulador gPROMS e seus parâmetros foram estimados utilizando o módulo gEST deste software (método da máxima verossimilhança), com base em dados de operação da Usina e dados cinéticos de literatura. Para a simulação dinâmica da câmara de reação foi utilizado um método de integração implícita de passos múltiplos com ordem e passo variáveis. A câmara de combustão foi dividida em três zonas, sendo realizados, em cada zona, os balanços de massa e energia, adotando-se a hipótese de mistura perfeita. O modelo desenvolvido prevê o perfil de temperatura ao longo da câmara, as correntes de saída e a composição dos gases de combustão em cada zona; incluindo uma previsão aproximada da concentração dos poluentes formados, principalmente monóxido de nitrogênio e dióxido de enxofre. Os resultados apresentados mostraram que o modelo prediz satisfatoriamente a composição do gás de combustão na saída da câmara de reação e que a divisão da câmara em diferentes zonas de combustão é apropriada para avaliar a geração e o aproveitamento energético na caldeira.
Resumo:
A leitura e a escrita são atividades mentais extremamente complexas, compostas por múltiplos processos interdependentes e que envolvem outras funções neuropsicológicas. Esta pesquisa é composta por quatro estudos, visando traçar o perfil de leitura e escrita de palavras e de texto de 110 crianças de 2ª série de escolas públicas (Estudo 1); relacionar o julgamento do professor e as habilidades de leitura e escrita dos alunos (Estudo 2); comparar o perfil de leitura e escrita e de funções neuropsicológicas de crianças de 2ª série com dificuldades de leitura e escrita e de crianças leitoras e escritoras competentes, de mesma idade e de mesmo desempenho em leitura e escrita (Estudo 3); e analisar a variabilidade intra-grupos nas habilidades de leitura e escrita e nas funções neuropsicológicas, na busca de dissociações entre as rotas de leitura e de escrita e entre funções neuropsicológicas (Estudo 4). O primeiro estudo mostrou que, na 2ª série, houve indícios de uso de ambas as rotas de leitura e escrita, mas maior tendência à estratégia fonológica. Foram encontradas correlações significativas entre as habilidades de processamento de palavras e de texto. No segundo estudo foram encontradas correlações moderadas entre o desempenho dos alunos em leitura e escrita e a percepção do professor sobre estas habilidades. O terceiro estudo mostrou que o grupo de 2ª série com dificuldades de leitura e escrita usava de forma imprecisa ambas as rotas de leitura e escrita. Este grupo apresentou escores estatisticamente inferiores aos do grupo de 2ª série competente em leitura e escrita em consciência fonológica, linguagem oral e repetição de pseudopalavras, não diferindo significativamente do grupo de 1ª série. Os perfis semelhantes dos grupos de 2ª série com dificuldade de leitura e escrita e de 1ª série sugerem que os primeiros apresentam atraso de desenvolvimento da leitura e escrita e de funções neuropsicológicas relacionadas. Os estudos de casos, analisados no Estudo 4, mostraram padrões de leitura e escrita semelhantes à dislexia de desenvolvimento fonológica, dislexia de superfície e de dislexia mista. O perfil neuropsicológico também apresentou variabilidade intra-grupo. Os dados são discutidos em uma abordagem neuropsicológica cognitiva.
A reconstrução da realidade com a informação digital : a emergência da dupla competência sociológica
Resumo:
As possibilidades das metodologias informacionais para a Sociologia tornam-se problemáticas, pois ela se encontra imersa na sociedade do conhecimento, cuja novidade principal é a de que a informação está envolvida numa estruturação reflexiva e comunicacional. As metodologias de pesquisa do conhecimento sociológico, vinculadas ao mundo da informação digital computável, implicam desafios, sobretudo diante das novas modulagens relacionadas à produção e à descoberta de conhecimentos suportados por computadores. O mundo sociológico apresenta-se, cada vez mais, conectado à reflexividade do conhecimento, assim, a decifração da esfinge informacional pode vir a ser uma grande contribuição da Sociologia à compreensão tanto da produção do conhecimento dessa área, como da vida social contemporânea. Urge, nesse sentido, que a Sociologia caminhe em direção à dupla competência sociológica (Sociologia e Informática) para a formação dos novos cientistas e pesquisadores sociais. O objetivo principal desta tese é verificar a situação da atual interface entre os(as) sociólogos(as) brasileiros(as) e a Informática. Busca-se, também, identificar as implicações metodológicas advindas da interface entre Informática e Sociologia na produção do saber acadêmico, assim como apontar algumas perspectivas desafiadoras para a dupla competência sociológica tanto no tocante à investigação como à produção do seu próprio saber. Inicia-se com parte da história da informação digital, especificando-se e precisando-se seu conceito. Metodologicamente, realizou-se uma pesquisa em nível nacional, através da Internet, visando-se identificar o impacto da Informática na produção do conhecimento sociológico no Brasil. Para tanto, utilizaram-se um programa questionário (software criado para esta tese) e recursos de banco de dados relacionais. Pergunta-se se a adoção de múltiplos procedimentos da informação computada está ou não permitindo a superação das velhas antinomias do tratamento informacional e afirmando um novo padrão de produção e de trabalho científico que se poderia denominar sociologia informacional. Quer-se, assim, afirmar que, diferentemente dos artefatos e instrumentos de elevada amplificação muscular e/ou apenas sensória, a informação digital computável potencializa mais efetivamente a amplificação lógico-cognitiva como o compartilhamento de memória de longo prazo, a integração de suportes recursivos sobre inferência numéricas ou miméticas, a recuperação parametrizada de dados e informações, o compartilhamento de cenários analíticos de simulações e o apoio a descobertas de conhecimento sociológico.
Resumo:
Atualmente, a World Wide Web (WWW) já se estabeleceu como um dos meios de divulgação mais difundidos. Sendo um meio de publicação de custo relativamente baixo, muitas iniciativas foram desenvolvidas no sentido de estendê-la e transformá-la também numa ferramenta de apoio. Assim, uma série de pesquisas foi realizada no sentido de promover e facilitar o gerenciamento das informações da WWW, que são estruturadas, em sua maioria, como conjuntos de documentos inter-relacionados. Grafos são estruturas utilizadas para a representação de objetos e seus múltiplos relacionamentos. Nesse sentido, pode-se afirmar que hiperdocumentos podem ser modelados através de grafos, onde uma página representa um nodo e um link para outra página é representado por uma aresta. Considerando estas características, e dada a crescente complexidade dos materiais publicados na WWW, desenvolveu-se, ao longo da última década, o uso de técnicas e recursos de Visualização de Grafos com larga aplicação na visualização da estrutura e da navegação na WWW. Técnicas de visualização de grafos são aplicáveis especificamente para representar visualmente estruturas que possam ser modeladas por meio de objetos relacionados, sendo investigadas técnicas para a abstração de modo a facilitar tanto o processo de compreensão do contexto da informação, quanto a apreensão dos dados relacionados. Este trabalho tem como objetivo a investigação de técnicas de Visualização de Grafos aplicadas a autômatos finitos com saída. Este direcionamento se deve ao fato de alguns autores utilizar a abordagem de autômatos finitos com saída para as estruturas de hiperdocumentos. Se for considerado que um documento da WWW (ou o estado de um autômato) é composto por fragmentos de informação (ou saídas) tais como trechos de texto, imagens, animações, etc e que este documento é relacionado a outros por meio de links (ou transições), tem-se a verificação de sua representatividade por meio destas estruturas. Em trabalho anterior, no âmbito do PPGC da UFRGS, a ferramenta Hyper-Automaton foi desenvolvida com o objetivo de estender o uso da Internet no sentido de prover uma ferramenta de apoio à publicação de materiais instrucionais. Por adotar a notação de autômatos finitos com saída, possibilita, além da criação e gerenciamento de hiperdocumentos, a reutilização de fragmentos de informação sem que haja qualquer interferência de um autômato que utilize este fragmento sobre outro. O Hyper-Automaton foi selecionado como caso de estudo motivador deste trabalho. As técnicas aqui desenvolvidas têm como intuito diminuir a complexidade visual da informação, assim como permitir a navegação através dos autômatos finitos com saída de forma que seja possível visualizar detalhes como as saídas e informações relacionadas a cada uma delas, mantendo a visualização do contexto da informação. Foram analisadas técnicas de agrupamento como forma de redução da complexidade visual, e técnicas do tipo foco+contexto, como alternativa para prover a visualização simultânea do contexto e dos detalhes da informação.
Resumo:
O presente estudo visa diagnosticar as práticas de responsabilidade social em escolas situadas em municípios do Vale do Taquari (Rio Grande do Sul, Brasil). Este esforço foi implementado a partir da busca de compreensão dos princípios da responsabilidade social empresarial e do conceito de sustentabilidade, e com base nas diretrizes dos indicadores Ethos de responsabilidade social 2004, adaptados às escolas. Para tanto, foi realizada uma pesquisa (interpretativa e baseada em estudo de casos múltiplos) visando a identificar as práticas de responsabilidade social às quais os diversos stakeholders estão expostos, bem como os fatores que levam as escolas a adotar estas práticas. Também foi verificado se as práticas existentes nas escolas são implementadas com um planejamento adequado, e onde estão as lacunas de responsabilidade social destas instituições. Como efeito do estudo, foi constatado que as práticas evidenciadas, relacionadas a cada stakeholder, diferem de uma escola para outra, e que há planejamento para a implementação da maioria das práticas constatadas. As lacunas de responsabilidade social das escolas, em diversas circunstâncias, se mostram bastante similares. No entanto, estas instituições apresentam diferentes desempenhos em relação aos blocos temáticos da pesquisa, os quais abordam distintos aspectos da responsabilidade social.