311 resultados para Aplicativo
Resumo:
Com caráter informativo, inicia-se apresentando a relação entre a climatologia e o ambiente construído, em seus campos especificos de aplicação (urbanismo, projeto de edificações, execução de obras, e manutenção e uso das construções), considerando-se os aspectos históricos, econômico-ecológicos e os ligados à súde e ao conforto do usuário, abrangidos por tal relação. A importância da disponibilidade de informações climatológicas é então comentada, bem como diversas metodalagias de análise e representação de dados climáticos. Com caráter aplicativo, apresenta-se uma contribuigão à caracterização climática da cidade de Porto Alegre, RS. São analisadas os valores médios horários-mensais doa principais parâmetros climáticos disponíveis (temperatura, umidade, velocidade e direção do vento, e nebulosidade), propondo-se uma representação gráfica sintética alternativa para os mesmos. A análise é complementada pala execução de dois procedimentos técnicos: avaliação do conforto térmico, com identificação do período critico de verão, e projeto de dispositivo de sombreamento de aberturas retangulares. Embora esteja em foco o caso específico de Porto Alegre, tais metodologias encontram-se descritas de modo a serem aplicadas a qualquer outra localidade, procurando-se ampliar a utilidade prática do presente estudo.
Resumo:
O presente trabalho tem por objetivo desenvolver e implantar um sistema gerencial voltado à manutenção. Atualmente, é inadmissível imaginar que seja possível gerenciar um setor sem haver criado um sistema que gere informações e meios de se atingir metas – pré-definidas. Para fundamentar o projeto, foi realizada uma revisão bibliográfica nas ferramentas gerenciais, nos sistemas de gestão da manutenção e na relação entre a estratégia produtiva e a estratégia de atuação da manutenção. Primeiramente, será apresentada uma proposta do sistema gerencial da manutenção, demonstrando sua lógica de estruturação. A idéia consiste em criá-lo levando-se em consideração alguns aspectos básicos que agem como pilares, dando suporte ao modelo gerencial. Os denominados pilares do Sistema de Implantação e Gestão da Manutenção são os 5S’s, o fluxo organizado de informações, a manutenção planejada, a padronização, os colaboradores capacitados e motivados, a determinação de indicadores e metas e o aplicativo. A partir dos pilares foi desenvolvida a Estrutura o Sistema Gerencial em forma de diagrama de árvore, contendo todas as tarefas necessárias a sua implantação. Posteriormente, apresentar-se-á a aplicação prática do sistema através de um estudo de caso em um hospital. Este estudo de caso contém a descrição minuciosa do realizado em cada tarefa, esclarecendo e ampliando a compreensão do leitor diante do sistema gerencial.
Resumo:
Esta dissertação apresenta a Modelagem Estocástica de Sistemas Hierárquicos de Estoques (SHEs) como um instrumento de uso gerencial, orientado para a maximização do nível de serviço oferecido aos consumidores finais e a minimização do nível global de estoques em uma cadeia de abastecimento. Tal modelagem envolve otimização de sistemas não-lineares com integrais indefinidas, normalmente tratados através de simulação, dada a impossibilidade de estabelecer uma solução analítica para o problema. Neste trabalho, diferentemente, a solução é obtida através da otimização do sistema, a partir de uma modelagem que estabelece os níveis de estoque-alvo, os pontos de reposição de estoques, os níveis de serviço oferecidos aos consumidores finais e o nível ótimo global de estoques. A sua operacionalização utiliza um aplicativo computacional, projetado e desenvolvido especificamente para este fim. Estruturas hierárquicas, quando otimizadas localmente, em cada um de seus níveis, podem apresentar resultados subótimos em nível global. Assim, não é suficiente identificar os ótimos locais para compor uma solução otimizadora para o sistema. Para resolver esse problema, a maior parte dos pesquisadores utiliza simulação. A qualidade das soluções assim obtidas geralmente é inferior à qualidade da solução obtida mediante otimização global do sistema A presente modelagem tem como objetivo gerar soluções mais qualificadas para o problema da otimização de SHEs. Nesta dissertação, as principais abordagens para otimização de SHEs são apresentadas e analisadas, com destaque para o trabalho de Rosenbaum (1981), cujos resultados, obtidos através de simulação, são comparados com os resultados deste trabalho.
Resumo:
Este trabalho analisa a existência de benefícios, em termos de risco e retorno, na inclusão de mercados emergentes globais e, em especial, dos países latinoamericanos na formação de carteiras internacionais ótimas, segundo o modelo de Markowitz (1952) e considerando o risco cambial. Para isto, o estudo baseia-se na análise das taxas de retornos mensais, desvio-padrão e coeficientes de correlação em termos de moeda local, dólar, iene, marco alemão e euro, dos Índices dos Mercados de Ações (IMAs) de dezenove países, dos Índices de Bolsa de Valores de São Paulo (IBOVESPA), Buenos Aires (MERVAL), México (IPC), Santiago (IPSA), e de Caracas (IBC), para o período compreendido entre janeiro de 1994 e dezembro de 2000. Utilizou-se o aplicativo SOLVER como ferramenta para a seleção de carteiras ótimas encontrando-se uma taxa livre de risco para este período de estudo como elemento para otimizar as diferentes carteiras internacionais, tomando como base o histórico das taxas das letras do tesouro dos EUA. Tem-se, como restrição, que os investidores não podem efetuar vendas a descoberto. Os resultados indicam que ainda existem evidências dos benefícios da diversificação internacional em termos de desempenho para os investidores mas que estes são menores comparados com aqueles encontrados no trabalho de Zanette (1995) ao considerar o fator cambial. Cabe indicar, também, que a inclusão do componente latino-americano nas diferentes carteiras otimizadas, quase não acrescenta benefício algum do desempenho geral destas carteiras, sendo nulo para as carteiras do investidor japonês.
Resumo:
Baseado na tecnologia de interligação de redes, este trabalho apresenta uma proposta de conexão de dois sistemas com processamento próprio com o intuito de troca de informações, utilizando a pilha de protocolos TCP/IP. Este sistema será empregado em ambientes de controle industrial, permitindo o envio de informações do servidor de dados para o cliente. Os dados são constituídos de leituras feitas em equipamentos de campo, apresentando ao cliente remoto, medições dos mais diversos tipos. Por outro lado, o cliente poderá enviar comandos aos equipamentos de campo visando o telecontrole. Como ponto de partida para a elaboração do trabalho prático, foi utilizado o ambiente de controle do sistema de potência da companhia energética do estado do Rio Grande do Sul (CEEE). Um microcomputador com um browser acessa, através de uma rede local, os equipamentos controlados, que poderão ser qualquer tipo de equipamento de campo empregado em subestações de energia elétrica, como disjuntores, transformadores ou chaves. Para permitir o acesso remoto de tais equipamentos, foi elaborado um servidor de dados constituído de um controlador de rede do tipo Ethernet e um microcontrolador de aplicação específica que se encarrega do processamento da pilha de protocolos. O controlador Ethernet utilizado é um circuito integrado dedicado comercial, que executa o tratamento dos sinais de nível físico e de enlace de dados conforme o padrão IEEE 802.2. O processador TCP/IP, enfoque principal deste trabalho, foi elaborado através da linguagem de programação C, e a seguir traduzido para o Java, que é o ponto de partida para a ferramenta SASHIMI, de geração da descrição em VHDL do microcontrolador de aplicação específica utilizado. O processador TCP/IP encarrega-se da aquisição de dados do equipamento de campo, do processamento da pilha de protocolos TCP/IP, e do gerenciamento do controlador Ethernet. A partir desta descrição VHDL, foi sintetizado o hardware do microcontrolador em um FPGA, que juntamente com o software aplicativo, também fornecido pela ferramenta utilizada, desempenha o papel de processador TCP/IP para o sistema proposto. Neste ambiente, então, o cliente localizado no centro de operação, acessa através de um browser o equipamento de campo, visando obter suas medições, bem como enviar comandos, destacando o aspecto bidirecional para a troca de dados e a facilidade de conexão de dois sistemas heterogêneos. Este sistema pretende apresentar baixo custo de aquisição e de instalação, facilidade de interconexão local ou remota e transparência ao usuário final.
Resumo:
Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.
Resumo:
Este estudo objetiva identificar na vegetação campestre, descrita por espécies e tipos funcionais de planta (TFs), respostas a diferentes intensidades de pastejo e níveis de adubação nitrogenada. O experimento, conduzido em Eldorado do Sul, RS, Brasil, avaliou efeitos de adubação nitrogenada (0, 30, 100, 170 e 200 kg N/ha) e de oferta de forragem (4,0; 5,5; 9,0; 12,5 e 14,0 kg de matéria seca de forragem verde por 100 kg de peso vivo de bovinos por dia). As 14 parcelas experimentais foram pastejadas em ciclo de pastejo de 3 dias com 35 dias de intervalo. O levantamento da vegetação, usando quadros de 0,25m2, foi realizado em dois períodos: Na primavera (novembro de 1999) e no verão (janeiro de 2000), foram descritos três quadros e dois quadros por parcela, respectivamente. A descrição da estrutura da vegetação envolveu a identificação de todas as espécies presentes em cada quadro e estimativa de sua abundância-cobertura. Cada espécie identificada no quadro foi então descrita considerando 21 atributos macromorfológicos qualitativos e quantitativos. A análise dos dados, através do aplicativo SYNCSA, objetivou encontrar um subconjunto ótimo de atributos de forma a maximizar a congruência ρ(D;∆), que é uma medida de correlação matricial entre a variação da vegetação (matriz de distâncias D) e do fator considerado (matriz ∆). Na análise, foram consideradas diferentes seqüências de transformação dos dados e escalas de observação. TFs foram identificados como sendo populações de plantas idênticas quanto aos atributos do subconjunto ótimo. A congruência máxima para o fator adubação nitrogenada foi de 0,66 quando os quadros em cada parcela experimental foram agregados e a vegetação foi descrita por TFs definidos pelos seguintes atributos: formato da lâmina, altura da biomassa, persistência, propagação vegetativa, largura da lâmina e resistência da lâmina à tração. Para o fator oferta de forragem, a congruência máxima foi de 0,57, com os quadros também agregados, e os TFs definidos por comprimento da lâmina, altura da biomassa, formato da lâmina, comprimento da bainha, resistência da lâmina a tração, largura da lâmina, tipo de tecido dos caules aéreos e indumento da lâmina. A análise de ordenação permitiu a identificação de TFs que apresentaram respostas, em termos de abundância-cobertura, mais evidentes para cada fator. A composição da vegetação, descrita pelos TFs definidos pelo subconjunto ótimo de atributos, foi comparada entre níveis de cada fator, por análise de variância multivariada com testes de aleatorização. Foram detectadas diferenças significativas para o efeito de adubação nitrogenada (P = 0,025), sendo significativos (α = 0,05) os contrastes entre 0 e 170, 0 e 200, e 30 e 200 kg N/ha. Também foram detectadas diferenças significativas para o efeito de oferta de forragem (P = 0,002), sendo significativos (α = 0,05) os contrastes entre 4,0 e 12,5; 5,5 e 12,5; 4,0 e 9,0 % PV. Não foram significativas as diferenças entre tratamentos, para os dois fatores, quando a composição da vegetação foi descrita por espécies. Conclui-se que os atributos que são ótimos para definição de TFs para um dado fator não necessariamente o serão para outro fator, provavelmente não existindo, portanto, uma classificação de plantas em TFs que seja ótima para qualquer fator ambiental considerado.
Resumo:
A competitividade cada vez mais acirrada e globalizada tem forçado as empresas a desenvolver produtos com maior qualidade em um menor tempo com custos cada vez mais baixos. Para isto, passaram a utilizar tecnologias de ponta na manufatura de seus produtos, que envolvem desde a concepção do produto até sua efetiva produção. Uma das etapas mais importantes na concepção de um produto manufaturado, a partir de um projeto, é o planejamento do processo produtivo. A essência dessa atividade é disponibilizar uma gama de informações bem detalhadas e organizadas para o chão de fábrica que pode incluir a seleção da máquinaferramenta, determinação dos parâmetros de corte, geração do programa NC e as instruções de trabalho. Na maioria das empresas o planejamento do processo é feito por processistas experientes que utilizam técnicas manuais, onde despedem tempo considerável fazendo cálculos, recuperando informações, escrevendo, digitando e detalhando o plano, e nenhuma dessas tarefas agrega valor diretamente ao produto. Assim somente uma pequena parcela do tempo total é utilizado na concepção e análise do produto. A introdução dos computadores na confecção do plano de processo torna o planejamento mais eficiente podendo dispor de mais alternativas além daquelas exploradas manualmente, e ainda há vantagens adicionais, como a realização de várias comparações de planos semelhantes para selecionar o melhor para cada caso, reduzindo o tempo de planejamento, exigindo menor experiência técnica dos processistas, resultando em aumento da produtividade com planos otimizados. O sistema desenvolvido dentro da filosofia de planejamento de processo variante-interativo, um método que se utiliza da tecnologia de grupo para formar famílias de peças, onde para cada família é desenvolvido um plano padrão, no qual torna-se a base de dados para novas peças, exigindo alterações apenas nos detalhes que não forem similares. Quando não existir um plano semelhante para nova peça este é gerado de forma interativa onde o processista tem o auxílio do computador na definição da folha de processo, ao contrário de um sistema generativo que utiliza uma programação mais complexa e cria automaticamente planos de processo distintos para a nova peça. Os planos de processo gerados contem os processos de usinagem, as máquinas para realizar os mesmos, ferramentas e portaferramentas, sistemas de fixação, os parâmetros de corte e o sequenciamento das operações. O sistema foi projetado em Visual Basic, uma linguagem que disponibiliza uma interface gráfica amigável com o usuário. O conjunto das informações estritamente necessárias para o desenvolvimento do programa é armazenado em um sistema de gerenciamento de banco de dados relacional (ACCESS), sistema esse escolhido por ter a vantagem de permitir manipular mais de um aplicativo ao mesmo tempo, estabelecendo relações entre eles, buscando eliminar a duplicidade de informações, impondo integridade referencial, reduzindo o espaço de armazenamento e facilitando a atualização dos dados.
Desenvolvimento de um programa de simulação computacional de sistemas de aquecimento solar para água
Resumo:
Esta Tese apresenta uma análise do comportamento térmico de um sistema de aquecimento solar operando por termossifão. Neste tipo de sistema o fluido no coletor solar é circulado por convecção natural, que acontece devido à diferença de massa específica da água ao longo circuito. Nestes sistemas a vazão mássica varia ao longo do dia e do ano, dependendo, dentre outros fatores, da irradiância solar absorvida, do perfil de temperaturas da água no sistema, da geometria, do volume e do perfil de demanda de água quente. Para uma avaliação detalhada do comportamento térmico de aquecedores solares operando por termossifão foram realizados ensaios experimentais e cálculos teóricos. Os resultados dos experimentos concordaram com aqueles apresentados na literatura e sua análise fundamentou o desenvolvimento do aplicativo TermoSim, um programa de simulação computacional do comportamento térmico de sistemas de aquecimento de água com energia solar. O tratamento matemático adotado no TermoSim compreende a modelagem dos coletores solares de acordo com a teoria de Hottel-Bliss-Whillier. O reservatório térmico é modelado com estratificação térmica, convecção e condução entre as camadas. A vazão mássica é obtida a partir do balanço da quantidade de movimento no circuito. Os modelos matemáticos empregados na construção do aplicativo TermoSim foram validados através do confronto dos resultados simulados com medidas experimentais. Foi demonstrado que a utilização destes modelos é adequada e permite reproduzir com precisão o comportamento térmico dos coletores solares e do reservatório térmico. Além do programa TermoSim, foi também desenvolvido o programa TermoDim, que é uma ferramenta para o dimensionamento de sistemas de aquecimento solar, que requer apenas o conhecimento dos parâmetros geométricos do sistema, dados meteorológicos em média mensal e informação a respeito do volume de demanda. O TermoDim é apropriado para estimar o desempenho de aquecedores solares operando por termossifão com tanques verticais e horizontais. O método de dimensionamento do TermoDim é baseado na correlação para a eficiência média mensal obtida neste trabalho a partir de um grande número de simulações.
Resumo:
No trabalho "Equilibrium Valuation of Illiquid Assets" John Krainer e Stephen F. LeRoy desenvolvem um modelo baseado em pesquisa e apropriação e classificam os imóveis como ativos ilíquidos, ou seja, para a efetivação das suas transações é necessário um lapso de tempo e que o comportamento ótimo dos compradores e vendedores é inconsistente com a imediata realização dessas transações. Com intuito de confirmar se a afirmação de Krainer e LeRoy se aplica ao caso brasileiro e quantificar a duração desse lapso, esta dissertação teve por objetivo determinar o tempo médio de venda para os imóveis em lançamento localizados nas cidades de Belo Horizonte, Goiânia, Porto Alegre e Recife, no período de janeiro de 1997 a dezembro de 2001. Inicialmente foram calculadas as probabilidades de venda dos imóveis (Pis) e a partir dessas Pis foram calculados os tempos médios de venda dos imóveis. Para o estabelecimento dessas probabilidades foram desenvolvidos programas usados no aplicativo computacional Matlab (versão 6.0.0.88 release 12). Pôde-se constatar que as transações imobiliárias nos mercados estudados só ocorrem após um lapso de tempo, que variou de oito meses a três anos.
Resumo:
O presente trabalho tem por objetivo o estudo dos tratamentos termoquímicos comuns na indústria metalúrgica denominados: nitretação, nitrocarburação e carbonitretação com o auxílio da ferramenta conhecida como ‘termodinâmica computacional’. Com o uso de um aplicativo computacional e de um banco de dados compacto procurou-se primeiramente o perfeito entendimento dos processos, por exemplo, através da análise do efeito de variáveis como temperatura, pressão e composição das fases gasosa e condensada. A partir deste entendimento procurouse simular os tratamentos termoquímicos dentro de parâmetros conhecidos da prática industrial e, finalmente, procurou-se sugerir algumas outras atmosferas possíveis de serem aplicadas, que se mostraram apropriadas aos objetivos de tais tratamentos. Durante a simulação, constatou-se que alguns resultados mostraram-se algo diferente dos existentes na literatura, provavelmente por diferenças nos dados termodinâmicos utilizados. Este fato, contudo, não invalida as simulações. Sugere-se apenas, para o futuro, a utilização de bancos de dados ainda mais compatíveis com os resultados obtidos na prática industrial.
Resumo:
No presente trabalho foram colhidas amostras da aponeurose da linha alba abdominal de 26 pacientes com idades entre 26 e 75 anos, portadores de hérnias da parede abdominal anterior, para avaliação qualitativa e quantitativa do colágeno total, tipo I e III. Oito desses pacientes foram operados no Hospital de Clínicas de Porto Alegre (HCPA), quatro no Hospital Pompéia de Caxias do Sul (HP) e 14 na Clínica Particular do autor (CPA) em Caxias do Sul. Todos os pacientes eram portadores de hérnias da parede abdominal anterior, sendo seis casos de hérnias incisionais, 11 casos de hérnias umbilicais e sete casos de hérnias epigástricas, um caso com duas hérnias: incisional e epigástrica e um outro caso também com duas hérnias, sendo uma epigástrica e outra umbilical. As amostras foram retiradas na linha média da linha alba, três centímetros acima da cicatriz umbilical e outra a dois centímetros abaixo dessa cicatriz. Uma vez no laboratório, as amostras foram subdivididas em duas. Em uma delas realizou-se a avaliação quantitativa do colágeno total e na outra a avaliação qualitativa dos colágenos tipo I e III. A avaliação quantitativa foi realizada por meio da coloração com picrosirius e contagem das fibras colágenas em microscópio de luz polarizada e análise digital por birrefringência, tendo sido utilizado o aplicativo Image Pro Plus (Media Cybernetics, Silver Spring, USA). A avaliação qualitativa foi feita por meio da imuno-histoquímica, com a utilização de anticorpos monoclonais anticolágeno tipo I e III. Os achados obtidos nesses pacientes foram comparados com os achados obtidos em um grupo-controle de cadáveres não formolizados do Instituto Médico Legal de Caxias do Sul. No grupo-controle de cadáveres sem hérnias, foram realizados os mesmos estudos dos pacientes cirúrgicos portadores de hérnias, para avaliar as diferenças das quantidades de colágeno total, tipo I e III entre os dois grupos. Os resultados mostraram que as quantidades de colágeno total eram 18,05% menores nos pacientes com hérnias da parede anterior do abdome, quando comparados com o grupo-controle de cadáveres sem hérnias (p 0,05). Já as quantidades do colágeno tipo I foram 20,50% menores nos pacientes (p 0,05). O mesmo ocorreu com o colágeno tipo III que apresentou uma percentagem 7,3% menor nesses mesmos pacientes (p = 0,383).
Resumo:
Este trabalho propõe-se a estudar os sentidos das preposições essenciais do português, a partir da Teoria da Enunciação de Émile Benveniste. As preposições consideradas advêm de um corpus de dados retirado de gramáticas contemporâneas do português. Ao abordar a descrição do sentido das preposições nas gramáticas e estudos lingüísticos brasileiros, constatamos que essa descrição é baseada em noções paradigmáticas constantes e genéricas, tais como espaço e tempo. A partir dos textos de análise de Benveniste, constatamos que o estudo da língua depende da consideração de uma dupla sintaxe, a saber, sintaxe da língua e sintaxe da enunciação, de uma dupla definição de sentido, a saber, valor e referência, de uma dupla definição de unidade, a saber, locução e enunciado e de uma dupla definição de língua, a saber, língua enquanto sistema de signos (língua) e língua enquanto comunicação intersubjetiva (língua-discurso). Constatamos ainda que a dupla consideração do sentido depende da postulação de uma unidade intermediária entre língua e língua-discurso, dita locução ou signo-palavra. Além disso, tal estudo nos mostra que uma metodologia de análise do sentido depende da simultânea consideração das relações de dissociação de forma e integração de sentido entre signos-palavra. A partir do estudo dos textos da Teoria da Enunciação, observamos que, para o estudo do sentido das preposições, devemos considerar que o significado genérico e repetível da locução na língua é determinado pela referência única e irrepetível da locução no enunciado Assim, as noções genéricas de espaço e tempo das preposições enquanto signo transformam-se em sentidos particulares a partir das relações sintagmático-semânticas de integração da preposição enquanto signopalavra. Para estudar os sentidos das preposições, construímos um corpus de fatos constituído de textos extraídos da versão online do jornal Zero Hora do ano de 2004. Com o auxílio do aplicativo Wordsmith, identificamos a estrutura de locuções da língua enquanto sistema de signos. A partir de 24 análises enunciativas das preposições, constatamos que as noções de espaço ou de tempo das preposições são determinadas pela posição singular que o locutor e, por vezes, o alocutário ocupa em cada enunciado, ou seja, pela sintaxe da enunciação.
Resumo:
Trata do desenvolvimento e experimentação prática de um aplicativo para jogo de empresas, baseado no acoplamento de um modelo empresarial genérico, construído dentro do paradigma de dinâmica de sistemas, com um modelo em aplicativo de planilhas, operando como um gerador randômico de cenários. Este aplicativo pode ser usado tanto na forma individual, como com vários participantes, de maneira individual ou em grupos, com a participação de um administrador. A geração automática e randômica de cenários num jogo de empresas, propicia um ambiente diferenciado às metas de aprendizado e treinamento dos participantes.
Resumo:
O cerne da Sustentabilidade como conceito contemporâneo é a inclusão de uma lógica diferente da tradicional dentro do sistema social: o cuidado com os aspectos econômicos, humanos e ambientais como orientadores de decisões para toda e qualquer atividade produtiva em exercício (produtos, serviços, bem estar humano). Responder ao constructo da sustentabilidade exige das organizações um sistema complexo de gestão sobre suas trocas com o meio. Nas Organizações Não Governamentais (ONGs) o funcionamento organizacional tem também buscado um estado duradouro de produção de resultados de utilidade pública, adotando formas de gestão que variam entre o tradicionalismo e a inovação, numa tentativa de equilibrar-se com fatores emergentes como a responsabilidade social interna, a capacidade de aprendizagem e a responsabilidade ambiental. Esta pesquisa propõe um composto de Critérios aplicativo dos princípios orientadores da sustentabilidade ajustados às ONGs: substitui os tradicionais elementos que só se aplicam às empresas, como “lucro” e “produção limpa”, por elementos equivalentes nas ONGs, como “produção de resultados” e “inovação metodológica”. Esses ajustes foram feitos a partir da literatura analisada e são sustentados durante toda a dissertação. Diversos estudos e modelos científicos sobre a eficiência, efetividade e sustentabilidade de organizações foram fontes elementares desta pesquisa, para propor um instrumento operacional de medição sobre o quanto uma ONG reflete o constructo da sustentabilidade em sua gestão. A pesquisa é não experimental de caráter exploratório e se utiliza de métodos quantitativos e qualitativos, quando os dados resultantes foram discutidos com um Grupo Foco. A proposição, descrição e validação teórica deu origem ao modelo teórico global de 26 indicadores agrupados em seis Critérios: Governança, Inovação, Produção de Resultados, Gestão e Impacto Econômico-Financeiro, Gestão Social, Gestão, Educação e Impacto Ambiental. Foi aplicado um Questionário com noventa questões para um Universo de 161 ONGs em três áreas de atuação- Educação não formal, Meio Ambiente e Desenvolvimento Comunitário, cadastradas no Mapa do Terceiro Setor (FGV-EAESP / Centro de Estudos do Terceiro Setor), e o índice de respostas foi de 54%. A partir dessa coleta os dados foram analisados de modo quantitativo (estatísticas descritivas, análises e escores fatoriais) e qualitativo (grupo focal), donde surgiram hipóteses emergentes e conclusões para uma inferência descritiva do Universo da pesquisa. As Hipóteses Emergentes resultantes versam sobre a dissociação entre gestão organizacional da economia interna e do meio, a participação da ONG na economia de mercado e a ocorrência de um isomorfismo mimético e normativo nas ONGs. Tece ainda conclusões e provocações para novas investigações.