1000 resultados para Modelos de auto-avaliação


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com o objetivo de realizar consultas em diferentes fontes XML,é necessário que se escreva uma consulta específica para cada fonte XML. Uma solução mais adequada é fazer uma única consulta sobre um esquema conceitual e então traduzi-la automaticamente para consultas XML para cada fonte XML específica. CXPath é uma linguagem de consulta que foi proposta para consultar dados em nıvel conceitual. Este trabalho tem como objetivos formalizar a linguagem existente, estendê-la para permitir consultas que utilizem o conceito de herança e estender o mecanismo de tradução de consultas. A formalização da linguagem é feita por meio de um conjunto de regras que definem formalmente um critério para validar uma consulta escrita nessa linguagem sobre um esquema conceitual. Essa formalização permite estender a linguagem para que ela passe a tratar os relacionamentos de herança e especialização. Outra contribuição dessa formalização é que ela apresenta o primeiro passo rumo à verificação formal de que a avaliação da consulta global traz os mesmos resultados obtidos pela avaliação da consulta resultante do processo de mapeamento de consultas proposto. A extensão do mecanismo de tradução de consultas é necessária para traduzir relacionamentos representados no modelo conceitual para junções nas fontes de dados XML. Tal aspecto é fundamental para permitir a construção de modelos conceituais com relacionamentos semânticos e que não dependam de relacionamentos físicos existentes nos documentos fontes, mas apenas de junções tal como é feito em bases de dados relacionais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Estudo que sistematiza e compara os resultados apresentados por diferentes modelos de gestão hospitalar pública do Estado de São Paulo, durante o período de 2000 a 2001, quando a rede era composta por mais de 60 hospitais públicos. Por meio de uma extensa revisão bibliográfica foi traçado um panorama ao longo das últimas décadas, no que tange à Reforma do Estado, e as transformações que o Estado sofreu na tentativa da redução dos gastos govermentais, em função de sua crise econômico-financeira à partir da década de 70 e como estas afetaram as políticas de Saúde Pública. Buscou-se uma metodologia que permitisse a análise da eficiência técnica, e do desempenho da nova Política Pública que introduz o terceiro setor e outras formas organizacionais como agentes gestores do aparelho de Saúde Pública. A coleta de dados foi realizada em onze hospitais estudados, os quais foram analisados e classificados de acordo com o modelo de gestão: administração direta, administração mista e administração por OSS; em relação às dimensões de capacidade instalada, recursos humanos, produção e financeiras comparados entre sí e frente a literatura. Seguindo-se a aplicação de dois modelos de DEA (CCR e BCC), orientados à maximização dos resultados, que permitiram a elaboração dos rankings de eficiência técnica. Após a análise dos dados e de posse dos resultados foi realizada a discussão dos mesmos, possibilitando investigar a eficiência técnica de três modelos de gestão hospitalar, tendo em vista as seguintes questões: a eficiência técnica do novo modelo de gestão por Organizações Sociais em Saúde é superior que os demais? Os hospitais de porte menor são mais eficientes? e por fim se os hospitais universitários têm eficiência menor que os demais? Chegando-se à conclusão de que a diferença do escore de eficiência técnica dentre os três modelos de gestão estudados não foi estatísticamente significativa em ¾ dos modelos de DEA aplicados (p-valor 0,1576); que o escore de eficiência técnica não apresentou diferença estatísticamente associada ao porte (H-valor 3,15;) e que os hospitais universitários embora mais custosos não apresentam grau de ineficiência maior que os demais (p-valor 0,2909). E por fim que é recomendável introduzirem-se métodos objetivos de avaliação da eficiência hospitalar como ferramenta indispensável à moderna Administração de Saúde e à elaboração e definição de Políticas Públicas direcionadas ao Setor.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As complexidades dos diversos tipos de agrupamentos empresariais e o crescente acirramento da competitividade no mercado global, fazem necessária a identificação de sinergias e o desenho de estratégias setoriais que tornem as cadeias produtivas do país mais competitivas e capazes de atender os mercados interno e externo. neste âmbito, a competitividade e crescimento sustentados passam pela definição de políticas que possibilitem a constante alavancagem das cadeias produtivas chave para a economia do país. Este trabalho trata da análise de aglomerados empresariais e sua interface com fatores como sistemática de avaliação, estratégia, organização e governaça, que são analisados sob ponto de vista de incremento da competitividade da cadeia produtiva e análise de gargalos. Também analisa modelos de avaliação de desempenho apresentados por diversos autores e procura apresentar, à luz destes modelos, uma proposta de avaliação de cadeias produtivas inseridas no agronegócio, utilizando parte do sistema agroindustrial da soja no Brasil como caso prático.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente estudo demonstra que o mercado brasileiro cambial de forward reflete adequadamente a visão dos economistas – obtida junto a pesquisas de mercado realizadas periodicamente pelo Banco Central do Brasil – quando se modela o prêmio pelo risco cambial através de modelos auto-regressivos condicionais generalizados de heteroscedasticidade na Média (GARCH-M).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Índia, com sua notável expansão econômica, cultura e filosofia milenares, é o tema desse trabalho, com dois objetivos: exemplificar diversos aspectos teóricos ligados ao crescimento econômico e aprofundar o estudo de um aspecto institucional pouco difundido na literatura, os impactos das filosofias religiosas. A princípio, são analisadas as reformas econômicas realizadas após a crise do balanço de pagamentos ocorrida em 1991. Diversos estudos teóricos são citados ao longo do texto para contextualizar o efeito das reformas no potencial de crescimento. O setor externo é analisado com profundidade, seguido pela desregulamentação no setor privado, principalmente na atividade industrial e no controle de preços. Estes dois setores foram conjuntamente responsáveis pelo grande salto de produtividade na economia (descrito pelos impactos na produtividade total dos fatores). Alguns aspectos de política monetária e fiscal também são analisados, mas com menor ênfase, visto que as reformas e resultados nesses setores são limitados. A seguir, apresenta-se análise sobre a filosofia Hindu, predominante no país. Introduz-se o tema com breve descrição dos aspectos filosóficos, para seguir com avaliação dos impactos econômicos resultantes. Max Weber e Amartya Sen contradizem-se sobre o sinal do impacto: Weber suportando que a magia hindu impediria o racionalismo; Sen argumentando que o próprio hinduísmo tem histórico de racionalismo heterodoxo, de contestação e criação. Para disseminar dúvidas apresenta-se um modelo econométrico, com base em convergência condicional: impactos diretos e indiretos não se mostram significantes. Levanta-se um debate e um alento a alguns países: um histórico institucional bastante desalentador ao desenvolvimento, baseado em uma filosofia religiosa controversa de nuances pós-vida, pode ser superado com algumas corretas reformas na economia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Quando as empresas decidem se devem ou não investir em determinado projeto de investimentos a longo prazo (horizonte de 5 a 10 anos), algumas metodologias alternativas ao Fluxo de Caixa Descontado (FCD) podem se tornar úteis tanto para confirmar a viabilidade do negócio como para indicar o melhor momento para iniciar o Empreendimento. As análises que levam em conta a incerteza dos fluxos de caixa futuros e flexibilidade na data de início do projeto podem ser construídos com a abordagem estocástica, usando metodologias como a solução de equações diferenciais que descrevem o movimento browniano. Sob determinadas condições, as oportunidades de investimentos em projetos podem ser tratados como se fossem opções reais de compra, sem data de vencimento, como no modelo proposto por McDonald-Siegel (1986), para a tomada de decisões e momento ótimo para o investimento. Este trabalho analisa a viabilidade de investimentos no mercado de telecomunicações usando modelos não determinísticos, onde a variável mais relevante é a dispersão dos retornos, ou seja, que a variância representa o risco associado a determinado empreendimento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho é realizada uma avaliação de um projeto de desenvolvimento de um shopping center através do modelo tradicional do fluxo de caixa descontado e, alternativamente, através do modelo de opções reais. O objetivo é analisar as principais diferenças entre os modelos utilizados. Os resultados obtidos revelam que a utilização da metodologia de opções reais é capaz de valorar as flexibilidades gerenciais que podem existir em um projeto. As diferenças de valores entre os dois métodos são significativas, podendo atingir mais de 10% do valor do projeto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo dessa pesquisa foi desenvolver, validar e normatizar uma bateria composta por cinco escalas para a avaliação do ajustamento psicológico juvenil. As escalas são instrumentos de auto-relato que avaliam ansiedade, humor, atenção/atividade motora, pensamento e conduta social em adolescentes entre 11 e 17 anos de idade. Esses construtos foram escolhidos a partir da avaliação da demanda clínica observada. Estudos de validade de conteúdo, construto e critério mostraram que os instrumentos apresentam boas características psicométricas e são adequados para utilização clínica. Para análise fatorial foi utilizada uma amostra de 4033 adolescentes gaúchos (idade média = 14,4 anos, d.p.= 1,72) que preencheram 5302 escalas. Os resultados indicaram índices de precisão que variaram entre 0,62 e 0,93. Foram encontradas soluções de dois fatores para as escalas de ansiedade (Indicadores de Ansiedade e Controle da Ansiedade) e de pensamento (Fenômenos cognitivos e sensoriais, Ações compulsivas). Soluções de três fatores foram encontradas para as escalas de humor (Humor deprimido, Bem-estar subjetivo e Mania e risco de suicídio), de atenção/atividade motora (Desatenção, Controle das funções executivas, Hiperatividade/impulsividade) e de conduta social (Comportamento anti-social, Comportamento pró-social e Desafio-oposicionismo). Correlações com instrumentos convergentes/divergentes ocorreram de acordo com a literatura (N=1040). Para validação concorrente, grupos critérios foram constituídos com amostras clínicas (N=200), escolares com comportamento atípico (N=104) e adolescentes acusados de ato infracional (N=129), sendo constatada a validade dos instrumentos. A partir desses dados, uma normatização preliminar foi estabelecida, a fim de viabilizar a utilização da bateria no contexto clínico. Os resultados obtidos fornecem novas possibilidades para avaliação e compreensão do desenvolvimento juvenil, bem como para o planejamento de intervenções interdisciplinares.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objetivos: Desenvolver modelo de malária experiemtnal em ratos Wistar e avaliar a influência da infecção noperfil farmacocinético e na distirbuição tecidual da quinha (QN) Metodologia: No desenvolvimento da infecção exerimental de ratos Wistar por Plasmodium berghei foram testados diferente inóculos pela via i.v. e i.p. em diferentes idades. A adequabilidade do protocolo proposto foi avaliada utilizando cloroquina. Neste modelo, as doses efetivas da QN foram estabelecidas após administração oral, utilizando protocolo de tratamento padronizado. Os perfis famacocinéticos da QN após administração i.v. de 50 mg/kg a ratos sadios e oral de 250 mg/kg a ratos sadios e infectados por P. berghei, com baixa e alta parasitemia, foram avaliados após quantificação da QN através de metodologia por cromatografia em líquido de alta eficiência validada. A distribuição hepática e muscular do fármaco emr atos sadios e com alta parasitemia foi avaliada por microdiálise. Resultados e Discussão: O protocolo para desenvolver malária experimental em ratos Wistar utiliando inoculação i.v. de 10ª hemáceas parasitas por P. berghei em animais de 5 semanas mostrou-se adequado quando testado com cloroquina. As doses de QN de 50 e 250 mg/kg foram efetivas na cura da malária experimental. Após adminsitração i.v. de QN a ratos sadios, obteve-se volume dee distribuição (Vd) de 11.6 4.1 L.Kg , clearencece (CI) de 5,8 2,2 L.Kg .h e meia-vida de 2,1 1,2h. Após administração oral, uma tendência de redução do CI e aumento do Vd. proporcional ao nível parasitêmico, foi observada. As frações livres teciduais da QN em ratos infectados foram inferiores às obtidas em ratos sadios, observando-se maiores concentrações musculares do que hepáticas. Conclusões: As alterações famacocinéticas da QN causadas pelos diferentes níveis de parasitemia observadas na evolução da malária devem ser levadas em consideração quando da deeerminação do esquema posológico do fármaco, visando garantir o sucesso terapêutico e principalmente, a segurança para o indivíduo infectado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Utilizando dados financeiros brasileiros da BM&F, testa-se a validade do modelo de valor presente na estrutura a termo de juros, também conhecido na literatura como Hipótese das Expectativas. Estes modelos relacionam a taxa de juros de longo prazo à uma média das taxas de juros de curto-prazo mais um prêmio de risco, invariante no tempo. Associada a estes modelos está a questão da previsibilidade dos retornos de ativos financeiros ou, mais especificamente, à previsibilidade na evolução das taxas de juros. Neste artigo é realizada uma análise multivariada num arcabouço de séries temporais utilizando a técnica de Auto-Regressão Vetorial. Os resultados empíricos aceitam apenas parcialmente a Hipótese das Expectativas para a estrutura a termo de juros brasileira.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação apresenta alguns critérios para avaliação de ameaças e risco geotécnico aplicados à estabilidade de taludes. Inicialmente apresenta-se uma visão geral dos problemas envolvidos com a análise de risco geotécnico, a importância da análise probabilística e a sua comparação com a determinística, e as opções de gerenciamento descritas na literatura. Estas análises envolvem conceitos de probabilidade, estatística, geotecnia, geologia, meio ambiente e legislação, além do interesse público e defesa civil. Assim, são definidos os conceitos estatísticos envolvidos nessa área multidisciplinar, como variabilidade espacial, coeficiente de correlação entre os parâmetros de entrada do modelo, distância de autocorrelação, escala de flutuação e incertezas (de parâmetros, humanas e dos modelos). Os métodos probabilísticos de cálculo do fator de segurança, a probabilidade de ruptura e o índice de confiabilidade são revisados. Utilizou-se o método de Monte Carlo nas análises através do uso de um programa comercial. O método tem sido adotado por diversos pesquisadores por ser direto, eficiente para problemas matematicamente complexos e não ter a complexidade matemática de outros métodos. A metodologia de análise de ameaças e risco geotécnico foi aplicada a um talude modelo, similar aos taludes de colúvio de basalto encontrados nas partes inferiores da Escarpa dos Aparados da Serra em Santa Catarina Os resultados obtidos, a partir de dados experimentais disponíveis, foram o fator de segurança determinístico mínimo (1,20) e o fator de segurança médio obtido pelo método de Monte Carlo (1,205), índice de confiabilidade de 2,64 e probabilidade de ruptura de 0,41%. Foi discutida também a aceitabilidade do fator de segurança médio da análise probabilística, comparando-se os resultados obtidos com valores aceitos em obras similares.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho teve como objetivo o desenvolvimento de uma nova técnica para determinação do tamanho médio e da distribuição de tamanho de bolhas de ar em meio aquoso. A nova técnica, denominada de LTM-BSizer, uma vez otimizada, foi aplicada na caracterização das bolhas geradas por diversos métodos utilizados tanto na flotação para tratamento de efluentes líquidos quanto na flotação de partículas minerais e, principalmente, na investigação de parâmetros operacionais e do efeito do tamanho de bolhas na flotação de partículas minerais (quartzo como modelo) finas (40-10 µm) e ultrafinas (<10 µm). A técnica LTM-BSizer é baseada no conceito da captura, ou seja, ao contrário das técnicas fotográficas até agora propostas, onde as imagens (fotos ou vídeos) das bolhas em movimento foram obtidas com visores verticais, este método obteve as imagens das bolhas estabilizadas em um visor disposto na horizontal. Entre as vantagens em relação aos métodos fotográficos existentes destacam-se a melhor qualidade das imagens e a capacidade de medir distribuições de tamanho de bolha com grande amplitude, desde microbolhas (<100 µm) até bolhas maiores (~ 1 a 3 mm). Os métodos de geração de bolhas pesquisados foram: microbolhas geradas por despressurização de água saturada com ar em um vaso saturador (processo de flotação por ar dissolvido-FAD) ou por uma bomba centrífuga multifase (novo equipamento para geração de microbolhas), injeção de mistura ar-líquido através de um constritor tipo venturi (destaque na flotação não convencional), injeção de ar em cilindro inox poroso (comumente aplicado para dispersão de gás) e bolhas geradas em uma célula de flotação por ar induzido (FAI), convencional de bancada Para todos os métodos citados, exceto o último, a distribuição de tamanho de bolha foi avaliada numa coluna em acrílico com 200 cm de altura e 72 mm de diâmetro, onde através de um ponto de amostragem parte do fluxo foi conduzida até o visor. Os resultados obtidos com esta técnica foram, para os diâmetros médios de bolha: 30 a 70 µm para FAD, 65 a 130 µm para bomba multifase, 200 a 1400 µm para venturi, 500 a 1300 µm para FAI e 500 a 1000 µm para o cilindro poroso. A influência de alguns parâmetros operacionais na formação das bolhas foi estudada em detalhe e os resultados obtidos mostraram uma boa correspondência com os valores encontrados na literatura e em outros casos, elucidaram efeitos considerados contraditórios na literatura técnica. Este trabalho demonstrou que, o tamanho médio e a distribuição de tamanho das microbolhas, não são influenciados pela pressão de saturação no intervalo de 294 a 588 kPa, mas sim pela quantidade de bolhas e pelo tempo de retenção Também foi constatado que a diminuição da tensão superficial da água (adição de 30 mg/L de oleato de sódio) aumenta consideravelmente (3 a 8 vezes) o número de microbolhas na FAD a baixas pressões de saturação (196 e 294 kPa). O tamanho e a distribuição de tamanho de bolhas geradas em constrições de fluxo tipo venturi variam em função dos parâmetros concentração de tensoativo, velocidade superficial de líquido (UL) e razão gás/líquido (Qr). Uma pequena diminuição da tensão superficial, de 73 para 68 mN/m, provocada pela adição de 20 mg/L do tensoativo DF 250, foi suficiente para diminuir consideravelmente o tamanho das bolhas geradas, permanecendo constante para concentrações maiores, sugerindo que esta seja a concentração crítica de coalescência (CCC) para este sistema. Um aumento de UL (mantendo Qr constante) e diminuição de Qr (com UL constante) levaram a distribuições com menor amplitude e diâmetro médio. No caso das microbolhas geradas através da bomba multifase, o tamanho de bolhas diminuiu com a pressão até atingir o limite de solubilidade teórico ar/líquido. O tamanho das bolhas gerados através de placa porosa e FAI apresentaram boa correspondência com os reportados na literatura e em ambas as técnicas foi, de novo, encontrada, para DF 250, a mesma CCC igual a 20 mg/L. O sistema de flotação de partículas finas e ultrafinas, foi estudado via recuperação de finos de quartzo (50% < 10µm) em coluna de laboratório. As variáveis estudadas foram; a distribuição de tamanho de bolhas e a concentração de coletor (amina). Os resultados obtidos mostraram que a recuperação das frações mais finas aumenta com a diminuição do tamanho de bolhas de acordo com os modelos existentes de flotação. Entretanto, foi encontrado, na captura de partículas ultrafinas pelas bolhas, um valor ótimo de tamanho de partícula. Assim, a captura diminui com o tamanho de partícula até 5-7 µm e aumenta, de novo, nas frações menores. Esses resultados são discutidos em termos de um mecanismo de difusão como fenômeno predominante nos mecanismos de adesão bolha-partícula.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação objetiva avaliar como as empresas organizam sua estratégia para gestão do conhecimento. Basicamente dois modelos estratégicos são apresentados na literatura: a codificação e a personalização. No entanto, há uma questão que se apresenta na literatura que se refere à importância do foco prioritário em apenas um dos modelos estratégicos citados. Como objetivo principal, pretende-se apresentar uma escala que possa analisar se uma empresa líder em seu segmento realmente possui um foco estratégico com relação à gestão do conhecimento. Durante o desenvolvimento deste trabalho, será percorrido um referencial teórico que busca explicar como a gestão do conhecimento se tomou importante para a estratégia das empresas, tocando em pontos como características da Era da Informação e conceitos básicos da gestão do conhecimento, englobando modelos teóricos que buscam explicar como o conhecimento é criado e transferido dentro das empresas. Um modelo para mensuração do foco estratégico de uma empresa será proposto. Este modelo será composto de indicadores estruturados em forma de um questionário. Para cada indicador haverá uma escala de avaliação e o conjunto do questionário buscará traduzir o foco estratégico citado. Por fim, o questionário será testado em uma empresa de Propriedade Intelectual e serão feitas análises estatísticas para avaliação do mesmo. Para isto será utilizado o procedimento da análise fatorial do tipo confirmatória. Trata-se de uma ferramenta estatística que possibilita uma avaliação tanto do modelo de análise, quanto do modelo estrutural.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com o objetivo de avaliar o uso do consumo de energia elétrica como indicador socioeconômico, esta pesquisa analisa informações em dois níveis de agregação geográfica. No primeiro, sob perspectiva territorial, investiga indicadores de Renda e Consumo de Energia Elétrica agregados por áreas de ponderação (conjunto de setores censitários) do município de São Paulo e utiliza os microdados do Censo Demográfico 2000 em conjunto com a base de domicílios da AES Eletropaulo. Aplica modelos de Spatial Auto-Regression (SAR), Geographically Weighted Regression (GWR), e um modelo inédito combinado (GWR+SAR), desenvolvido neste estudo. Diversas matrizes de vizinhança foram utilizadas na avaliação da influência espacial (com padrão Centro-Periferia) das variáveis em estudo. As variáveis mostraram forte auto-correlação espacial (I de Moran superior a 58% para o Consumo de Energia Elétrica e superior a 75% para a Renda Domiciliar). As relações entre Renda e Consumo de Energia Elétrica mostraram-se muito fortes (os coeficientes de explicação da Renda atingiram valores de 0,93 a 0,98). No segundo nível, domiciliar, utiliza dados coletados na Pesquisa Anual de Satisfação do Cliente Residencial, coordenada pela Associação Brasileira dos Distribuidores de Energia Elétrica (ABRADEE), para os anos de 2004, 2006, 2007, 2008 e 2009. Foram aplicados os modelos Weighted Linear Model (WLM), GWR e SAR para os dados das pesquisas com as entrevistas alocadas no centróide e na sede dos distritos. Para o ano de 2009, foram obtidas as localizações reais dos domicílios entrevistados. Adicionalmente, foram desenvolvidos 6 algoritmos de distribuição de pontos no interior dos polígonos dos distritos. Os resultados dos modelos baseados em centróides e sedes obtiveram um coeficiente de determinação R2 em torno de 0,45 para a técnica GWR, enquanto os modelos baseados no espalhamento de pontos no interior dos polígonos dos distritos reduziram essa explicação para cerca de 0,40. Esses resultados sugerem que os algoritmos de alocação de pontos em polígonos permitem a observação de uma associação mais realística entre os construtos analisados. O uso combinado dos achados demonstra que as informações de faturamento das distribuidoras de energia elétrica têm grande potencial para apoiar decisões estratégicas. Por serem atuais, disponíveis e de atualização mensal, os indicadores socioeconômicos baseados em consumo de energia elétrica podem ser de grande utilidade como subsídio a processos de classificação, concentração e previsão da renda domiciliar.