998 resultados para ANTROPOMETRIA (ESTATÍSTICAS E DADOS NUMÉRICOS)


Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho foi o de indicar, ou não, distribuições alternativas e assimétricas para a análise de dados que foram obtidos com os testes de germinação, frio e envelhecimento, peso de matéria seca e porcentagem de umidade medidos durante a maturação de sementes de milho. Para isto foi realizada uma análise exploratória dos dados obtidos de um experimento em que foram semeados três híbridos em três épocas distintas e cujas plantas tiveram as espigas amostradas dentro de cada parcela. O intervalo de coleta variou em quatro dias começando após o 23º e terminando no 59º dia após o florescimento. As distribuições estudadas foram a Normal, a Lognormal, a de Gumbel e a de Weibull. O valor numérico do logaritmo da função verossimilhança foi usado como indicativo do grau de ajustamento. Os resultados indicaram que distribuições diferentes da Normal podem ser uma alternativa para dados em porcentagem obtidos durante a maturação. O maior valor do logaritmo da função de verossimilhança foi obtido com o ajuste da distribuição de Gumbel para os dados germinativos em percentagem e a de Weibull para o peso da matéria seca acumulada e porcentagem de umidade.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O grupo das mulheres trabalhadoras do sexo (MTS) é reconhecido como uma populaçãode maior risco à infecção pelo HIV, tanto pela prevalência elevada, como por suavulnerabilidade social como pelos fatores relacionados à própria atividade profissional. Porém, arealização de estudos nos subgrupos de maior risco ao HIV mediante estratégias convencionaisde amostragem é, em geral, problemática por essas populações possuírem pequena magnitudeem termos populacionais e por estarem vinculados a comportamentos estigmatizados ouatividades ilegais. Em 1997, foi proposto um método de amostragem probabilística parapopulações de difícil acesso denominado Respondent-Driven Sampling (RDS). O método éconsiderado como uma variante da amostragem em cadeia e possibilita a estimação estatísticados parâmetros de interesse. Na literatura internacional, para análise de dados coletados porRDS, muitos autores têm utilizado técnicas estatísticas multivariadas tradicionais, sem levar emconta a estrutura de dependência das observações, presente nos dados coletados por RDS.A presente tese tem por objetivo contribuir para suprir informações sobre as práticas derisco relacionadas ao HIV entre as mulheres trabalhadoras do sexo (MTS) com odesenvolvimento de método estatístico para análise de dados coletados com o método deamostragem RDS. Com tal finalidade, foram utilizadas as informações coletadas na PesquisaCorrente da Saúde realizada em dez cidades brasileiras, com 2.523 MTS recrutadas por RDS,entre os anos de 2008 e 2009. O questionário foi autopreenchido e incluiu módulos sobrecaracterísticas da atividade profissional, práticas sexuais, uso de drogas, testes periódicos deHIV, e acesso aos serviços de saúde.Primeiramente, foram descritos alguns pressupostos do RDS e todas as etapas deimplantação da pesquisa. Em seguida, foram propostos métodos de análise multivariada, considerando o RDS como um desenho complexo de amostragem.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Foi realizado um estudo de caráter expioratório-descritivo para verificar o uso dos dados e estatísticas coletados regularmente pelas bibliotecas universitárias brasileiras no processo decisório dentro da atividade de desenvolvimento de coleções. Tendo como base a abordagem sistêmica, a biblioteca universitária foi classificada como uma organização social de serviço em constante interação com o meio ambiente. A função e os objetivos da universidade e da biblioteca universitária, as necessidades informacionais dos usuários, os recursos bibliográficos e financeiros, o uso de coleções, a produção e o custo dos materiais bibliográficos foram identificados como os fatores ambientais que afetam a biblioteca universitária e a atividade de desenvolvimento de coleções, da coleta de dados e da implementação de um sisitema de informação gerencial. Foi sugerido um conjunto de dados, agrupados em categorias relacionadas aos fatores ambientais, como base para consttução de um sisitema de informação, assim como um referencial teórico para a coleta de dados a serem usados como insumos para a tomada de decisão na atividade de desenvolvimetno de coleções em bibliotecas universitárias. Os resultados da pesquisa revelaram que os dados e estatísticas coletadas regularmente pelas bibliotecas universitárias brasileiras não sao completos, tampouco suficientes para auxiliar na tomada de decisão.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho discorre no escopo de informática médica, no âmbito da Unidade de Cardiologia Fetal do Instituto de Cardiologia - Fundação Universitária de Cardiologia do RS. Sabe-se que a medicina gera um grande volume de dados, sejam eles, textuais, numéricos, gráficos ou mesmo imagens ou sons geradas por equipamentos de ultra-som, tomógrafos computadorizados, ressonância magnética, RX, entre outros. Este trabalho desenvolve a integração das imagens ecocardiográficas fetais ao banco de dados. Atualmente, a tendência observada no desenvolvimento de sistemas de informações é a utilização de banco de dados que sejam capazes de manipular informações completas sobre seus pacientes, tais como: consultas, medicamentos, internações, bem como os laudos de exames com suas respectivas imagens quando estes possuírem. É com base nestas tendências que foram definidos os tópicos relevantes a serem estudados e implementados neste trabalho, integrando os estudos ecocardiográficos fetais com as informações do banco de dados da unidade de cardiologia fetal (UCF). Neste trabalho está apresentado o modelo do banco de dados da UCF. Para esta modelagem foram realizados estudos para aquisição de conhecimento da área e também para compreender as necessidades da unidade Da mesma forma, as imagens ecocardiográficas fetais foram estudadas para que fosse possível serem modeladas junto ao banco de dados. Para esta modelagem foi necessário fazer uma breve revisão dos conceitos utilizados pelo paradigma de orientação a objetos, uma vez que o modelo foi desenvolvido utilizando esta metodologia. As imagens ecocardiográficas fetais receberam grande atenção, uma vez que para elas foram criadas classes distintas. Também para aumentar a funcionalidade foram estudados conceitos de imagem digital, para posterior aplicação sobre as imagens do domínio. Foram realizados estudos sob manipulação de imagens, como modificação do brilho, medidas, filtros e formas de armazenamento. Considerando os formatos de gravação, dois padrões foram contemplados neste trabalho: o utilizado pela placa disponível no instituto denominado DT-IRIS e o DICOM que é um padrão internacional de armazenamento e comunicação de imagens médicas. Por fim, a implementação do protótipo procura demonstrar a viabilidade do modelo proposto, disponibilizando dados textuais, imagens e ainda realizando manipulações sobre estas imagens do domínio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho tem como objetivo desenvolver e empregar técnicas e estruturas de dados agrupadas visando paralelizar os métodos do subespaço de Krylov, fazendo-se uso de diversas ferramentas e abordagens. A partir dos resultados é feita uma análise comparativa de desemvpenho destas ferramentas e abordagens. As paralelizações aqui desenvolvidas foram projetadas para serem executadas em um arquitetura formada por um agregado de máquinas indepentes e multiprocessadas (Cluster), ou seja , são considerados o paralelismo e intra-nodos. Para auxiliar a programação paralela em clusters foram, e estão sendo, desenvolvidas diferentes ferramentas (bibliotecas) que visam a exploração dos dois níveis de paralelismo existentes neste tipo de arquitetura. Neste trabalho emprega-se diferentes bibliotecas de troca de mensagens e de criação de threads para a exploração do paralelismo inter-nodos e intra-nodos. As bibliotecas adotadas são o DECK e o MPICH e a Pthread. Um dos itens a serem analisados nestes trabalho é acomparação do desempenho obtido com essas bibliotecas.O outro item é a análise da influência no desemepnho quando quando tulizadas múltiplas threads no paralelismo em clusters multiprocessados. Os métodos paralelizados nesse trabalho são o Gradiente Conjugação (GC) e o Resíduo Mínmo Generalizado (GMRES), quepodem ser adotados, respectivamente, para solução de sistemas de equações lineares sintéticos positivos e definidos e não simétricas. Tais sistemas surgem da discretização, por exemplo, dos modelos da hidrodinâmica e do transporte de massa que estão sendo desenvolvidos no GMCPAD. A utilização desses métodos é justificada pelo fato de serem métodos iterativos, o que os torna adequados à solução de sistemas de equações esparsas e de grande porte. Na solução desses sistemas através desses métodos iterativos paralelizados faz-se necessário o particionamento do domínio do problema, o qual deve ser feito visando um bom balanceamento de carga e minimização das fronteiras entre os sub-domínios. A estrutura de dados desenvolvida para os métodos paralelizados nesse trabalho permite que eles sejam adotados para solução de sistemas de equações gerados a partir de qualquer tipo de particionamento, pois o formato de armazenamento de dados adotado supre qualquer tipo de dependência de dados. Além disso, nesse trabalho são adotadas duas estratégias de ordenação para as comunicações, estratégias essas que podem ser importantes quando se considera a portabilidade das paralelizações para máquinas interligadas por redes de interconexão com buffer de tamanho insuficiente para evitar a ocorrência de dealock. Os resultados obtidos nessa dissertação contribuem nos trabalhos do GMCPAD, pois as paralelizações são adotadas em aplicações que estão sendo desenvolvidas no grupo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

o estado de Santa Catarina é responsável por 50% da produção nacional de carvão. A produção de carvão nas carboníferas da região de Criciúma - SC ocorre por meio de mineração subterrânea, utilizando o método de câmaras e pilares. Os sistemas de suportes de teto em mina subterrânea de carvão têm apresentado notáveis mudanças no seu desenvolvimento ao longo da história. Para tanto, atualmente existe uma ampla gama de tipos de suportes ou mecanismos de sustentação. O teto das minas de carvão é composto de rochas sedimentares as quais variam em espessura e em extensão lateral. Além disso, essas rochas apresentam resistência variada e características estruturais distintas. Contudo, o padrão de sustentação geralmente é o mesmo, independente da qualidade do maciço. Esse estudo buscou verificar se o padrão de suporte de teto atualmente empregado na Mina Barro Branco, apresenta-se adequado às distintas condições geológicas e geomecânicas do maciço rochoso que compõe o teto imediato da mina. Para este fim, o teto imediato foi avaliado ao longo de várias seções da mina e as informações foram usadas para classificar o maciço em zonas de acordo com o sistema Coal Mine Roof Rating (CMRR) proposto pelo U.S. Bureauof Minesem 1994. Diferentes índices de CMRRforam identificados e então considerados para definir a largura máxima nos cruzamentos, o comprimentoe a capacidadede carregamento dos parafusos de teto. Estatísticas da mina revelam que caimentos de teto acorreram quando as dimensões e o padrão de suporte empregado estão aquém do mínimo recomendado pelo CMRR. Esta metodologiaprovou ser adequada, minimizando os riscosde ruptura de teto e predizendoo tipo de suporte mais apropriadoa ser empregado às várias zonas dentro do depósito. Estes resultados preliminares devem ser validados em diferentes locais da mina e ajustes secundários devem ser implementados no método principalmente devido ao uso de explosivos no desmonte das rochas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Guias para exploração mineral são normalmente baseados em modelos conceituais de depósitos. Esses guias são, normalmente, baseados na experiência dos geólogos, em dados descritivos e em dados genéticos. Modelamentos numéricos, probabilísticos e não probabilísticos, para estimar a ocorrência de depósitos minerais é um novo procedimento que vem a cada dia aumentando sua utilização e aceitação pela comunidade geológica. Essa tese utiliza recentes metodologias para a geração de mapas de favorablidade mineral. A denominada Ilha Cristalina de Rivera, uma janela erosional da Bacia do Paraná, situada na porção norte do Uruguai, foi escolhida como estudo de caso para a aplicação das metodologias. A construção dos mapas de favorabilidade mineral foi feita com base nos seguintes tipos de dados, informações e resultados de prospecção: 1) imagens orbitais; 2) prospecção geoquimica; 3) prospecção aerogeofísica; 4) mapeamento geo-estrutural e 5) altimetria. Essas informacões foram selecionadas e processadas com base em um modelo de depósito mineral (modelo conceitual), desenvolvido com base na Mina de Ouro San Gregorio. O modelo conceitual (modelo San Gregorio), incluiu características descritivas e genéticas da Mina San Gregorio, a qual abrange os elementos característicos significativos das demais ocorrências minerais conhecidas na Ilha Cristalina de Rivera. A geração dos mapas de favorabilidade mineral envolveu a construção de um banco de dados, o processamento dos dados, e a integração dos dados. As etapas de construção e processamento dos dados, compreenderam a coleta, a seleção e o tratamento dos dados de maneira a constituírem os denominados Planos de Informação. Esses Planos de Informação foram gerados e processados organizadamente em agrupamentos, de modo a constituírem os Fatores de Integração para o mapeamento de favorabilidade mineral na Ilha Cristalina de Rivera. Os dados foram integrados por meio da utilização de duas diferentes metodologias: 1) Pesos de Evidência (dirigida pelos dados) e 2) Lógica Difusa (dirigida pelo conhecimento). Os mapas de favorabilidade mineral resultantes da implementação das duas metodologias de integração foram primeiramente analisados e interpretados de maneira individual. Após foi feita uma análise comparativa entre os resultados. As duas metodologias xxiv obtiveram sucesso em identificar, como áreas de alta favorabilidade, as áreas mineralizadas conhecidas, além de outras áreas ainda não trabalhadas. Os mapas de favorabilidade mineral resultantes das duas metodologias mostraram-se coincidentes em relação as áreas de mais alta favorabilidade. A metodologia Pesos de Evidência apresentou o mapa de favorabilidade mineral mais conservador em termos de extensão areal, porém mais otimista em termos de valores de favorabilidade em comparação aos mapas de favorabilidade mineral resultantes da implementação da metodologia Lógica Difusa. Novos alvos para exploração mineral foram identificados e deverão ser objeto de investigação em detalhe.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A implementação de técnicas estatísticas, como modelos de regressão, permite conhecer os efeitos dos fatores sobre a característica de qualidade de um produto, contribuindo na melhoria da qualidade de produtos e processos. O objetivo desta dissertação consiste em elaborar um método que oriente à modelagem de dados mensurados em proporção, levando em consideração a classificação das variáveis dependentes e independentes, com enfoque no Modelo de Regressão Beta e no Modelo de Quaseverossimilhança. O método é ilustrado com um estudo em uma empresa curtidora da região do Vale do Rio dos Sinos no Rio Grande do Sul. A modelagem realizada neste estudo referiuse a proporção de produtos refugados no processo de produção por erro de classificação. Os Modelos de Regressão Beta e de Quase-verossimilhança apresentaram bom ajuste e mostraram-se adequados na modelagem da proporção de produtos por erros de classificação. Esses modelos podem ser estendidos a todos os processos industriais que envolvam a produção de produtos não conformes às especificações de fabricação (defeituosos). O método elaborado apresentou facilidade de entendimento e clareza dos passos para a escolha dos modelos de regressão usados na modelagem de dados mensurados em proporção.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho desenvolvemos uma metodologia numérica para a solução do escoamento em torno de um vórtice. Como a análise completa deste tipo de fluxo não é uma tarefa fácil, simplificações quanto ao escoamento e ao método numérico são necessárias. Também investigamos o comportamento das soluções das equações governantes (Navier-Stokes) quando o tempo tende ao infinito. Nesse sentido, dividimos este trabalho em duas partes: uma numérica e outra analítica. Com o intuito de resolver numericamente o problema, adotamos o método de diferenças finitas baseado na formulação incompressível das equações governantes. O método numérico para integrar essas equações é baseado no esquema de Runge- Kutta com três estágios. Os resultados numéricos são obtidos para cinco planos bidimensionais de um vórtice com números de Reynolds variando entre 1000 e 10000. Na parte analítica estudamos taxas de decaimento das soluções das equações de Navier-Stokes quando os dados iniciais são conhecidos. Também estimamos as taxas de decaimento para algumas derivadas das soluções na norma L2 e comparamos com as taxas correspondentes da solução da equação do calor.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente estudo teve como objetivo analisar o uso das estatísticas criminais no planejamento das atividades policiais no estado do Rio de Janeiro, identificando as possibilidades e as dificuldades para este uso segundo as percepções dos profissionais de segurança pública envolvidos neste processo. Partiu-se da hipótese que embora já haja um movimento para utilização das estatísticas criminais no estado do Rio de Janeiro, na prática a sua utilização nos moldes das abordagens contemporâneas de políticas de segurança pública é prejudicada por resistências culturais dos atores envolvidos e por problemas de natureza estrutural, como insuficiência de recursos materiais e humanos. Tal tese foi defendida tendo por base a triangulação do referencial teórico adotado e das pesquisas documental e de campo desenvolvidas. A pesquisa de campo foi realizada por meio de entrevistas em profundidade com policiais civis, policiais militares, analistas e gestores públicos envolvidos com o uso deste instrumento de análise. Os resultados da investigação permitiram concluir que no estado do Rio de Janeiro já ocorre de fato o uso dos dados estatísticos criminais, marcado principalmente pela implementação do Sistema de Metas para os Indicadores Estratégicos de Criminalidade do Estado. Não obstante, evidenciou que na prática o uso das estatísticas encontra barreiras não só de natureza técnica, como de natureza subjetiva, pois lida com interesses de múltiplos atores envolvidos. Deste modo, tendo com pano de fundo o modelo de processo decisório de Kingdon, chegou-se ao pressuposto de que este tema precisa ser inserido na agenda decisória governamental, com propostas de políticas públicas que garantam as condições concretas (materiais e de recursos humanos) para o uso das estatísticas criminais e ações que visem minimizar as resistências encontradas na prática, com medidas que estimulem a integração entre os diferentes atores inseridos neste processo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The aim of this research was to analyse genetic markers, anthropometry and basic physical qualities in the differret stages of sexual maturation in swimmers in Paraíba. It is characterised as a descriptive cross sectional study. The sample was composed of 119 swimmers (males) that were divided among the stages of sexual maturation, from 7 to 17,9 years of age. They were associated to a local federation, the Confederação Brasileira de Desportes Aquáticos. The tests used were: genetic markers dermatoglyphics; Anthropometry body mass, stature, arm span, fat percentage and somatotype; physical qualities speed tests (25 meters crawl), strength (vertical jump) to inferior limbs, verarm throwing arremesso of a 2kg medicineball to superior limbs and abdominal), resistence (12 minutes to swimming), agility (he multistage 20-meter shuttle run test), flexibility (sit and reach test ) and coodination (stroke index); power of swimming (mean velocity in 25 meters mutiplied by body mass) and the self assessment of the sexual maturation supervised by a pediatric specialist. In the analyses we used the test normality of Shapiro-Wilk, then, we used ANOVA- one way followed by Post-Hoc test of Scheffé. The data showed in dermatogliphics a genetic tendence to velocity (L>W) with a predominance of the meso-ectomorphic somatotype profile; in relation to the physical qualities there was an evolution of the results in every stage due to the antropometric variables, except in the coordination tests. There were no significative differences between the stages. We conclude that swimming in Paraíba is composed of a signicative number of velocists with a mesomorph somatotype profile and low fat percentage, and that made it posssible to us to recomend that the trainings must be individual and according to personal characteristics of each athlete, and that the used variables must be specific for every region of the country. This dissertation presents a relation of multidiciplinar interface and its content has an application in Physical Education and Medicine

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nowadays, telecommunications is one of the most dynamic and strategic areas in the world. Organizations are always seeking to find new management practices within an ever increasing competitive environment where resources are getting scarce. In this scenario, data obtained from business and corporate processes have even greater importance, although this data is not yet adequately explored. Knowledge Discovery in Databases (KDD) appears then, as an option to allow the study of complex problems in different areas of management. This work proposes both a systematization of KDD activities using concepts from different methodologies, such as CRISP-DM, SEMMA and FAYYAD approaches and a study concerning the viability of multivariate regression analysis models to explain corporative telecommunications sales using performance indicators. Thus, statistical methods were outlined to analyze the effects of such indicators on the behavior of business productivity. According to business and standard statistical analysis, equations were defined and fit to their respective determination coefficients. Tests of hypotheses were also conducted on parameters with the purpose of validating the regression models. The results show that there is a relationship between these development indicators and the amount of sales