997 resultados para softwares estatísticos
Resumo:
Esta tese trata de como o sistema SignWriting pode servir de suporte a uma nova proposta pedagógica ao ensino da escrita de língua de sinais e letramento para crianças surdas usuárias da Língua Brasileira de Sinais - Libras e da Língua de Sinais Francesa - LSF. Escrever deve ser uma atividade significativa para a criança. No caso da criança surda, a escrita fundamenta-se em sua competência na língua de sinais, sem precisar da intermediação da língua oral. A criança surda, quando em um ambiente onde ela e seus colegas se comunicam em língua de sinais, efetivamente tenta escrever sinais, quando é incentivada a fazê-lo. Em nossos experimentos, usamos o sistema SignWriting para mostrar ás crianças surdas (e a seus pais e professores) como escrever textos em línguas de sinais de ambas as formas: manuscrita e impressa, usando o programa Sign Writer para editar textos em línguas de sinais. A base teórica que apóia a tese é a abordagem bilíngüe para a educação de surdos, a língua de sinais, a teoria de Piaget, e de Ferreiro quando trata das etapas da alfabetização em língua oral. Esta investigação possui um caráter exploratório, em que o delineamento metodológico é dado pela pesquisa-ação. O primeiro estudo apresenta um levantamento do processo de aquisição da escrita de sinais, em sua forma manuscrita, pela criança e jovem surdo no Brasil e na França. O segundo estudo trata da ajuda que a informática pode dar a essa aquisição e de como utilizamos os softwares de escrita de língua de sinais em aulas de introdução ao uso do computador e em transcrições da LSF de corpus vídeo para a escrita de língua de sinais. Os resultados sugerem que as crianças evoluem em sua escrita, pois muitos signos que elas escreveram não foram sugeridos pela experimentadora, nem por outro meio, mas surgiram espontaneamente. A introdução de um software como o Sign Writer ou o SW-Edit nas classes para introduzir as TI traz a essas aulas muito maior interesse do que quando usamos um editor de textos na língua oral. Também as produções das crianças são mais sofisticadas. As conclusões indicam que a escrita de língua de sinais incorporada à educação das crianças surdas pode significar um avanço significativo na consolidação de uma educação realmente bilíngüe, na evolução das línguas de sinais e aponta para a possibilidade de novas abordagens ao ensino da língua oral como segunda língua.
Resumo:
O trabalho busca analisar e entender se a aplicação de técnicas de Data mining em processos de aquisição de clientes de cartão de crédito, especificamente os que não possuem uma conta corrente em banco, podem trazer resultados positivos para as empresas que contam com processos ativos de conquista de clientes. Serão exploradas três técnicas de amplo reconhecimento na comunidade acadêmica : Regressão logística, Árvores de decisão, e Redes neurais. Será utilizado como objeto de estudo uma empresa do setor financeiro, especificamente nos seus processos de aquisição de clientes não correntistas para o produto cartão de crédito. Serão mostrados resultados da aplicação dos modelos para algumas campanhas passadas de venda de cartão de crédito não correntistas, para que seja possível verificar se o emprego de modelos estatísticos que discriminem os clientes potenciais mais propensos dos menos propensos à contratação podem se traduzir na obtenção de ganhos financeiros. Esses ganhos podem vir mediante redução dos custos de marketing abordando-se somente os clientes com maiores probabilidades de responderem positivamente à campanha. A fundamentação teórica se dará a partir da introdução dos conceitos do mercado de cartões de crédito, do canal telemarketing, de CRM, e das técnicas de data mining. O trabalho apresentará exemplos práticos de aplicação das técnicas mencionadas verificando os potenciais ganhos financeiros. Os resultados indicam que há grandes oportunidades para o emprego das técnicas de data mining nos processos de aquisição de clientes, possibilitando a racionalização da operação do ponto de vista de custos de aquisição.
Resumo:
O setor de serviços tem se mostrado cada vez mais relevante, com crescentes contribuições para a atividade econômica e os fluxos comerciais internacionais. Especificamente em empresas de alta intensidade tecnológica, a capacidade de inovação é identificada como parte integrante do padrão de funcionamento e constitui-se a mola propulsora destas empresas. O Objetivo deste trabalho é de identificar práticas e vetores de inovação em empresas de alta intensidade tecnológica que atuam no mercado Brasileiro, que se mostram mais favoráveis a um desafio de migrar competências existentes para inovar em serviços. Para o desenvolvimento deste estudo procurou-se utilizar pesquisas secundárias sobre empresas de alta intensidade tecnológica que atuam no Brasil (IBGE-PINTEC 2005), com características notadamente inovadoras. Na seqüência, aplicou-se questionários de pesquisa primária naquelas empresas identificadas como mais promissoras. Três estudos de casos, de três empresas de Alta Tecnologia foram cuidadosamente analisados: O primeiro analisa o sucesso obtido pela CTF Technologies, o Segundo analisa os desafios enfrentados pela Lucent Technologies no período pré-fusão e o Terceiro estudo analisa a estratégia do CPQD para crescimento da importância dos serviços. As conclusões baseadas nestes casos permitem acreditar que é possível aproveitar o conhecimento sobre produtos e tecnologias e somá-los ao conhecimento das necessidades dos clientes para criar a base para a inovação em serviços. Estes estudos apontam ainda para um modelo de transição de inovação entre produtos e serviços, baseado na produção de softwares (produtos intangíveis), através de um sucessivo e gradual incremento dos elementos customizáveis presentes nestes softwares, transformando-os finalmente em plataformas para prestação de serviços de alta intensidade tecnológica.
Resumo:
O objetivo desse trabalho é avaliar a capacidade de previsão do mercado sobre a volatilidade futura a partir das informações obtidas nas opções de Petrobras e Vale, além de fazer uma comparação com modelos do tipo GARCH e EWMA. Estudos semelhantes foram realizados no mercado de ações americano: Seja com uma cesta de ações selecionadas ou com relação ao índice S&P 100, as conclusões foram diversas. Se Canina e Figlewski (1993) a “volatilidade implícita tem virtualmente nenhuma correlação com a volatilidade futura”, Christensen e Prabhala (1998) concluem que a volatilidade implícita é um bom preditor da volatilidade futura. No mercado brasileiro, Andrade e Tabak (2001) utilizam opções de dólar para estudar o conteúdo da informação no mercado de opções. Além disso, comparam o poder de previsão da volatilidade implícita com modelos de média móvel e do tipo GARCH. Os autores concluem que a volatilidade implícita é um estimador viesado da volatilidade futura mas de desempenho superior se comparada com modelos estatísticos. Gabe e Portugal (2003) comparam a volatilidade implícita das opções de Telemar (TNLP4) com modelos estatísticos do tipo GARCH. Nesse caso, volatilidade implícita tambem é um estimador viesado, mas os modelos estatísticos além de serem bons preditores, não apresentaram viés. Os dados desse trabalho foram obtidos ao longo de 2008 e início de 2009, optando-se por observações intradiárias das volatilidades implícitas das opções “no dinheiro” de Petrobrás e Vale dos dois primeiros vencimentos. A volatidade implícita observada no mercado para ambos os ativos contém informação relevante sobre a volatilidade futura, mas da mesma forma que em estudos anteriores, mostou-se viesada. No caso específico de Petrobrás, o modelo GARCH se mostrou um previsor eficiente da volatilidade futura
Resumo:
Simulador de processos é uma ferramenta valiosa, pois possibilita desde a validação de projetos e sua operabilidade prática até aumentos de produção e redução de custos. Devido a estes e outros fatores, o interesse industrial em técnicas e pacotes computacionais para a modelagem, simulação e otimização de processos tem crescido muito nos últimos anos. Juntamente com este interesse cresce a qualidade das ferramentas disponíveis no mercado para tal, mas estas ainda não satisfazem totalmente as expectativas de seus usuários. Este trabalho consiste no projeto de um novo simulador genérico para processos dinâmicos que satisfaça os usuários de forma mais completa do que os disponíveis atualmente no mercado. Para tanto, foram reunidas e, quando necessário, desenvolvidas novas técnicas relativas à descrição, análise e solução de problemas dinâmicos. Uma nova linguagem de modelagem orientada a objetos e um sistema de tradução da representação nesta linguagem para sistemas de equações foram propostos. Métodos de análise dos sistemas de equações provenientes da modelagem foram desenvolvidos com o intuito de auxiliar o usuário na detecção de erros de modelagem. Algoritmos para solução de sistemas dinâmicos e estacionários foram reunidos e uma arquitetura interna foi proposta. Por fim, o sistema como um todo foi testado através de sua aplicação em problemas típicos e outros que não podem ser resolvidos diretamente com os pacotes computacionais disponíveis no mercado. O teste com os problemas práticos provou que a estrutura proposta é adequada e apresenta uma série de vantagens quando comparada com softwares largamente utilizados na simulação de processos.
Resumo:
O objetivo deste estudo foi analisar a institucionalização dos parâmetros de qualidade de ensino superior prescritos pela legislação educacional brasileira entre organizações de ensino superior do Estado de São Paulo, considerando a relação entre padrões ambientais-institucionais, padrões interpretativos e respostas estratégicas daquelas organizações. O método que caracteriza a pesquisa aqui retratada é o estudo comparativo de casos, com uso de múltiplas fontes de evidência. Os dados foram obtidos mediante consulta à legislação brasileira relativa à educação superior, consulta a publicações disponibilizadas pelas organizações estudadas, questionário e entrevistas semi-estruturadas. O questionário, enviado a todas as IES privadas do Estado de São Paulo (com exceção de Universidades), permitiu classificar 44 IES em três grupos (posteriormente reagrupados em apenas 2), conforme suas respostas estratégicas aos parâmetros oficiais de qualidade e utilizando procedimentos estatísticos de análise. A partir de escolha proposital, selecionou-se 9 casos, que foram então estudados por meio de procedimentos qualitativos: análise documental, análise de conteúdo e elaboração e análise de mapas cognitivos. Os resultados apontam para a relação entre respostas estratégicas declaradas, padrões interpretativos e cognitivos, em conformidade com a maioria das hipóteses elaboradas no estudo. IES cujos dirigentes principais declararam aceitar, ainda que parcialmente, as pressões legais-regulativas, também evidenciaram significação dos parâmetros oficiais como tendo relação não apenas com a imagem da instituição perante o mercado e as instâncias oficiais de avaliação mas também – e principalmente – com real eficiência do ensino nelas oferecido, além de terem como referência para justificar suas ações elementos predominantemente normativos e cognitivos do ambiente. Já IES cujos dirigentes principais declararam rejeitar parcialmente as pressões legais-regulativas, evidenciaram significação dos parâmetros oficiais como tendo relação apenas com a imagem perante o mercado e as instâncias oficiais de avaliação. Nessas IES os parâmetros não foram, em geral, relacionados com eficiência de ensino, mas apenas com obtenção de legitimidade e com a necessidade de evitar sanções legais, sendo que seus dirigentes têm como referência, para justificar suas ações, elementos predominantemente legais-regulativos e normativos do ambiente. Também foram identificadas diferenças entre os grupos no que concerne à definição das características ambientais com que lidam as diferentes IES. Concluiu-se que se pode sugerir a ocorrência de dois processos distintos de institucionalização daqueles parâmetros, um deles evidenciado entre aquelas IES que aceitam como factual a relação proposta na legislação entre o atendimento dos parâmetros e a oferta de ensino de boa qualidade e outro processo evidenciado entre as IES que não aceitam aquela relação. Propôs-se como artefato conceitual a noção de conexão simbólica para diferenciar esses processos: no primeiro grupo, o que ocorre é a aceitação da relação simbólica proposta na legislação (atendimento dos parâmetros gera real qualidade), que é então assumida como justificativa suficiente para explicar o esforço por atendimento da legislação. No segundo grupo, aquela relação simbólica não é aceita e, nesse sentido, não se observa conexão entre o significado proposto na legislação e o significado encontrado nas IES para os parâmetros oficiais, nelas interpretados em geral apenas como fonte de legitimidade. Implicações e conseqüências dessas conclusões para a teoria institucional em organizações e para o sistema de avaliação do ensino superior são, finalmente, exploradas. Palavras-chave: Ensino superior-Brasil; Ensino superior-avaliação; Organização; Estratégia; Desenvolvimento institucional.
Resumo:
Esta tese apresenta o desenvolvimento conceitual, estimação de parâmetros e aplicação empírica de um Modelo de Risco de Portfólio cujo objetivo é realizar previsões da distribuição estatística da perda de crédito em carteiras de crédito ao consumidor. O modelo proposto é adaptado às características do crédito ao consumidor e ao mercado brasileiro, podendo ser aplicado com dados atualmente disponíveis para as Instituições Financeiras no mercado brasileiro. São realizados testes de avaliação da performance de previsão do modelo e uma comparação empírica com resultados da aplicação do Modelo CreditRisk+.
Resumo:
O comércio e as normas formam uma relação simbiótica desde os tempos antigos. Com o fim da economia agrária o desenvolvimento do comércio levou a uma intensiva necessidade de trocas. Das trocas surgem os padrões, decorrentes da necessidade de mensurar pesos, quantidades e intensidades, decorrem normas para definir os procedimentos de trocas justas e necessárias para viabilizar transações entre indivíduos, cidades e nações. Após a II Guerra cria-se a ISO – International Organization for Standardization, e com ela todo o arcabouço de padrões que hoje sistematizam os protocolos comerciais e viabilizam o comércio global. A globalização também popularizou as normas gerenciais que têm origem na qualidade com a série 9000 e depois com a série ambiental e, mais recentemente, a norma social. Este trabalho discute inicialmente alguns motivos que sustentam o sucesso das normas internacionais de gestão, como o despertar de uma consciência socioambiental planetária e as transformações ocorridas no âmbito do comércio internacional. Depois, discute as demandas e influencias que estiveram presentes desde o final do século XX e o aparecimento da economia do conhecimento. Neste contexto buscamos base empírica na forma de dados estatísticos que possam explicar a diferença de comportamento entre países desenvolvidos e em desenvolvimento quanto ao uso de normas internacionais de gestão sobre responsabilidade socioambiental. Verificou-se que os países em desenvolvimento, que antes viam essas normas como barreiras técnicas ao comércio, agora passaram a defendê-las nos comitês técnicos da ISO e usá-las para legitimar a sua produção no comércio internacional. Os principais países ricos que antes defendiam e exigiam tais normas, agora se mostram resistentes e até contrários a elas. Uma possível explicação resultante da análise estaria no fato destes últimos países terem concentrados seus esforços na produção de conhecimentos, deslocando para os demais a fabricação de bens tangíveis buscando legislações ambientais menos rigorosas e mão-de-obra mais barata que ajude a reduzir os custos internacionais e manter metas de inflação reduzidas.
Resumo:
A dissertação tem como principal objetivo a busca de evidências da existência de um componente determinístico no comportamento dos preços de certas ações negociadas na Bolsa de Valores de São Paulo (BOVESPA) e em índices amplos do mercado, tais como o Ibovespa e IBX e, como conseqüência, determinar se a Hipótese de Mercado Eficiente é válida para o mercado financeiro brasileiro. Um objetivo secundário é mostrar a aplicabilidade de técnicas interdisciplinares ao estudo de Finanças empíricas, técnicas essas que, desde sua incepção, já levam em consideração o fato de que os dados estudados não atendem ao requisito de normalidade e que as observações não são independentes entre si. Essa aplicabilidade já é largamente demonstrada em inúmeros estudos internacionais e diversas publicações no Brasil. Porém, o presente trabalho tentará aplicar uma estrutura analítica mais flexível e computacionalmente mais eficiente, utilizando ferramentas trazidas do campo da Teoria da Informação e avanços relativamente recentes da área.
Resumo:
Este trabalho apresenta um protótipo de uma máquina de workflow, de uso geral, implementado em plataforma de software livre. O protótipo utiliza um servidor web com PHP, em sistema operacional Linux, alguns programas desenvolvidos em C e o banco de dados MySql. O projeto CEMT demanda o uso da tecnologia de workflow, com o objetivo de controlar a execução de cursos a distância. Antes de ser iniciado o desenvolvimento do protótipo, foi feito um estudo sobre algumas máquinas de workflow existentes, com o objetivo de encontrar alguma que tivesse licença livre e pudesse ser utilizada no projeto CEMT, ou colher subsídios para o desenvolvimento de uma máquina de workflow própria. Foram testadas duas máquinas de workflow de licença livre (Openflow e OFBIZ), uma máquina com cópia de demonstração (Reactor) e foram consultadas as documentações fornecidas pelos fabricantes. Além disso foi consultada também a documentação do Domino Workflow, que não disponibilizou cópia de avaliação e cuja licença não é livre. Um dos requisitos do protótipo é a compatibilidade com os padrões de interface recomendados pela WfMC. Esses padrões permitem a interoperabilidade entre softwares de workflow. O primeiro benefício da adoção desses padrões é a interação com o editor gráfico de workflow AW (Amaya Workflow), desenvolvido no Instituto de Informática da UFRGS. Este editor gera definições de processos de workflow no formato da linguagem XPDL (XML Process Definition Language), que alimentam a máquina de workflow. O esquema XPDL foi traduzido para um esquema de banco de dados relacional e foi desenvolvido um compilador que lê um arquivo no formato XPDL e gera comandos SQL de inserção das informações desse arquivo no banco de dados. Foi desenvolvida uma interface web para demonstrar o funcionamento do protótipo. A API definida na Interface 2 da WfMC foi implementada parcialmente. Essa API permite o desenvolvimento independente de outras interfaces de usuário. Foram propostas algumas extensões à Interface 1 e modificações na definição de estados recomendada pela Interface 2 da WfMC. Com isso foi possível aumentar o controle sobre a execução das instâncias de workflow. Foram incluídas as restrições de data e possibilidade de bloqueio na execução de instâncias de atividades. Outras extensões possibilitam um serviço de notificações e atividades em grupo e oferecem novas possibilidades de alocação de atividades. O funcionamento básico do protótipo é descrito e inclui as funcionalidades de carga da definição de processo, instanciação de processo, visualização da lista de trabalho e execução das atividades, entre outras.
Resumo:
A popularização da Internet e o crescimento da educação à distância tornaram possível a criação de softwares e cursos à distância, disponíveis na WWW. Atualmente, a Inteligência Artificial (IA) vem sendo utilizada para aumentar a capacidade de ambientes de educação à distância, diminuindo a desistência pela falta de estímulos externos e de interação entre colegas e professores. Este trabalho encontra-se inserido no ambiente colaborativo suportado por computador, definido no projeto “Uma Proposta de Modelo Computacional de Aprendizagem à Distância Baseada na Concepção Sócio-Interacionista de Vygotsky” chamado MACES (Multiagent Architecture for an Collaborative Educational System). Sua principal proposta, como parte do projeto do grupo, é desenvolver e implementar a interface animada do personagem para os agentes pedagógicos animados Colaborativo e Mediador que operam no ambiente de aprendizado colaborativo proposto pelo grupo. O personagem desenvolvido chama-se PAT (Pedagogical and Affective Tutor). A interface do personagem foi desenvolvida em Java, JavaScript e usa o Microsoft Agent para a movimentação. O Resin 2.1.6 (semelhante ao Tomcat que também foi usado de teste) é o compilador de servlet usado na execução de Java Servlet’s e tecnologias jsp – que monta páginas HTML dinamicamente. Esta montagem é feita no servidor e enviada para o browser do usuário. Para definir a aparência do personagem foram feitas entrevistas com pedagogas, psicólogas, psicopedagogas e idéias tiradas de entrevistas informais com profissionais que trabalham com desenho industrial, propaganda, cartoon e desenho animado. A PAT faz parte da interface do MACES e promove a comunicação entre esse ambiente e o usuário. Portanto, acredita-se que a PAT e os recursos da Inteligência artificial poderão aumentar a capacidade de ambientes de educação à distância, tornando-os mais agradáveis, assim como diminuir a desistência pela falta de estímulos externos e de interação com colegas e professores.
Resumo:
A presente dissertação analisa o erro de projeção dos analistas de investimentos do sell side, definido como a diferença entre o consenso das projeções dos analistas e o resultado reportado pela empresa. O tamanho do erro de projeção é uma medida da qualidade das projeções dos analistas de um determinado mercado de capitais. Uma vasta literatura acadêmica mostra que uma melhora na qualidade das projeções dos analistas, medida através de uma diminuição do tamanho do erro de projeção, está relacionada com a redução da assimetria de informação e com um aumento do valor de mercado das empresas. São testadas duas regressões, nas quais características das empresas, como setor, tamanho, endividamento e variabilidade do lucro, e características do ambiente de informação da empresa, como listagem de ADR, número de analistas que acompanham a empresa e convergência das projeções, são testadas contra duas métricas do erro de projeção, acurácia e viés. Nossas hipóteses são que existem fatores que influenciam de maneira significativa o tamanho do erro de projeção (acurácia) e o viés das projeções (viés). Estas hipóteses foram confirmadas, isto é, nossas regressões apresentaram pelo menos um fator que se mostrou significativo estatisticamente para influenciar o tamanho do erro de projeção (hipóteses H1 e H2) ou o seu viés (hipótese H3). Entretanto, os resultados mostram que vários fatores que se mostram significativos em testes conduzidos em mercados desenvolvidos – tais como tamanho, endividamento e variabilidade do lucro – não se mostraram significativos no mercado brasileiro. Por outro lado, os fatores relacionados com o resultado do ano projetado ou do ano anterior se mostraram fortemente significativos. Acreditamos que os resultados podem ser explicados de três maneiras: 1) ou a capacidade de adicionar valor dos analistas em relação a modelos estatísticos de projeção é muito pequena, devido à sua falta de habilidade; ou 2) a instabilidade macroeconômica é tão grande domina todos os outros fatores que poderiam influenciar o tamanho do erro de projeção; ou 3) os resultados das empresas nos mercados desenvolvidos são tão administrados, isto é, tão estáveis, que permitem que fatores mais sutis como o tamanho, o nível de endividamento e a variabilidade do lucro se tornem significativos. Esta dissertação não permite distinguir qual das explicações é a correta. Uma de suas limitações é não incluir variáveis referentes à habilidade e experiência dos analistas e, também, variáveis relacionadas a fatores como governança corporativa e disclosure de informações. Em uma linha de pesquisa muito extensa nos países desenvolvidos, mas praticamente inexistente no Brasil, esperamos que estudos futuros supram estas lacunas e nos permitam entender melhor a questão da qualidade das projeções de resultados no contexto brasileiro.
Resumo:
O objetivo desta dissertação é analisar a política de juros do Banco Central durante o período entre os anos de 1995 a 2002, procurando verificar se houve mudança nesta política, isto é se houve mudanças de regimes na condução da política monetária, principalmente com a mudança do regime cambial. Para tanto o modelo estimado mais adequado para a análise foi um switching regression model que determina endogenamente se há mudança de regimes.
Resumo:
Esta dissertação oferece uma contribuição para entender a estrutura que envolve o sistema de indicadores e suas implicações e conexões, propondo uma lista de requisitos para definição de indicadores chaves que retroalimentem e se alinhem com as ações estratégicas da empresa, permitindo fazer os ajustes necessários ao plano de ação da empresa. Para verificar a aplicação prática da lista, a dissertação oferece um estudo de caso em que podem ser vistos os desvios em relação ao roteiro proposto pela lista, e em que medida esses desvios se relacionam com o atraso das ações estratégicas da empresa em estudo.
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.