995 resultados para Herdeiros necessários
Resumo:
Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.
Resumo:
O setor da extração de rochas ornamentais alimenta um mercado que no Brasil movimenta US$ 2,1 bilhões por ano (Villaschi, 2000). Infelizmente, a maioria das empresas brasileiras que atuam nessa área investe poucos recursos em pesquisas para o planejamento de lavra. Deste modo, são sobretudo as instituições de pesquisa que se encarregam da tarefa de efetuar os estudos necessários para um melhor aproveitamento dos materiais ornamentais extraíveis no País. Esse trabalho, em particular, abordou dois problemas específicos (i) o estudo da variação de cor dos sienitos ornamentais lavrados no Complexo Alcalino de Tunas e (ii) a influência das estruturas na lavra do Sienito Piquiri. Os sienitos extraídos em Tunas (PR) são caracterizados por mostrarem uma variabilidade na coloração. A variedade verde é a mais interessante pela sua raridade como produto natural. Para entender quais são as causas desta variabilidade cromática foram efetuadas observações petrográficas, análises litogeoquímicas e ao microscópio eletrônico de varredura. Mediante as análises foi possível determinar que o conteúdo em ferro pode ser um dos fatores que proporcionam a característica coloração verde nos sienitos de Tunas. Processos de alteração deutérico-hidrotermal são outras possíveis causas que participaram na referida coloração. Os resultados obtidos podem ser utilizados como base para poder hipotizar a localização de novas frentes de lavra de rocha ornamental no CAT ou em maciços geologicamente semelhantes Na lavra do Sienito Piquiri (RS) o controle estrutural do maciço influi decisivamente na recuperação da lavra. O levantamento estrutural convencional aliado ao levantamento de fraturas horizontais por meio de georradar pode auxiliar no processo de blocometria, isto é na determinação de blocos comerciais extraíveis dos maciços rochosos e determinar zonas menos afetadas pelos processos de ruptura. A metodologia adotada revelou-se eficiente para poder aumentar a recuperação e auxiliar no planejamento da lavra.
Resumo:
O ponto de partida deste estudo foi a elaboração de um questionário e a aplicação do mesmo a alunos concluintes do ensino médio em 1999, percebendo-se a partir dele que os alunos consideravam a prova de vestibular de língua inglesa como difícil. Assim, surgiu a necessidade de avaliar a prova de língua inglesa da Universidade Federal do Rio Grande do Sul quanto ao grau de proficiência exigido do candidato e quanto ao modelo de leitura subjacente a essa prova. Para tal foram analisadas as provas de vestibular dos anos de 1992, 1994, 1996, 1998 e 2000, quanto ao tipo de tarefas e a tipologia textual que apresentam, apresentando os dados coletados através de categorias pré-determinadas. Após a coleta dos dados pôde-se levantar algumas conclusões: a) as questões de compreensão, vocabulário e gramática, embora não tenham sofrido alterações na sua distribuição com o correr dos anos, têm privilegiado principalmente as questões que enfocam mais os recursos lingüísticos necessários para a leitura do texto; b) a proposta do manual do candidato da UFRGS está em contraste com o que se pôde observar na análise das provas, visto que aponta para um modelo interativo de leitura, enquanto na prática enfatiza um modelo autônomo de leitura, onde o sentido do texto se encerra no texto propriamente dito, uma vez que o leitor não conta com recursos extralingüísticos que possam ajudá-lo a construir o sentido do texto; c) o nível de proficiência, no que diz respeito às questões, vocabulário e tipologia textual, pode ser considerado de nível avançado +, de acordo com os critérios propostos pela ACTFL, não só pela profundidade mas também pela abstração encontradas nos textos analisados.
Resumo:
O segmento de fast food está em expansão e, ao mesmo tempo, sofrendo alterações em seus processos operacionais. Para o estudo do segmento em Campo Grande, MS, é necessária a análise da dimensão nacional do segmento. Essa dissertação investiga a estrutura competitiva atual do segmento de fast food nesta cidade, sob a ótica dos conceitos de Michael E. Porter (1980), com o complemento da identificação dos recursos e competências necessários para uma operação de sucesso no segmento. Além disso, são descritos os possíveis desdobramentos na evolução do setor, na visão de especialistas do segmento.
Resumo:
Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.
Resumo:
Este trabalho consistiu no desenvolvimento de revestimentos protetores contra carburização em ligas HP-40Nb, utilizadas na em fornos de pirólise para produção de olefinas, e do desenvolvimento de aparatos e técnicas para o teste, avaliação e caracterização destes revestimentos em ambientes fortemente carburizantes. Foram testados vários tipos de revestimentos, podendo estes ser resumidos em três grupos: i) camada de difusão de elementos específicos para o interior do metal (Al, Cu e Sn); ii) recobrimento com liga metálica (Ni-50Cr e Ni-5Al) e iii) recobrimento cerâmico (Al2O3, Cr2O3 e Al2O3 - TiO2). Além de revestimentos e camadas de difusão, um quarto tipo de material foi testado em sua resistência à carburização: ligas do tipo Fe-Cr- Al. A fim de testar os revestimentos e materiais desenvolvidos foram testados vários meios carburizantes. O que se mostrou mais adequado foi a mistura gasosa de hidrogênio e n-hexano, a uma temperatura de 1050°C. Foi construído um aparato exclusivamente para estes ensaios de carburização, o qual também foi utilizado para realizar os tratamentos de difusão necessários para produzir alguns dos revestimentos. A avaliação da resistência a carburização dos revestimentos e materiais foi feita por medição da profundidade de avanço da zona de precipitação de carbetos causada pela carburização, feito com auxílio de microscópio ótico. Os resultados dos ensaios mostraram que as camadas de difusão de alumínio, o revestimento da liga Ni-50Cr, o revestimento cerâmico de Al2O3 e as ligas Fe-Cr-Al tiveram bom ou ótimo desempenho como barreiras contra a carburização. Os outros revestimentos ou permitiram a penetração de carbono no metal base ou causaram uma deposição exagerada de coque na superfície dos corpos de prova.
Resumo:
O objetivo do presente trabalho conduzido na Estação Experimental Agronômica da Universidade Federal do Rio Grande do Sul em Eldorado do Sul, RS, em um solo Podzólico Vermelho Amarelo, foi avaliar nove cultivares de melancia (Citrullus lanatus) buscando identificar cultivares de melhor adaptação à região, possibilitando o cultivo em anos sucessivos na mesma área, pois os produtores devido a problemas fitossanitários buscam a cada cultivo novas áreas para produzir. A semeadura no espaçamento 3,0m x 1,5m, foi feita em novembro, com ressemeadura em dezembro de 2000. As cultivares foram avaliadas quanto à produtividade e ocorrência de doenças. Em termos de produtividade, a cultivar Vista F1, com 10,8 t.ha-1, foi significativamente mais produtiva que a cultivar Vitória F1 (2,6 t.ha-1). Quanto a ocorrência de doenças, a cultivar Athens F1 apresentou o menor número de plantas com sintomas de antracnose (Colletotrichum orbiculare), com 5,4 plantas, diferindo estatisticamente das cultivares Vista F1, Crimson Select, Crimson Magic F1, com 9,2, 8,6, 8,5 plantas, respectivamente, e das cultivares Vitória F1, Arriba F1 e Verona F1, com 8,1 plantas com sintomas. O peso 6,4 Kg por fruto da cultivar Crimson Magic F1 foi significativamente maior que o peso de frutos das cultivares Vitória F1 (4,4 Kg) e Crimson Sweet (4,4 Kg). O peso de melancias das demais cultivares foi intermediário e não diferiu estatisticamente do peso médio da cultivar Crimson Magic F1. Na classificação dos frutos por peso, somente as cultivares Athens F1 e Vista F1 apresentaram frutos com peso acima de 10 Kg, frutos na categoria especial. As cultivares Verona F1, Crimson Magic F1 e Vista F1 apresentaram a melhor performance em relação ao número de frutos na categoria 1, isto é, frutos com peso entre 6 e 10 Kg . As cultivares Vista F1 e Crimson Magic F1 destacaram-se na produtividade e a cultivar Athens F1 destacou-se na resistência a antracnose. Estas cultivares são promissoras, mas são necessários novos ensaios para consolidar estes resultados.
Resumo:
O presente trabalho está baseado na abordagem de gestão por competências, principalmente nos estudos sobre competências organizacionais e gerenciais. Desenvolve-se sob a lógica de que as competências organizacionais estão fundamentadas nas competências gerenciais e que as competências organizacionais são diretrizes ao desenvolvimento das competências gerenciais. A pesquisa tem como principal objetivo estudar a aplicação da gestão de competências organizacionais básicas e gerenciais em uma empresa pública tendo como referência a estratégia empresarial da mesma. O estudo foi dividido nas seguintes etapas: caracterização das diretrizes estratégicas; desenvolvimento de competências organizacionais básicas; desenvolvimento de competências gerenciais; estabelecimento de vínculos entre as competências gerenciais e os cargos da organização e estudo sobre os principais recursos de competências necessários. O estudo foi realizado no Porto de Itajaí, Itajaí – SC. A metodologia de pesquisa foi exploratória, de natureza qualitativa, com base em entrevistas semiestruturadas junto a gestores e usuários do Porto de Itajaí, em pesquisa documental e em observação direta. Ao final, conclui-se a viabilidade da aplicação dos conceitos de gestão por competências em empresas públicas com restrições na contratação e remuneração dos funcionários, devido à legislação que regulamenta o funcionalismo público.
Resumo:
Introdução: Os potenciais evocados auditivos e visuais são propostos como exames úteis no diagnóstico da encefalopatia hepática subclínica. Entretanto não existem estudos demonstrando a sua utilidade na população de pacientes pediátricos. Este estudo foi realizado na tentativa de avaliar diferentes tipos de potenciais na detecção da encefalopatia hepática subclínica na população pediátrica candidata a transplante hepático. Métodos: Realizou-se um estudo de caso controle onde potenciais evocados auditivos e visuais foram realizados em 15 pacientes pediátricos candidatos a transplante hepático que não apresentavam sinais clínicos de encefalopatia hepática. As latências de onda obtidas, nesses exames, foram comparadas com 16 controles saudáveis com faixas etárias similares. Exames laboratoriais de função hepática e eletroencefalograma foram, também, realizados para examinar as suas correlações com os resultados dos potenciais evocados. Resultados: Não foram encontradas diferenças, estatisticamente significativas entre os pacientes e os controles nos potenciais evocados auditivos, porém no potencial evocado visual, os pacientes candidatos a transplante hepático demonstraram latências N1 (N75) significativamente prolongadas quando comparadas com os controles. Não houve atraso significativo nas outras ondas. Por outro lado, latências prolongadas no potencial evocado auditivo tiveram uma correlação positiva com anormalidades no eletroencefalograma, apenas entre crianças com patologia hepática. Tal correlação não foi observada no potencial evocado visual. Conclusões: Os potenciais evocados podem ser usados na detecção de alterações relacionadas à encefalopatia hepática nos pacientes pediátricos, todavia outros estudos são necessários para determinar as suas especificidades e sensibilidades.
Resumo:
O presente trabalho trata da Administração Baseada em Valor (VBM do inglês Value Based Management), que é uma ferramenta de auxílio à administração de empresas, que busca a identificação de value drivers, que são controles internos a serem monitorados, que devem abranger os principais pontos vistos pelo mercado como criadores de valor, pois o objetivo central da VBM é a majoração de valor para o acionista. A VBM também se utiliza do fluxo de caixa descontado (DCF do inglês Discounted Cash Flow). O objetivo central desta dissertação é fazer uma análise comparativa da estrutura interna de funcionamento e acompanhamento e dos controles de uma organização do segmento de telecomunicações com a filosofia da VBM, identificando o distanciamento de uma para com a outra. A empresa pesquisada é a Dígitro Tecnologia Ltda., de Florianópolis, que não utiliza a VBM. É uma pesquisa quantitativa e foi desenvolvida através do método de estudo de caso. Sua investigação foi dividida em três pontos principais: (1) a identificação, na empresa, da estrutura básica necessária para a implantação da Administração Baseada em Valor, (2) os itens necessários para se montar um DCF e (3) os controles internos possuídos pela organização, que possam servir como value drivers ou suas intenções de implantar controles. O estudo de caso foi único e exploratório, contando com a aplicação de entrevistas semi-estruturadas, observação direta e coleta de documentos. Conclui-se que a organização pesquisada está distante da filosofia da VBM, porém, com intenção de utilizar-se de inúmeros conceitos da Administração Baseada em Valor para auxiliar sua gestão.
Resumo:
O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.
Resumo:
Este trabalho apresenta uma arquitetura para Ambientes de Desenvolvimento de Software (ADS). Esta arquitetura é baseada em produtos comerciais de prateleira (COTS), principalmente em um Sistema de Gerência de Workflow – SGW (Microsoft Exchange 2000 Server – E2K) - e tem como plataforma de funcionamento a Internet, integrando também algumas ferramentas que fazem parte do grande conjunto de aplicativos que é utilizado no processo de desenvolvimento de software. O desenvolvimento de um protótipo (WOSDIE – WOrkflow-based Software Development Integrated Environment) baseado na arquitetura apresentada é descrito em detalhes, mostrando as etapas de construção, funções implementadas e dispositivos necessários para a integração de um SGW, ferramentas de desenvolvimento, banco de dados (WSS – Web Storage System) e outros, para a construção de um ADS. O processo de software aplicado no WOSDIE foi extraído do RUP (Rational Unified Process – Processo Unificado Rational). Este processo foi modelado na ferramenta Workflow Designer, que permite a modelagem dos processos de workflow dentro do E2K. A ativação de ferramentas a partir de um navegador Web e o armazenamento dos artefatos produzidos em um projeto de software também são abordados. O E2K faz o monitoramento dos eventos que ocorrem dentro do ambiente WOSDIE, definindo, a partir das condições modeladas no Workflow Designer, quais atividades devem ser iniciadas após o término de alguma atividade anterior e quem é o responsável pela execução destas novas atividades (assinalamento de atividades). A arquitetura proposta e o protótipo WOSDIE são avaliados segundo alguns critérios retirados de vários trabalhos. Estas avaliações mostram em mais detalhes as características da arquitetura proposta e proporcionam uma descrição das vantagens e problemas associados ao WOSDIE.
Resumo:
O objetivo desta dissertação é a elaboração de uma técnica da aplicação do formalismo de Autômatos Finitos com Saída (Máquina de Mealy e Máquina de Moore) como um modelo estrutural para a organização de hiperdocumentos instrucionais, em destacar especial, Avaliação e Exercício. Esse objetivo é motivado pela organização e agilização do processo de avaliação proporcionado ao professor e ao aluno. Existem diferentes técnicas de ensino utilizadas na Internet, algumas dessas continuam sendo projetadas com o uso de metodologias tradicionais de desenvolvimento, outras têm a capacidade de modelar de forma integrada e consistente alguns aspectos necessários para uma aplicação WEB. Para alcançar o objetivo proposto, foram realizadas pesquisas nas várias áreas abrangidas pelo tema em evidência, tanto relativo ao processo tradicional (aplicação de prova utilizando metodologia tradicional), como o desenvolvimento de software mediado por computador e uso da Internet em si. A modelagem de desenvolvimento para Internet deve integrar características de técnicas de projeto de sistemas de hipermídia devido à natureza hipertextual da Internet. O uso de hiperdocumento como autômatos com saída está na forma básica de representação de hipertexto, em que cada fragmento de informação é associado a um nodo ou a um link (estado/transições) do grafo. Sendo assim, os arcos direcionados representam relacionamentos entre os nodos ou links, ou seja, uma passagem do nodo origem para o nodo destino. As n-uplas dos autômatos apresentam uma correspondência as estruturas de hiperdocumentos na WEB, seu estado/transição inicial corresponde a sua primeira página e suas transições definidas na função programa, funcionam como ligações lógicas, quando selecionadas durante a navegação do hipertexto. Entretanto, faz-se necessário um levantamento dos modelos de hipertextos e das ferramentas de implementação disponíveis para a Internet, a fim de que seja capaz de suportar as peculiaridades do ambiente. Tudo isso deve ser integrado preferencialmente em um paradigma de desenvolvimento amplamente aceito, para que os projetistas não tenham muitas dificuldades em assimilar os conceitos propostos. A proposta apresentada nesta dissertação, batizada de Hyper-Automaton (hipertexto e autômato), consiste na integração de um Curso na WEB, utilizando formalismo de Autômatos Finitos com Saída para a modelagem dos conceitos necessários e definição das fases adequadas para completar a especificação de Sistema Exercício e Avaliação, bem como a especificação da Geração Automática dos Exercícios e Avaliações baseadas em autômatos para a WEB. Os modelos criados abrangem conceitos de Máquina de Mealy, Máquina de Moore e Aplicações de Hiperdocumentos e Ferramentas de Programação para Internet, os mesmos já testados em caso real. Os parâmetros apurados, nos testes, serviram a uma seqüência de etapas importantes para modelar e complementar a especificação do sistema projetado. Com os parâmetros e etapas de modelagem, a metodologia Hyper-Automaton consegue integrar, de forma consistente, as vantagens de várias técnicas específicas de modelagem de documentos e sistemas de hipermídia. Essas vantagens, aliadas ao suporte às ferramentas de desenvolvimento para Internet, garantem que a metodologia fique adequada para a modelagem de Sistemas com aplicação de métodos de autômatos para exercícios e avaliação na WEB.
Resumo:
Nos últimos 70 anos têm sido apresentadas várias propostas para caracteriza ção da noção intuitiva de computabilidade. O modelo de Computação mais conhecido para expressar a noção intuitiva de algoritmo é a Máquina de Turing. Esse trabalho apresenta máquinas abstratas que representam diferentes formas de comportamento computacional, sendo possível abordar a diversidade entre a Teoria da Computação Clássica (Máquina de Turing) e a Teoria da Computa- ção Interativa (Máquina de Turing Persistente). Com a evolução dos sistemas de computação, surgiu a necessidade de estender a de nição de Máquina de Turing para tratar uma diversidade de novas situações, esses problemas conduziram a uma mudança de paradigma. Neste contexto foi desenvolvido a Máquina de Turing Persistente, que é capaz de fundamentar a Teoria da Computação Interativa. Máquinas de Turing Persistentes (PeTM) são modelos que expressam comportamento interativo, esse modelo é uma extensão da Máquina de Turing. O presente trabalho tem como objetivo explorar paralelismo na Máquina de Turing Persistente, através da formalização de uma extensão paralela da PeTM e o estudo dos efeitos sobre essa extensão, variando o número de tas de trabalho. Contribui- ções desse trabalho incluem a de nição de uma máquina de Turing Persistente Paralela para modelar computação interativa e uma exposição de conceitos fundamentais e necessários para o entendimento desse novo paradigma. Os métodos e conceitos apresentados para formalização da computação na Máquina de Turing Persistente Paralela desenvolvidos nessa dissertação, podem servir como base para uma melhor compreensão da Teoria da Computação Interativa e da forma como o paralelismo pode ser especi cado em modelos teóricos.
Resumo:
Este trabalho apresenta um estudo de caso de mineração de dados no varejo. O negócio em questão é a comercialização de móveis e materiais de construção. A mineração foi realizada sobre informações geradas das transações de vendas por um período de 8 meses. Informações cadastrais de clientes também foram usadas e cruzadas com informações de venda, visando obter resultados que possam ser convertidos em ações que, por conseqüência, gerem lucro para a empresa. Toda a modelagem, preparação e transformação dos dados, foi feita visando facilitar a aplicação das técnicas de mineração que as ferramentas de mineração de dados proporcionam para a descoberta de conhecimento. O processo foi detalhado para uma melhor compreensão dos resultados obtidos. A metodologia CRISP usada no trabalho também é discutida, levando-se em conta as dificuldades e facilidades que se apresentaram durante as fases do processo de obtenção dos resultados. Também são analisados os pontos positivos e negativos das ferramentas de mineração utilizadas, o IBM Intelligent Miner e o WEKA - Waikato Environment for Knowledge Analysis, bem como de todos os outros softwares necessários para a realização do trabalho. Ao final, os resultados obtidos são apresentados e discutidos, sendo também apresentada a opinião dos proprietários da empresa sobre tais resultados e qual valor cada um deles poderá agregar ao negócio.