156 resultados para validação
Resumo:
Este trabalho visa desenvolver um modelo físico e matemático geral para os processos de extração sólido-líquido em fluxos contracorrente cruzados (CCC) que são utilizados na indústria de alimentos. Levam-se em consideração os processos principais (o transporte de massa entre as fases, difusão e convecção) envolvidos por todo o campo de extração, com uma abordagem bidimensional evolutiva, incluindo as zonas de carregamento, drenagem e as bandejas acumuladoras. O modelo matemático é formado por equações diferenciais parciais que determinam a alteração das concentrações nas fases poro e “bulk” em todo o campo de extração e equações diferenciais ordinárias (que refletem as evoluções das concentrações médias nas bandejas). As condições de contorno estabelecem as ligações entre os fluxos CCC da micela e matéria-prima e consideram, também, a influência das zonas de drenagem e carregamento. O algoritmo de resolução utiliza o método de linhas que transforma as equações diferenciais parciais em equações diferenciais ordinárias, que são resolvidas pelo método de Runge-Kutta. Na etapa de validação do modelo foram estabelecidos os parâmetros da malha e o passo de integração, a verificação do código com a lei de conservação da espécie e um único estado estacionário. Também foram realizadas a comparação com os dados experimentais coletados no extrator real e com o método de estágios ideais, a análise da influência de propriedades da matéria-prima nas características principais do modelo, e estabelecidos os dados iniciais do regime básico (regime de operação) Foram realizadas pesquisas numéricas para determinar: os regimes estacionário e transiente, a variação da constante de equilíbrio entre as fases, a variação do número de seções, a alteração da vazão de matéria-prima nas características de um extrator industrial e, também foram realizadas as simulações comparativas para diferentes tipos de matéria-prima (flocos laminados e flocos expandidos) usados amplamente na indústria. Além dessas pesquisas, o modelo também permite simular diferentes tipos de solventes. O estudo da capacidade de produção do extrator revelou que é necessário ter cuidado com o aumento da vazão da matéria-prima, pois um pequeno aumento desta pode causar grandes perdas de óleo tornando alto o custo da produção. Mesmo que ainda seja necessário abastecer o modelo com mais dados experimentais, principalmente da matéria-prima, os resultados obtidos estão em concordância com os fenômenos físico-químicos envolvidos no processo, com a lei de conservação de espécies químicas e com os resultados experimentais.
Resumo:
O presente trabalho apresenta o desenvolvimento de um estudo da extração de óleo vegetal em instalações industriais do tipo Rotocell. O extrator tem forma cilíndrica e possui um eixo principal no qual estão fixos vagões que transportam os sólidos através do extrator, e, abaixo desses existem reservatórios responsáveis pelo recebimento da micela. Acima dos vagões há seções de distribuição de micela que é despejada sobre os sólidos dos vagões, que extrai o óleo. Possui também seções de carregamento e drenagem. Um modelo físico-matemático e um programa para simular a operação do extrator foram desenvolvidos considerando os seguintes fenômenos: difusão de óleo pela micela; transferência de óleo entre as fases bulk e poro; variação da massa específica e viscosidade da micela; os processos nas seções de drenagem e de carregamento. Na forma final, o modelo acoplado apresenta-se em termos de redes neurais artificiais, que possibilita operar com tempos discretos e contínuos, permitindo a simulação numérica deste extrator industrial, o treinamento favorável da rede, sua identificação, e o acompanhamento em tempo real. Foram determinadas características da matéria-prima através de um trabalho experimental em laboratório. Através dos resultados obteve-se a validação do modelo por meios teóricos e experimentais Os resultados teóricos foram comparados com os dados experimentais e com cálculos feitos através do método de estágios ideais. As simulações numéricas revelam propriedades do campo de extração para o regime transiente com distribuição uniforme e regime transiente industrial, onde verifica-se que o modelo descreve corretamente o comportamento real do campo de percolação do extrator. Também foram realizadas simulações numéricas com o objetivo de avaliar as principais características do extrator em função da sua geometria e características da matéria-prima, variando a altura e o número de vagões do extrator verificou-se que é possível simular o comportamento do extrator para diferentes formas e tipo de qualidades da matéria-prima. Foram feitas simulações utilizando um solvente alternativo(álcool) e mudando parâmetros do extrator, onde observou-se que o solvente exige alterações na dimensão do extrator.
Resumo:
O comportamento hidrológico de grandes bacias envolve a integração da variabilidade espacial e temporal de um grande número de processos. No passado, o desenvolvimento de modelos matemáticos precipitação – vazão, para representar este comportamento de forma simplificada, permitiu dar resposta às questões básicas de engenharia. No entanto, estes modelos não permitiram avaliar os efeitos de modificações de uso do solo e a variabilidade da resposta em grandes bacias. Este trabalho apresenta o desenvolvimento e a validação de um modelo hidrológico distribuído utilizado para representar os processos de transformação de chuva em vazão em grandes bacias hidrográficas (maiores do que 10.000 km2). Uma grade regular de células de algumas dezenas ou centenas de km2 é utilizada pelo modelo para representar os processos de balanço de água no solo; evapotranspiração; escoamentos: superficial, sub-superficial e subterrâneo na célula; e o escoamento na rede de drenagem em toda a bacia hidrográfica. A variabilidade espacial é representada pela distribuição das características da bacia em células regulares ao longo de toda a bacia, e pela heterogeneidade das características no interior de cada célula. O modelo foi aplicado na bacia do rio Taquari Antas, no Rio Grande do Sul, na bacia do rio Taquari, no Mato Grosso do Sul, e na bacia do rio Uruguai, entre Rio Grande do Sul e Santa Catarina. O tamanho destas bacias variou entre, aproximadamente, 30.000 km2 e 75.000 km2. Os parâmetros do modelo foram calibrados de forma manual e automática, utilizando uma metodologia de calibração automática multi-objetivo baseada em um algoritmo genético. O modelo foi validado pela aplicação em períodos de verificação diferentes do período de calibração, em postos fluviométricos não considerados na calibração e pela aplicação em bacias próximas entre si, com características físicas semelhantes. Os resultados são bons, considerando a capacidade do modelo de reproduzir os hidrogramas observados, porém indicam que novas fontes de dados, como os fluxos de evapotranspiração para diferentes coberturas vegetais, serão necessários para a plena utilização do modelo na análise de mudanças de uso do solo.
Resumo:
Esta dissertação apresenta uma abordagem sistemática para garantir a estabilidade dos resultados dos processos e, assim, o alcance das metas de produção e qualidade. Essa abordagem contempla oito etapas principais: (I) identificação do processo crítico, (iI) tratamento do processo crítico, (iil) padronização operacional, (iv) treinamento operacional, (v) operação conforme o padrão, (VI) tratamento de anomalias, (vil) auditoria de padrão e (viiI) controle estatístico de processo. A metodologia proposta, chamada de "Estabilização de Processo", se propõe a garantir a previsibilidade dos resultados dos processos operacionais de maneira focada, através da identificação dos processos críticos, de seus indicadores, de suas metas-padrão e da manutenção do seu resultado numa faixa de domínio que atenda às necessidades dos clientes. As principais vantagens do método são: (I) um método simples e organizado de atividades corretivas e preventivas, (if) a abordagem estatística, que fornece uma base sólida para a tomada de decisões e (iil) o gerenciamento do processo da rotina com foco no par operador-tarefa. Por fim, é apresentado e discutido um estudo de caso em uma indústria siderúrgica, que contribui para a validação do método proposto.
Resumo:
A informática vem adquirindo papéis cada vez mais importantes na vida cotidiana. Um dos papéis mais significativos, hoje, é o suporte a comunicações; atualmente, é muito difícil pensar em comunicações – mesmo interpessoais – sem fazer associação às áreas de informática e redes. Dentre as aplicações que utilizam informática e redes como suporte, a tecnologia de videoconferência tem recebido papel de destaque. Os avanços na tecnologia de redes e conectividade, aliados à padronização e à crescente oferta de produtos de videoconferência, têm aumentado a aplicabilidade e a popularidade destes produtos, sobretudo utilizados sobre arquitetura de redes TCP/IP. Trata-se de uma tecnologia atraente em termos de resultado, por agregar, além do áudio – recurso comum há muito tempo como suporte à comunicação – os recursos de vídeo e aplicações integradas (como quadro-branco compartilhado, Chat, troca de arquivos e outros). Contudo, essas aplicações são bastante exigentes, tanto em termos de banda quanto de qualidade de serviço (QoS) da rede. O primeiro item se justifica pelo volume de dados gerados pelas aplicações de videoconferência; o segundo, pela significativa influência que os problemas de qualidade da infraestrutura de rede (como elevada latência, jitter e descartes) podem exercer sobre tais aplicações. A busca para as soluções destes problemas não é tarefa simples, pois muitas vezes envolve investimentos que desencorajam a adoção da tecnologia de videoconferência – principalmente para uso pessoal ou por empresas pequenas. Este trabalho propõe uma solução aos problemas mencionados, visando proporcionar uma melhor aceitação e maior disseminação da tecnologia de videoconferência, valendo-se de recursos com pouca demanda de investimento. A estratégia abordada é a adaptação de tráfego, com um enfoque diferenciado: o de levar em conta, para cada aplicação, o comportamento que o processo de adaptação apresentasse. A partir dessa orientação, é proposto um modelo de adaptação de tráfego orientado ao perfil da aplicação, voltado ao interesse do usuário, e que disponibilize uma forma ao mesmo tempo simples e eficiente para que o usuário realize a adequação do mecanismo de adaptação do sistema às suas necessidades e expectativas. A partir desta proposta, foi implementado um protótipo de aplicação, com o objetivo de verificar a funcionalidade do modelo em termos práticos. As observações dos resultados dos testes, bem como as conclusões geradas, serviram como validação da proposta.
Resumo:
Monitorar significa, de forma genérica, acompanhar e avaliar dados fornecidos por aparelhagem técnica. Quando se fala em monitoramento de uma rede, não se está fugindo desta idéia. Para monitorar a rede são utilizados mecanismos para coletar dados da mesma, sendo estes dados posteriormente avaliados. O monitoramento da rede é, sob o ponto de vista da administração da mesma, uma atividade indispensável. Através desta operação é possível obter conclusões sobre a “saúde” da rede. A busca e análise dos dados da rede podem ser feitas com vários enfoques, cada um buscando cercar uma situação específica, onde entre outros, destacam-se a segurança e a carga da rede. A proposta de fazer uso de algum recurso que permita monitorar a rede fica cada vez mais importante, à medida que as redes têm crescido em tamanho e importância para as organizações. Atualmente, é comum se falar em redes locais com centenas e até milhares de computadores conectados. Associada a esta realidade existe ainda a conexão com a Internet, que faz com que o número de máquinas em contato, suba para valores gigantescos. Os usuários de computador que estão conectados a uma rede, podem estar, fisicamente, muito longe dos olhos do administrador da mesma. Com isso, este sente-se obrigado a utilizar ferramentas que permita monitorar a rede, uma vez que não tem controle sobre os usuários. Sob o ponto de vista da segurança, a preocupação está em verificar a possível ocorrência de ataques ou detectar problemas nas configurações dos mecanismos de segurança implementados. Já quanto à carga da rede, o enfoque é monitorar os tipos de acessos e serviços utilizados, a fim de identificar atividades supérfluas que possam estar sobrecarregando a rede. O presente trabalho tem por objetivo estudar meios para construir uma ferramenta que permita verificar, de forma on-line, as conexões TCP/IP que estão ativas na rede local, seja uma conexão entre duas máquinas da rede local, ou com a Internet, possibilitando visualizar os serviços que estão sendo acessados e a quantidade de tráfego gerada pelos computadores. Ao final será construído um protótipo a fim de validar o estudo feito. O estudo parte da análise do padrão de rede Ethernet, que é ambiente a ser utilizado neste estudo. Na seqüência serão estudadas as características dos principais protocolos da família TCP/IP, que é o conjunto de protocolo utilizado pela grande maioria das redes, inclusive pela maior delas, que é a Internet. Em uma fase posterior, serão estudadas as formas de se fazer o monitoramento em uma rede Ethernet e as ferramentas de monitoramento existentes. Na seqüência, os detalhes do protótipo para monitorar conexões TCP/IP são apresentados bem como os resultados dos testes de validação do mesmo.
Resumo:
O presente trabalho trata da validação de uma metodologia de análise para a determinação de dibenzo-p-dioxinas policloradas (PCDDs) em cinzas obtidas através de um processo de incineração de aparas de couro wet-blue. As dioxinas, compostos de extrema toxicidade, podem ser formadas na superfície das partículas de cinzas em reações de combustão. O mecanismo de formação de PCDDs requer uma atmosfera rica em oxigênio, uma fonte de cloro e a presença na cinza de um metal capaz de catalizar uma reação Deacon. O couro wet-blue apresenta em sua composição os precursores para a formação de dioxinas tais como o cloro e o metal catalisador sódio, cuja presença destes elementos foi comprovada por análises de superfície realizadas no couro e nas cinzas usando as técnicas de Rutherford Back-scattering Spectrometry (RBS) e Microscopia Eletrônica de Varredura (MEV). Desta forma, torna-se necessária a análise de dioxinas em cinzas de couro para especificar seu tratamento e destino final. As cinzas de couro foram obtidas numa unidade de bancada de incineração com reator de leito fixo, processo conhecido como GCC (Gaseificação e Combustão Combinadas). A metodologia utilizada para analisar dioxinas nas cinzas de couro foi baseada no Método 8280B da Agência de Proteção Ambiental dos Estados Unidos da América (EPA-USA). Este método descreve os procedimentos de extração de matrizes específicas, o clean-up para os analitos específicos e a determinação de dioxinas através das técnicas de cromatografia gasosa de alta resolução e espectrometria de massa de baixa resolução. O sucesso da análise depende da preparação dos extratos das amostras, etapa conhecida como clean-up, a qual é descrita minuciosamente neste trabalho, incluindo a montagem das colunas cromatográficas. A eficiência de extração das dioxinas foi obtida com os resultados comparativos das análises entre matrizes contaminadas com solução padrão de dioxinas e o padrão analítico. A validação deste método para análise de dioxinas policloradas em cinzas de couro wet-blue foi considerada satisfatória para os objetivos do trabalho, uma vez que a eficiência de extração de dioxinas obtida ficou dentro dos critérios estabelecidos pelo método.
Resumo:
O desenvolvimento de artefatos de software é um processo de engenharia, como todo processo de engenharia, envolve uma série de etapas que devem ser conduzidas através de uma metodologia apropriada. Para que um determinado software alcance seus objetivos, as características conceituais e arquiteturais devem ser bem definidas antes da implementação. Aplicações baseadas em hiperdocumentos possuem uma característica específica que é a definição de seus aspectos navegacionais. A navegação é uma etapa crítica no processo de definição de softwares baseados em hiperdocumentos, pois ela conduz o usuário durante uma sessão de visita ao conteúdo de um site. Uma falha no processo de especificação da navegação causa uma perda de contexto, desorientando o usuário no espaço da aplicação. Existem diversas metodologias para o tratamento das características de navegação de aplicações baseadas em hiperdocumentos. As principais metodologias encontradas na literatura foram estudadas e analisadas neste trabalho. Foi realizada uma análise comparativa entre as metodologias, traçando suas abordagens e etapas. O estudo das abordagens de especificação de hiperdocumentos foi uma etapa preliminar servindo como base de estudo para o objetivo deste trabalho. O foco é a construção de uma ferramenta gráfica de especificação conceitual de hiperdocumentos, segundo uma metodologia de modelagem de software baseado em hiperdocumentos. O método adotado foi o OOHDM (Object-Oriented Hypermedia Design Model), por cercar todas as etapas de um processo de desenvolvimento de aplicações, com uma atenção particular à navegação. A ferramenta implementa uma interface gráfica onde o usuário poderá modelar a aplicação através da criação de modelos. O processo de especificação compreende três modelos: modelagem conceitual, modelagem navegacional e de interface. As características da aplicação são definidas em um processo incremental, que começa na definição conceitual e finaliza nas características de interface. A ferramenta gera um protótipo da aplicação em XML. Para a apresentação das páginas em um navegador Web, utilizou-se XSLT para a conversão das informações no formato XML para HTML. Os modelos criados através das etapas de especificação abstrata da aplicação são exportados em OOHDM-ML. Um estudo de caso foi implementado para validação da ferramenta. Como principal contribuição deste trabalho, pode-se citar a construção de um ambiente gráfico de especificação abstrata de hiperdocumentos e um ambiente de implementação de protótipos e exportação de modelos. Com isso, pretende-se orientar, conduzir e disciplinar o trabalho do usuário durante o processo de especificação de aplicações.
Resumo:
Atualmente, tem-se cada vez mais adotado o uso de pozolanas de alta reatividade como ferramenta para a obtenção do concreto de alta resistência (CAR). As pozolanas de alta reatividade dividem-se em sílica ativa, cinza de casca de arroz e o metacaulim de alta reatividade (MCAR). O estudo focalizando o efeito da sílica ativa e cinza de casca de arroz no concreto já se encontra em estado adiantado, principalmente quando se refere à sílica ativa. Contudo, esta situação não se repete quando se focaliza o uso do MCAR, visto que o estudo em relação ao efeito deste material no concreto encontra-se em um estágio inicial, principalmente quando refere-se ao Brasil. O MCAR é oriundo do processo de calcinação em temperaturas entre 400ºC e 950ºC e posterior processo de moagem de argilas com altos teores de caulinita, como a argila caulinítica e o caulim. A elevada finura obtida no MCAR é o principal diferencial deste material em relação ao metacaulim. Além destas argilas, tem-se também buscado atualmente o uso de outros materiais, como os resíduos provenientes da indústria do papel, para a produção do MCAR. Esta nova opção, além do resultado técnico, ainda apresenta como vantagem o caráter ecológico decorrente do uso de um resíduo industrial. Assim sendo, o objetivo principal deste trabalho foi avaliar o uso do MCAR, decorrente de resíduo industrial, nas propriedades mecânicas do concreto, mais especificamente na resistência à compressão, resistência à tração na compressão diametral, resistência à tração na flexão, módulo de elasticidade e coeficiente de Poisson. Na realização deste trabalho variou-se os teores de substituições de MCAR, as relações água/cimento e as idades de rompimento dos corpos-de-prova. A metodologia baseou-se em ensaios laboratoriais e no uso de ferramentas estatísticas para validação dos resultados Em paralelo realizou-se um estudo da microestrutura utilizando-se o microscópio eletrônico de varredura, a difração de raios-x, a análise termodiferencial e termogravimétrica, a titulometria e a porosimetria por intrusão de mercúrio, visando um melhor entendimento do comportamento obtido nos ensaios mecânicos. Com base nesses ensaios, foram propostas equações a partir dos parâmetros estudados, que indicaram, em todos os ensaios mecânicos realizados, melhorias decorrente do efeito pozolânico e filer do MCAR. A ratificação destes efeitos foi obtida nos ensaios realizados na microestrutura. Na comparação com os resultados relatados com o uso da cinza de casca de arroz e com a sílica ativa, obtidos em ensaios com metodologia e materiais semelhante, verificou-se um comportamento similar a estes materiais. Conclui-se com um resumo dos resultados obtidos neste trabalho que evidenciam claramente a possibilidade do uso do MCAR na produção do CAR.
Resumo:
Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.
Resumo:
O sucesso da Internet como plataforma de distribuição de sistemas de informação encoraja organizações a disponibilizar serviços presentes em seus sistemas legados nesse ambiente. Uma parte desses sistemas foi desenvolvida na fase inicial do desenvolvimento das aplicações cliente/servidor para banco de dados, usando ambientes visuais com interfaces gráficas tipo WIMP, implementadas sob o paradigma procedimental/estruturado, baseado em objetos e eventos. Como conseqüência, produziu-se sistemas legados difíceis de manter, evoluir e adaptar a novas tecnologias e arquiteturas, pois os projetos desenvolvidos não seguiam, na maioria das vezes, os bons preceitos e práticas modernas defendidas na Engenharia de Software. O objetivo deste trabalho é propor uma metodologia para migrar sistemas legados com as características citadas acima para a plataforma Web. O processo de migração proposto destaca duas estratégias: a elaboração de modelos de classes conceituais da aplicação e o tratamento dado à interface do usuário, para serem utilizados na reconstrução de uma nova aplicação. O processo é baseado em técnicas e métodos de engenharia reversa, que visa obter abstrações por meio de análise estática e dinâmica da aplicação. Na análise dinâmica, destaca-se o mecanismo para recuperar aspectos dos requisitos funcionais do sistema legado e representá-los na ferramenta denominada UC/Re (Use Case para Reengenharia). Todos os artefatos gerados durante o processo podem ser armazenados em um repositório, representando os metamodelos construídos na metodologia. Para delimitar e exemplificar o processo, escolheu-se como domínio de linguagem de programação do software legado, o ambiente Delphi (sob a linguagem Object Pascal). É proposto também um ambiente CASE, no qual é descrito o funcionamento de um protótipo que automatiza grande parte das funcionalidades discutidas nas etapas do processo. Algumas ferramentas desenvolvidas por terceiros são empregadas na redocumentação do sistema legado e na elaboração dos modelos UML do novo sistema. Um estudo de caso, apresentando uma funcionalidade específica de um sistema desenvolvido em Delphi, no paradigma procedimental, é usado para demonstrar o protótipo e serve de exemplo para a validação do processo. Como resultado do processo usando o protótipo, obtém-se o modelo de classes conceituais da nova aplicação no formato XMI (formato padrão para exportação de modelos UML), e gabaritos de páginas em HTML, representando os componentes visuais da interface original na plataforma Web.
Resumo:
A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.
Resumo:
Este trabalho apresenta um modelo de mecanismo para o controle de integridade de arquivos em sistemas operacionais, com a capacidade de bloquear o acesso à arquivos inválidos de forma a conter os danos causados por possíveis ataques. O modelo foi inicialmente formulado a partir do estudo detalhado do processo de controle de integridade, revelando diversos pontos críticos de segurança nele existentes, e da avaliação dos mecanismos atualmente implementados nos sistemas operacionais que oferecem, mesmo que indiretamente, algum tipo de garantia de integridade dos arquivos do sistema. Durante o seu desenvolvimento, a segurança do próprio modelo foi detalhadamente analisada de forma a enumerar os seus pontos críticos e possíveis soluções a serem empregadas, resultando na definição dos requisitos mínimos de segurança que devem ser encontrados nesse tipo de mecanismo. Em seguida, visando a validação do modelo especificado e decorrente disponibilização do mecanismo para uso prático e em estudos futuros, um protótipo foi implementado no sistema operacional GNU/Linux. Procurando confirmar a sua viabilidade, foram realizadas análises do impacto causado sobre o desempenho do sistema. Por fim, foi confirmada a importância e viabilidade do emprego do modelo apresentado como mecanismo adicional de segurança em sistemas operacionais. Além disso, foi colocado em evidência um campo de pesquisa ainda pouco explorado e portanto atrativo para a realização de novos estudos.
Resumo:
As tarefas de visão computacional incentivam uma significativa parte da pesquisa em todas as áreas científicas e industriais, entre as quais, cita-se a área voltada para o desenvolvimento de arquiteturas de computadores. A visão computacional é considerada um dos problemas mais desafiadores para a computação de alto desempenho, pois esta requer um grande desempenho, bem como um alto grau de flexibilidade. A flexibilidade é necessária pois a visão computacional abrange aplicações em que há diferentes tarefas a serem realizadas com diferentes necessidades de desempenho. Esta flexibilidade é particularmente importante em sistemas destinados a atuar como ambientes experimentais para novas técnicas de processamento visual ou para a prototipação de novas aplicações. Computação configurável tem demonstrado, por meio de exemplos implementados pela comunidade científica, fornecer uma boa relação entre alto desempenho e flexibilidade necessária para a implementação de diferentes técnicas utilizadas na área de visão computacional. Contudo, poucos esforços de pesquisa têm sido realizados na concepção de sistemas completos visando a solução de um problema de visão computacional, incluindo ambos os requisitos de software e de hardware. O principal objetivo deste trabalho é mostrar que as técnicas e tecnologias disponíveis na área de computação configurável podem ser empregadas para a concepção de um sistema capaz de implementar um grande número de aplicações da área de visão computacional na pesquisa e no ambiente industrial. Entretanto, não é escopo deste trabalho implementar um sistema de computação que seja suficiente para abordar os requerimentos necessários para todas as aplicações em visão computacional, mas os métodos aqui introduzidos podem ser utilizados como uma base geral de implementação de várias tarefas de visão computacional. Este trabalho utiliza ambientes que permitem implementações conjuntas de hardware e software, pois os mesmos facilitam a validação das técnicas aqui apresentadas, por meio da implementação de um estudo de caso, sendo parte deste estudo de caso implementado em software e outra parte em hardware.
Resumo:
Construção de software com qualidade tem motivado diversas pesquisas na área de Engenharia de Software. Problemas como a grande complexidade requerida pelas aplicações atuais e a necessidade de gerenciamento de um número cada vez maior de pessoas envolvidas em projetos são obstáculos para serem transpostos. Trabalhos relacionados a tecnologia de processos de software aparecem como uma proposta para se obter maior controle das atividades realizadas com o intuito de se obter maior qualidade. A simulação de processos de software, através da representação dos passos definidos em um modelo, tem sido utilizada no auxílio a gerentes de projetos de sistemas para fornecer-lhes informações preciosas sobre o desenvolvimento de um sistema especificado. A representação de conhecimento a respeito das características relacionadas a um ambiente de desenvolvimento ajuda na obtenção de simulações mais realísticas. A partir do modelo, o simulador obtém uma descrição do ambiente em que deve atuar, baseado no conhecimento que se tem a respeito do ambiente. Esse trabalho apresenta um modelo de simulação de processos de software baseado em conhecimento para ser inserido em um ambiente de engenharia de processos de software. A função do modelo é simular um processo de software instanciado, procurando detectar inconsistências no mesmo que possam gerar problemas durante a sua execução, como aumento de custos e comprometimento da qualidade do(s) produto(s) obtido(s). Após a simulação o projetista pode constatar a necessidade de se refazer o modelo, ajustar parâmetros ou executar o processo de software. O objetivo da simulação, nesse trabalho, é auxiliar as pessoas responsáveis por um ambiente de desenvolvimento a obter modelos de processos validados. O modelo de simulação foi definido para ser utilizado no ambiente PROSOFT, que é um ambiente de desenvolvimento que permite a integração de novas ferramentas para desenvolvimento de software. O ambiente PROSOFT vem recebendo propostas de extensão que tem contribuído para o seu aprimoramento, fornecendo para seus usuários uma quantidade cada vez maior de ferramentas de auxílio a construção de artefatos de software. As propostas mais recentes foram um modelo para construção de sistemas especialistas, a definição de um ambiente cooperativo e um gerenciador de processos de software. ATOs algébricos (construções do PROSOFT) são utilizados para especificar formalmente o modelo de simulação definido neste trabalho. A validação é realizada através de um modelo em UML (Unified Method Language) que foi utilizado como base para a construção de um programa implementado usando a linguagem Java. Isso ocorre porque a ferramenta do PROSOFT (implementada em Java) que seria utilizada para validar as especificações algébricas ainda não está finalizada.