923 resultados para processamento ceramico


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A leitura e a escrita são atividades mentais extremamente complexas, compostas por múltiplos processos interdependentes e que envolvem outras funções neuropsicológicas. Esta pesquisa é composta por quatro estudos, visando traçar o perfil de leitura e escrita de palavras e de texto de 110 crianças de 2ª série de escolas públicas (Estudo 1); relacionar o julgamento do professor e as habilidades de leitura e escrita dos alunos (Estudo 2); comparar o perfil de leitura e escrita e de funções neuropsicológicas de crianças de 2ª série com dificuldades de leitura e escrita e de crianças leitoras e escritoras competentes, de mesma idade e de mesmo desempenho em leitura e escrita (Estudo 3); e analisar a variabilidade intra-grupos nas habilidades de leitura e escrita e nas funções neuropsicológicas, na busca de dissociações entre as rotas de leitura e de escrita e entre funções neuropsicológicas (Estudo 4). O primeiro estudo mostrou que, na 2ª série, houve indícios de uso de ambas as rotas de leitura e escrita, mas maior tendência à estratégia fonológica. Foram encontradas correlações significativas entre as habilidades de processamento de palavras e de texto. No segundo estudo foram encontradas correlações moderadas entre o desempenho dos alunos em leitura e escrita e a percepção do professor sobre estas habilidades. O terceiro estudo mostrou que o grupo de 2ª série com dificuldades de leitura e escrita usava de forma imprecisa ambas as rotas de leitura e escrita. Este grupo apresentou escores estatisticamente inferiores aos do grupo de 2ª série competente em leitura e escrita em consciência fonológica, linguagem oral e repetição de pseudopalavras, não diferindo significativamente do grupo de 1ª série. Os perfis semelhantes dos grupos de 2ª série com dificuldade de leitura e escrita e de 1ª série sugerem que os primeiros apresentam atraso de desenvolvimento da leitura e escrita e de funções neuropsicológicas relacionadas. Os estudos de casos, analisados no Estudo 4, mostraram padrões de leitura e escrita semelhantes à dislexia de desenvolvimento fonológica, dislexia de superfície e de dislexia mista. O perfil neuropsicológico também apresentou variabilidade intra-grupo. Os dados são discutidos em uma abordagem neuropsicológica cognitiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa visa a modelagem de clusters de computadores, utilizando um modelo analítico simples que é representado por um grafo valorado denominado grafo da arquitetura. Para ilustrar tal metodologia, exemplificou-se a modelagem do cluster Myrinet/SCI do Instituto de Informática da UFRGS, que é do tipo heterogêneo e multiprocessado. A pesquisa visa também o estudo de métodos e tecnologias de software para o particionamento de grafos de aplicações e seu respectivo mapeamento sobre grafos de arquiteturas. Encontrar boas partições de grafos pode contribuir com a redução da comunicação entre processadores em uma máquina paralela. Para tal, utilizou-se o grafo da aplicação HIDRA, um dos trabalhos do GMCPAD, que modela o transporte de substâncias no Lago Guaíba. Um fator importante é o crescente avanço da oferta de recursos de alto desempenho como os clusters de computadores. Os clusters podem ser homogêneos, quando possuem um arquitetura com nós de mesma característica como: velocidade de processamento, quantidade de memória RAM e possuem a mesma rede de interconexão interligando-os. Eles também podem ser heterogêneos, quando alguns dos componentes dos nós diferem em capacidade ou tecnologia. A tendência é de clusters homogêneos se tornarem em clusters heterogêneos, como conseqüência das expansões e atualizações. Efetuar um particionamento que distribua a carga em clusters heterogêneos de acordo com o poder computacional de cada nó não é uma tarefa fácil, pois nenhum processador deve ficar ocioso e, tampouco, outros devem ficar sobrecarregados Vários métodos de particionamento e mapeamento de grafos foram estudados e três ferramentas (Chaco, Jostle e o Scotch) foram testadas com a aplicação e com a arquitetura modeladas. Foram realizados, ainda, vários experimentos modificando parâmetros de entrada das ferramentas e os resultados foram analisados. Foram considerados melhores resultados aqueles que apresentaram o menor número de corte de arestas, uma vez que esse parâmetro pode representar a comunicação entre os processadores de uma máquina paralela, e executaram o particionamento/mapeamento no menor tempo. O software Chaco e o software Jostle foram eficientes no balanceamento de carga por gerarem partições com praticamente o mesmo tamanho, sendo os resultados adequados para arquiteturas homogêneas. O software Scotch foi o único que permitiu o mapeamento do grafo da aplicação sobre o grafo da arquitetura com fidelidade, destacando-se também por executar particionamento com melhor qualidade e pela execução dos experimentos em um tempo significativamente menor que as outras ferramentas pesquisadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas de recomendação baseados cooperação indireta podem ser implementados em bibliotecas por meio da aplicação de conceitos e procedimentos de análise de redes. Uma medida de distância temática, inicialmente desenvolvida para variáveis dicotômicas, foi generalizada e aplicada a matrizes de co-ocorrências, permitindo o aproveitando de toda a informação disponível sobre o comportamento dos usuários com relação aos itens consultados. Como resultado formaram-se subgrupos especializados altamente coerentes, para os quais listas-base e listas personalizadas foram geradas da maneira usual. Aplicativos programáveis capazes de manipularem matrizes, como o software S-plus, foram utilizados para os cálculos (com vantagens sobre o software especializado UCINET 5.0), sendo suficientes para o processamento de grupos temáticos de até 10.000 usuários.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, the basic research of Chase and Simon (1973) is questioned, and we seek new results by analyzing the errors of experts and beginners chess players in experiments to reproduce chess positions. Chess players with different levels of expertise participated in the study. The results were analyzed by a Brazilian grandmaster, and quantitative analysis was performed with the use of statistical methods data mining. The results challenge significantly, the current theories of expertise, memory and decision making in this area, because the present theory predicts piece on square encoding, in which players can recognize the strategic situation reproducing it faithfully, but commit several errors that the theory can¿t explain. The current theory can¿t fully explain the encoding used by players to register a board. The errors of intermediary players preserved fragments of the strategic situation, although they have committed a series of errors in the reconstruction of the positions. The encoding of chunks therefore includes more information than that predicted by current theories. Currently, research on perception, trial and decision is heavily concentrated on the idea of pattern recognition". Based on the results of this research, we explore a change of perspective. The idea of "pattern recognition" presupposes that the processing of relevant information is on "patterns" (or data) that exist independently of any interpretation. We propose that the theory suggests the vision of decision-making via the recognition of experience.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis is about change, discontinuity, instability. The theoretical perspective used to analyses the changing process was Institutional Theory, which argues that institutions has a long-term time. The institutional change has always be seen as a structural process and a incremental one, but this research aimed rescue the dynamic side of institutional change, understanding that as a result of deinstitutionalization and institutionalization processes. In order to understand the deinstitutionalization and institutionalization processes, we try to understand the concepts of interactive and iterative. So, it was possible understand that these process are interdependent and has to be understood as both side of institutional change. Nevertheless, it couldn¿t have an institutional vacuum, but a hybrid order or plural one, where a set of institutional forces would find its legitimacy. The Discourses Analysis supports this research, which was developed in Peru. A group of University professors was interviewed and we noticed that there are a lot of practices that act as micro institutional rules. In that way, we can admit that there is no vacuum, but a plural institutional order.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ESTUDO OBJETIVOU VERIFICAR OS IMPACTOS DA IMPLANTAÇÃO DO SISTEMA DE INFORMAÇÕES SOBRE O PROCESSO DECISÓRIO ESTRATÉGICO DO SERPRO - SERVIÇO FEDERAL DE PROCESSAMENTO DE DADOS. CONSIDERA-SE QUE AS ENTREVISTAS REALIZADAS COM A DIRETORIA, BEM COMO OS RESULTADOS DA PESQUISA APLICADA AOS SUPERINTENDENTES E COORDENADORES DA UNIDADE DE PROCESSOS CORPORATIVOS DA REFERIDA EMPRESA, SE CONSTITUIREM NOS SUPORTES DE ARGUMENTAÇÃO DESTE TRABALHO. FORAM TAMBÉM ANALISADOS OS DOCUMENTOS OFICIAIS DA ORGANIZAÇÃO E REALIZADAS ENTREVISTAS COM ANTIGOS ADMINISTRADORES. OS RESULTADOS MOSTRAM QUE OS MAIORES IMPACTOS DA IMPLANTAÇÃO NA ORGANIZAÇÃO FORAM O DESVELAMENTO DO PROCESSO DECISÓRIO ESTRATÉGICO, A AGILIZAÇÃO DESSAS DECISÕES ESTRATÉGICAS E UMA POTENCIALIZAÇÃO DO USO DOS DIVERSOS SISTEMAS DE INFORMAÇÕES POR PARTE DE TODOS OS USUÁRIOS DO SISTEMA DE INFORMAÇÃO PARA O PROCESSO DECISÓRIO.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivo principal investigar o processo de imobilização do íon cromo, oriundo da cinza de incineração da serragem de couro curtido ao cromo (CSC), em corpos cerâmicos vitrificados. Para tanto, foram desenvolvidas formulações com adição de vidro sodocálcico a CSC, que foram submetidas a diferentes temperaturas de queima. Para o aprofundamento da investigação dos fenômenos atuantes no processo de imobilização do íon cromo, foram formuladas massas cerâmicas com a adição de óxidos puros de Na2O, TiO2, MgO e CaO, à composição CSC e vidro sodo-cálcido. As massas cerâmicas foram conformadas por prensagem uni-axial de duplo efeito e queimadas em forno elétrico tipo mufla, nas temperaturas de 750, 800, 950 e 1000ºC. Posteriormente, foram caracterizadas quanto às propriedades físicas e composição mineralógica, bem como, avaliadas quanto à imobilização do cromo através de ensaios de lixiviação, segundo a Norma NBR 10.005. O controle de fases formadas resultante do processamento cerâmico foi investigado com o auxílio de difração de raios X e mapeamento por microssonda EDS. Os resultados obtidos indicam que é possível obter a imobilização do íon cromo da CSC, de acordo com o limite máximo estabelecido pela NBR 10.004 (5mg/L), utilizando vidro e agentes de vitrificação/densificação, como o óxido de titânio e óxido de magnésio. Quanto mais elevada a temperatura de queima, mais efetiva foi a imobilização de cromo nos corpos cerâmicos investigados. O aumento da temperatura de queima diminui a porosidade aberta, via formação de fase vítrea, levando desse modo a uma diminuição da lixiviação do cromo. No entanto, a adição somente de vidro a CSC aumentou a lixiviação do cromo dos corpos cerâmicos, embora sempre menor para temperaturas de queima crescentes. Deve-se isso, ao aumento de fases lixiviáveis, como cromatos de sódio, a partir da reação do sódio, do vidro sodo-cálcico e do cromo da CSC. Os corpos cerâmicos que apresentaram a fase cromato de sódio, apresentaram deficiente imobilização do íon cromo, em todas as formulações investigadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The new economy stimulated by the bigger Internet participation as an interaction mean between people and business has been changing the companies¿ management routine. Nowadays, Internet access goes through telephones, in the houses and offices, or through nets of the Intranet kind, with the users in their working settings. The Internet personal access added, with mobility, surely will bring changes to our contacting form to the outside world as well as it will create a possibility of giving the customers a bigger variety of products and services. The present study aims are: (i) to verify the customers behaviours related to this new media, presented in the mobiles digital screens; (ii) to explore some of their main features, and (iii) to compare them with the other media features, as the radio and the TV ones. The applied research methodology was the data collecting through phone interviews. To obtain a Confidence Interval of 95%, 470 WAP, Internet, radio and TV current users¿ answers were gotten. To compare the media, the Fishbein multi-attributes model was used what possibilities to form comparative scores of the attributes built for the research. To mark the discussion concerning the public behaviour related to the differentiated use of the mentioned media out, the study produced uses the McLuhan theoretical reference (1969), specially concerning to his theoretical building, denominated hot and cold means. But this referential theoretic mark could not be supported by the accomplished quantitative study result. The comparison of built attribute scores averages has differentiated the hot media WAP, like radio, as well as the cold media one, like TV. This way, showing that the access new technology appearance, WAP, not only enlarges the Internet use, but also appoints to a new theoretic classification possibility to this new media. The accomplished quantitative research revealed that, through the user point of view, the ¿Contents¿ category is considered as one of the most important WAP aspects. The TV and the radio received significantly lower grades in this subject. The public considers that is important that the WAP information is ¿trustworthy¿, ¿easy¿ to find, ¿available¿, ¿sufficient¿ and that attends the ¿urgency¿ expected by the user. It was observed that the WAP score ¿emotion¿ is inferior to the radio and TV and superior to the Internet ones. But, the differences found are not significant. Considering the low score of importance given to the attributes group ¿emotion¿, is not recommended the WAP use as media when the emotional users aspects are wanted to be reached.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A descoberta e a análise de conglomerados textuais são processos muito importantes para a estruturação, organização e a recuperação de informações, assim como para a descoberta de conhecimento. Isto porque o ser humano coleta e armazena uma quantidade muito grande de dados textuais, que necessitam ser vasculhados, estudados, conhecidos e organizados de forma a fornecerem informações que lhe dêem o conhecimento para a execução de uma tarefa que exija a tomada de uma decisão. É justamente nesse ponto que os processos de descoberta e de análise de conglomerados (clustering) se insere, pois eles auxiliam na exploração e análise dos dados, permitindo conhecer melhor seu conteúdo e inter-relações. No entanto, esse processo, por ser aplicado em textos, está sujeito a sofrer interferências decorrentes de problemas da própria linguagem e do vocabulário utilizado nos mesmos, tais como erros ortográficos, sinonímia, homonímia, variações morfológicas e similares. Esta Tese apresenta uma solução para minimizar esses problemas, que consiste na utilização de “conceitos” (estruturas capazes de representar objetos e idéias presentes nos textos) na modelagem do conteúdo dos documentos. Para tanto, são apresentados os conceitos e as áreas relacionadas com o tema, os trabalhos correlatos (revisão bibliográfica), a metodologia proposta e alguns experimentos que permitem desenvolver determinados argumentos e comprovar algumas hipóteses sobre a proposta. As conclusões principais desta Tese indicam que a técnica de conceitos possui diversas vantagens, dentre elas a utilização de uma quantidade muito menor, porém mais representativa, de descritores para os documentos, o que torna o tempo e a complexidade do seu processamento muito menor, permitindo que uma quantidade muito maior deles seja analisada. Outra vantagem está no fato de o poder de expressão de conceitos permitir que os usuários analisem os aglomerados resultantes muito mais facilmente e compreendam melhor seu conteúdo e forma. Além do método e da metodologia proposta, esta Tese possui diversas contribuições, entre elas vários trabalhos e artigos desenvolvidos em parceria com outros pesquisadores e colegas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho foram avaliados a morfologia e os comportamentos reológico, mecânico e viscoelástico de misturas de poliestireno (PS) com copolímeros em bloco de estireno-butadieno-estireno (SBS) com estruturas radial ou linear. Os elastômeros termoplásticos foram empregados como modificadores de impacto com o objetivo de tenacificar o poliestireno. Os polímeros puros foram caracterizados por cromatografia de permeação em gel e reometria rotacional. As misturas PS/SBS foram preparadas em extrusora de rosca simples em frações mássicas de 5, 10, 15 e 20% de SBS e analisadas por plastometria, reometria capilar, análises dinâmico-mecânicas e microscopia de transmissão. Os corpos de prova para avaliação das propriedades mecânicas das misturas, do PS e do HIPS foram moldados por injeção e os ensaios realizados foram de resistência à tração e resistência ao impacto. Todas as misturas PS/SBS apresentaram variação de viscosidade sob cisalhamento e algumas apresentaram comportamento e resistência ao impacto similares àquelas apresentadas pelas resinas de HIPS comercial. A morfologia das misturas PS/SBS diferentemente da observada no HIPS, não apresentou estrutura tipo salame com oclusões de PS em PB. Foram observadas partículas dispersas de PB em formas esférica e irregular distribuídas em uma matriz contínua. Isto é uma conseqüência da natureza química do polímero, do seu processamento, da composição e da razão de viscosidades entre os componentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste início de década, observa-se a transformação das áreas de Computação em Grade (Grid Computing) e Computação Móvel (Mobile Computing) de uma conotação de interesse emergente para outra caracterizada por uma demanda real e qualificada de produtos, serviços e pesquisas. Esta tese tem como pressuposto a identificação de que os problemas hoje abordados isoladamente nas pesquisas relativas às computações em grade, consciente do contexto e móvel, estão presentes quando da disponibilização de uma infra-estrutura de software para o cenário da Computação Pervasiva. Neste sentido, como aspecto central da sua contribuição, propõe uma solução integrada para suporte à Computação Pervasiva, implementada na forma de um middleware que visa criar e gerenciar um ambiente pervasivo, bem como promover a execução, sob este ambiente, das aplicações que expressam a semântica siga-me. Estas aplicações são, por natureza, distribuídas, móveis e adaptativas ao contexto em que seu processamento ocorre, estando disponíveis a partir de qualquer lugar, todo o tempo. O middleware proposto, denominado EXEHDA (Execution Environment for Highly Distributed Applications), é adaptativo ao contexto e baseado em serviços, sendo chamado de ISAMpe o ambiente por este disponibilizado. O EXEHDA faz parte dos esforços de pesquisa do Projeto ISAM (Infra-Estrutura de Suporte às Aplicações Móveis Distribuídas), em andamento na UFRGS. Para atender a elevada flutuação na disponibilidade dos recursos, inerente à Computação Pervasiva, o EXEHDA é estruturado em um núcleo mínimo e em serviços carregados sob demanda. Os principais serviços fornecidos estão organizados em subsistemas que gerenciam: (a) a execução distribuída; (b) a comunicação; (c) o reconhecimento do contexto; (d) a adaptação; (e) o acesso pervasivo aos recursos e serviços; (f) a descoberta e (g) o gerenciamento de recursos No EXEHDA, as condições de contexto são pró-ativamente monitoradas e o suporte à execução deve permitir que tanto a aplicação como ele próprio utilizem essas informações na gerência da adaptação de seus aspectos funcionais e não-funcionais. O mecanismo de adaptação proposto para o EXEHDA emprega uma estratégia colaborativa entre aplicação e ambiente de execução, através da qual é facultado ao programador individualizar políticas de adaptação para reger o comportamento de cada um dos componentes que constituem o software da aplicação. Aplicações tanto do domínio da Computação em Grade, quanto da Computação Pervasiva podem ser programadas e executadas sob gerenciamento do middleware proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As árvores de decisão são um meio eficiente para produzir classificadores a partir de bases de dados, sendo largamente utilizadas devido à sua eficiência em relação ao tempo de processamento e por fornecer um meio intuitivo de analisar os resultados obtidos, apresentando uma forma de representação simbólica simples e normalmente compreensível, o que facilita a análise do problema em questão. Este trabalho tem, por finalidade, apresentar um estudo sobre o processo de descoberta de conhecimento em um banco de dados relacionado à área da saúde, contemplando todas as etapas do processo, com destaque à de mineração de dados, dentro da qual são aplicados classificadores baseados em árvores de decisão. Neste estudo, o conhecimento é obtido mediante a construção de árvores de decisão a partir de dados relacionados a um problema real: o controle e a análise das Autorizações de Internações Hospitalares (AIHs) emitidas pelos hospitais da cidade de Pelotas, conveniados ao Sistema Único de Saúde (SUS). Buscou-se encontrar conhecimentos que auxiliassem a Secretaria Municipal da Saúde de Pelotas (SMSP) na análise das AIHs, realizada manualmente, detectando situações que fogem aos padrões permitidos pelo SUS. Finalmente, os conhecimentos obtidos são avaliados e validados, possibilitando verificar a aplicabilidade das árvores no domínio em questão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As proteínas vegetais vêm sendo largamente utilizadas na indústria alimentícia como substitutas da proteína animal, além de agir como um ingrediente funcional nos mais variados produtos. Dentre as proteínas mais utilizadas encontra-se a proteína texturizada de soja. Seu processamento envolve uma etapa de secagem que é uma das operações unitárias mais relevantes e desafiadoras para a indústria alimentícia. Neste trabalho, determinaram-se as curvas de secagem de três diferentes tipos de proteína texturizada de soja (PTS), através de diferentes experimentos, variando-se a temperatura do ar de secagem (T) – 90, 110 e 130°C – a velocidade do ar de secagem (v) – 100, 125 e 150 cm.s-1 – e a altura da camada de produto (h) – 3 e 6 cm para a PTS Tipo I, 2,5 e 5 cm para a PTS Tipo II e 5 e 10 cm para a PTS Tipo III. A partir dos dados experimentais obtidos de teor de umidade em função do tempo, fez-se o ajuste a um modelo exponencial de duas constantes. Todas as combinações de parâmetros apresentaram ajustes de boa qualidade, cujos coeficientes de correlação foram superiores a 0,99. Uma das constantes obtidas (C1) apresentou valores muito próximos à unidade para todos os casos (e para os três tipos de PTS), enquanto que a outra constante (C2) apresentou valores variáveis. Realizouse, então, uma análise estatística (Teste F), a fim de verificar quais dos parâmetros estudados (bem como seus efeitos de interação) eram significativos para a determinação da constante C2 do modelo exponencial. Para as PTS tipos I e II, a um nível de 95% de significância, todos os parâmetros e efeitos de interação apresentaram-se significativos para a determinação de C2 e desenvolveu-se, então, um modelo estatístico de dez constantes em função destes Obteve-se um ótimo ajuste dos dados de C2 em função dos parâmetros aos modelos testados, atingindo-se valores de erro médio relativo (EMR) sempre inferiores a 10% e coeficientes de correlação elevados. Para a PTS Tipo III apenas dois dos parâmetros testados, somados a dois efeitos de interação, mostraram-se significativos. Apesar disso, foram obtidos os melhores ajustes através, novamente, do modelo de 10 constantes. Assim, para os três tipos de PTS, foi possível a obtenção de um modelo que prevê o tempo de processo de cada tipo de PTS, para que se atinja uma determinada umidade final, ou vice-versa, em função da umidade inicial da amostra, de sua umidade de equilíbrio e dos parâmetros de processo (T, v e h). Paralelamente, determinaram-se as isotermas de sorção de dois tipos de PTS (um contendo cerca de 20% de açúcares e outro não contendo açúcares) para quatro temperaturas (10, 20, 30 e 40°C). Para o ajuste dos dados experimentais foram utilizados os modelos de Oswin, Halsey, BET, GAB, Peleg e Darcy-Watt. Os modelos de Peleg e GAB foram os que melhor se ajustaram aos dados experimentais, embora outros modelos como Halsey e Oswin também se mostraram representativos para temperaturas mais elevadas. As isotermas de sorção da PTS que continha açúcar apresentaram uma inversão de comportamento em uma atividade de água em torno de 0,9, enquanto que as curvas obtidas para a outra PTS não se cruzaram em nenhum momento. O calor de sorção foi estimado, pela equação de Clausius-Clapeyron, para ambos os tipos de PTS e este aumentou com a diminuição de umidade. Estimaram-se valores de umidade de monocamada, através do ajuste dos dados ao modelo de GAB, entre 4,6 e 7,4% para a PTS Tipo I e entre 4,4 e 5,4% para a PTS Tipo IV; os valores de umidade de monocamada diminuíram com o aumento de temperatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho de conclusão tem como tema a relação entre as especificações de resinas alquídicas e de tintas preparadas com estas resinas, com foco nas características de teor de sólidos e viscosidade, fazendo uso das técnicas projeto de experimentos, superfície de resposta e análise de regressão. O objetivo principal é o estudo dos limites de especificação ideais para a resina alquídica, de forma que os lotes de tinta apresentem propriedades dentro da especificação já ao final do processamento, reduzindo a incidência de lotes fabris com necessidade de ajuste. Como conseqüência, temos redução de retrabalho e lead time fabril, adequação de custo de produtos, maior qualidade intrínseca e maior confiança na sistemática de desenvolvimento, produção e controle de qualidade. Inicialmente, foi realizada uma revisão bibliográfica sobre a tecnologia de tintas e resinas alquídicas, conceitos de controle de qualidade, planejamento de experimentos, análise por superfície de resposta e análise de regressão. Na seqüência, foi conduzido o estudo de caso, realizado na empresa Killing S.A. Tintas e Adesivos, planta localizada na cidade de Novo Hamburgo. Os resultados experimentais indicaram modelos de regressão polinomial válidos para as propriedades avaliadas. Foram tomadas as propriedades teor de sólidos e viscosidade Copo Ford #2 da mistura A+B como parâmetros para análise dos limites de especificação da resina alquídica, onde se comprovou que a variabilidade atualmente permitida é excessiva. A aplicação dos modelos de regressão indicou novos limites de especificação para a resina alquídica, mais estreitos, viabilizando a obtenção de tintas com propriedades especificadas.