999 resultados para Regras de Mistura


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A consistência é um aspecto funcional importante das gorduras plásticas, que são misturas de cristais de gordura sólida e óleo líquido. A relação entre as duas fases e o caracter cristalino da fase sólida determinam a consistência e a firmeza das amostras. O objetivo do trabalho foi determinar a consistência de duas gorduras vegetais hidrogenadas e suas misturas binárias e ternárias, com a presença ou não de óleo de soja, a partir dos resultados do analisador de textura (TA XT2), variando as profundidades de penetração e o ângulo dos cones. Aplicou-se um modelo de regressão múltipla, do tipo cúbico especial para as misturas de óleo e gorduras, utilizando o aplicativo MIXPLOT para a construção de diagrama triangular. A força de compressão variou de 0,0080 a 5,459 kg, dependendo da amostra e da profundidade de penetração do cone. Para os cones de ângulos 30, 40 e 45º, as consistências foram todas estatisticamente semelhantes, a p< 0,05. Para algumas amostras, os resultados empregando o cone de 20º foram estatisticamente diferentes. Tais diferenças de resultados podem ser justificadas pelo fato da geometria do cone de 20º ser diferente, em função do truncamento de sua ponta. A análise do diagrama triangular mostra que o componente óleo de soja não contribuiu estatisticamente para a consistência. Os coeficientes relativos às interações foram sempre negativos, demonstrando efeito antagônico para a consistência, característico das interações eutéticas entre gorduras. Este efeito eutético ocorre devido à incompatibilidade no estado sólido entre os componentes da mistura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Misturas de amido de milho e água nas proporções 70:30, 80:20 e 90:10% (p/p) foram submetidas a processamento a 90°C, sob diferentes velocidades de rotação (20, 40, 80 e 100rpm), em câmara de mistura Rheomix 600 equipada com rotores do tipo "roller". A influência do teor de água e da velocidade de rotação dos rotores no processamento do amido de milho foi investigada por meio de curvas de torque e de temperatura fornecidas pelo reômetro de torque Rheocord 9000. Análises em Analisador Rápido de Viscosidade e por microscopia óptica de luz polarizada foram realizadas, a fim de complementar as informações registradas pelas curvas de torque e de temperatura. Os resultados mostraram que o teor de água e a rotação empregada no processamento exercem influência significativa nas características do amido processado. Os menores teores de água (10 e 20% p/p) e as velocidades de rotação mais elevadas (80 e 100rpm) contribuíram para a maior degradação do amido. Nas misturas com teor de água de 30% (p/p), sob as velocidades de rotação empregadas, a função plastificante da água contribuiu para minimizar o efeito do cisalhamento, já que a degradação do amido não foi observada. Nesses casos, a estrutura granular do amido foi preservada em grande parte durante o processamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Brasil é grande produtor e consumidor de sucos de frutas, além de ser o maior produtor mundial de cana-de-açúcar. O caldo de cana, também conhecido popularmente como garapa, é uma bebida de grande aceitação pelo consumidor brasileiro, e nos vendedores ambulantes, normalmente é comercializada em misturas com sucos de frutas ácidas. O trabalho teve como objetivo avaliar físico-química e sensorialmente as misturas de garapa parcialmente clarificada-estabilizada com sucos de limão, abacaxi e maracujá, e posteriormente eleger a bebida preferida do ponto de vista sensorial. Foram realizados Testes Sensoriais de Aceitação e de Intenção de Compra. As outras determinações foram pH, ºBrix, acidez, relação ºBrix/Acidez, teor de ácido ascórbico, cor e turbidez. Os resultados das análises sensoriais indicaram que a mistura preferida foi aquela elaborada com garapa clarificada e 5% de suco de maracujá, seguida da mistura que continha 10% de suco de abacaxi. No entanto, pelo Teste de Intenção de Compra a maioria dos consumidores afirmaram que "possivelmente compraria" todas as misturas avaliadas. Todos os produtos apresentaram boa retenção nos níveis de vitamina C após o tratamento térmico. Microbiologicamente todas as bebidas apresentaram-se adequadas para consumo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi otimizar as condições de processamento por extrusão termoplástica de misturas de torta de castanha do Brasil com farinha de mandioca, em função da aceitabilidade. Foi feito o delineamento fatorial completo 2³ para a produção dos extrudados e a avaliação dos ensaios extrusados em função das respostas de aceitação. No estudo de aceitação global aplicou-se o teste afetivo de escala hedônica com 9 pontos e no de intenção de compra o de 5 pontos. O resultado da metodologia de superfície de resposta indica que aumentos de castanha do Brasil, temperatura e umidade elevam as notas de aceitação global e intenção de compra do produto, com uma região de otimização do processamento nas seguintes condições: temperatura entre 120 a 160 °C, castanha entre 48 a 80% e umidade entre 20 a 25%. Na torta de castanha, a temperatura e a umidade da mistura muito alta ou muito baixa diminuem as notas de aceitação global e a intenção de compra. As maiores notas de aceitação global e a intenção de compra neste experimento estão nos pontos centrais e indicam a validade do modelo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artigo analisa as estratégias de higienização da escola elaboradas pelos médicos-higienistas, nas décadas iniciais do século XX, momento em que as exigências de universalização do ensino primário põem em cena a necessidade de configuração de uma organização pedagógica racional. Para tanto, toma-se como fonte um manual escolar, buscando-se compreender os propósitos que perpassam as prescrições higiênicas, as representações em relação à escola e a seus agentes e, ainda, a articulação entre as pautas de higienização e os objetivos de modernização pedagógica em voga no período.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO:Artigo que visa colocar as bases de uma verdadeira relação entre a Psicanálise e a Cultura. ABSTRACT: This paper aims to fit the bases of a real relation between Psychoanalysis and Culture.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Acta Assembleia da Republica - Reunião Plenária I Série - Nº 21 - 10 de Dezembro de 2004 IX Legislatura - 3.ª Sessão Legislativa (2004-2005) Reunião Plenária de 09 de Dezembro de 2004 Defesa dos direitos dos cidadãos habilitados com licenciatura em Urbanismo e Planeamento Regional e Urbano; fixação de regras relativas ao acesso e ao exercício da profissão de urbanista

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Orientação : Manuel dos Santos Fonseca ; Co-orientação : António Manuel Gardete Mendes Cabaço

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sabe-se que a fala é a principal maneira de comunicação entre as pessoas. A Síntese de fala (geração automática da fala pelo computador) tem recebido atenção da comunidade acadêmica e profissional por várias décadas. Ela envolve a conversão de um texto de entrada em fala, usando algoritmos e algumas formas de fala codificada. O texto pode ser digitado pelo teclado ou obtido por reconhecimento de caracteres ou, ainda, obtido de um banco de dados. A síntese de fala pode ser usada em vários domínios de aplicação, tais como: auxílio para deficientes visuais, telecomunicações, multimídia, etc. Este trabalho apresenta um estudo sobre a produção da fala e da área de síntese de fala visando servir de subsídio para dissertações e pesquisas futuras, bem como para o Projeto Spoltech, um projeto de cooperação entre os Estados Unidos e o Brasil para o avanço da tecnologia da língua falada no Brasil (Português Brasileiro). Dentro deste estudo serão apresentadas as principais técnicas de síntese de fala, entre as quais destaca-se: Texto para Fala (TPF). Problemas de separação de sílabas, determinação da sílaba tônica, pronunciação das vogais “e” e “o” como um fonema aberto ou fechado, etc, são enfrentados dentro do contexto da área de síntese de fala para o português falado no Brasil. Tendo conhecimento destes problemas, o principal objetivo deste trabalho será criar regras para resolver o problema de pronunciação das vogais “e” e “o” de forma automática, visando obter produção sonora mais inteligível, por intermédio da implementação de um analisador estatístico, o qual verificará a letra anterior e posterior ao “e” ou “o” de uma palavra e, com isso, determinar a pronúncia dos mesmos para aquela seqüência de letras. As mesmas poderão tornar-se regras válidas para a solução do problema se atingirem 80% dos casos de ocorrência no dicionário com fonema “e” ou “o” aberto (limiar), sendo que elas serão lidas por um interpretador Scheme utilizado pelo programa Festival - ferramenta para a construção de sistemas de síntese de fala desenvolvida pelo Centre for Speech Technology Research (University of Edinburgh, Reino Unido), a qual utiliza TPF como método de síntese. Sabendo-se que o Festival gera os fonemas “e” e “o” como fechados se não há uma regra para inferir o contrário, serão consideradas apenas as regras encontradas para os fonemas abertos. Para possibilitar esta análise será utilizado um dicionário eletrônico de pronunciação (com 19.156 palavras), o qual possui a palavra e a sua respectiva pronúncia, conforme pode-se verificar no exemplo do Anexo 1.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta dissertação, assumimos os pressupostos formais do modelo não-linear da Fonologia Lexical (FL). Adotamos, como hipótese de trabalho - nos termos de Labov (1981), Labov (1994) e Kiparsky (1988)- a resolução da controvérsia neogramática a partir deste modelo. Para tanto, apresentamos a análise de dois fenômenos do Português Brasileiro (PB), com base em dados empíricos extraídos da cidade de Porto Alegre, os quais confrontamos com as predições que emanam do modelo teórico. Num primeiro momento, discutimos o status lexical e pós-lexical das regras de vocalização de /l/ e monotongação de /ow/. Num segundo momento, apresentamos a caracterização desses dois tipos de mudança. Essas discussões fundamentam-se em resultados estatísticos, obtidos a partir da utilização do pacote VARBRUL. Partindo dessas discussões, propomos o ordenamento dessas regras nos componentes do modelo da Fonologia Lexical (FL), rastreando esses processos nos módulos do léxico e do pós-léxico. A escolha destes dois fenômenos não é aleatória: da análise destas regras nos termos da FL emergem questões não devidamente tratadas no PB, como a opacidade e a presença de regras variáveis no léxico. Também destacamos a controvérsia sobre a representação dos segmentos envolvidos nestes processos: dedicamos um capítulo para a discussão sobre a representação da lateral e do processo de vocalização; e outro para a discussão sobre a representação subjacente do ditongo /ow/. Conforme a análise dos resultados, concluímos que a regra de monotongação de /ow/ comporta-se como regra lexical e implementa um tipo de mudança que se difunde lexicalmente. Já a regra de vocalização de /l/ caracteriza-se como regra pós-lexical e encaixa-se no molde de mudança neogramática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho é dedicado ao estudo e à aplicação da mineração de regras de associação a fim de descobrir padrões de navegação no ambiente Web. As regras de associação são padrões descritivos que representam a probabilidade de um conjunto de itens aparecer em uma transação visto que outro conjunto está presente. Dentre as possibilidades de aplicação da mineração de dados na Web, a mineração do seu uso consiste na extração de regras e padrões que descrevam o perfil dos visitantes aos sites e o seu comportamento navegacional. Neste contexto, alguns trabalhos já foram propostos, contudo diversos pontos foram deixados em aberto por seus autores. O objetivo principal deste trabalho é a apresentação de um modelo para a extração de regras de associação aplicado ao uso da Web. Este modelo, denominado Access Miner, caracteriza-se por enfocar as etapas do processo de descoberta do conhecimento desde a obtenção dos dados até a apresentação das regras obtidas ao analista. Características específicas do domínio foram consideradas, como a estrutura do site, para o pósprocessamento das regras mineradas a fim de selecionar as potencialmente mais interessantes e reduzir a quantidade de regras a serem apreciadas. O projeto possibilitou a implementação de uma ferramenta para a automação das diversas etapas do processo, sendo consideradas, na sua construção, as características de interatividade e iteratividade, necessárias para a descoberta e consolidação do conhecimento. Finalmente, alguns resultados foram obtidos a partir da aplicação desta ferramenta em dois casos, de forma que o modelo proposto pôde ser validado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo dedste trabalho é investigar o projeto de banco de dados aplicado a Sistemas de Informações Geográficas (SIG), mais especificamente, do mapeamento de esquemas conceituais, orientado a objetos, para esquemas lógicos implementados por softwares de SIG comerciais. A transformação dos esquemas conceituais para os lógicos é realizado através da idedntificação de um conjunto de regras genéricas de mapeamento de qualquer esquema concecitual de banco de dados geográficos, baseados em um framework conceitual, para os esquemas lógicos proprietários dos diversos SIG existentes. A concretização desta tarefa de transformação é possível mediante a proposta de um ambiente de suporte. Esse ambiente fornece uma estrutura específica, constituída por uma linguagem formal, definida pelo padrão SAIF (Saptial Archive and Interchange Format), pela ferramenta FME (feature Manipulation Engine) e pela ferramenta CASE Rational Rose v.2000e. O conjunto de regras genéricas elaborado neste trabalho, é composto por dois subconjuntos. O primeiro define regras de correspondência, determinando uma relação entre os conceitos da realidade percebidos pelo Framework conceitual e a linguagem formal apresentada pelo padrão SAIF. O segundo subconjunto define regras de transformação, onde busca-se mapear os conceitos do paradigma da orientação a objetos par aos conceitos relacionais utilizazdos pela maioria dos softwares de SIG, disponíveis no mercado. Com a finalidade de validar a aplicabilidadee deste conjunto de regras de mapeamento e do ambiente de suporte proposto, este trabalho inclui também a implementação de um protótipo, o qual executa a automatização da trasnformação dos esquemas conceituais para os esquemas lógicos de banco de dados geográfico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A classificação é uma das tarefas da Mineração de Dados. Esta consiste na aplicação de algoritmos específicos para produzir uma enumeração particular de padrões. Já a classificação é o processo de gerar uma descrição, ou um modelo, para cada classe a partir de um conjunto de exemplos dados. Os métodos adequados e mais utilizados para induzir estes modelos, ou classificadores, são as árvores de decisão e as regras de classificação. As regras e árvores de decisão são populares, principalmente, por sua simplicidade, flexibilidade e interpretabilidade. Entretanto, como a maioria dos algoritmos de indução particionam recursivamente os dados, o processamento pode tornar-se demorado, e a árvore construída pode ser muito grande e complexa, propensa ao overfitting dos dados, que ocorre quando o modelo aprende detalhadamente ao invés de generalizar. Os conjuntos de dados reais para aplicação em Mineração de Dados são, atualmente, muito grandes, e envolvem vários milhares de registros, sendo necessária, também, uma forma de generalizar estes dados. Este trabalho apresenta um novo modelo de indução de classificadores, em que o principal diferencial do algoritmo proposto é a única passada pelo conjunto de treinamento durante o processo de indução, bem como a sua inspiração proveniente de um Sistema Multiagente. Foi desenvolvido um protótipo, o Midas, que foi validado e avaliado com dados de repositórios. O protótipo também foi aplicado em bases de dados reais, com o objetivo de generalizar as mesmas. Inicialmente, foi estudado e revisado o tema de Descoberta de Conhecimento em Bases de Dados, com ênfase nas técnicas e métodos de Mineração de Dados. Neste trabalho, também são apresentadas, com detalhes, as árvores e regras de decisão, com suas técnicas e algoritmos mais conhecidos. Finalizando, o algoritmo proposto e o protótipo desenvolvido são apresentados, bem como os resultados provenientes da validação e aplicação do mesmo.