921 resultados para Jabuticaba - Processamento
Resumo:
Os objetivos gerais desta tese foram a otimização do processo de congelamento do camarão, e a avaliação do efeito da adição do fosfato que pode afetar o rendimento e a qualidade do produto, conforme percebido pelo consumidor final. Inicialmente, foi feito um levantamento da capacidade tecnológica das empresas de pescado do Brasil. A seguir, foi feita uma revisão da literatura, buscando entender as variáveis que afetam o processo de congelamento do pescado, particularmente as questões associadas ao uso do fosfato no processamento do camarão. Após a revisão da literatura, foi elaborado um planejamento experimental, onde foi possível obter dados referentes ao rendimento (evolução do peso do produto) em cada etapa estudada: imersão em soluções de fosfato, congelamento, descongelamento e cocção. Os melhores rendimentos foram obtidos pelo congelamento com N2 líquido e com o uso de fosfato. A partir desses resultados preliminares, encontrou-se o ajuste ótimo dos fatores analisados e, a partir dele, foram executados novos ensaios para a validação das previsões de rendimento e complementação do estudo através de análises químicas e sensoriais. O uso de fosfato mostrou-se eficaz na retenção de água no descongelamento e após a cocção. Observou-se menor perda de peso no descongelamento do camarão tratado com blend de fosfato (-1,87 %) quando comparado com o Tripolifosfato de sódio – TPF (-2,86%) e controle (imersão em água, -15,5%) O mesmo foi verificado após a cocção: Blend (-7,61%), TPF (-9,05%) e controle (-25,3%). Esses rendimentos foram comprovados com a diminuição da perda de exsudado (drip loss) no descongelamento e após a cocção, o aumento do teor de umidade após a imersão em fosfato e a sua retenção após o descongelamento e cocção. Os níveis residuais de fosfato (TPF e blend) estavam abaixo do limite 0,5% estabelecido pela legislação internacional. Os resultados da análise sensorial demonstraram que o camarão tratado com fosfato reteve os atributos sensoriais, contribuindo, assim, para a maior preferência e aceitação pelos julgadores.
Resumo:
Cada vez mais as empresas vêm enfrentando níveis de concorrência mais altos, menores margens nas vendas e perda de diferenciação de seus produtos e serviços. Por outro lado, o desenvolvimento tecnológico e particularmente a Internet vêm permitindo às empresas ter um contato próximo com seus clientes. Este mesmo desenvolvimento também permite que todos os dados, operações e transações empresas sejam armazenadas, fazendo com que maioria delas possuam grandes bancos de dados. Este trabalho tem por objetivo: • Entender quais as tendências do Marketing e como o surgimento de novos canais como a Internet podem alavancar a posição competitiva das empresas; • Constatar a grande quantidade de dados que as empresas possuem, e qual o potencial de informações contida nos mesmos; • Mostrar como Datamining pode auxiliar na descoberta de informações contidas em meio ao emaranhado de dados, • Desenvolvimento de metodologia em um estudo de caso prático, onde se buscará determinar que clientes têm maiores probabilidades de compra, e quais seus padrões de consumoatravés de um estudo de caso, e como a empresa pode usufruir destas informações; • Mostrar como as empresas podem usufruir das informações descobertas e quais são os valores econômico e estratégico.
Resumo:
Trata da utilização da internet como uma ferramenta estratégica para alavancar as atividades de Procurement. Aborda as principais transformações e tendências no segmento B2B, devido ao aparecimento da internet.
Resumo:
Trata do problema de compreender como a informação influencia os negócios e como a gerência estratégica da organização utiliza a informação de forma competitiva. Desenvolve e testa um modelo conceitual de medição do uso da informação pela alta gerência das organizações. Identifica a definição atual do termo informação. Identifica os possíveis usos da informação. Desenvolve os construtos para medição proposta
Resumo:
Os crescentes problemas relacionados à durabilidade das estruturas de concreto armado, além dos elevados custos de manutenção e recuperação, têm incentivado os tecnologistas de concreto a buscarem alternativas para melhorar a qualidade do concreto e, conseqüentemente, aumentar a vida útil das estruturas. Nesse sentido, adições minerais como a sílica ativa, que é um subproduto das indústrias de processamento de ligas de sílicio, vêm sendo utilizadas, apresentando como resultado inúmeros benefícios às propriedades do concreto. Contudo, existem algumas questões ainda não esclarecidas em relação ao efeito da sílica ativa na corrosão das armaduras. Por outro lado, a sílica ativa, em função do reduzido tamanho e da elevada reatividade pozolânica, promove a densificação da matriz cimentante, proporcionando uma diminuição significativa da porosidade e permeabilidade da pasta de cimento, o que pode impedir ou retardar o ingresso dos agentes agressivos desencadeadores do processo corrosivo. Por outro lado, por reagir com ohidróxido de cálcio produzido na hidratação do cimento e diminuir a alcalinidade do concreto pode acelerar a despassivação da armadura Dessa forma, o presente trabalho tem por objetivo avaliar o efeito da sílica ativa na corrosão da armadura desencadeada tanto por íons cloreto como por carbonatação, através da técnica de resistência de polarização, em concretos com relações água/aglomerante na faixa de 0,40 a 0,70 e teores de sílica ativa variando de 0% a 20%. Paralelamente, foi avaliada a influência da sílica ativa na absortividade, resistência à compressão, profundidade de carbonatação e no teor de cloretos. Os resultados indicaram que, no caso da corrosão desencadeada por carbonatação, o efeito da sílica ativa depende do teor utilizado. Até 10% de adição, a sílica ativa não altera a resistência à corrosão, podendo, ainda, apresentar um efeito favorável quando utilizada em teor inferior a esse limite, enquanto que para teores maiores que 10% aumenta o risco de corrosão da armadura por carbonatação do concreto. No entanto, com exceção da profundidade de carbonatação, independente do teor utlizado, a sílica ativa apresenta favorável influência na resistência à corrosão desencadeada por íons cloreto e nos demais parâmetros analisados.
Resumo:
Neste trabalho foi feito um estudo das propriedades reológicas, mecânicas e térmicas de blendas poliméricas contendo 1 e 10% em massa de polietileno de ultra alto peso molar (PEUAPM) e polietileno linear de média densidade (PELMD). As blendas foram obtidas por mistura em extrusora de rosca simples e em extrusora de rosca dupla, para fins de comparação. Na extrusão em rosca dupla foi acrescentado um terceiro componente - óleo mineral, cera ou polietileno de muito baixo peso Molar (PEMBPM) - a fim de promover uma melhor interação entre o PELMD e PEUAPM. As amostras obtidas por moldagem por injeção, rotomoldagem e moldagem por compressão foram submetidas a testes reológicos, térmicos e mecânicos. Foi analisada a influência do tipo de processamento e da composição das blendas sobre morfologia e as propriedades finais destas. A reometria rotacional indicou um gradual aumento da viscosidade das blendas com o aumento da quantidade de PEUAPM adicionado. Análises de microscopia eletrônica de varredura (MEV), microscopia ótica e calorimetria diferencial de varredura (DSC) indicaram uma separação de fases nas blendas, mesmo quando o terceiro componente foi adicionado. Entretanto, as blendas que contém agente de acoplamento apresentaram diferenças na morfologia final, como observado através das análises de microscopia ótica durante a cristalização do sistema polimérico e nas análises de MEV nas amostras moldadas por injeção Para todas as blendas moldadas por injeção, a resistência ao impacto foi menor do que a encontrada para o PELMD puro. Por outro lado, nas amostras rotomoldadas não houve diferença significativa nas propriedades das blendas quando comparadas ao PELMD puro. As amostras extrusadas em rosca dupla, contendo óleo mineral ou cera e, posteriormente, moldadas por compressão apresentaram resistência ao impacto similares aos valores encontrados para o PELMD puro, sem significativas mudanças na processabilidade. Considerando as demais análises de propriedades mecânicas, não foi observada influência do terceiro componente.
Resumo:
Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.
Resumo:
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.
Resumo:
Este trabalho discute a percepção e o uso da tecnologia de informação como auxiliar no processo de decisão pelo médico especializado em Cardiologia, discutindo não só os aspectos da tecnologia em si, como também a postura dos médicos diante das inovações.
Resumo:
O presente trabalho analisa diferentes modelos de representação temporal usados em arquiteturas conexionistas e propõe o uso de um novo modelo neural, chamado Neurônio Diferenciador-Integrador (NDI) para aplicação com processamento de sinais temporais. O NDI pode ser interpretado como filtro digital. Seu funcionamento exige poucos recursos computacionais e pode ser de grande valia em problemas onde a solução ideal depende de uma representação temporal instantânea, facilidade de implementação, modularidade e eliminação de ruído. Após a definição do modelo, o mesmo é sujeito a alguns experimentos teóricos utilizado em conjunto com arquiteturas conexionistas clássicas para resolver problemas que envolvem o tempo, como previsão de séries temporais, controle dinâmico e segmentação de seqüências espaço-temporais. Como conclusão, o modelo neural apresenta grande potencialidade principalmente na robótica, onde é necessário tratar os sinais sensoriais ruidosos do robô de forma rápida e econômica.
Resumo:
A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.
Resumo:
Esta tese oferece uma releitura crítica da influente obra de Herbert A. Simon e alguns de seus seguidores sobre a decisão de modo geral, tendo em vista um problema específico: a decisão de investimento da firma. A partir de um exercício de aplicação teórica, bem como de um conjunto de oito estudos de caso, propõe-se um modelo sintético ou roteiro para a compreensão da decisão de investimento da firma segundo uma perspectiva processual que se baseia na idéia central de construção de uma representação da realidade. Esta estaria sujeita a limitações de caráter cognitivo à coleta e ao processamento de informações (racionalidade limitada), bem como ao condicionamento das possibilidades de ação efetivamente disponíveis ao empreendedor, mediante uma rede de sinergias e escolhas menores cujas conseqüências não foi possível prever ao longo de um amplo leque de dimensões, a decisões passadas (liberdade limitada, conceito original introduzido por esta tese). Com base nessa estrutura, divide-se o processo decisório em três etapas (busca, análise e escolha), discutindo-se em detalhe cada um deles e ressaltando elementos importantes que conferem estrutura e coerência ao processo, dado o pressuposto de que a otimização irrestrita neoclássica não é alcançável, na prática, no caso da decisão de investimento da firma.
Resumo:
O entendimento da manufatura celular passa pelo estudo das rotas de fabricação e pelos métodos de agrupamento de máquinas e de peças. Neste contexto, o objetivo principal deste trabalho é a implemetação de uma ferramenta de auxílio ao projeto de células de manufatura, abordando uma metodologia fundamentada na Tecnologia de Grupo para agrupamento de máquinas em células de manufatura com as respectivas famílias de peças. A base de dados com as informações das peças, das máquinas e das rotas que compõe o fluxo de produção é implementada em um banco de dados relacional. A matriz incidência peça-máquina é montada a partir das rotas armazenadas no banco de dados através de um aplicativo desenvolvido em Visual Basic. Os agrupamentos em famílias de peças e células de manufatura são gerados por três diferentes algoritmos: o Rank Order Clustering (ROC), o Close Neighbor Algorithm (CNA) e um algoritmo heurístico (HEU). São aplicadas restrições referentes a limite de carregamento, tamanho de célula e resolução de situações de “gargalo”. Processados os algoritmos de agrupamento, são analisados os resultados em função da densidade e da eficiência do agrupamento. O sistema apresenta o resultado final em planilhas no formato MS Excel. A primeira planilha, chamada resultados, exibe os valores das restrições de projeto das células (número de máquinas por célula, tempo limite de carregamento e tempo limite para duplicação da máquina), o número de peças (colunas) e de máquinas (linhas) da matriz incidência, os valores de eficiência do agrupamento de peças, do agrupamento de máquinas e do aproveitamento dos recursos, bem como o número de células independentes e a quantidade de máquinas duplicadas, obtidos por cada algoritmo no sistema, destacando os melhores resultados. A segunda planilha mostra a matriz incidência peça-máquina. As demais planilhas apresentam, respectivamente, a matriz diagonalizada com o algoritmo original (ROC e CNA), a matriz diagonalizada levando-se em consideração as restrições de projeto das células (análise ROC, análise CNA e HEU) e por fim, uma planilha relatório. A planilha relatório tabula os mesmos valores citados na primeira planilha e lista as peças associadas a cada família, as máquinas associadas a cada célula, as peças rejeitadas, por não se enquadrarem nos agrupamentos, e que devem ser tratadas fora do ambiente celular e as máquinas duplicadas. A comparação dos resultados é efetuada considerando as características adicionadas aos algoritmos originais. Dos três estudados, as restrições de projeto são tratadas na implementação do HEU. Os demais, ROC e CNA, têm incorporado um pós processamento. Em análises comparativas observa-se a superioridade dos algoritmos ROC e HEU em relação ao CNA e os resultados do ROC são melhores ou iguais aos demais, dificilmente inferiores.
Resumo:
Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.
Resumo:
O procedimento licitatório é o meio utilizado pela Administração Pública para selecionar a proposta mais vantajosa para o contrato de seu interesse. É praxe neste procedimento o uso do método do fluxo de caixa descontado para pautar a escolha, bem como para determinar a viabilidade econômico-financeira da melhor proposta. A existência de flexibilidades gerenciais implícitas em algumas licitações em conjunto com as incertezas que nem sempre são devidamente consideradas nos métodos mais tradicionais de avaliação, como os normalmente utilizados pela Administração Pública, podem subavaliar o projeto do ponto de vista do interessado. Este trabalho tem por objetivo principal aliar as particularidades financeiras da teoria de opções reais às particularidades das licitações do tipo técnica e preço, onde não somente o preço, como também os critérios técnicos devem ser considerados em conjunto, na determinação da melhor proposta comercial. Para conduzir a análise optou-se pelo estudo de caso da licitação que está sendo realizada para a concessão da prestação dos serviços de processamento, tratamento e destinação final dos resíduos sólidos domiciliares, provenientes de 15 (quinze) Municípios da Grande Curitiba. Com tal exercício pretende-se evidenciar a viabilidade do uso das opções reais na aplicação eleita, bem como avaliar os resultados obtidos em contraposição a situação originária.