949 resultados para Processing Time


Relevância:

60.00% 60.00%

Publicador:

Resumo:

O presente trabalho propõe demonstrar como o sistema PHC Manufactor se adequa à empresa em estudo, Ciclo Fapril, apresentando as opções de planeamento que este oferece, as dificuldades com que a empresa se irá deparar e, quando possível, o que fazer para ultrapassar as adversidades colocadas pelo sistema. Numa segunda parte são estudadas algumas heurísticas, nomeadamente FIFO, Tempo de Processamento, EDD, MOR e LOR, para se perceber qual a que melhor se adapta à empresa, de forma a poder cumprir com os prazos acordados. Posteriormente utilizou-se a heurística com melhores resultados e fez-se algumas alterações aos tempos de processamento dos centros de trabalho para melhorar a sua capacidade de resposta aos pedidos. No Final deste estudo percebeuse que o planeamento por EDD era o que melhor se adaptava a empresa. Percebeu-se ainda que os centros de trabalho AS e AT são os que têm menor produtividade e por este motivo se deveria aumentar a sua produtividade, de forma a aumentar a produtividade global.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

FERNANDES, Fabiano A. N. et al. Optimization of Osmotic Dehydration of Papaya of followed by air-drying. Food Research Internation, v. 39, p. 492-498, 2006.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In order to optimize frontal detection in sea surface temperature fields at 4 km resolution, a combined statistical and expert-based approach is applied to test different spatial smoothing of the data prior to the detection process. Fronts are usually detected at 1 km resolution using the histogram-based, single image edge detection (SIED) algorithm developed by Cayula and Cornillon in 1992, with a standard preliminary smoothing using a median filter and a 3 × 3 pixel kernel. Here, detections are performed in three study regions (off Morocco, the Mozambique Channel, and north-western Australia) and across the Indian Ocean basin using the combination of multiple windows (CMW) method developed by Nieto, Demarcq and McClatchie in 2012 which improves on the original Cayula and Cornillon algorithm. Detections at 4 km and 1 km of resolution are compared. Fronts are divided in two intensity classes (“weak” and “strong”) according to their thermal gradient. A preliminary smoothing is applied prior to the detection using different convolutions: three type of filters (median, average and Gaussian) combined with four kernel sizes (3 × 3, 5 × 5, 7 × 7, and 9 × 9 pixels) and three detection window sizes (16 × 16, 24 × 24 and 32 × 32 pixels) to test the effect of these smoothing combinations on reducing the background noise of the data and therefore on improving the frontal detection. The performance of the combinations on 4 km data are evaluated using two criteria: detection efficiency and front length. We find that the optimal combination of preliminary smoothing parameters in enhancing detection efficiency and preserving front length includes a median filter, a 16 × 16 pixel window size, and a 5 × 5 pixel kernel for strong fronts and a 7 × 7 pixel kernel for weak fronts. Results show an improvement in detection performance (from largest to smallest window size) of 71% for strong fronts and 120% for weak fronts. Despite the small window used (16 × 16 pixels), the length of the fronts has been preserved relative to that found with 1 km data. This optimal preliminary smoothing and the CMW detection algorithm on 4 km sea surface temperature data are then used to describe the spatial distribution of the monthly frequencies of occurrence for both strong and weak fronts across the Indian Ocean basin. In general strong fronts are observed in coastal areas whereas weak fronts, with some seasonal exceptions, are mainly located in the open ocean. This study shows that adequate noise reduction done by a preliminary smoothing of the data considerably improves the frontal detection efficiency as well as the global quality of the results. Consequently, the use of 4 km data enables frontal detections similar to 1 km data (using a standard median 3 × 3 convolution) in terms of detectability, length and location. This method, using 4 km data is easily applicable to large regions or at the global scale with far less constraints of data manipulation and processing time relative to 1 km data.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Single-cell oils (SCO) have been considered a promising source of 3rd generation biofuels mainly in the final form of biodiesel. However, its high production costs have been a barrier towards the commercialization of this commodity. The fast growing yeast Rhodosporidium toruloides NCYC 921 has been widely reported as a potential SCO producing yeast. In addition to its well-known high lipid content (that can be converted into biodiesel), is rich in high value added products such as carotenoids with commercial interest. The process design and integration may contribute to reduce the overall cost of biofuels and carotenoid production and is a mandatory step towards their commercialization. The present work addresses the biomass disruption, extraction, fractionation and recovery of products with special emphasis on high added valued carotenoids (beta-carotene, torulene, torularhodin) and fatty acids directed to biodiesel. The chemical structure of torularhodin with a terminal carboxylic group imposes an additional extra challenge in what concern its separation from fatty acids. The proposed feedstock is fresh biomass pellet obtained directly by centrifugation from a 5L fed-batch fermentation culture broth. The use of a wet instead of lyophilised biomass feedstock is a way to decrease processing energy costs and reduce downstream processing time. These results will contribute for a detailed process design. Gathered data will be of crucial importance for a further study on Life-Cycle Assessment (LCA).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A anchoita foi capturada e acondicionada a bordo sob-resfriamento a 0°C com gelo em escamas. Após o recebimento, o pescado foi processado na forma salgado-maturado. Após a maturação foram processadas e embaladas em sacos de polietileno e armazenadas sob-refrigeração a 5°C durante 84 dias. As amostras foram divididas grupos: (1) sob pressão atmosfera normal, (2) vácuo, (3) atmosfera modificada com 50% CO2 + 20% O2 + 30% N2 e (4) 60% CO2 + 10% O2 + 30% N2, em embalagens de polietileno e aluminizadas, termo-seladas e armazenadas sob-refrigeração a 5°C. Os valores de textura tiveram uma redução de 2277,8 N (Kg.m/s2 ) para 821,90 N (Kg.m/s2 ) para o tratamento controle. A qualidade inicial do pescado atendeu aos padrões legais vigentes, apresentando ausência Salmonella sp e enumerações aceitáveis aos padrões de Staphylococcus coagulase positiva, Clostridium sulfito redutores, coliforme totais e a 45ºC. Com relação ao pH, houve diferenças significativas durante o tempo de processamento (p<0,05), o valor passou de 6,3 (início) para 6,4 (final). Com relação aos resultados correspondentes aos parâmetros L*, a* e b* (cor), em todos os tratamentos e ao longo do tempo de processamento (ambas as embalagens), ocorreram diferenças significativas (p<0,05). Os valores de L* variaram de 34,80 para 18,00 (controle) 23,00 (vácuo), 20,21 (T3) e 22,00 (T4) embalagens de polietileno. Nas embalagens de alumínio os valores de L* variaram de 34,00 para 25,00 (controle), 29,00(vácuo), 22,10 (T3) e 26,00 (T4).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The dendritic cell algorithm is an immune-inspired technique for processing time-dependant data. Here we propose it as a possible solution for a robotic classification problem. The dendritic cell algorithm is implemented on a real robot and an investigation is performed into the effects of varying the migration threshold median for the cell population. The algorithm performs well on a classification task with very little tuning. Ways of extending the implementation to allow it to be used as a classifier within the field of robotic security are suggested.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho constou num estudo da modificação da pasta kraft de eucalipto, utilizando uma técnica de processamento por alta pressão hidrostática com o intuito de melhorar a sua performance para novas aplicações tal como o papel tissue ou o papel para embalagens. Para tal pretendia-se melhorar algumas propriedades da pasta com a utilização da técnica de alta pressão hidrostática. Realizou-se um estudo preliminar onde se submeteu uma pasta branqueada A, não refinada, a um tratamento hiperbárico (TH) numa gama de pressões de 5000-8000 bar. Para uma pressão de 6000 bar constatou-se uma melhoria de cerca de 16 % no alongamento percentual na rotura, 17 % na resistência à tração, 27 % no índice de rebentamento e cerca de 19 % no índice de rasgamento. Posteriormente, e tendo em conta os resultados positivos verificados na pasta A, estudou-se o efeito do TH numa pasta branqueada B variando a consistência de tratamento (1,5% ou 3%) e o tempo de processamento (5 ou 10 minutos). Foi estudado também o efeito do TH quando aplicado antes e após a refinação da pasta. A pasta branca foi submetida à refinação num moinho PFI entre 1000 e 3000 rotações. Os resultados obtidos mostram que o TH realizado a menores consistências apresenta um efeito mais significativo nas propriedades físico-mecânicas de pastas e que o efeito é distinto quando o processamento é aplicado antes e depois da refinação, tendo-se registado melhoramentos das propriedades mecânicas apenas quando o TH ocorre após a refinação. A pasta kraft foi também modificada com anidrido alquenil succínico (ASA). A modificação da pasta de celulose com ASA resultou numa diminuição das propriedades mecânicas e para além disso não gerou qualquer alteração na termoplasticidade do material, no entanto registou-se um aumento na resistência à molhabilidade. Concluiu-se que o TH conduz a alterações ao nível de propriedades mecânicas e estruturais da pasta de interesse para a aplicação em papéis tissue no caso da pasta B. Para além disso a modificação da pasta com ASA resultou em alterações de interesse particular para papéis de embalagem.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The presence of non-linear loads at a point in the distribution system may deform voltage waveform due to the consumption of non-sinusoidal currents. The use of active power filters allows significant reduction of the harmonic content in the supply current. However, the processing of digital control structures for these filters may require high performance hardware, particularly for reference currents calculation. This work describes the development of hardware structures with high processing capability for application in active power filters. In this sense, it considers an architecture that allows parallel processing using programmable logic devices. The developed structure uses a hybrid model using a DSP and an FPGA. The DSP is used for the acquisition of current and voltage signals, calculation of fundamental current related controllers and PWM generation. The FPGA is used for intensive signal processing, such as the harmonic compensators. In this way, from the experimental analysis, significant reductions of the processing time are achieved when compared to traditional approaches using only DSP. The experimental results validate the designed structure and these results are compared with other ones from architectures reported in the literature.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The dendritic cell algorithm is an immune-inspired technique for processing time-dependant data. Here we propose it as a possible solution for a robotic classification problem. The dendritic cell algorithm is implemented on a real robot and an investigation is performed into the effects of varying the migration threshold median for the cell population. The algorithm performs well on a classification task with very little tuning. Ways of extending the implementation to allow it to be used as a classifier within the field of robotic security are suggested.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The dendritic cell algorithm is an immune-inspired technique for processing time-dependant data. Here we propose it as a possible solution for a robotic classification problem. The dendritic cell algorithm is implemented on a real robot and an investigation is performed into the effects of varying the migration threshold median for the cell population. The algorithm performs well on a classification task with very little tuning. Ways of extending the implementation to allow it to be used as a classifier within the field of robotic security are suggested.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Humanas, Departamento de Geografia, Programa de Pós-Graduação em Geografia, 2015.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Tomato (Lycopersicon esculentum Mill.), apart from being a functional food rich in carotenoids, vitamins and minerals, is also an important source of phenolic compounds [1 ,2]. As antioxidants, these functional molecules play an important role in the prevention of human pathologies and have many applications in nutraceutical, pharmaceutical and cosmeceutical industries. Therefore, the recovery of added-value phenolic compounds from natural sources, such as tomato surplus or industrial by-products, is highly desirable. Herein, the microwave-assisted extraction of the main phenolic acids and flavonoids from tomato was optimized. A S-Ieve! full factorial Box-Behnken design was implemented and response surface methodology used for analysis. The extraction time (0-20 min), temperature (60-180 "C), ethanol percentage (0-100%), solidlliquid ratio (5-45 g/L) and microwave power (0-400 W) were studied as independent variables. The phenolic profile of the studied tomato variety was initially characterized by HPLC-DAD-ESIIMS [2]. Then, the effect of the different extraction conditions, as defined by the used experimental design, on the target compounds was monitored by HPLC-DAD, using their UV spectra and retention time for identification and a series of calibrations based on external standards for quantification. The proposed model was successfully implemented and statistically validated. The microwave power had no effect on the extraction process. Comparing with the optimal extraction conditions for flavonoids, which demanded a short processing time (2 min), a low temperature (60 "C) and solidlliquid ratio (5 g/L), and pure ethanol, phenolic acids required a longer processing time ( 4.38 min), a higher temperature (145.6 •c) and solidlliquid ratio (45 g/L), and water as extraction solvent. Additionally, the studied tomato variety was highlighted as a source of added-value phenolic acids and flavonoids.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Crystallization is employed in different industrial processes. The method and operation can differ depending on the nature of the substances involved. The aim of this study is to examine the effect of various operating conditions on the crystal properties in a chemical engineering design window with a focus on ultrasound assisted cooling crystallization. Batch to batch variations, minimal manufacturing steps and faster production times are factors which continuous crystallization seeks to resolve. Continuous processes scale-up is considered straightforward compared to batch processes owing to increase of processing time in the specific reactor. In cooling crystallization process, ultrasound can be used to control the crystal properties. Different model compounds were used to define the suitable process parameters for the modular crystallizer using equal operating conditions in each module. A final temperature of 20oC was employed in all experiments while the operating conditions differed. The studied process parameters and configuration of the crystallizer were manipulated to achieve a continuous operation without crystal clogging along the crystallization path. The results from the continuous experiment were compared with the batch crystallization results and analysed using the Malvern Morphologi G3 instrument to determine the crystal morphology and CSD. The modular crystallizer was operated successfully with three different residence times. At optimal process conditions, a longer residence time gives smaller crystals and narrower CSD. Based on the findings, at a constant initial solution concentration, the residence time had clear influence on crystal properties. The equal supersaturation criterion in each module offered better results compared to other cooling profiles. The combination of continuous crystallization and ultrasound has large potential to overcome clogging, obtain reproducible and narrow CSD, specific crystal morphologies and uniform particle sizes, and exclusion of milling stages in comparison to batch processes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cada vez mais, os principais objetivos na indústria é a produção a baixo custo, com a máxima qualidade e com o tempo de fabrico o mais curto possível. Para atingir esta meta, a indústria recorre, frequentemente, às máquinas de comando numérico (CNC), uma vez que com esta tecnologia torna se capaz alcançar uma elevada precisão e um tempo de processamento mais baixo. As máquinas ferramentas CNC podem ser aplicadas em diferentes processos de maquinagem, tais como: torneamento, fresagem, furação, entre outros. De todos estes processos, o mais utilizado é a fresagem devido à sua versatilidade. Utiliza-se normalmente este processo para maquinar materiais metálicos como é o caso do aço e dos ferros fundidos. Neste trabalho, são analisados os efeitos da variação de quatro parâmetros no processo de fresagem (velocidade de corte, velocidade de avanço, penetração radial e penetração axial), individualmente e a interação entre alguns deles, na variação da rugosidade num aço endurecido (aço 12738). Para essa análise são utilizados dois métodos de otimização: o método de Taguchi e o método das superfícies. O primeiro método foi utilizado para diminuir o número de combinações possíveis e, consequentemente, o número de ensaios a realizar é denominado por método de Taguchi. O método das superfícies ou método das superfícies de resposta (RSM) foi utilizado com o intuito de comparar os resultados obtidos com o método de Taguchi, de acordo com alguns trabalhos referidos na bibliografia especializada, o RSM converge mais rapidamente para um valor ótimo. O método de Taguchi é muito conhecido no setor industrial onde é utilizado para o controlo de qualidade. Apresenta conceitos interessantes, tais como robustez e perda de qualidade, sendo bastante útil para identificar variações do sistema de produção, durante o processo industrial, quantificando a variação e permitindo eliminar os fatores indesejáveis. Com este método foi vi construída uma matriz ortogonal L16 e para cada parâmetro foram definidos dois níveis diferentes e realizados dezasseis ensaios. Após cada ensaio, faz-se a medição superficial da rugosidade da peça. Com base nos resultados obtidos das medições da rugosidade é feito um tratamento estatístico dos dados através da análise de variância (Anova) a fim de determinar a influência de cada um dos parâmetros na rugosidade superficial. Verificou-se que a rugosidade mínima medida foi de 1,05m. Neste estudo foi também determinada a contribuição de cada um dos parâmetros de maquinagem e a sua interação. A análise dos valores de “F-ratio” (Anova) revela que os fatores mais importantes são a profundidade de corte radial e da interação entre profundidade de corte radial e profundidade de corte axial para minimizar a rugosidade da superfície. Estes têm contribuições de cerca de 30% e 24%, respetivamente. Numa segunda etapa este mesmo estudo foi realizado pelo método das superfícies, a fim de comparar os resultados por estes dois métodos e verificar qual o melhor método de otimização para minimizar a rugosidade. A metodologia das superfícies de resposta é baseada num conjunto de técnicas matemáticas e estatísticas úteis para modelar e analisar problemas em que a resposta de interesse é influenciada por diversas variáveis e cujo objetivo é otimizar essa resposta. Para este método apenas foram realizados cinco ensaios, ao contrário de Taguchi, uma vez que apenas em cinco ensaios consegue-se valores de rugosidade mais baixos do que a média da rugosidade no método de Taguchi. O valor mais baixo por este método foi de 1,03μm. Assim, conclui-se que RSM é um método de otimização mais adequado do que Taguchi para os ensaios realizados. Foram obtidos melhores resultados num menor número de ensaios, o que implica menos desgaste da ferramenta, menor tempo de processamento e uma redução significativa do material utilizado.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The production of natural extracts requires suitable processing conditions to maximize the preservation of the bioactive ingredients. Herein, a microwave-assisted extraction (MAE) process was optimized, by means of response surface methodology (RSM), to maximize the recovery of phenolic acids and flavonoids and obtain antioxidant ingredients from tomato. A 5-level full factorial Box-Behnken design was successfully implemented for MAE optimization, in which the processing time (t), temperature (T), ethanol concentration (Et) and solid/liquid ratio (S/L) were relevant independent variables. The proposed model was validated based on the high values of the adjusted coefficient of determination and on the non-significant differences between experimental and predicted values. The global optimum processing conditions (t=20 min; T=180 ºC; Et=0 %; and S/L=45 g/L) provided tomato extracts with high potential as nutraceuticals or as active ingredients in the design of functional foods. Additionally, the round tomato variety was highlighted as a source of added-value phenolic acids and flavonoids.