979 resultados para estabilidade ao processamento e armazenamento


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Flaxseed has been widely studied around the world; its incorporation into products habitually consumed by human populations has been stimulated due to its unique nutritional value. The objective of this study was to evaluate the chemical composition of Brazilian flaxseed, to analyze the stability of lipids present in whole flaxseed flour (WFF) or partially defatted flaxseed flour (DFF) stored under several temperatures, and to investigate the effect of bread making on a product containing flaxseed. Whole flaxseed flour presented (g.100 g-1) 25.7 of insoluble fiber, 10.7 of soluble fiber, 38.9 of lipids, and 2.65 of lignan. Defatted flaxseed flour presented 65% less lipids, 36% more fiber and 56% more lignan than whole flaxseed flour. The fatty acid profile was maintained in the defatted flaxseed flour, and it presented a stable composition during storage under ambient temperature, refrigeration, and freezing. The fatty acid profile was similar in the bread containing defatted flaxseed flour after dough development, baking, and storage at room temperature or refrigerated. After baking, 89% of the lignan content was kept in bread. Results show that Brazilian flaxseed has an interesting chemical composition, and that defatted flaxseed, by-product of lipid extraction, presents a good stability to grind and storage under several temperatures. Thus, defatted flaxseed flour can be incorporated in bread, increasing its nutritional and functional value.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Utilizou-se o músculo Iliotibialis lateralis da sobrecoxa da ema (Rhea americana) para a realização das análises de estabilidade da carne sob armazenamento em refrigeração e congelamento. Na avaliação da carga microbiológica da carne foram realizadas análises de Coliformes Totais, Coliformes Fecais (Escherichia coli) e psicrotróficos. No período de zero a 12 dias de refrigeração determinou-se o pH da carne e a degradação protéica através da análise de Nitrogênio Volátil Total (NVT). Durante o congelamento (período de 60 dias) avaliou-se o pH e a oxidação lipídica pela análise do número de TBA da carne armazenada. As amostras sob refrigeração e congelamento mostraram-se adequadas ao consumo, não apresentando contaminação microbiológica durante todo o período de estocagem. Os valores de Nitrogênio Volátil Total (NVT) da carne sob refrigeração tiveram uma evolução insignificante (4%) entre o tempo zero e o 12º dia de estocagem. Durante o congelamento ocorreu um aumento significativo do número de TBA nas amostras, com variações de 1,5-2,5 mg de SRATB/1.000 g amostra. Os valores de pH da carne de ema armazenada sob refrigeração e congelamento mantiveram-se praticamente estáveis em torno de 5,8.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A exploração, processamento, transporte, armazenamento e utilização do petróleo e seus derivados têm resultado em acidentes e vazamentos de proporções variadas e existe uma demanda crescente por soluções técnica, ambiental e economicamente viáveis. É nesse contexto que a fitorremediação ganha evidência e se mostra adequada por aliar um custo-benefício atraente. A fitorremediação utiliza espécies vegetais para extrair, conter, imobilizar ou degradar contaminantes do solo e da água. Além disso, a possibilidade de crescer espécies de valor comercial em solos contaminados que, de outra forma, não teriam qualquer uso, torna-se uma alternativa atraente. O presente trabalho tem por objetivo avaliar a capacidade de fitorremediação de Mentha x Villosa e as alterações fisiológicas e morfológicas em decorrência da contaminação dos solos por petróleo em quatro concentrações (0%, 2%, 4% e 6% p/p) com seis repetições. As variáveis analisadas foram: taxa de sobrevivência, biomassa total seca e fresca, dimensão foliar, densidade de estômatos e densidade de tricomas. Foram feitas análises de hidrcarbonetos totais de petróleo - HTPs presntes no solo no início do experimento e após 90 dias de cultivo. As plantas crescidas em solo contaminado tiveram uma taxa de sobrevivência de 100%. Houve uma tendência ao xeromorfismo nas plantas mantidas em solo contaminado. De acordo com a análise one-way ANOVA (Tukey, I.C. 95%), houve redução significativa da biomassa fresca em plantas crescidas na presença de petróleo em qualquer concentração quando compradas ao controle e, também, redução significativa entre as concentrações 2% versus 4% e 2% versus 6%. Entretanto plantas crescidas em 4% e em 6% não diferiam entre si. Como não houve diferença significativa da biomassa seca para nenhum par, conclui-se que as diferenças observadas em biomassa fresca decorrem da menor absorção e/ou retenção de água por plantas crescidas na presença de petróleo. A presença do petróleo em qualquer concentração resultou em aumento significativo da densidade dos estômatos quando comparada ao controle (0%), particularmente aos 90 dias. Entretanto, não houve diferença significativa entre as plantas crescidas em petróleo nas diferentes concentrações. Aos 30 dias observou-se aumento significativo da densidade dos tricomas apenas em plantas na concentração 6%, comparadas ao controle (0%) e às demais concentrações (2% e 4%). Aos 60 dias, um aumento significativo da densidade de tricomas foi observado em plantas crescidas em todas as concentrações de petróleo (2%, 4% e 6%), quando comparadas ao controle e aos 90 dias, tais diferenças foram mantidas. Mentha x Villosa mostrou ser uma planta com potencial para crescer em solo contaminado com petróleo, sendo que aos 90 dias foi observada uma remoção de 99,90% de HTPs no solo contaminado a 2% (p/p) e de 99,98% de remoção de HTPs no solo contaminado a 4% (p/p).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Durante as ultimas décadas, os registos de saúde eletrónicos (EHR) têm evoluído para se adaptar a novos requisitos. O cidadão tem-se envolvido cada vez mais na prestação dos cuidados médicos, sendo mais pró ativo e desejando potenciar a utilização do seu registo. A mobilidade do cidadão trouxe mais desafios, a existência de dados dispersos, heterogeneidade de sistemas e formatos e grande dificuldade de partilha e comunicação entre os prestadores de serviços. Para responder a estes requisitos, diversas soluções apareceram, maioritariamente baseadas em acordos entre instituições, regiões e países. Estas abordagens são usualmente assentes em cenários federativos muito complexos e fora do controlo do paciente. Abordagens mais recentes, como os registos pessoais de saúde (PHR), permitem o controlo do paciente, mas levantam duvidas da integridade clinica da informação aos profissionais clínicos. Neste cenário os dados saem de redes e sistemas controlados, aumentando o risco de segurança da informação. Assim sendo, são necessárias novas soluções que permitam uma colaboração confiável entre os diversos atores e sistemas. Esta tese apresenta uma solução que permite a colaboração aberta e segura entre todos os atores envolvidos nos cuidados de saúde. Baseia-se numa arquitetura orientada ao serviço, que lida com a informação clínica usando o conceito de envelope fechado. Foi modelada recorrendo aos princípios de funcionalidade e privilégios mínimos, com o propósito de fornecer proteção dos dados durante a transmissão, processamento e armazenamento. O controlo de acesso _e estabelecido por políticas definidas pelo paciente. Cartões de identificação eletrónicos, ou certificados similares são utilizados para a autenticação, permitindo uma inscrição automática. Todos os componentes requerem autenticação mútua e fazem uso de algoritmos de cifragem para garantir a privacidade dos dados. Apresenta-se também um modelo de ameaça para a arquitetura, por forma a analisar se as ameaças possíveis foram mitigadas ou se são necessários mais refinamentos. A solução proposta resolve o problema da mobilidade do paciente e a dispersão de dados, capacitando o cidadão a gerir e a colaborar na criação e manutenção da sua informação de saúde. A arquitetura permite uma colaboração aberta e segura, possibilitando que o paciente tenha registos mais ricos, atualizados e permitindo o surgimento de novas formas de criar e usar informação clínica ou complementar.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Atualmente, as Tecnologias de Informação (TI) são cada vez mais vitais dentro das organizações. As TI são o motor de suporte do negócio. Para grande parte das organizações, o funcionamento e desenvolvimento das TI têm como base infraestruturas dedicadas (internas ou externas) denominadas por Centro de Dados (CD). Nestas infraestruturas estão concentrados os equipamentos de processamento e armazenamento de dados de uma organização, por isso, são e serão cada vez mais desafiadas relativamente a diversos fatores tais como a escalabilidade, disponibilidade, tolerância à falha, desempenho, recursos disponíveis ou disponibilizados, segurança, eficiência energética e inevitavelmente os custos associados. Com o aparecimento das tecnologias baseadas em computação em nuvem e virtualização, abrese todo um leque de novas formas de endereçar os desafios anteriormente descritos. Perante este novo paradigma, surgem novas oportunidades de consolidação dos CD que podem representar novos desafios para os gestores de CD. Por isso, é no mínimo irrealista para as organizações simplesmente eliminarem os CD ou transforma-los segundo os mais altos padrões de qualidade. As organizações devem otimizar os seus CD, contudo um projeto eficiente desta natureza, com capacidade para suportar as necessidades impostas pelo mercado, necessidades dos negócios e a velocidade da evolução tecnológica, exigem soluções complexas e dispendiosas tanto para a sua implementação como a sua gestão. É neste âmbito que surge o presente trabalho. Com o objetivo de estudar os CD inicia-se um estudo sobre esta temática, onde é detalhado o seu conceito, evolução histórica, a sua topologia, arquitetura e normas existentes que regem os mesmos. Posteriormente o estudo detalha algumas das principais tendências condicionadoras do futuro dos CD. Explorando o conhecimento teórico resultante do estudo anterior, desenvolve-se uma metodologia de avaliação dos CD baseado em critérios de decisão. O estudo culmina com uma análise sobre uma nova solução tecnológica e a avaliação de três possíveis cenários de implementação: a primeira baseada na manutenção do atual CD; a segunda baseada na implementação da nova solução em outro CD em regime de hosting externo; e finalmente a terceira baseada numa implementação em regime de IaaS.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nos últimos anos o aumento exponencial da utilização de dispositivos móveis e serviços disponibilizados na “Cloud” levou a que a forma como os sistemas são desenhados e implementados mudasse, numa perspectiva de tentar alcançar requisitos que até então não eram essenciais. Analisando esta evolução, com o enorme aumento dos dispositivos móveis, como os “smartphones” e “tablets” fez com que o desenho e implementação de sistemas distribuidos fossem ainda mais importantes nesta área, na tentativa de promover sistemas e aplicações que fossem mais flexíveis, robutos, escaláveis e acima de tudo interoperáveis. A menor capacidade de processamento ou armazenamento destes dispositivos tornou essencial o aparecimento e crescimento de tecnologias que prometem solucionar muitos dos problemas identificados. O aparecimento do conceito de Middleware visa solucionar estas lacunas nos sistemas distribuidos mais evoluídos, promovendo uma solução a nível de organização e desenho da arquitetura dos sistemas, ao memo tempo que fornece comunicações extremamente rápidas, seguras e de confiança. Uma arquitetura baseada em Middleware visa dotar os sistemas de um canal de comunicação que fornece uma forte interoperabilidade, escalabilidade, e segurança na troca de mensagens, entre outras vantagens. Nesta tese vários tipos e exemplos de sistemas distribuídos e são descritos e analisados, assim como uma descrição em detalhe de três protocolos (XMPP, AMQP e DDS) de comunicação, sendo dois deles (XMPP e AMQP) utilzados em projecto reais que serão descritos ao longo desta tese. O principal objetivo da escrita desta tese é demonstrar o estudo e o levantamento do estado da arte relativamente ao conceito de Middleware aplicado a sistemas distribuídos de larga escala, provando que a utilização de um Middleware pode facilitar e agilizar o desenho e desenvolvimento de um sistema distribuído e traz enormes vantagens num futuro próximo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this work, spoke about the importance of image compression for the industry, it is known that processing and image storage is always a challenge in petrobrás to optimize the storage time and store a maximum number of images and data. We present an interactive system for processing and storing images in the wavelet domain and an interface for digital image processing. The proposal is based on the Peano function and wavelet transform in 1D. The storage system aims to optimize the computational space, both for storage and for transmission of images. Being necessary to the application of the Peano function to linearize the images and the 1D wavelet transform to decompose it. These applications allow you to extract relevant information for the storage of an image with a lower computational cost and with a very small margin of error when comparing the images, original and processed, ie, there is little loss of quality when applying the processing system presented . The results obtained from the information extracted from the images are displayed in a graphical interface. It is through the graphical user interface that the user uses the files to view and analyze the results of the programs directly on the computer screen without the worry of dealing with the source code. The graphical user interface, programs for image processing via Peano Function and Wavelet Transform 1D, were developed in Java language, allowing a direct exchange of information between them and the user

Relevância:

80.00% 80.00%

Publicador:

Resumo:

One of the best examples of the Information and Communication Technology (ICT) evolutions is on the high capability of storing and processing data into smaller devices, creating a new business condition, the mobility . This mobility in a deeper analysis proposes a business remodeling in many different areas (business segmentations), through the Internet anywhere at any time, allowing managers and researchers to think again their actual models that work nowadays in companies and public institutions, modifying the way internal and external clients can be attended. This thesis analyzes issues on mobile business adoption, technological evolutions and the impacts caused by this new reality the access to information anywhere at any time . This research is exploratory and shows a compilation of similar papers and thesis describing how was conducted the survey within 50 companies in the states of Rio Grande do Norte, Pernambuco and Ceará. The statistics analysis showed the different level of mobile technology usage from simple voice communications to wide band data transmission. The analysis pointed that canonic correlation was the most effective type of analysis to describe the relations among all groups of variables showing which of them are relevant, or not, for mobile technology adoption

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The progresses of the Internet and telecommunications have been changing the concepts of Information Technology IT, especially with regard to outsourcing services, where organizations seek cost-cutting and a better focus on the business. Along with the development of that outsourcing, a new model named Cloud Computing (CC) evolved. It proposes to migrate to the Internet both data processing and information storing. Among the key points of Cloud Computing are included cost-cutting, benefits, risks and the IT paradigms changes. Nonetheless, the adoption of that model brings forth some difficulties to decision-making, by IT managers, mainly with regard to which solutions may go to the cloud, and which service providers are more appropriate to the Organization s reality. The research has as its overall aim to apply the AHP Method (Analytic Hierarchic Process) to decision-making in Cloud Computing. There to, the utilized methodology was the exploratory kind and a study of case applied to a nationwide organization (Federation of Industries of RN). The data collection was performed through two structured questionnaires answered electronically by IT technicians, and the company s Board of Directors. The analysis of the data was carried out in a qualitative and comparative way, and we utilized the software to AHP method called Web-Hipre. The results we obtained found the importance of applying the AHP method in decision-making towards the adoption of Cloud Computing, mainly because on the occasion the research was carried out the studied company already showed interest and necessity in adopting CC, considering the internal problems with infrastructure and availability of information that the company faces nowadays. The organization sought to adopt CC, however, it had doubt regarding the cloud model and which service provider would better meet their real necessities. The application of the AHP, then, worked as a guiding tool to the choice of the best alternative, which points out the Hybrid Cloud as the ideal choice to start off in Cloud Computing. Considering the following aspects: the layer of Infrastructure as a Service IaaS (Processing and Storage) must stay partly on the Public Cloud and partly in the Private Cloud; the layer of Platform as a Service PaaS (Software Developing and Testing) had preference for the Private Cloud, and the layer of Software as a Service - SaaS (Emails/Applications) divided into emails to the Public Cloud and applications to the Private Cloud. The research also identified the important factors to hiring a Cloud Computing provider

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The pulps are products that add economic value enjoy the fruits of the surplus productions of the same. Have good market acceptance because of its practicality and diversity of flavors available year round. In order to assess the quality of the fruit pulp through the physical and chemical parameters and the characteristics of manufacturing industry, we analyzed 36 samples of frozen fruit pulp of three brands marketed in RIO Grande do Norte, 14 brand A, 12 of 10 brand B and brand C, which corresponded to 14 different flavors, of which 10 have identity Standards and Quality (ISQ S) established by the Ministério da Agricultura, Pecuária e Abastecimento (MAPA), totaling 27 samples with ISQ s. We conducted the following physicalchemical analyzes on samples of fruit pulp: Total solids, total soluble solids, pH, titratable acidity, total sugars and the determination of ascorbic acid. The percentage of failure for each parameter evaluated was 37, 04% in total soluble solids, 22,22% for total solids and titratable acidity, 7,40% in relation to pH. The total sugars were within the requirements demanded by the MAPA and ascorbic acid content, determined only in the pulp of acerola and cashew, presented a non compliance in the pulp of brand B. The percentage of failures of the pulps with ISQ S was 59% with brand A, B and C accounted for 3,70%, 33,33% and 22,22% respectively. The pulps which have no established atandards such as pineapple pulp, showed similar values between brands and literature data unlike the pulp of plum, jackfruit and tamarind which diverged greatly in parameters such as total solids and total soluble solids. The study demonstrates the need for greater quality control by the producers with respect to raw materials, processing, packing, stored and the importance of ISQ S to establish the flavors have not yet covered by existing legislation, but already highly commercialized

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)