958 resultados para Coffee beans - Extracting caffeine
Resumo:
O 2,4-diclorofenoxiacético (2,4-D) é um dos herbicidas mais consumidos no Brasil e é preferencialmente usado devido a sua boa seletividade e baixo custo. Possui alta toxidade e baixa biodegradabilidade, oferecendo risco à saúde humana e ao meio ambiente, podendo ser encontrado em solos, águas superficiais e subterrâneas. Estudos mostram que o tratamento convencional da água possui baixa eficácia na remoção de microcontaminantes, com isso várias técnicas têm sido utilizadas na remoção de compostos em água, como a adsorção por carvão ativado. Apresenta-se a adsorção em carvão ativado tem se demonstrado como tecnologia eficiente na remoção de diversos contaminantes, dentre eles os agrotóxicos. Assim, o presente trabalho objetivou avaliar a adsorção do 2,4-D por três carvões ativados em pó (CAP) em água ultrapura e em água bruta do Rio Santa Maria da Vitória. A quantificação do herbicida foi analisada por cromatografia líquida de alta eficiência, após concentração da amostra pelo método de extração em fase sólida. Os ensaios de adsorção foram realizados com carvões ativados derivados da casca de coco (CAP-01), pinus (CAP-02) e palha de café (CAP-03), que foram caracterizados e avaliados na sua capacidade de remoção do 2,4-D nas duas matrizes de água. Dois modelos de isoterma de adsorção, Langmuir e Freundlich, foram aplicados para descrever os dados de adsorção, que indicaram o CAP-02 como o carvão que apresentou a melhor capacidade de adsorção do 2,4-D entre os carvões estudados, tanto em água ultrapura quanto em água bruta. Nos ensaios realizados em água bruta, houve redução da adsorção do 2,4-D para as três amostras de CAP, quando comparado com os ensaios realizados em água ultrapura, indicando interferência de compostos, como a matéria orgânica, no processo de adsorção.
Resumo:
A cristalização e formação de depósitos parafínicos é um problema operacional crítico na indústria do petróleo em todo o mundo e provoca grandes perdas econômicas na recuperação do óleo. São muitos os estudos que têm sido realizados para desenvolver modelos termodinâmicos de predição da precipitação de parafinas, sendo que boa parte deles utilizam a ressonância magnética nuclear (RMN) em alto ou baixo campo magnético juntamente com outras técnicas como calorimetria exploratória diferencial (DSC), análise elementar e cromatografia gasosa para caracterizar a fase sólida formada a partir do petróleo. Este trabalho busca um maior entendimento da cristalização de ceras parafínicas por meio de experimentos de espectroscopia de RMN de 1H e 13C conduzidos em temperaturas variáveis, o que pode auxiliar na previsão e remediação dos problemas causados pela sua deposição nas linhas de escoamento da produção. Para isso, o estudo desse fenômeno foi conduzido inicialmente em amostras de parafina comercial e, posteriormente, em uma amostra de petróleo parafínico com variação de temperatura sem extrair a fase sólida, garantindo a não interferência de solventes que podem influenciar no processo de cristalização. A metodologia desenvolvida demonstrou ser útil para determinar a temperatura inicial de aparecimento de cristais (TIAC), sendo obtida uma boa concordância com os resultados de DSC para a parafina comercial e petróleo. O registro de espectros em diferentes temperaturas permitiu também a identificação das variações de intensidade e largura de linha dos sinais associados aos diferentes grupos químicos presentes nos materiais estudados.
Resumo:
O objeto de estudo dessa pesquisa é a política de segurança pública brasileira visando compreender o seu percurso ideológico e político no contexto de retomada e da consolidação da democracia no Brasil, após 21 anos de ditadura militar. Considerando o contexto no qual se verifica a existência de disputa política em torno da concepção de segurança pública, o objetivo geral deste trabalho é compreender a matriz estruturante da política de segurança pública no Brasil contemporâneo. Seu intuito visa responder à pergunta inicial e condutora do interesse que estrutura este trabalho, aqui apresentada nos seguintes termos: a política de segurança pública no Brasil após o restabelecimento das eleições diretas para a Presidência da República está em vias de transição, tendendo a assumir caráter democrático ou a força da tradição autoritária na cultura política brasileira tem-se garantido a sua continuidade neste campo da intervenção estatal? Ancoramos a nossa reflexão nas categorias teóricas de dominação, coerção e consenso no pensamento clássico de Hobbes, Marx, Weber e Gramsci, extraindo deles os elementos que nos auxiliam no entendimento da política de segurança pública brasileira. Para o estudo dessa política foi fundamental operarmos uma profunda revisão bibliográfica, especialmente para entender como a manutenção da ordem foi se desenhando no contexto brasileiro e como historicamente tem prevalecido um modelo de segurança pública marcado pelo autoritarismo. Entretanto, a partir da redemocratização brasileira há a emergência de outro paradigma para a política de segurança pública, a segurança cidadã, propondo, entre outras coisas, a reforma das instituições de segurança pública e a formação em direitos humanos nas instituições policiais. Para a análise do paradigma emergente de segurança, buscamos apoio no Programa Nacional dos Direitos Humanos e no Plano Nacional de Segurança Pública, documentos federais que representam a construção de uma nova intencionalidade para a segurança pública no Brasil. Finalmente, reconhecemos que, embora haja significativas reformas na segurança pública, tal política, diante da prevalência de um paradigma de segurança tradicional com fortes componentes autoritários, se encontra entre a segurança cidadã e a continuidade autoritária.
Resumo:
Investiga o processo de transição da Escola Normal para outro espaço físico sob a forma de Instituto de Educação e os desdobramentos dessa mudança na formação de professores no Espírito Santo, segundo as diretrizes instituídas pela Lei nº. 5.692/71, durante o Regime Ditatorial Brasileiro (1964-1985). O recorte temporal inicia-se em 1971, quando ocorreu a transição, e encerra-se no ano 2000, momento em que o Instituto passa a denominar-se Escola Estadual de 2º grau Professor Fernando Duarte Rabelo. Privilegia, como interlocutores teóricos, os historiadores Carlo Ginzburg (1986, 2006), Marc Bloch (2001) e Michel de Certeau (2004) e toma, como corpus documental, propostas curriculares do Estado, portarias, matérias de jornais, fotografias de eventos realizados pela instituição e entrevistas com sujeitos que atuaram naquele espaço como professoras, diretora e aluna. As fontes foram interrogadas a partir das seguintes questões: como se deu a transição da Escola Normal D. Pedro II para o Instituto de Educação de Vitória? Que motivos levaram a essa transição? Como se configurou a formação de professores no Instituto de Educação? Quais os desdobramentos das mudanças ocorridas, em se tratando da formação de professores capixabas? Pareceram intrigantes silêncios e lacunas observados em relação à transição da Escola Normal para o Instituto de Educação e aos motivos que desencadearam essa mudança. Das falas das professoras, depreende-se que decisões sobre a transferência do espaço físico e as modificações no currículo vieram prontas, de cima para baixo. O discurso da modernização alardeia a técnica e o tecnicismo e anuncia novidades. A Escola Normal e as suas tradições passam a habitar o passado como algo que se apaga em nome do avanço técnico. Ainda que sutilmente, o cheiro do cafezinho gratuito e do mingau fizessem espargir o aroma da saudade de um outro tempo em que o lanche dos professores da Escola Normal era um encontro “solene”. Conclui-se que a abrupta descontinuidade da Escola Normal, cujo prédio passou a abrigar a atual Escola Estadual Maria Ortiz, possivelmente não se esgota nas questões de ordem técnico-pedagógica que os documentos deixam explícitas. Entretanto, tendo em vista o cronograma limitado desta pesquisa e a lacuna das fontes, não foi possível explorar outras possibilidades de resposta.
Resumo:
Among phytophagous spider mites, the two-spotted spider mite Tetranychus urticae Koch, 1836 is one of the most important agricultural pests, not only because of the damage it causes, but also because it has a wide host range, infesting many commercial crops such as leafy greens, cotton, beans, and soybeans, among others. This study was carried out in a greenhouse of the Faculdade de Ciências Agrárias (FCA) of the Universidade Federal da Grande Dourados (UFGD), located in the city of Dourados, state of Mato Grosso do Sul. The experiment was arranged in a randomized block design with 5 treatments and 4 replicates. The treatments consisted of 5 levels in percentage of chlorotic symptoms (indicating mite damage): 0%, 25%, 50%, 75%, and 100%. All of the characteristics evaluated, except for number of pods per plant, the number of seeds per plant, the total weight (productivity), and the weight of 1000 seeds, were significantly influenced by the different levels of chlorotic symptoms. The economic damage level for the two-spotted spider mite Tetranychus urticae, according to the equation y = 66.63-0.51 x, based on the price of US$ 11.00 per bag of soybeans and a control cost of US$ 16.00, would be 15.80% chlorotic symptoms. At a price of US$ 29.00 per bag with the same control cost, the economic damage level would be 13% of chlorotic symptoms.
Resumo:
Program slicing is a well known family of techniques used to identify code fragments which depend on or are depended upon specific program entities. They are particularly useful in the areas of reverse engineering, program understanding, testing and software maintenance. Most slicing methods, usually oriented towards the imperative or object paradigms, are based on some sort of graph structure representing program dependencies. Slicing techniques amount, therefore, to (sophisticated) graph transversal algorithms. This paper proposes a completely different approach to the slicing problem for functional programs. Instead of extracting program information to build an underlying dependencies’ structure, we resort to standard program calculation strategies, based on the so-called Bird-Meertens formalism. The slicing criterion is specified either as a projection or a hiding function which, once composed with the original program, leads to the identification of the intended slice. Going through a number of examples, the paper suggests this approach may be an interesting, even if not completely general, alternative to slicing functional programs
Resumo:
COORDINSPECTOR is a Software Tool aiming at extracting the coordination layer of a software system. Such a reverse engineering process provides a clear view of the actually invoked services as well as the logic behind such invocations. The analysis process is based on program slicing techniques and the generation of, System Dependence Graphs and Coordination Dependence Graphs. The tool analyzes Common Intermediate Language (CIL), the native language of the Microsoft .Net Framework, thus making suitable for processing systems developed in any .Net Framework compilable language. COORDINSPECTOR generates graphical representations of the coordination layer together with business process orchestrations specified in WSBPEL 2.0
Resumo:
Program slicing is a well known family of techniques used to identify code fragments which depend on or are depended upon specific program entities. They are particularly useful in the areas of reverse engineering, program understanding, testing and software maintenance. Most slicing methods, usually targeting either the imperative or the object oriented paradigms, are based on some sort of graph structure representing program dependencies. Slicing techniques amount, therefore, to (sophisticated) graph transversal algorithms. This paper proposes a completely different approach to the slicing problem for functional programs. Instead of extracting program information to build an underlying dependencies’ structure, we resort to standard program calculation strategies, based on the so-called Bird- Meertens formalism. The slicing criterion is specified either as a projection or a hiding function which, once composed with the original program, leads to the identification of the intended slice. Going through a number of examples, the paper suggests this approach may be an interesting, even if not completely general alternative to slicing functional programs
Resumo:
In recent years, several new coffee cultivars recommended for different regions have been released. However, the performance of these varieties in many traditionally producing regions is unknown. Difference of climate and soil may jeopardize the productivity of the new cultivars and cause losses to farmers. The objective of this study is to evaluate the vegetative growth and productive genotypes of C. arabica in the conditions of the Northwestern Rio de Janeiro State, Brazil. The experiment was settled in 2007, in Panorama 1 Farm, located in the municipality of Varre Sai, RJ. Twenty-five genotypes of C. arabica were planted in a spacing of 2.5 × 0.8 m, using a completely randomized design with five replications and eight plants per plot. There were eight measurements of vegetative growth represented by plant height, stem diameter and number of plagiotropic branches. Assessments of productivity were also performed in years 2009 and 2010. There was a positive phenotypic correlation among vegetative characteristics and between vegetative characteristics and yield in the first harvest, while in the second harvest only the number of plagiotropic branches was positively correlated with yield. Up to date, the genotypes Catucaí amarelo 2 SL, Catiguá MG 02, Acauã, Palma II, Sabiá 398, IPR 103/ Iapar, IPR 100/Iapar, H 419-10-6-2-12-1, Catucaí amarelo 24 / 137, Iapar 59, Catucaí amarelo 20/15, H 419-10-6-2-5-10-1 and H 419-10-6-2-5-1 had the highest average yield after two harvests.
Resumo:
ABSTRACT The objective of this work was to evaluate the dynamics of decomposition process of chopped secondary forest system, previously enriched with legumes Inga velutina Willd. and Stryphnodendron pulcherrimum (Willd.) Hochr. and the contribution of this process to the nutrient input to the cultivation of corn and bean under no-tillage. The experimental design was a randomized block, split plot with four replications. The plots were two species (I. velutina and S. pulcherrimum) and the subplots were seven times of evaluation (0, 7, 28, 63, 189, 252, 294 days after experiment installation). There was no difference (p ≥ 0.05) between the secondary forest systems enriched and no interaction with times for biomass waste, decomposition constant and half-life time. The waste of S. pulcherrimum trees had higher (p < 0.05) C/N ratio than that I. velutina. However, this one was higher (p < 0.05) in lignin content. Nevertheless, the dynamics of residue decomposition was similar. The corn yield was higher (p < 0.05) in cultivation under I.velutina waste. Meanwhile, the beans planted after corn, shows similar (p > 0.05) yield in both areas, regardless of the waste origin.
Resumo:
The success of dental implant-supported prosthesis is directly linked to the accuracy obtained during implant’s pose estimation (position and orientation). Although traditional impression techniques and recent digital acquisition methods are acceptably accurate, a simultaneously fast, accurate and operator-independent methodology is still lacking. Hereto, an image-based framework is proposed to estimate the patient-specific implant’s pose using cone-beam computed tomography (CBCT) and prior knowledge of implanted model. The pose estimation is accomplished in a threestep approach: (1) a region-of-interest is extracted from the CBCT data using 2 operator-defined points at the implant’s main axis; (2) a simulated CBCT volume of the known implanted model is generated through Feldkamp-Davis-Kress reconstruction and coarsely aligned to the defined axis; and (3) a voxel-based rigid registration is performed to optimally align both patient and simulated CBCT data, extracting the implant’s pose from the optimal transformation. Three experiments were performed to evaluate the framework: (1) an in silico study using 48 implants distributed through 12 tridimensional synthetic mandibular models; (2) an in vitro study using an artificial mandible with 2 dental implants acquired with an i-CAT system; and (3) two clinical case studies. The results shown positional errors of 67±34μm and 108μm, and angular misfits of 0.15±0.08º and 1.4º, for experiment 1 and 2, respectively. Moreover, in experiment 3, visual assessment of clinical data results shown a coherent alignment of the reference implant. Overall, a novel image-based framework for implants’ pose estimation from CBCT data was proposed, showing accurate results in agreement with dental prosthesis modelling requirements.
Resumo:
A cafeína é usada em formulações cosméticas tópicas para tratamento da Paniculopatia Esclero Edematosa (PEE), em concentrações de 1-2%, embora existam no mercado formulações com 5%. Estudos in vitro têm demonstrado que a cafeína estimula a lipólise e a redução de tamanho dos adipócitos, através do aumento dos níveis de AMPc. As características físico-químicas da cafeína dificultam a transposição da barreira cutânea, nomeadamente do estrato córneo, etapa limitante da penetração cutânea. Existem vários factores envolvidos na fisiopatologia da PEE nomeadamente genéticos, hormonais e estilos de vida, que parecem actuar em quatro unidades funcionais do tecido adiposo: unidade interstício-matricial, unidade microcirculatória, unidade neuro-vegetativa e unidade energética. Os formuladores privilegiam o desenvolvimento de formulações cosméticas tópicas, que incorporem ingredientes activos com acção sobre a estimulação do fluxo microvascular e linfático por um lado e, por outro lado, que actuem directa ou indirectamente nos mecanismos reguladores da lipólise. Desenvolvem-se formulações cosméticas tópicas, constituídas por substâncias que promovam a penetração cutâneo, e utilizam-se veículos que depositem de uma forma direccionada, e em maior quantidade os ingredientes activos no local de acção.
Resumo:
Exposure to certain fungi can cause human illness. Fungi cause adverse human health effects through three specific mechanisms: generation of a harmful immune response (e.g., allergy or hypersensitivity pneumonitis); direct infection by the fungal organism; by toxic-irritant effects from mold byproducts, such as mycotoxins. In Portugal there is an increasingly industry of large facilities that produce whole chickens for domestic consumption and only few investigations have reported on fungal contamination of the poultry litter. The material used for poultry litter is varied but normally can be constitute by: pine shavings; sawdust of eucalyptus; other types of wood; peanut; coffee; sugar cane; straw; hay; grass; paper processed. Litter is one of the most contributive factors to fungal contamination in poultries. Spreading litter is one of the tasks that normally involve higher exposure of the poultry workers to dust, fungi and their metabolites, such as VOC’s and mycotoxins. After being used and removed from poultries, litter is ploughed into agricultural soils, being this practice potentially dangerous for the soil environment, as well for both humans and animals. The goal of this study was to characterize litter’s fungal contamination and also to report the incidence of keratinophilic and toxigenic fungi.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Faz-se nesta dissertação a análise do movimento humano utilizando sinais de ultrassons refletidos pelos diversos membros do corpo humano, designados por assinaturas de ultrassons. Estas assinaturas são confrontadas com os sinais gerados pelo contato dos membros inferiores do ser humano com o chão, recolhidos de forma passiva. O método seguido teve por base o estudo das assinaturas de Doppler e micro-Doppler. Estas assinaturas são obtidas através do processamento dos ecos de ultrassons recolhidos, com recurso à Short-Time Fourier Transform e apresentadas sobre a forma de espectrograma, onde se podem identificar os desvios de frequência causados pelo movimento das diferentes partes do corpo humano. É proposto um algoritmo inovador que, embora possua algumas limitações, é capaz de isolar e extrair de forma automática algumas das curvas e parâmetros característicos dos membros envolvidos no movimento humano. O algoritmo desenvolvido consegue analisar as assinaturas de micro-Doppler do movimento humano, estimando diversos parâmetros tais como o número de passadas realizadas, a cadência da passada, o comprimento da passada, a velocidade a que o ser humano se desloca e a distância percorrida. Por forma a desenvolver, no futuro, um classificador capaz de distinguir entre humanos e outros animais, são também recolhidas e analisadas assinaturas de ultrassons refletidas por dois animais quadrúpedes, um canino e um equídeo. São ainda estudadas as principais características que permitem classificar o tipo de animal que originou a assinatura de ultrassons. Com este estudo mostra-se ser possível a análise de movimento humano por ultrassons, havendo características nas assinaturas recolhidas que permitem a classificação do movimento como humano ou não humano. Do trabalho desenvolvido resultou ainda uma base de dados de assinaturas de ultrassons de humanos e animais que permitirá suportar trabalho de investigação e desenvolvimento futuro.