973 resultados para Microfluidic Analytical Techniques


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The health benefits provided by probiotic bacteria have led to their increasing use in fermented and other dairy products. However, their viability in these products is low. Encapsulation has been investigated to protect the bacteria in the product's environment and improve their survival. There are two common encapsulation techniques, namely extrusion and emulsion, to encapsulate the probiotics for their use in the fermented and other dairy products. This review evaluates the merits and limitations of these two techniques, and also discusses the supporting materials and special treatments used in encapsulation processes. (C) 2003 Elsevier Science Ltd. All rights reserved.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com a Constituição da República Federativa do Brasil (1988), a intersetorialidade imprimiu nas políticas públicas de educação e seguridade social uma construção e uma operacionalidade mais articuladas e interdependentes. Entre as leis e portarias interministeriais, destaca-se o Programa Benefício de Prestação Continuada na Escola, que atende pessoas com deficiência de zero a dezoito anos de idade. Nesta pesquisa, questionam-se as interfaces entre as políticas públicas da educação especial e da seguridade social. São objetivos da pesquisa: analisar as interfaces das políticas públicas sociais – educação especial e seguridade social – no que se refere à garantia de direitos à educação de crianças com deficiência ou Transtornos Globais do Desenvolvimento, entre zero e cinco anos, no município de Vitória, Estado do Espírito Santo; identificar como se configuram as interdependências entre profissionais da educação especial e da seguridade social e os familiares (pais ou responsáveis) dessas crianças perante seus processos educacionais; compreender os diferentes movimentos entre as instituições de educação e da seguridade social e suas implicações para a inclusão escolar das crianças com deficiência ou Transtorno Global do Desenvolvimento; analisar como os profissionais da educação e da seguridade social lançam perspectivas para os processos de inclusão escolar e estabelecem diálogo com a família acerca da educação dessas crianças. Esta é uma pesquisa de natureza qualitativa, estudo de caso com coleta de dados empíricos e bibliográficos, na qual foram sujeitos: mães de três crianças de três Centros Municipais de Educação Infantil de Vitória; professoras da sala de atividades e de educação especial, pedagogas e diretoras; técnicos das Secretarias Municipais de Vitória: Educação, Saúde e Assistência Social e do Instituto Nacional do Seguro Social. As técnicas empregadas para coleta de dados foram a entrevista o grupo focal e o diário de itinerância. Foram procedimentos adotados para o registro dos dados a audiogravação de entrevistas e de grupos focais e anotações em diário de itinerância. Os dados foram organizados em cinco categorias de análise, produzidas por meio das narrativas dos familiares e dos profissionais participantes da pesquisa. Os conceitos de Norbert Elias, interdependência e configuração, relação de poder – estabelecidos e outsiders –, processos sociais e relação entre sociedade e Estado (balança do poder) contribuíram para compreender os dados, por serem observados nas categorias produzidas. Os resultados apontam para a fragilidade de Global do Desenvolvimento, no município de Vitória. Revelam, ainda, uma inconsistência de fluxos de referência e contrarreferência e lacunas na dimensão técnica e operativa para as interfaces das políticas públicas intersetoriais com práticas profissionais que cumpram o papel político conforme outorga a legislação federal e municipal. As considerações se ampliam para discussões entre o instituído e o instituinte – políticas públicas e práticas profissionais – que priorizem a efetivação da intersetorialidade diante das demandas do público investigado com vista à garantia dos direitos de acesso a uma educação de qualidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O intuito inicial desta pesquisa foi acompanhar processos de trabalho à luz do referencial teórico da Ergologia e, portanto, concebendo o trabalho como relação dialética entre técnica e ação humana. O objetivo era cartografar o trabalho no processo de beneficiamento de granitos em uma organização de grande porte localizada no Espírito Santo e, após algum tempo em campo, o problema delineou- se do seguinte modo: como se constitui a competência industriosa no beneficiamento de granitos em uma organização de grande porte? A pesquisa justifica-se uma vez que, a despeito da relevância econômica, o cenário capixaba de rochas ornamentais apresenta problemas precários no que diz respeito à gestão. Para os Estudos Organizacionais, a relevância é reforçada pelo fato de aproximar desta área a abordagem ergológica e demarcar no debate sobre competência a noção de competência industriosa, ainda não explorada nesse campo de estudo. Para realização da pesquisa, foi praticada uma cartografia ergológica, a partir da articulação das pistas cartográficas com o referencial teórico-conceitual da Ergologia, sendo utilizadas como técnicas: observação participante durante 6 meses, com uma média de 3 visitas a campo por semana; 8 entrevistas semiestruturadas e em profundidade de cerca de 50 minutos cada com trabalhadores operacionais; uma entrevista com gerente de produção e outra com representante da área de Gestão de Pessoas; conversas com os demais trabalhadores, a fim de enriquecer o diário de campo; novas conversas e observações ao final da análise, para confrontação-validação com os trabalhadores. A sistematização dos procedimentos de análise pode ser assim descrita: a) leituras flutuantes com objetivo de fazer emergirem aspectos centrais relacionados às duas dimensões do trabalho, técnica e ação humana; b) leituras em profundidade com objetivo de fazer emergirem singularidades e especificidades relativas à dialética entre ambas; c) leituras em profundidade com objetivo de fazer emergirem aspectos relativos aos ingredientes da competência industriosa. A despeito da não delimitação de categorias analíticas e subcategorias, a partir da análise emergiram cinco eixos analíticos: 1) os procedimentos a serem empregados no processo de beneficiamento de granitos, englobando: as etapas do beneficiamento; as funções a serem desempenhadas e as tarefas a serem desenvolvidas; as normas regulamentadoras; os conhecimentos técnicos necessários para programação e operação de máquinas; a ordem de produção prescrita pelo setor comercial; 2) o trabalho real, diferenciado do trabalho como emprego de procedimentos pelo foco dado à ação humana no enfrentamento de situações reais, repletas de eventos e variabilidades, em todo o processo, englobando: preparo de carga; laminação; serrada; levigamento; resinagem; polimento-classificação; retoque; fechamento de pacote; ovada de contêiner; 3) diferentes modos de usos de si que, em tendência, são responsáveis pela constituição do agir em competência em cada etapa do processo, na dialética entre técnica e ação humana; 4) o modo como cada ingrediente da competência industriosa atua e se constitui, bem como sua concentração, em tendência, em cada etapa do processo, a partir dos tipos de usos de si que, também em tendência, são mais responsáveis pelo agir em competência, apresentando assim o perfil da competência industriosa no beneficiamento de granitos na empresa em análise; 5) dois possíveis fatores potencializadores dos ingredientes da competência industriosa, a saber, a transdução e os não-humanos. A partir de todo o exposto, as últimas considerações problematizam aspectos relativos ao debate sobre competências e práticas de gestão de pessoas a partir da competência compreendida da seguinte forma: mestria no ato de tirar partido do meio e de si para gerir situações de trabalho, em que a ação consiste na mobilização de recursos dificilmente perceptíveis e descritíveis, inerentes ao trabalhador, porém constituídos e manifestos por usos de si por si e pelos outros no e para o ato real de trabalho, marcadamente num nível infinitesimal, diante de situações que demandam aplicação de protocolos concomitante à gestão de variabilidades e eventos em parte inantecipáveis e inelimináveis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A análise de hidrocarbonetos por técnicas de ionização a pressão atmosférica ou ambiente continua a ser um desafio na espectrometria de massas. Normalmente, a ionização ocorre através de mecanismos de protonação e desprotonação. Para isso, as moléculas de interesse devem apresentar um grupo básico ou ácido que proporcionem a geração de íons [M+H]+ ou [M-H]-. Para superar essa limitação, um método analítico simples, fácil, rápido e poderoso foi desenvolvido com sucesso, adaptado a partir da literatura, para ionizar saturado e insaturado, linear, ramificado, e hidrocarbonetos cíclicos, bem como hidrocarbonetos poliaromáticos e heteroaromáticos presentes em frações de hidrocarbonetos e de misturas de parafina/petróleo bruto utilizando ionização química à pressão atmosférica (APCI), favorecido pela utilização de solventes alifáticos de cadeia curta em um espectrômetro de massas FT-ICR. Entre os reagentes alifáticos estudados, isoctano proporcionou os melhores resultados quando comparado com outros solventes. Além disso, foram estudados outros interferentes do processo de ionização, como concentração da solução injetada e misturas parafina/óleo, que influenciavam desde o perfil dos espectros até as principais classes de compostos identificados. O método torna possível a ionização de hidrocarbonetos pela produção de íons [M -H]+ sem ocorrência de fragmentação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Forest cover of the Maringá municipality, located in northern Parana State, was mapped in this study. Mapping was carried out by using high-resolution HRC sensor imagery and medium resolution CCD sensor imagery from the CBERS satellite. Images were georeferenced and forest vegetation patches (TOFs - trees outside forests) were classified using two methods of digital classification: reflectance-based or the digital number of each pixel, and object-oriented. The areas of each polygon were calculated, which allowed each polygon to be segregated into size classes. Thematic maps were built from the resulting polygon size classes and summary statistics generated from each size class for each area. It was found that most forest fragments in Maringá were smaller than 500 m². There was also a difference of 58.44% in the amount of vegetation between the high-resolution imagery and medium resolution imagery due to the distinct spatial resolution of the sensors. It was concluded that high-resolution geotechnology is essential to provide reliable information on urban greens and forest cover under highly human-perturbed landscapes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Phenolic compounds have been extensively studied in recent years. The presence of these compounds in various foods has been associated with sensory and health promoting properties. These products from the secondary metabolism of plants act as defense mechanisms against environmental stress and attack by other organisms. They are divided into different classes according to their chemical structures. The objective of this study was to describe the different classes of phenolic compounds, the main food sources and factors of variation, besides methods for the identification and quantification commonly used to analyze these compounds. Moreover, the role of phenolic compounds in scavenging oxidative stress and the techniques of in vitro antioxidant evaluation are discussed. In vivo studies to evaluate the biological effects of these compounds and their impact on chronic disease prevention are presented as well. Finally, it was discussed the role of these compounds on the sensory quality of foods.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Background: Several studies link the seamless fit of implant-supported prosthesis with the accuracy of the dental impression technique obtained during acquisition. In addition, factors such as implant angulation and coping shape contribute to implant misfit. Purpose: The aim of this study was to identify the most accurate impression technique and factors affecting the impression accuracy. Material and Methods: A systematic review of peer-reviewed literature was conducted analyzing articles published between 2009 and 2013. The following search terms were used: implant impression, impression accuracy, and implant misfit.A total of 417 articles were identified; 32 were selected for review. Results: All 32 selected studies refer to in vitro studies. Fourteen articles compare open and closed impression technique, 8 advocate the open technique, and 6 report similar results. Other 14 articles evaluate splinted and non-splinted techniques; all advocating the splinted technique. Polyether material usage was reported in nine; six studies tested vinyl polysiloxane and one study used irreversible hydrocolloid. Eight studies evaluated different copings designs. Intraoral optical devices were compared in four studies. Conclusions: The most accurate results were achieved with two configurations: (1) the optical intraoral system with powder and (2) the open technique with splinted squared transfer copings, using polyether as impression material.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Micronuclei (MN) in exfoliated epithelial cells are widely used as biomarkers of cancer risk in humans. MN are classified as biomarkers of the break age and loss of chromosomes. They are small, extra nuclear bodies that arise in dividing cells from centric chromosome/chromatid fragments or whole chromosomes/chromatids that lag behind in anaphase and are not included in the daughter nuclei in telophase. Buccal mucosa cells have been used in biomonitoring exposed populations because these cells are in the direct route of exposure to ingested pollutant, are capable of metabolizing proximate carcinogens to reactive chemicals, and are easily and rapidly collected by brushing the buccal mucosa. The objective of the present study was to further investigate if, and to what extent, different stains have an effect on the results of micronuclei studies in exfoliated cells. These techniques are: Papanicolaou (PAP), Modified Papanicolaou, May-Grünwald Giemsa (MGG), Giemsa, Harris’s Hematoxylin, Feulgen with Fast Green counterstain and Feulgen without counterstain.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Storm- and tsunami-deposits are generated by similar depositional mechanisms making their discrimination hard to establish using classic sedimentologic methods. Here we propose an original approach to identify tsunami-induced deposits by combining numerical simulation and rock magnetism. To test our method, we investigate the tsunami deposit of the Boca do Rio estuary generated by the 1755 earthquake in Lisbon which is well described in the literature. We first test the 1755 tsunami scenario using a numerical inundation model to provide physical parameters for the tsunami wave. Then we use concentration (MS. SIRM) and grain size (chi(ARM), ARM, B1/2, ARM/SIRM) sensitive magnetic proxies coupled with SEM microscopy to unravel the magnetic mineralogy of the tsunami-induced deposit and its associated depositional mechanisms. In order to study the connection between the tsunami deposit and the different sedimentologic units present in the estuary, magnetic data were processed by multivariate statistical analyses. Our numerical simulation show a large inundation of the estuary with flow depths varying from 0.5 to 6 m and run up of similar to 7 m. Magnetic data show a dominance of paramagnetic minerals (quartz) mixed with lesser amount of ferromagnetic minerals, namely titanomagnetite and titanohematite both of a detrital origin and reworked from the underlying units. Multivariate statistical analyses indicate a better connection between the tsunami-induced deposit and a mixture of Units C and D. All these results point to a scenario where the energy released by the tsunami wave was strong enough to overtop and erode important amount of sand from the littoral dune and mixed it with reworked materials from underlying layers at least 1 m in depth. The method tested here represents an original and promising tool to identify tsunami-induced deposits in similar embayed beach environments.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A organização automática de mensagens de correio electrónico é um desafio actual na área da aprendizagem automática. O número excessivo de mensagens afecta cada vez mais utilizadores, especialmente os que usam o correio electrónico como ferramenta de comunicação e trabalho. Esta tese aborda o problema da organização automática de mensagens de correio electrónico propondo uma solução que tem como objectivo a etiquetagem automática de mensagens. A etiquetagem automática é feita com recurso às pastas de correio electrónico anteriormente criadas pelos utilizadores, tratando-as como etiquetas, e à sugestão de múltiplas etiquetas para cada mensagem (top-N). São estudadas várias técnicas de aprendizagem e os vários campos que compõe uma mensagem de correio electrónico são analisados de forma a determinar a sua adequação como elementos de classificação. O foco deste trabalho recai sobre os campos textuais (o assunto e o corpo das mensagens), estudando-se diferentes formas de representação, selecção de características e algoritmos de classificação. É ainda efectuada a avaliação dos campos de participantes através de algoritmos de classificação que os representam usando o modelo vectorial ou como um grafo. Os vários campos são combinados para classificação utilizando a técnica de combinação de classificadores Votação por Maioria. Os testes são efectuados com um subconjunto de mensagens de correio electrónico da Enron e um conjunto de dados privados disponibilizados pelo Institute for Systems and Technologies of Information, Control and Communication (INSTICC). Estes conjuntos são analisados de forma a perceber as características dos dados. A avaliação do sistema é realizada através da percentagem de acerto dos classificadores. Os resultados obtidos apresentam melhorias significativas em comparação com os trabalhos relacionados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Storm- and tsunami-deposits are generated by similar depositional mechanisms making their discrimination hard to establish using classic sedimentologic methods. Here we propose an original approach to identify tsunami-induced deposits by combining numerical simulation and rock magnetism. To test our method, we investigate the tsunami deposit of the Boca do Rio estuary generated by the 1755 earthquake in Lisbon which is well described in the literature. We first test the 1755 tsunami scenario using a numerical inundation model to provide physical parameters for the tsunami wave. Then we use concentration (MS. SIRM) and grain size (chi(ARM), ARM, B1/2, ARM/SIRM) sensitive magnetic proxies coupled with SEM microscopy to unravel the magnetic mineralogy of the tsunami-induced deposit and its associated depositional mechanisms. In order to study the connection between the tsunami deposit and the different sedimentologic units present in the estuary, magnetic data were processed by multivariate statistical analyses. Our numerical simulation show a large inundation of the estuary with flow depths varying from 0.5 to 6 m and run up of similar to 7 m. Magnetic data show a dominance of paramagnetic minerals (quartz) mixed with lesser amount of ferromagnetic minerals, namely titanomagnetite and titanohematite both of a detrital origin and reworked from the underlying units. Multivariate statistical analyses indicate a better connection between the tsunami-induced deposit and a mixture of Units C and D. All these results point to a scenario where the energy released by the tsunami wave was strong enough to overtop and erode important amount of sand from the littoral dune and mixed it with reworked materials from underlying layers at least 1 m in depth. The method tested here represents an original and promising tool to identify tsunami-induced deposits in similar embayed beach environments.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Recently, several distributed video coding (DVC) solutions based on the distributed source coding (DSC) paradigm have appeared in the literature. Wyner-Ziv (WZ) video coding, a particular case of DVC where side information is made available at the decoder, enable to achieve a flexible distribution of the computational complexity between the encoder and decoder, promising to fulfill novel requirements from applications such as video surveillance, sensor networks and mobile camera phones. The quality of the side information at the decoder has a critical role in determining the WZ video coding rate-distortion (RD) performance, notably to raise it to a level as close as possible to the RD performance of standard predictive video coding schemes. Towards this target, efficient motion search algorithms for powerful frame interpolation are much needed at the decoder. In this paper, the RD performance of a Wyner-Ziv video codec is improved by using novel, advanced motion compensated frame interpolation techniques to generate the side information. The development of these type of side information estimators is a difficult problem in WZ video coding, especially because the decoder only has available some reference, decoded frames. Based on the regularization of the motion field, novel side information creation techniques are proposed in this paper along with a new frame interpolation framework able to generate higher quality side information at the decoder. To illustrate the RD performance improvements, this novel side information creation framework has been integrated in a transform domain turbo coding based Wyner-Ziv video codec. Experimental results show that the novel side information creation solution leads to better RD performance than available state-of-the-art side information estimators, with improvements up to 2 dB: moreover, it allows outperforming H.264/AVC Intra by up to 3 dB with a lower encoding complexity.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The rapid growth in genetics and molecular biology combined with the development of techniques for genetically engineering small animals has led to increased interest in in vivo small animal imaging. Small animal imaging has been applied frequently to the imaging of small animals (mice and rats), which are ubiquitous in modeling human diseases and testing treatments. The use of PET in small animals allows the use of subjects as their own control, reducing the interanimal variability. This allows performing longitudinal studies on the same animal and improves the accuracy of biological models. However, small animal PET still suffers from several limitations. The amounts of radiotracers needed, limited scanner sensitivity, image resolution and image quantification issues, all could clearly benefit from additional research. Because nuclear medicine imaging deals with radioactive decay, the emission of radiation energy through photons and particles alongside with the detection of these quanta and particles in different materials make Monte Carlo method an important simulation tool in both nuclear medicine research and clinical practice. In order to optimize the quantitative use of PET in clinical practice, data- and image-processing methods are also a field of intense interest and development. The evaluation of such methods often relies on the use of simulated data and images since these offer control of the ground truth. Monte Carlo simulations are widely used for PET simulation since they take into account all the random processes involved in PET imaging, from the emission of the positron to the detection of the photons by the detectors. Simulation techniques have become an importance and indispensable complement to a wide range of problems that could not be addressed by experimental or analytical approaches.