66 resultados para Goiabada - Processamento - Teses
Resumo:
A gaseificação utiliza o conteúdo intrínseco de carbonos e hidrogênios das matérias primas sólidas ou líquidas na geração de uma mistura de hidrogênio (H2), monóxido de carbono (CO), dióxido de carbono (CO2) e metano (CH4). Tal mistura pode ser utilizada como matéria prima na síntese de novos produtos ou como combustível. A gaseificação pode ser utilizada no processamento de uma gama variada de produtos, independentemente de suas características ou estado físico. A utilização de biomassa como insumo da gaseificação vem sendo cada vez mais explorada e estudada, já que apresenta benefícios não somente na esfera ambiental, mas também em âmbitos econômicos e sociais. A vinhaça é um subproduto do processo de produção de álcool, que contém grandes concentrações de nutrientes e matéria orgânica em sua composição. A sua utilização hoje está limitada a fertirrigação e a aplicações isoladas em biodigestão e outros, que não são suficientes para o consumo da produção anual crescente do resíduo. Seu uso na gaseificação permitiria o aproveitamento do conteúdo orgânico da mesma e a produção de gases de alto valor agregado. Como a umidade do insumo interfere negativamente na eficiência da gaseificação clássica, a aplicação da mesma para matérias primas com alto teor de líquidos não é recomendada. Uma alternativa viável seria a utilização do meio gaseificante supercrítico, que resulta em rendimentos constantes, independentemente da umidade da corrente de entrada do reator. O presente trabalho consiste no projeto de um módulo de gaseificação de vinhaça em água supercrítica, a ser instalado como uma unidade anexa a usinas de açúcar e álcool. Ele compreende o projeto conceitual e análise de viabilidade deste módulo, incluindo estimativas de CAPEX (Capital Expenditure) e OPEX (Operation Expenditure) e uma análise de sensibilidade dos mesmos. O estudo apresenta ainda o estado da arte do conhecimento e da tecnologia de gaseificação com água supercrítica (SCWG), relacionando os gargalos a serem resolvidos, assim como os ganhos intrínsecos da definição conceitual do projeto.
Resumo:
Introdução: Crianças com transtorno fonológico (TF) apresentam dificuldade na percepção de fala, em processar estímulos acústicos quando apresentados de forma rápida e em sequência. A percepção dos sons complexos da fala, dependem da integridade no processo de codificação analisado pelo Sistema Nervoso Auditivo. Por meio do Potencial Evocado Auditivo de Tronco Encefálico com estímulo complexo (PEATEc) é possível investigar a representação neural dos sons em níveis corticais e obter informações diretas sobre como a estrutura do som da sílaba falada é codificada no sistema auditivo. Porém, acredita-se que esse potencial sofre interferências tanto de processos bottom-up quanto top-down, o que não se sabe é quanto e como cada um desses processos modifica as respostas do PEATEc. Uma das formas de investigar a real influência dos aspectos top-down e bottom-up nos resultados do PEATEc é estimulando separadamente esses dois processos por meio do treinamento auditivo e da terapia fonoaudiológica. Objetivo: Verificar o impacto da estimulação sensorial (processamento bottom-up) e cognitiva (processamento top-down), separadamente, nos diferentes domínios da resposta eletrofisiológica do PEATEc. Método: Participaram deste estudo 11 crianças diagnosticadas com TF, com idades entre 7 e 10:11, submetidas a avaliação comportamental e eletrofisiológica e então dividas nos grupos Bottom-up (B-U) (N=6) e Top-down T-D (N=5). A estimulação bottom-up foi voltada ao treinamento das habilidades sensoriais, através de softwares de computador. A estimulação top-down foi realizada por meio de tarefas para estimular as habilidades cognitiva por meio do Programa de Estimulação Fonoaudiológica (PEF). Ambas as estimulações foram aplicadas uma vez por semana, num período de aproximadamente 45 minutos por 12 semanas. Resultados: O grupo B-U apresentou melhoras em relação aos domínios onset e harmônicos e no valor da pontuação do escore após ser submetido à estimulação bottom-up. Por sua vez, após serem submetidos à estimulação top-down, o grupo T-D apresentou melhoras em relação aos domínios onset, espectro-temporal, fronteiras do envelope e harmônicos e para os valores da pontuação do escore. Conclusão: Diante dos resultados obtidos neste estudo, foi possível observar que a estimulação sensorial (processamento bottom-up) e a estimulação cognitiva (processamento top-down) mostraram impactar de forma diferente a resposta eletrofisiológica do PEATEc
Resumo:
Introdução: A esclerose mesial temporal (EMT) é a principal causa de epilepsia resistente ao tratamento medicamentoso. Pacientes com EMT apresentam dificuldades no processamento semântico e fonológico de linguagem e maior incidência de reorganização cerebral da linguagem (bilateral ou à direita) em relação à população geral. A ressonância magnética funcional (RMf) permite avaliar a reorganização cerebral das redes de linguagem, comparando padrões de ativação cerebral entre diversas regiões cerebrais. Objetivo: Investigar o desempenho linguístico de pacientes com EMT unilateral esquerda e direita e a ocorrência de reorganização das redes de linguagem com RMf para avaliar se a reorganização foi benéfica para a linguagem nestes pacientes. Métodos: Utilizamos provas clínicas de linguagem e paradigmas de nomeação visual e responsiva para RMf, desenvolvidos para este estudo. Foram avaliados 24 pacientes com EMTe, 22 pacientes com EMTd e 24 controles saudáveis, submetidos a provas de linguagem (fluência semântica e fonológica, nomeação de objetos, verbos, nomes próprios e responsiva, e compreensão de palavras) e a três paradigmas de linguagem por RMf [nomeação por confrontação visual (NCV), nomeação responsiva à leitura (NRL) e geração de palavras (GP)]. Seis regiões cerebrais de interesse (ROI) foram selecionadas (giro frontal inferior, giro frontal médio, giro frontal superior, giro temporal inferior, giro temporal médio e giro temporal superior). Índices de Lateralidade (ILs) foram calculados com dois métodos: bootstrap, do programa LI-Toolbox, independe de limiar, e PSC, que indica a intensidade da ativação cerebral de cada voxel. Cada grupo de pacientes (EMTe e EMTd) foi dividido em dois subgrupos, de acordo com o desempenho em relação aos controles na avaliação clinica de linguagem. O <= -1,5 foi utilizado como nota de corte para dividir os grupos em pacientes com bom e com mau desempenho de linguagem. Em seguida, comparou-se o desempenho linguístico dos subgrupos ao índices IL-boot. Resultados: Pacientes com EMT esquerda e direita mostraram pior desempenho que controles nas provas clínicas de nomeação de verbos, nomeação de nomes próprios, nomeação responsiva e fluência verbal. Os mapas de ativação cerebral por RMf mostraram efeito BOLD em regiões frontais e temporoparietais de linguagem. Os mapas de comparação de ativação cerebral entre os grupos revelaram que pacientes com EMT esquerda e direita apresentam maior ativação em regiões homólogas do hemisfério direito em relação aos controles. Os ILs corroboraram estes resultados, mostrando valores médios menores para os pacientes em relação aos controles e, portanto, maior simetria na representação da linguagem. A comparação entre o IL-boot e o desempenho nas provas clínicas de linguagem indicou que, no paradigma de nomeação responsiva à leitura, a reorganização funcional no giro temporal médio, e possivelmente, nos giros temporal inferior e superior associou-se a desempenho preservado em provas de nomeação. Conclusão: Pacientes com EMT direita e esquerda apresentam comprometimento de nomeação e fluência verbal e reorganização da rede cerebral de linguagem. A reorganização funcional de linguagem em regiões temporais, especialmente o giro temporal médio associou-se a desempenho preservado em provas de nomeação em pacientes com EMT esquerda no paradigma de RMf de nomeação responsiva à leitura
Resumo:
Introdução: Embora alterações estruturais cerebrais na esquizofrenia venham sendo repetidamente demonstradas em estudos de ressonância magnética (RM), ainda permanece incerto se tais alterações são estáticas ou progressivas. Enquanto estudos longitudinais são tradicionalmente utilizados na avaliação da questão da progressão, estudos transversais de neuroimagem comparando diretamente pacientes com esquizofrenia crônica e de primeiro episódio a controles saudáveis têm sido bastante raros até o presente. Com o recente interesse em meganálises combinando dados multicêntricos de RM visando-se a maior poder estatístico, o presente estudo multicêntrico de morfometria baseada no voxel (VBM) foi realizado para avaliar os padrões de alterações estruturais cerebrais segundo os diferentes estágios da doença, bem como para avaliar quais (se alguma) dessas alterações se correlacionariam especificamente a moderadores clínicos potenciais, tais como exposição cumulativa a antipsicóticos, tempo de doença e gravidade da doença. Métodos: Selecionou-se uma ampla amostra de pacientes com esquizofrenia (161, sendo 99 crônicos e 62 de primeiro episódio) e controles (151) a partir de quatro estudos prévios de RM (1,5T) realizados na mesma região do Brasil. O processamento e análise das imagens foi realizado usando-se o software Statistical Parametric Mapping (SPM8) com emprego do algoritmo DARTEL (diffeomorphic anatomical registration through exponentiated Lie algebra). Os efeitos de grupo sobre os volumes regionais de substância cinzenta (SC) foram analisados através de comparações voxel-a-voxel por análises de covariância em modelos lineares gerais, inserindo-se, em todas as análises, o volume total de SC, protocolo do scanner, idade e sexo como variáveis de confusão. Por fim, foram realizadas análises de correlação entre os aludidos moderadores clínicos potenciais e os volumes cerebrais globais e regionais. Resultados: Os pacientes com esquizofrenia de primeiro episódio apresentaram reduções volumétricas sutis em comparação aos controles, em um circuito neural circunscrito e identificável apenas em análises SVC (small volume correction) [p < 0.05, com correção family-wise error (FWE)], incluindo a ínsula, estruturas têmporo-límbicas e corpo estriado. Os pacientes crônicos, por outro lado, apresentaram um padrão de alterações extensas comparativamente aos controles, envolvendo os córtices frontais orbitais, superiores e inferiores bilateralmente, córtex frontal médio direito, ambos os córtices cingulados anteriores, ambas as ínsulas, e os córtices temporais superior e médio direitos (p < 0.05, análises whole-brain com correção FWE). Foram encontradas correlações negativas significantes entre exposição cumulativa a antipsicóticos e volumes globais de SC e substância branca nos pacientes com esquizofrenia, embora as correlações com reduções regionais não tenham sido significantes. Detectaram-se, ainda, correlações negativas significantes entre tempo de doença e volumes regionais relativos da ínsula esquerda, córtex cingulado anterior direito e córtices pré-frontais dorsolaterais nas análises SVC para os grupos conjuntos (esquizofrenia crônica e de primeiro episódio). Conclusão: Os achados supracitados indicam que: a) as alterações estruturais associadas com o diagnóstico de esquizofrenia são mais disseminadas na forma crônica em comparação à de primeiro episódio; b) reduções volumétricas regionais em áreas específicas do cérebro podem variar em função do tempo de doença; c) a exposição cumulativa a antipsicóticos associou-se a alterações volumétricas globais, e não regionais
Resumo:
ALICE is one of four major experiments of particle accelerator LHC installed in the European laboratory CERN. The management committee of the LHC accelerator has just approved a program update for this experiment. Among the upgrades planned for the coming years of the ALICE experiment is to improve the resolution and tracking efficiency maintaining the excellent particles identification ability, and to increase the read-out event rate to 100 KHz. In order to achieve this, it is necessary to update the Time Projection Chamber detector (TPC) and Muon tracking (MCH) detector modifying the read-out electronics, which is not suitable for this migration. To overcome this limitation the design, fabrication and experimental test of new ASIC named SAMPA has been proposed . This ASIC will support both positive and negative polarities, with 32 channels per chip and continuous data readout with smaller power consumption than the previous versions. This work aims to design, fabrication and experimental test of a readout front-end in 130nm CMOS technology with configurable polarity (positive/negative), peaking time and sensitivity. The new SAMPA ASIC can be used in both chambers (TPC and MCH). The proposed front-end is composed of a Charge Sensitive Amplifier (CSA) and a Semi-Gaussian shaper. In order to obtain an ASIC integrating 32 channels per chip, the design of the proposed front-end requires small area and low power consumption, but at the same time requires low noise. In this sense, a new Noise and PSRR (Power Supply Rejection Ratio) improvement technique for the CSA design without power and area impact is proposed in this work. The analysis and equations of the proposed circuit are presented which were verified by electrical simulations and experimental test of a produced chip with 5 channels of the designed front-end. The measured equivalent noise charge was <550e for 30mV/fC of sensitivity at a input capacitance of 18.5pF. The total core area of the front-end was 2300?m × 150?m, and the measured total power consumption was 9.1mW per channel.
Resumo:
A ciência na qual se estuda a deformação de um fluido no qual é aplicada uma tensão de cisalhamento é conhecida como reologia e o equipamento utilizado para a realização dos ensaios é chamado de reômetro. Devido a impraticabilidade de uso de reômetros comerciais, diversos pesquisadores desenvolveram reômetros capazes de analisar suspensões de macropartículas, baseados nos mesmos princípios de funcionamento dos equipamentos já existentes. Em alguns casos, a medição do torque do motor é realizada pela aquisição da tensão, uma vez que esta é proporcional ao torque. Entretanto, para melhor compreensão do resultado e para evitar a possibilidade de conclusões precipitadas, vê-se necessária correta interpretação do sinal elétrico, precisando avaliar qual frequência do sinal é relevante para o ensaio e, também, qual a melhor taxa de amostragem. Além da aquisição, para que o ensaio reológico seja realizado com precisão, é indispensável ótimo controle da taxa ou tensão do motor e uma alternativa é a utilização de um servomotor e um servoconversor. No caso desse ser comercial é essencial saber configurá-lo. Para facilitar o usuário leigo, alguns pesquisadores desenvolveram softwares para controle do equipamento e análise dos dados. Assim, o presente trabalho tem como objetivo propor uma metodologia para compreender o sinal aquisitado de um reômetro servo controlado e desenvolvimento do software de análise para o tratamento dos dados obtidos a partir de ensaios reológicos. Verificou-se a melhor configuração do servocontrolador, a melhor taxa de amostragem, de no mínimo 20 amostras/segundo, e, também, desenvolveu-se um filtro digital passa-baixa do tipo FIR para remover a frequência indesejada. Além disso, foi desenvolvido um software utilizando uma rotina em Matlab e uma interface gráfica do usuário (Graphical User Interface - GUI), para o pós-processamento dos dados para auxiliar o usuário leigo no tratamento e interpretação do resultado, que se mostrou eficaz.
Resumo:
Uma imagem engloba informação que precisa ser organizada para interpretar e compreender seu conteúdo. Existem diversas técnicas computacionais para extrair a principal informação de uma imagem e podem ser divididas em três áreas: análise de cor, textura e forma. Uma das principais delas é a análise de forma, por descrever características de objetos baseadas em seus pontos fronteira. Propomos um método de caracterização de imagens, por meio da análise de forma, baseada nas propriedades espectrais do laplaciano em grafos. O procedimento construiu grafos G baseados nos pontos fronteira do objeto, cujas conexões entre vértices são determinadas por limiares T_l. A partir dos grafos obtêm-se a matriz de adjacência A e a matriz de graus D, as quais definem a matriz Laplaciana L=D -A. A decomposição espectral da matriz Laplaciana (autovalores) é investigada para descrever características das imagens. Duas abordagens são consideradas: a) Análise do vetor característico baseado em limiares e a histogramas, considera dois parâmetros o intervalo de classes IC_l e o limiar T_l; b) Análise do vetor característico baseado em vários limiares para autovalores fixos; os quais representam o segundo e último autovalor da matriz L. As técnicas foram testada em três coleções de imagens: sintéticas (Genéricas), parasitas intestinais (SADPI) e folhas de plantas (CNShape), cada uma destas com suas próprias características e desafios. Na avaliação dos resultados, empregamos o modelo de classificação support vector machine (SVM), o qual avalia nossas abordagens, determinando o índice de separação das categorias. A primeira abordagem obteve um acerto de 90 % com a coleção de imagens Genéricas, 88 % na coleção SADPI, e 72 % na coleção CNShape. Na segunda abordagem, obtém-se uma taxa de acerto de 97 % com a coleção de imagens Genéricas; 83 % para SADPI e 86 % no CNShape. Os resultados mostram que a classificação de imagens a partir do espectro do Laplaciano, consegue categorizá-las satisfatoriamente.
Resumo:
O presente trabalho está fundamentado no desenvolvimento de uma metodologia e/ou uma tecnologia de obtenção e caracterização de filtros ópticos de interferência de banda passante variável [C.M. da Silva, 2010] e de banda de corte variáveis, constituídos por refletores dielétricos multicamadas de filmes finos intercalados por cavidades de Fabry-Perot não planares com espessuras linearmente variáveis, que apresentam a propriedade do deslocamento linear da transmitância máxima espectral em função da posição, isto é, um Filtro de Interferência Variável (FIV). Este método apresenta novas e abrangentes possibilidades de confecção de filtros ópticos de interferência variável: lineares ou em outras formas desejadas, de comprimento de onda de corte variável (passa baixa ou alta) e filtros de densidade neutra variável, através da deposição de metais, além de aplicações em uma promissora e nova área de pesquisa na deposição de filmes finos não uniformes. A etapa inicial deste desenvolvimento foi o estudo da teoria dos filtros ópticos dielétricos de interferência para projetar e construir um filtro óptico banda passante convencional de um comprimento de onda central com camadas homogêneas. A etapa seguinte, com base na teoria óptica dos filmes finos já estabelecida, foi desenvolver a extensão destes conhecimentos para determinar que a variação da espessura em um perfil inclinado e linear da cavidade entre os refletores de Bragg é o principal parâmetro para produzir o deslocamento espacial da transmitância espectral, possibilitando o uso de técnicas especiais para se obter uma variação em faixas de bandas de grande amplitude, em um único filtro. Um trabalho de modelagem analítica e análise de tolerância de espessuras dos filmes depositados foram necessários para a seleção da estratégia do \"mascaramento\" seletivo do material evaporado formado na câmara e-Beam (elétron-Beam) com o objetivo da obtenção do filtro espectral linear variável de características desejadas. Para tanto, de acordo com os requisitos de projeto, foram necessárias adaptações em uma evaporadora por e-Beam para receber um obliterador mecânico especialmente projetado para compatibilizar os parâmetros das técnicas convencionais de deposição com o objetivo de se obter um perfil inclinado, perfil este previsto em processos de simulação para ajustar e calibrar a geometria do obliterador e se obter um filme depositado na espessura, conformação e disposição pretendidos. Ao final destas etapas de modelagem analítica, simulação e refinamento recorrente, foram determinados os parâmetros de projeto para obtenção de um determinado FIV (Filtro de Interferência Variável) especificado. Baseadas nos FIVs muitas aplicações são emergentes: dispositivos multi, hiper e ultra espectral para sensoriamento remoto e análise ambiental, sistemas Lab-on-Chip, biossensores, detectores chip-sized, espectrofotometria de fluorescência on-chip, detectores de deslocamento de comprimento de onda, sistemas de interrogação, sistemas de imageamento espectral, microespectrofotômetros e etc. No escopo deste trabalho se pretende abranger um estudo de uma referência básica do emprego do (FIV) filtro de interferência variável como detector de varredura de comprimento de ondas em sensores biológicos e químicos compatível com pós processamento CMOS. Um sistema básico que é constituído por um FIV montado sobre uma matriz de sensores ópticos conectada a um módulo eletrônico dedicado a medir a intensidade da radiação incidente e as bandas de absorção das moléculas presentes em uma câmara de detecção de um sistema próprio de canais de microfluidos, configurando-se em um sistema de aquisição e armazenamento de dados (DAS), é proposto para demonstrar as possibilidades do FIV e para servir de base para estudos exploratórios das suas diversas potencialidades que, entre tantas, algumas são mencionadas ao longo deste trabalho. O protótipo obtido é capaz de analisar fluidos químicos ou biológicos e pode ser confrontado com os resultados obtidos por equipamentos homologados de uso corrente.
Resumo:
ALICE is one of four major experiments of particle accelerator LHC installed in the European laboratory CERN. The management committee of the LHC accelerator has just approved a program update for this experiment. Among the upgrades planned for the coming years of the ALICE experiment is to improve the resolution and tracking efficiency maintaining the excellent particles identification ability, and to increase the read-out event rate to 100 KHz. In order to achieve this, it is necessary to update the Time Projection Chamber detector (TPC) and Muon tracking (MCH) detector modifying the read-out electronics, which is not suitable for this migration. To overcome this limitation the design, fabrication and experimental test of new ASIC named SAMPA has been proposed . This ASIC will support both positive and negative polarities, with 32 channels per chip and continuous data readout with smaller power consumption than the previous versions. This work aims to design, fabrication and experimental test of a readout front-end in 130nm CMOS technology with configurable polarity (positive/negative), peaking time and sensitivity. The new SAMPA ASIC can be used in both chambers (TPC and MCH). The proposed front-end is composed of a Charge Sensitive Amplifier (CSA) and a Semi-Gaussian shaper. In order to obtain an ASIC integrating 32 channels per chip, the design of the proposed front-end requires small area and low power consumption, but at the same time requires low noise. In this sense, a new Noise and PSRR (Power Supply Rejection Ratio) improvement technique for the CSA design without power and area impact is proposed in this work. The analysis and equations of the proposed circuit are presented which were verified by electrical simulations and experimental test of a produced chip with 5 channels of the designed front-end. The measured equivalent noise charge was <550e for 30mV/fC of sensitivity at a input capacitance of 18.5pF. The total core area of the front-end was 2300?m × 150?m, and the measured total power consumption was 9.1mW per channel.
Resumo:
O buriti (Mauritia flexuosa L.) é um fruto rico em carotenoides, ácidos graxos e compostos fenólicos com grande potencial de industrialização. Entretanto, sua vida útil reduzida dificulta a comercialização e um maior aproveitamento. Dessa forma, tecnologias de processamento podem ser empregadas para que haja maior utilização e expansão do buriti. Este trabalho teve como objetivo caracterizar polpa de buriti congelada, liofilizada e atomizada, quantificando os compostos bioativos (carotenoides e ácidos graxos), a composição centesimal e mineral, além de avaliar a estabilidade química e funcional da polpa submetida a esses tratamentos ao longo do tempo de armazenamento. Polpas de buriti oriunda da Comunidade Boa Vista, zona rural do município de Arinos, MG, foram submetidas a três processamentos: congelamento (eleito como controle), liofilização e atomização (com adição de maltodextrina como coadjuvante de tecnologia). Após o processamento, as polpas foram acondicionadas em embalagens laminadas compostas por poliéster, alumínio e polietileno (25 x 25 cm), com capacidade para 100 g cada, e armazenadas a -23 °C para o congelamento e a temperatura ambiente para as polpas desidratadas. As análises físicas, químicas, nutricionais e funcionais foram realizadas logo após o processamento, para caracterização das polpas e nos períodos: 1, 14, 28, 42 e 56 dias, para avaliação da estabilidade. O delineamento experimental empregado constituiu-se de dois fatores (processamento e período) e a interação entre eles. Os dados foram analisados estatisticamente por meio da Análise de Variância Univariada (ANOVA) com nível de significância de 5 %. Constatou-se que durante a estocagem a polpa liofilizada apresentou maior brilho, menor opacidade, valores inferiores para o pH, menor variação da atividade de água e maior acidez titulável. Esses parâmetros são importantes indicadores de qualidade da polpa durante a sua estocagem, visto que dificultam o desenvolvimento microbiano. A adição da maltodextrina no processo de atomização acarretou maiores teores de sólidos solúveis em relação aos demais tratamentos. Os resultados demonstraram que, ao longo do armazenamento, a liofilização contribuiu para a melhor preservação dos carotenoides totais. A quantificação dos carotenoides e dos ácidos graxos na polpa congelada demonstrou que houve melhor preservação de carotenoides do tipo alfa e beta caroteno, dos ácidos graxos oleico, indicando maior valor nutricional para a alimentação humana. Apesar dos resultados satisfatórios para a polpa congelada, durante o tempo analisado a polpa congelada apresentou maiores perdas em relação à polpa liofilizada. Para a classe dos compostos fenólicos, a liofilização apresentou melhores resultados ao longo da estocagem. O uso de baixas temperaturas foi mais efetivo para a preservação dos compostos bioativos analisados. Portanto, pode-se concluir que o emprego da liofilização é a alternativa mais adequada entre as avaliadas, para o aproveitamento da polpa de buriti na indústria de alimentos, uma vez que esse tratamento preservou todos os constituintes avaliados durante a estocagem.
Resumo:
A celulose é o polímero natural renovável disponível em maior abundância atualmente. Por possuir estrutura semicristalina, é possível extrair seus domínios cristalinos através de procedimentos que ataquem sua fase amorfa, como a hidrólise ácida, obtendo-se assim partículas cristalinas chamadas nanopartículas de celulose (NCs). Estas nanopartículas têm atraído enorme interesse científico, uma vez que possuem propriedades mecânicas, como módulo de elasticidade e resistência à tração, semelhantes a várias cargas inorgânicas utilizadas na fabricação de compósitos. Além disso, possuem dimensões nanométricas, o que contribui para menor adição de carga à matriz polimérica, já que possuem maior área de superfície, quando comparadas às cargas micrométricas. Nanocompósitos formados pela adição destas cargas em matrizes poliméricas podem apresentar propriedades comerciais atraentes, como barreira a gases, melhores propriedades térmicas e baixa densidade, quando comparados aos compósitos tradicionais. Como se trata de uma carga com dimensões nanométricas, obtida de fontes renováveis, uma das principais áreas de interesse para aplicação deste reforço é em biopolímeros biodegradáveis. O poli(ácido lático) (PLA), é um exemplo de biopolímero com propriedades mecânicas, térmicas e de processamento superiores a de outros biopolímeros comerciais. No presente trabalho foram obtidas nanopartículas de celulose (NCs), por meio de hidrólise ácida, utilizando-se três métodos distintos, com o objetivo de estudar o método mais eficiente para a obtenção de NCs adequadas à aplicação em compósitos de PLA. Os Métodos I e II empregam extração das NCs por meio do H2SO4, diferenciando-se apenas pela neutralização, a qual envolve diálise ou neutralização com NaHCO3, respectivamente. No Método III a extração das NCs foi realizada com H3PO4. As NCs foram caracterizadas por diferentes técnicas, como difração de raios X (DRX), análise termogravimétrica (TG), espectroscopia vibracional de absorção no infravermelho (FTIR), microscopia eletrônica de transmissão (MET) e microscopia de força atômica (MFA). Os resultados de caracterização das NCs indicaram que, a partir de todos os métodos utilizados, há formação de nanocristais de celulose (NCCs), entretanto, apenas os NCCs obtidos pelos Métodos II e III apresentaram estabilidade térmica suficiente para serem empregados em compósitos preparados por adição da carga no polímero em estado fundido. A incorporação das NCs em matriz de PLA foi realizada em câmara de mistura, com posterior moldagem por prensagem a quente. Compósitos obtidos por adição de NCs obtidas pelo Método II foram caracterizados por calorimetria exploratória diferencial (DSC), análise termogravimétrica, microscopia óptica, análises reológicas e microscopia eletrônica de varredura (MEV). A adição de NCs, extraídas pelo Método II, em matriz de PLA afetou o processo de cristalização do polímero, o qual apresentou maior grau de cristalinidade. Além disso, a adição de 3% em massa de NCs no PLA foi suficiente para alterar seu comportamento reológico. Os resultados reológicos indicaram que a morfologia do compósito é, predominantemente, composta por uma dispersão homogênea e fina da carga na fase matriz. Micrografias obtidas por MEV corroboram os resultados reológicos, mostrando, predominantemente a presença de partículas de NC em escala nanométrica. Compósitos de PLA com NCs obtidas pelo Método III apresentaram aglomerados de partículas de NC em escala micro e milimétrica, ao longo da fase matriz, e não foram extensivamente caracterizados.
Resumo:
O Brasil ocupa o 3º lugar entre os maiores produtores mundiais de cerveja e o mercado consumidor vem aumentando progressivamente. Tendo em vista que o consumidor brasileiro está em busca de novos sabores e aromas para a cerveja, uma alternativa para a redução de custos explorando tais características reside no uso de adjuntos não convencionais que possam agregar valor à bebida, principalmente na obtenção de boas características sensoriais. Ainda, visando à sustentabilidade, estes adjuntos podem ser coprodutos do processamento de alimentos. O permeado concentrado de leite, um coproduto dos laticínios, é obtido através da ultrafiltração do leite, sendo composto por água, lactose e sais. Neste trabalho foi desenvolvido um processo para a produção de uma cerveja de alta fermentação (ale), utilizando o permeado concentrado de leite como adjunto de fabricação. Foram obtidas cervejas ale com a proporção malte/permeado de 55/45 e 90/10, utilizando para isso, permeado hidrolisado pela enzima ?-galactosidase e permeado não hidrolisado. A caracterização do permeado revelou que este possui três vezes mais lactose que o soro de queijo. A melhor condição de hidrólise enzimática da lactose presente no permeado foi obtida empregando-se 2,0 mL/L de ?-galactosidase em 90 minutos, alcançando 92,5% de hidrólise. Nas cervejas com permeado hidrolisado observou-se que a presença de galactose aumentou o tempo de fermentação para 168h e a atenuação real de fermentação dos mostos também foi maior em comparação as cervejas com permeado não hidrolisado, nos quais a lactose não foi fermentada. As cervejas 90/10 com permeado hidrolisado e não hidrolisado receberam as maiores notas na análise sensorial, tendo boa aceitação entre os provadores. Como não houve diferença estatística entre as duas, foi possível reduzir custo e tempo na produção da cerveja 90/10 em escala piloto (120L) por não ser necessário o processo de hidrólise enzimática. O permeado concentrado de leite mostrou-se um excelente adjunto na produção de cervejas ale e quando empregado em baixa concentração, produziu cervejas com boa aceitação sensorial.
Resumo:
Devido às tendências de crescimento da quantidade de dados processados e a crescente necessidade por computação de alto desempenho, mudanças significativas estão acontecendo no projeto de arquiteturas de computadores. Com isso, tem-se migrado do paradigma sequencial para o paralelo, com centenas ou milhares de núcleos de processamento em um mesmo chip. Dentro desse contexto, o gerenciamento de energia torna-se cada vez mais importante, principalmente em sistemas embarcados, que geralmente são alimentados por baterias. De acordo com a Lei de Moore, o desempenho de um processador dobra a cada 18 meses, porém a capacidade das baterias dobra somente a cada 10 anos. Esta situação provoca uma enorme lacuna, que pode ser amenizada com a utilização de arquiteturas multi-cores heterogêneas. Um desafio fundamental que permanece em aberto para estas arquiteturas é realizar a integração entre desenvolvimento de código embarcado, escalonamento e hardware para gerenciamento de energia. O objetivo geral deste trabalho de doutorado é investigar técnicas para otimização da relação desempenho/consumo de energia em arquiteturas multi-cores heterogêneas single-ISA implementadas em FPGA. Nesse sentido, buscou-se por soluções que obtivessem o melhor desempenho possível a um consumo de energia ótimo. Isto foi feito por meio da combinação de mineração de dados para a análise de softwares baseados em threads aliadas às técnicas tradicionais para gerenciamento de energia, como way-shutdown dinâmico, e uma nova política de escalonamento heterogeneity-aware. Como principais contribuições pode-se citar a combinação de técnicas de gerenciamento de energia em diversos níveis como o nível do hardware, do escalonamento e da compilação; e uma política de escalonamento integrada com uma arquitetura multi-core heterogênea em relação ao tamanho da memória cache L1.
Resumo:
A computação paralela permite uma série de vantagens para a execução de aplicações de grande porte, sendo que o uso efetivo dos recursos computacionais paralelos é um aspecto relevante da computação de alto desempenho. Este trabalho apresenta uma metodologia que provê a execução, de forma automatizada, de aplicações paralelas baseadas no modelo BSP com tarefas heterogêneas. É considerado no modelo adotado, que o tempo de computação de cada tarefa secundária não possui uma alta variância entre uma iteração e outra. A metodologia é denominada de ASE e é composta por três etapas: Aquisição (Acquisition), Escalonamento (Scheduling) e Execução (Execution). Na etapa de Aquisição, os tempos de processamento das tarefas são obtidos; na etapa de Escalonamento a metodologia busca encontrar a distribuição de tarefas que maximize a velocidade de execução da aplicação paralela, mas minimizando o uso de recursos, por meio de um algoritmo desenvolvido neste trabalho; e por fim a etapa de Execução executa a aplicação paralela com a distribuição definida na etapa anterior. Ferramentas que são aplicadas na metodologia foram implementadas. Um conjunto de testes aplicando a metodologia foi realizado e os resultados apresentados mostram que os objetivos da proposta foram alcançados.
Resumo:
A percepção de presença (PP), evolução do conceito de telepresença, pode ser definida como ilusão perceptiva de não mediação e/ou a percepção ilusória da realidade. O método mais utilizado para a avaliação da PP faz uso de questionários aplicados aos sujeitos, após sua participação numa experiência. Além de não fornecer informações em tempo real esse método sofre muitas interferências advindas tanto dos sujeitos submetidos ao experimento como dos avaliadores dos questionários. Os métodos que poderiam ser mais efetivos para a avaliação da PP, em tempo real, fazem uso de sinais fisiológicos que variam independentemente da vontade dos sujeitos, como batimento cardíaco, eletrocardiograma, eletroencefalograma, resistividade e umidade da pele. Os sinais fisiológicos, no entanto, só variam de forma significativa em situações de estresse, inviabilizando sua utilização em atividades normais, sem estresse. Outra forma de avaliar a PP é utilizar sistemas de rastreamento do olhar. Estudados e desenvolvidos desde o século 19, os sistemas de rastreamento do olhar fornecem um mapeamento do movimento dos olhos. Além de indicar para onde os sujeitos estão olhando, podem também monitorar a dilatação da pupila e as piscadas. Atualmente existem sistemas de rastreamento do olhar comerciais de baixo custo, que apesar de terem menos precisão e frequência que os equipamentos de alto custo são mais práticos e possuem software de plataforma aberta. No futuro serão tão comuns e simples de usar como são hoje as câmeras em dispositivos móveis e computadores, o que viabilizará a aplicação das técnicas e métodos aqui propostos em larga escala, principalmente para monitorar a atenção e envolvimento de atividades mediadas por vídeo. É apresentada uma ferramenta que faz uso do rastreamento do olhar para avaliar a percepção de presença em atividades mediadas por vídeo (com estímulos sonoros). Dois experimentos foram realizados para validar as hipóteses da pesquisa e a ferramenta. Um terceiro experimento foi executado para verificar a capacidade da ferramenta em avaliar a percepção de presença em atividades não estressantes mediadas por vídeo.