11 resultados para Ensilagem - Processamento

em Biblioteca de Teses e Dissertações da USP


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O principal resíduo da indústria de café solúvel é a borra de café, gerada após a extração de sólidos solúveis com água, sendo usualmente queimada em caldeiras para geração de energia para a própria indústria. Entretanto, este co-produto pode conter de 15 a 20 % de óleo, componente de grande interesse na indústria alimentícia. Em paralelo, na indústria de produção de óleos vegetais o solvente frequentemente utilizado é o hexano. Contudo, por este ser um derivado de combustíveis fósseis, alternativas para sua substituição por solventes mais amigáveis ao meio ambiente, que podem ser obtidos por via biotecnológica, estão sendo estudadas. Deste modo, o objetivo principal desta dissertação de mestrado foi a viabilização técnica do emprego de solventes alcoólicos no processo de extração de óleo de borra de café proveniente da indústria de processamento de café solúvel. Foram realizadas extrações sólido-líquido em um estágio para estudar a influência das variáveis de processo temperatura (60 a 90 °C), tipo de solvente (etanol, ET ou isopropanol, IPA) e a hidratação do solvente (absoluto ou azeotrópico) nas características das fases extrato e rafinado, em termos de rendimento de extração de óleo, de ácidos clorogênicos (ACG), de carboidratos totais, teor de proteínas e índice de solubilidade de nitrogênio (ISN) da fase rafinado. Pré-tratamento enzimático ao processo de extração também foi realizado para investigar a sua atuação sobre o rendimento de extração de óleo e ACG, além do ISN das fases rafinado obtidas na temperatura de 70 °C. De forma geral, pode-se inferir que a temperatura favorece a extração de compostos lipídicos, mas a hidratação do solvente prejudica a extração destes compostos pelo aumento da polaridade do solvente. Do mesmo modo, como o ET é mais polar que o IPA, o primeiro solvente proporcionou a obtenção de menores rendimentos de extração de óleo. A temperatura de processo também influenciou a extração de ACG, a qual foi beneficiada a temperaturas mais baixas pelo aumento da polaridade dos solventes utilizados. De tal forma, que a 60 °C, nos experimentos utilizando etanol azeotrópico obteve-se os menores rendimentos de extração de óleo, porém maior rendimento de extração de ACG. O pré-tratamento enzimático apresentou diferenças significativas nas características das fases extrato e rafinado. No entanto, somente os experimentos com etanol absoluto resultaram em rendimentos de extração de óleo economicamente viáveis. De fato, será relevante um estudo mais aprofundado das variáveis de pré-tratamento enzimático para obter resultados mais expressivos em relação à extração de compostos lipídicos. Diante dos dados experimentais obtidos, conclui-se que é tecnicamente viável o emprego de solventes alcoólicos no processo de extração de óleo de borra de café. Entretanto, nota-se que as condições de processo devem ser avaliadas minuciosamente com o objetivo de se obter altos rendimentos de extração de óleo com maior teor de ACG.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Propõe-se método novo e completo para análise de acetona em ar exalado envolvendo coleta com pré-concentração em água, derivatização química e determinação eletroquímica assistida por novo algoritmo de processamento de sinais. Na literatura recente a acetona expirada vem sendo avaliada como biomarcador para monitoramento não invasivo de quadros clínicos como diabetes e insuficiência cardíaca, daí a importância da proposta. Entre as aminas que reagem com acetona para formar iminas eletroativas, estudadas por polarografia em meados do século passado, a glicina apresentou melhor conjunto de características para a definição do método de determinação por voltametria de onda quadrada sem a necessidade de remoção de oxigênio (25 Hz, amplitude de 20 mV, incremento de 5 mV, eletrodo de gota de mercúrio). O meio reacional, composto de glicina (2 mol·L-1) em meio NaOH (1 mol·L-1), serviu também de eletrólito e o pico de redução da imina em -1,57 V vs. Ag|AgCl constituiu o sinal analítico. Para tratamento dos sinais, foi desenvolvido e avaliado um algoritmo inovador baseado em interpolação de linha base por ajuste de curvas de Bézier e ajuste de gaussiana ao pico. Essa combinação permitiu reconhecimento e quantificação de picos relativamente baixos e largos sobre linha com curvatura acentuada e ruído, situação em que métodos convencionais falham e curvas do tipo spline se mostraram menos apropriadas. A implementação do algoritmo (disponível em http://github.com/batistagl/chemapps) foi realizada utilizando programa open source de álgebra matricial integrado diretamente com software de controle do potenciostato. Para demonstrar a generalidade da extensão dos recursos nativos do equipamento mediante integração com programação externa em linguagem Octave (open source), implementou-se a técnica da cronocoulometria tridimensional, com visualização de resultados já tratados em projeções de malha de perspectiva 3D sob qualquer ângulo. A determinação eletroquímica de acetona em fase aquosa, assistida pelo algoritmo baseado em curvas de Bézier, é rápida e automática, tem limite de detecção de 3,5·10-6 mol·L-1 (0,2 mg·L-1) e faixa linear que atende aos requisitos da análise em ar exalado. O acetaldeído, comumente presente em ar exalado, em especial, após consumo de bebidas alcoólicas, dá origem a pico voltamétrico em -1,40 V, contornando interferência que prejudica vários outros métodos publicados na literatura e abrindo possibilidade de determinação simultânea. Resultados obtidos com amostras reais são concordantes com os obtidos por método espectrofotométrico, em uso rotineiro desde o seu aperfeiçoamento na dissertação de mestrado do autor desta tese. Em relação à dissertação, também se otimizou a geometria do dispositivo de coleta, de modo a concentrar a acetona num volume menor de água gelada e prover maior conforto ao paciente. O método completo apresentado, englobando o dispositivo de amostragem aperfeiçoado e o novo e efetivo algoritmo para tratamento automático de sinais voltamétricos, está pronto para ser aplicado. Evolução para um analisador portátil depende de melhorias no limite de detecção e facilidade de obtenção eletrodos sólidos (impressos) com filme de mercúrio, vez que eletrodos de bismuto ou diamante dopado com boro, entre outros, não apresentaram resposta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A busca por produtos mais saudáveis e minimamente processados tem levado indústrias e pesquisadores a estudarem novas formas de preservação de alimentos. Os objetivos deste trabalho foram: 1) avaliar o efeito da embalagem com atmosfera modificada (ATM) na preservação de lombo ovino armazenado sob refrigeração e 2) Avaliar o efeito do processamento em alta pressão na conservação de carne bovina marinada e com teor de sódio reduzido. Em ambas as pesquisas, músculos Longissimus lumborum foram submetidos à contagem microbiana, avaliação de cor, pH, oxidação lipídica (TBARS), perdas por cocção (PPC) e força de cisalhamento. Para o estudo do efeito da embalagem em atmosfera modificada, as amostras foram acondicionadas em cinco sistemas de ATM, 15% O2 + 85% CO2; 30% de O2 + 70% de CO2; 45% de O2 + 55% de CO2; 60% de O2 + 40% de CO2 e Vácuo (controle) e armazenadas a 1°C durante 21 dias. As análises de cor, pH, TBARS, PPC e força de cisalhamento foram realizadas a cada sete dias e as microbiológicas duas vezes por semana. Diferentes concentrações de oxigênio dentro da embalagem trouxeram diferença significativa na intensidade de cor vermelha das carnes armazenadas em ATM. Até o sétimo dia de estocagem tratamentos com maior quantidade de O2 apresentaram melhor coloração, após esse período embalagens a vácuo conseguiram preservar melhor a mioglobina. Diferentes concentrações gasosas não trouxeram causaram diferença (p> 0,05) no pH da carne entre tratamentos. Nenhuma diferença significativa entre tratamentos foi encontrada para amostras embaladas em ATM nos parâmetros perda de peso por cocção e força de cisalhamento. A embalagem em atmosfera modificada foi capaz de retardar o crescimento da microbiota presente na carne. Isso levou á preservação da amostra por até 18 dias sob refrigeração, enquanto amostras a vácuo tiveram uma vida útil de 11 dias. Para o estudo do efeito da alta pressão em carne marinada com baixo teor de sódio, as carnes foram inoculadas com 106 UFC/g de carne com E. faecium e Listeria innocua e em seguida marinadas durante 18 horas, a 4°C, em diferentes soluções: 1% NaCl + 1% ácido cítrico, 1% NaCl + 2% ácido cítrico, 2% NaCl + 2% ácido cítrico e 2% NaCl + 2% ácido cítrico. Após a marinação as amostras foram submetidas ao tratamento nas seguintes pressões: Zero (controle), 300MPa, 450Mpa, 600MPa. As análises físico-químicas e microbiológicas foram realizadas logo após o tratamento. O tratamento em alta pressão foi capaz de reduzir a população microbiana em até seis ciclos logarítmicos quando 600Mpa foram aplicados em todas as soluções estudadas. A não aplicação de alta pressão proporcionou a redução de apenas um ciclo log na população de E. faecium quando as carnes foram marinadas com 2% NaCl + 2% ácido cítrico. A alta pressão e as diferentes concentrações de sal e ácido, não trouxeram diferença significativa na coloração das amostras. Já o maior teor de ácido cítrico na marinada causou maior (p<0,05) redução do pH da carne em comparação com as amostras em baixa concentração de ácido. Os experimentos demonstraram que a tanto embalagem a vácuo quanto a aplicação de ácido cítrico foram eficientes em retardar a oxidação lipídica. Pressões de 600Mpa tornaram a carne significativamente mais dura que as demais pressões aplicadas. Os resultados demonstraram a possibilidade de extensão da vida útil da carne refrigerada através da aplicação de diferentes tecnologias: a embalagem com atmosfera modificada para carne fresca e processamento em alta pressão de carnes marinadas com reduzido teor de sal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução: Crianças com distúrbio específico de linguagem (DEL) são propensas a apresentar dificuldade no processo de alfabetização devido às múltiplas alterações de linguagem que possuem. Este estudo comparou e caracterizou o desempenho de crianças com DEL e em desenvolvimento típico de linguagem em atividades de aliteração, rima, memória de curto prazo fonológica, ditado de palavras e de pseudopalavras. A principal hipótese do estudo era de que o grupo DEL apresentaria desempenho inferior do que o grupo em desenvolvimento típico em todas as habilidades estudadas. Método: Participaram do estudo 12 crianças com DEL (GP) e 48 em desenvolvimento típico (GC) com idade entre 7 anos e 9 anos e 11 meses. Todos os sujeitos cursavam o 2º ou 3º ano do ensino fundamental I e apresentavam audição e rendimento intelectual não-verbal preservados. Para a seleção dos grupos foram utilizadas medidas de vocabulário receptivo, fonologia e nível socioeconômico. Já as medidas experimentais avaliadas foram testes padronizados de aliteração, rima, memória de curto prazo fonológica e a aplicação de um ditado de palavras e de pseudopalavras elaborados para esta pesquisa. Resultados: ambos os grupos apresentaram pior desempenho em tarefas de rima do que de aliteração e o GP apresentou desempenho inferior em ambas as tarefas quando comparado ao GC. A análise dos distratores nas atividades de aliteração e rima apontou que em tarefas de aliteração, o GP cometeu mais erros de tipologia semântico enquanto na prova de rima foram mais erros de tipologia fonológico. O GP obteve desempenho inferior ao GC nas avaliações da memória de curto prazo fonológica, ditado de palavras e de pseudopalavras. O GP evidenciou maior dificuldade no ditado de pseudopalavras no que no de palavras e o GC não apresentou diferença significativa no desempenho dos ditados. No ditado de palavras, o GP cometeu mais erros na palavra toda enquanto no ditado de pseudopalavras ocorreram mais erros na palavra toda e na sílaba final. Na comparação do desempenho dos grupos de acordo com a escolaridade, notou-se que os sujeitos do GC do 2º e 3º ano não evidenciaram diferença significativa em seu desempenho nas tarefas, enquanto os sujeitos do GP do 3º ano apresentaram melhor desempenho do que os do 2º ano em todas as medidas experimentais, com exceção da memória de curto prazo fonológica. Conclusões: o GP apresentou dificuldade em tarefas de processamento fonológico e de escrita que foram realizadas com relativa facilidade pelo GC. Os sujeitos com DEL evidenciaram uma análise mais global dos estímulos apresentados nas tarefas de consciência fonológica, o que os fez desprezar aspectos segmentais importantes. A dificuldade em abordar as informações de modo analítico, somado a alterações linguísticas e do processamento fonológico, levou o GP a apresentar maior taxa de erros nas tarefas de ditado. Apesar das alterações apontadas, os sujeitos do GP do 3º ano obtiveram melhor desempenho do que os do 2º ano em todas as habilidades com exceção da memória de curto prazo fonológica, que é sua marca clínica. Estes dados reforçam a necessidade do diagnóstico e intervenção precoces para esta população, onde as habilidades abordadas neste estudo devem ser incluídas no processo terapêutico

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese tem por objetivo a aplicação do processamento por atrito linear na liga de titânio Ti-6Al-4V. Derivado da solda por atrito linear, é um processo recente desenvolvido na década de 90 para união de alumínio. Sua aplicação em outros tipos de materiais como aços e ligas de alto desempenho, em especial o titânio, tem interessado a industria. A metodologia utilizada nesta tese para avaliar o processamento por atrito linear, consistiu na execução de ensaios mecânicos de tração em condições mistas em chapas da liga de titânio Ti-6Al-4V. A máquina utilizada para o processamento das chapas foi um centro de usinagem CNC convencional, adaptado com dispositivos especiais. Além dos ensaios de tração em condições mistas, foram executadas medições de microdurezas nas regiões atingidas pelo processo, avaliação das microestruturas resultantes e medições de tensão residual para uma caracterização mais ampla do processo. As microestruturas na região processada são caracterizadas por uma estrutura totalmente transformada. As temperaturas de pico na região processada excederam a temperatura -transus durante o processamento e a transformação da fase + ocorreu durante a fase de resfriamento. A transformação da fase para resultou na formação de agulhas de fase nos contornos e pelo interior dos grãos da fase . Pequenas regiões com estrutura equiaxial de grãos ( globular) foram observados na zona de processamento. A abordagem dos resultados quantitativos foi feita de forma estatística, visando identificar os parâmetros de maior interação com os resultados observados. Foi identificado nesta tese que a rotação da ferramenta apresentou a maior influência nos resultados de tensão residual, microdureza e tensão de escoamento. Uma importante contribuição à modelagem da tensão de escoamento para materiais anisotrópicos é proposta, baseado em um critério de escoamento ortotrópico. Equações complementares baseadas nos testes mistos de tração e cisalhamento são propostas para modificar o modelo ortotrópico. O intuito deste modelo é indicar em que condições o material tem seu regime de escoamento atingido, podendo servir de base para simulações práticas de peças em condições similares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os métodos de ondas superficiais com ênfase nas ondas Rayleigh foram utilizados como o núcleo desse trabalho de Doutorado. Inicialmente, as ondas Rayleigh foram modeladas permitindo o estudo de sensibilidade de suas curvas de dispersão sob diferentes configurações de parâmetros físicos representando diversos modelos de camadas, em que pôde ser observado parâmetros com maior e menor sensibilidade e também alguns efeitos provocados por baixas razões de Poisson. Além disso, na fase de inversão dos dados a modelagem das ondas Rayleigh foi utilizada para a construção da função objeto, que agregada ao método de mínimos quadrados, a partir do método de Levenberg-Marquardt, permitiu a implementação de um algoritmo de busca local responsável pela inversão de dados das ondas superficiais. Por se tratar de um procedimento de busca local, o algoritmo de inversão foi complementado por uma etapa de pré-inversão com a geração de um modelo inicial para que o procedimento de inversão fosse mais rápido e eficiente. Visando uma eficiência ainda maior do procedimento de inversão, principalmente em modelos de camadas com inversão de velocidades, foi implementado um algoritmo de pós-inversão baseado em um procedimento de tentativa e erro minimizando os valores relativos da raiz quadrada do erro quadrático médio (REQMr) da inversão dos dados. Mais de 50 modelos de camadas foram utilizados para testar a modelagem, a pré-inversão, inversão e pós-inversão dos dados permitindo o ajuste preciso de parâmetros matemáticos e físicos presentes nos diversos scripts implementados em Matlab. Antes de inverter os dados adquiridos em campo, os mesmos precisaram ser tratados na etapa de processamento de dados, cujo objetivo principal é a extração da curva de dispersão originada devido às ondas superficiais. Para isso, foram implementadas, também em Matlab, três metodologias de processamento com abordagens matemáticas distintas. Essas metodologias foram testadas e avaliadas com dados sintéticos e reais em que foi possível constatar as virtudes e deficiências de cada metodologia estudada, bem como as limitações provocadas pela discretização dos dados de campo. Por último, as etapas de processamento, pré-inversão, inversão e pós-inversão dos dados foram unificadas para formar um programa de tratamento de dados de ondas superficiais (Rayleigh). Ele foi utilizado em dados reais originados pelo estudo de um problema geológico na Bacia de Taubaté em que foi possível mapear os contatos geológicos ao longo dos pontos de aquisição sísmica e compará-los a um modelo inicial existente baseado em observações geomorfológicas da área de estudos, mapa geológico da região e informações geológicas globais e locais dos movimentos tectônicos na região. As informações geofísicas associadas às geológicas permitiram a geração de um perfil analítico da região de estudos com duas interpretações geológicas confirmando a suspeita de neotectônica na região em que os contatos geológicos entre os depósitos Terciários e Quaternários foram identificados e se encaixaram no modelo inicial de hemi-graben com mergulho para Sudeste.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Internet das Coisas é um novo paradigma de comunicação que estende o mundo virtual (Internet) para o mundo real com a interface e interação entre objetos. Ela possuirá um grande número de dispositivos heteregôneos interconectados, que deverá gerar um grande volume de dados. Um dos importantes desafios para seu desenvolvimento é se guardar e processar esse grande volume de dados em aceitáveis intervalos de tempo. Esta pesquisa endereça esse desafio, com a introdução de serviços de análise e reconhecimento de padrões nas camadas inferiores do modelo de para Internet das Coisas, que procura reduzir o processamento nas camadas superiores. Na pesquisa foram analisados os modelos de referência para Internet das Coisas e plataformas para desenvolvimento de aplicações nesse contexto. A nova arquitetura de implementada estende o LinkSmart Middeware pela introdução de um módulo para reconhecimento de padrões, implementa algoritmos para estimação de valores, detecção de outliers e descoberta de grupos nos dados brutos, oriundos de origens de dados. O novo módulo foi integrado à plataforma para Big Data Hadoop e usa as implementações algorítmicas do framework Mahout. Este trabalho destaca a importância da comunicação cross layer integrada à essa nova arquitetura. Nos experimentos desenvolvidos na pesquisa foram utilizadas bases de dados reais, provenientes do projeto Smart Santander, de modo a validar da nova arquitetura de IoT integrada aos serviços de análise e reconhecimento de padrões e a comunicação cross-layer.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este documento apresenta o Lyra, um novo esquema de derivação de chaves, baseado em esponjas criptográficas. O Lyra foi projetado para ser estritamente sequencial, fornecendo um nível elevado de segurança mesmo contra atacantes que utilizem múltiplos núcleos de processamento, como uma GPU ou FPGA. Ao mesmo tempo possui uma implementação simples em software e permite ao usuário legítimo ajustar o uso de memória e tempo de processamento de acordo com o nível de segurança desejado. O Lyra é, então, comparado ao scrypt, mostrando que esta proposta fornece um nível se segurança mais alto, além de superar suas deficiências. Caso o atacante deseje realizar um ataque utilizando pouca memória, o tempo de processamento do Lyra cresce exponencialmente, enquanto no scrypt este crescimento é apenas quadrático. Além disto, para o mesmo tempo de processamento, o Lyra permite uma utilização maior de memória, quando comparado ao scrypt, aumentando o custo de ataques de força bruta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Foram conduzidos dois experimentos com o intuito de se avaliar o desempenho, características de carcaça e parâmetros ruminais de bovinos Nelore recebendo dietas contendo grãos de milho flint processados de diferentes formas em associação a diferentes aditivos e níveis de FDN de silagem de milho (FDNf). No Experimento 1, 239 tourinhos (PCI=350±26,79kg) foram alojados em 40 baias de acordo com o peso corporal inicial e receberam dietas contendo dois tipos de processamento dos grãos de milho (moagem fina e floculação) e diferentes aditivos (monensina sódica; 25 ppm e formulação A062 a base de virginiamicina; produto teste, não comercial, fornecido pela Ourofino Saúde Animal; nas dosagens de 17 e 25 ppm), totalizando 8 tratamentos. Os dados foram analisados pelo PROC MIXED do SAS. A floculação aumentou o peso final, o ganho de peso diário, a eficiência alimentar, o peso da carcaça quente e tendeu a aumentar o rendimento de carcaça em comparação a moagem fina. Houve tendência de interação entre processamento e fornecimento de aditivos para a ingestão de matéria seca e ganho de peso diário. A floculação reduziu o teor de amido fecal, aumentou a digestibilidade do amido no trato total, aumentou os valores de energia liquida para manutenção e ganho da dieta e o numero médio de papilas ruminais. Os aditivos aumentaram a altura, largura e área das papilas e reduziram a espessura de faixa de queratina em relação ao tratamento controle. Houve tendência das formulações a base de virginiamicina aumentarem o peso da carcaça quente dos animais em comparação com a monensina sódica, mas não em relação ao tratamento controle sem aditivo. A floculação foi mais efetiva para aumentar a digestiblidade do amido no trato total, o valor energético do milho e o desempenho dos bovinos enquanto que os aditivos não foram efetivos para aumentar o valor energético das dietas e a eficiência alimentar dos animais. No Experimento 2, 237 tourinhos (PCI=350±28,49kg) foram alojados em 32 baias de acordo com o peso corporal inicial e receberam dietas contendo dois tipos de processamento (moagem grosseira e floculação) e diferentes níveis de FDNf (4; 7; 10 e 13% MS), totalizando 8 tratamentos. Os dados foram analisados pelo PROC MIXED do SAS. A floculação tendeu a aumentar a eficiência alimentar, o peso da carcaça quente e a espessura de gordura subcutânea, reduziu o teor de amido fecal, aumentou a digestibilidade do amido no trato total como também aumentou os valores de energia liquida para manutenção e para ganho das dietas. Os níveis de FDNf afetaram ingestão de matéria seca e o peso da carcaça quente independente do método de processamento. Houve tendência de aumento linear no GPD e tendência de redução quadrática na eficiência alimentar com inclusão crescente de FDNf. A inclusão de silagem de milho em dietas com alto teor de milho flint reduziu a eficiência alimentar dos animais, mas aumentou o peso da carcaça quente. A floculação aumentou o valor energético do cereal para tourinhos Nelore em dietas com alto teor de energia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho apresenta uma alternativa ao processo de classificação do defeito da segregação central em amostras de aço, utilizando as imagens digitais que são geradas durante o ensaio de Baumann. O algoritmo proposto tem como objetivo agregar as técnicas de processamento digital de imagens e o conhecimento dos especialistas sobre o defeito da segregação central, visando a classificação do defeito de referência. O algoritmo implementado inclui a identificação e a segmentação da linha segregada por meio da aplicação da transformada de Hough e limiar adaptativo. Adicionalmente, o algoritmo apresenta uma proposta para o mapeamento dos atributos da segregação central nos diferentes graus de severidade do defeito, em função dos critérios de continuidade e intensidade. O mapeamento foi realizado por meio da análise das características individuais, como comprimento, largura e área, dos elementos segmentados que compõem a linha segregada. A avaliação do desempenho do algoritmo foi realizada em dois momentos específicos, de acordo com sua fase de implementação. Para a realização da avaliação, foram analisadas 255 imagens de amostras reais, oriundas de duas usinas siderúrgicas, distribuídas nos diferentes graus de severidade. Os resultados da primeira fase de implementação mostram que a identificação da linha segregada apresenta acurácia de 93%. As classificações oriundas do mapeamento realizado para as classes de criticidade do defeito, na segunda fase de implementação, apresentam acurácia de 92% para o critério de continuidade e 68% para o critério de intensidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta dissertação apresentamos um trabalho de desenvolvimento e utilização de pulsos de radiofreqüência modulados simultaneamente em freqüência, amplitude e fase (pulsos fortemente modulados, SMP, do inglês Strongly Modulated Pulses) para criar estados iniciais e executar operações unitárias que servem como blocos básicos para processamento da informação quântica utilizando Ressonância Magnética Nuclear (RMN). As implementações experimentais foram realizas em um sistema de 3 q-bits constituído por spins nucleares de Césio 133 (spin nuclear 7/2) em uma amostra de cristal líquido em fase nemática. Os pulsos SMP´s foram construídos teoricamente utilizando um programa especialmente desenvolvido para esse fim, sendo o mesmo baseado no processo de otimização numérica Simplex Nelder-Mead. Através deste programa, os pulsos SMP foram otimizados de modo a executarem as operações lógicas desejadas com durações consideravelmente menores que aquelas realizadas usando o procedimento usual de RMN, ou seja, seqüências de pulsos e evoluções livres. Isso tem a vantagem de reduzir os efeitos de descoerência decorrentes da relaxação do sistema. Os conceitos teóricos envolvidos na criação dos SMPs são apresentados e as principais dificuldades (experimentais e teóricas) que podem surgir devido ao uso desses procedimentos são discutidas. Como exemplos de aplicação, foram produzidos os estados pseudo-puros usados como estados iniciais de operações lógicas em RMN, bem como operações lógicas que foram posteriormente aplicadas aos mesmos. Utilizando os SMP\'s também foi possível realizar experimentalmente os algoritmos quânticos de Grover e Deutsch-Jozsa para 3 q-bits. A fidelidade das implementações experimentais foi determinadas utilizando as matrizes densidade experimentais obtidas utilizando um método de tomografia da matriz densidade previamente desenvolvido.