10 resultados para Bancos - Processamento de dados - Equipamento e acessórios - Administração

em Biblioteca de Teses e Dissertações da USP


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os métodos de ondas superficiais com ênfase nas ondas Rayleigh foram utilizados como o núcleo desse trabalho de Doutorado. Inicialmente, as ondas Rayleigh foram modeladas permitindo o estudo de sensibilidade de suas curvas de dispersão sob diferentes configurações de parâmetros físicos representando diversos modelos de camadas, em que pôde ser observado parâmetros com maior e menor sensibilidade e também alguns efeitos provocados por baixas razões de Poisson. Além disso, na fase de inversão dos dados a modelagem das ondas Rayleigh foi utilizada para a construção da função objeto, que agregada ao método de mínimos quadrados, a partir do método de Levenberg-Marquardt, permitiu a implementação de um algoritmo de busca local responsável pela inversão de dados das ondas superficiais. Por se tratar de um procedimento de busca local, o algoritmo de inversão foi complementado por uma etapa de pré-inversão com a geração de um modelo inicial para que o procedimento de inversão fosse mais rápido e eficiente. Visando uma eficiência ainda maior do procedimento de inversão, principalmente em modelos de camadas com inversão de velocidades, foi implementado um algoritmo de pós-inversão baseado em um procedimento de tentativa e erro minimizando os valores relativos da raiz quadrada do erro quadrático médio (REQMr) da inversão dos dados. Mais de 50 modelos de camadas foram utilizados para testar a modelagem, a pré-inversão, inversão e pós-inversão dos dados permitindo o ajuste preciso de parâmetros matemáticos e físicos presentes nos diversos scripts implementados em Matlab. Antes de inverter os dados adquiridos em campo, os mesmos precisaram ser tratados na etapa de processamento de dados, cujo objetivo principal é a extração da curva de dispersão originada devido às ondas superficiais. Para isso, foram implementadas, também em Matlab, três metodologias de processamento com abordagens matemáticas distintas. Essas metodologias foram testadas e avaliadas com dados sintéticos e reais em que foi possível constatar as virtudes e deficiências de cada metodologia estudada, bem como as limitações provocadas pela discretização dos dados de campo. Por último, as etapas de processamento, pré-inversão, inversão e pós-inversão dos dados foram unificadas para formar um programa de tratamento de dados de ondas superficiais (Rayleigh). Ele foi utilizado em dados reais originados pelo estudo de um problema geológico na Bacia de Taubaté em que foi possível mapear os contatos geológicos ao longo dos pontos de aquisição sísmica e compará-los a um modelo inicial existente baseado em observações geomorfológicas da área de estudos, mapa geológico da região e informações geológicas globais e locais dos movimentos tectônicos na região. As informações geofísicas associadas às geológicas permitiram a geração de um perfil analítico da região de estudos com duas interpretações geológicas confirmando a suspeita de neotectônica na região em que os contatos geológicos entre os depósitos Terciários e Quaternários foram identificados e se encaixaram no modelo inicial de hemi-graben com mergulho para Sudeste.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A ciência na qual se estuda a deformação de um fluido no qual é aplicada uma tensão de cisalhamento é conhecida como reologia e o equipamento utilizado para a realização dos ensaios é chamado de reômetro. Devido a impraticabilidade de uso de reômetros comerciais, diversos pesquisadores desenvolveram reômetros capazes de analisar suspensões de macropartículas, baseados nos mesmos princípios de funcionamento dos equipamentos já existentes. Em alguns casos, a medição do torque do motor é realizada pela aquisição da tensão, uma vez que esta é proporcional ao torque. Entretanto, para melhor compreensão do resultado e para evitar a possibilidade de conclusões precipitadas, vê-se necessária correta interpretação do sinal elétrico, precisando avaliar qual frequência do sinal é relevante para o ensaio e, também, qual a melhor taxa de amostragem. Além da aquisição, para que o ensaio reológico seja realizado com precisão, é indispensável ótimo controle da taxa ou tensão do motor e uma alternativa é a utilização de um servomotor e um servoconversor. No caso desse ser comercial é essencial saber configurá-lo. Para facilitar o usuário leigo, alguns pesquisadores desenvolveram softwares para controle do equipamento e análise dos dados. Assim, o presente trabalho tem como objetivo propor uma metodologia para compreender o sinal aquisitado de um reômetro servo controlado e desenvolvimento do software de análise para o tratamento dos dados obtidos a partir de ensaios reológicos. Verificou-se a melhor configuração do servocontrolador, a melhor taxa de amostragem, de no mínimo 20 amostras/segundo, e, também, desenvolveu-se um filtro digital passa-baixa do tipo FIR para remover a frequência indesejada. Além disso, foi desenvolvido um software utilizando uma rotina em Matlab e uma interface gráfica do usuário (Graphical User Interface - GUI), para o pós-processamento dos dados para auxiliar o usuário leigo no tratamento e interpretação do resultado, que se mostrou eficaz.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O principal resíduo da indústria de café solúvel é a borra de café, gerada após a extração de sólidos solúveis com água, sendo usualmente queimada em caldeiras para geração de energia para a própria indústria. Entretanto, este co-produto pode conter de 15 a 20 % de óleo, componente de grande interesse na indústria alimentícia. Em paralelo, na indústria de produção de óleos vegetais o solvente frequentemente utilizado é o hexano. Contudo, por este ser um derivado de combustíveis fósseis, alternativas para sua substituição por solventes mais amigáveis ao meio ambiente, que podem ser obtidos por via biotecnológica, estão sendo estudadas. Deste modo, o objetivo principal desta dissertação de mestrado foi a viabilização técnica do emprego de solventes alcoólicos no processo de extração de óleo de borra de café proveniente da indústria de processamento de café solúvel. Foram realizadas extrações sólido-líquido em um estágio para estudar a influência das variáveis de processo temperatura (60 a 90 °C), tipo de solvente (etanol, ET ou isopropanol, IPA) e a hidratação do solvente (absoluto ou azeotrópico) nas características das fases extrato e rafinado, em termos de rendimento de extração de óleo, de ácidos clorogênicos (ACG), de carboidratos totais, teor de proteínas e índice de solubilidade de nitrogênio (ISN) da fase rafinado. Pré-tratamento enzimático ao processo de extração também foi realizado para investigar a sua atuação sobre o rendimento de extração de óleo e ACG, além do ISN das fases rafinado obtidas na temperatura de 70 °C. De forma geral, pode-se inferir que a temperatura favorece a extração de compostos lipídicos, mas a hidratação do solvente prejudica a extração destes compostos pelo aumento da polaridade do solvente. Do mesmo modo, como o ET é mais polar que o IPA, o primeiro solvente proporcionou a obtenção de menores rendimentos de extração de óleo. A temperatura de processo também influenciou a extração de ACG, a qual foi beneficiada a temperaturas mais baixas pelo aumento da polaridade dos solventes utilizados. De tal forma, que a 60 °C, nos experimentos utilizando etanol azeotrópico obteve-se os menores rendimentos de extração de óleo, porém maior rendimento de extração de ACG. O pré-tratamento enzimático apresentou diferenças significativas nas características das fases extrato e rafinado. No entanto, somente os experimentos com etanol absoluto resultaram em rendimentos de extração de óleo economicamente viáveis. De fato, será relevante um estudo mais aprofundado das variáveis de pré-tratamento enzimático para obter resultados mais expressivos em relação à extração de compostos lipídicos. Diante dos dados experimentais obtidos, conclui-se que é tecnicamente viável o emprego de solventes alcoólicos no processo de extração de óleo de borra de café. Entretanto, nota-se que as condições de processo devem ser avaliadas minuciosamente com o objetivo de se obter altos rendimentos de extração de óleo com maior teor de ACG.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Propõe-se método novo e completo para análise de acetona em ar exalado envolvendo coleta com pré-concentração em água, derivatização química e determinação eletroquímica assistida por novo algoritmo de processamento de sinais. Na literatura recente a acetona expirada vem sendo avaliada como biomarcador para monitoramento não invasivo de quadros clínicos como diabetes e insuficiência cardíaca, daí a importância da proposta. Entre as aminas que reagem com acetona para formar iminas eletroativas, estudadas por polarografia em meados do século passado, a glicina apresentou melhor conjunto de características para a definição do método de determinação por voltametria de onda quadrada sem a necessidade de remoção de oxigênio (25 Hz, amplitude de 20 mV, incremento de 5 mV, eletrodo de gota de mercúrio). O meio reacional, composto de glicina (2 mol·L-1) em meio NaOH (1 mol·L-1), serviu também de eletrólito e o pico de redução da imina em -1,57 V vs. Ag|AgCl constituiu o sinal analítico. Para tratamento dos sinais, foi desenvolvido e avaliado um algoritmo inovador baseado em interpolação de linha base por ajuste de curvas de Bézier e ajuste de gaussiana ao pico. Essa combinação permitiu reconhecimento e quantificação de picos relativamente baixos e largos sobre linha com curvatura acentuada e ruído, situação em que métodos convencionais falham e curvas do tipo spline se mostraram menos apropriadas. A implementação do algoritmo (disponível em http://github.com/batistagl/chemapps) foi realizada utilizando programa open source de álgebra matricial integrado diretamente com software de controle do potenciostato. Para demonstrar a generalidade da extensão dos recursos nativos do equipamento mediante integração com programação externa em linguagem Octave (open source), implementou-se a técnica da cronocoulometria tridimensional, com visualização de resultados já tratados em projeções de malha de perspectiva 3D sob qualquer ângulo. A determinação eletroquímica de acetona em fase aquosa, assistida pelo algoritmo baseado em curvas de Bézier, é rápida e automática, tem limite de detecção de 3,5·10-6 mol·L-1 (0,2 mg·L-1) e faixa linear que atende aos requisitos da análise em ar exalado. O acetaldeído, comumente presente em ar exalado, em especial, após consumo de bebidas alcoólicas, dá origem a pico voltamétrico em -1,40 V, contornando interferência que prejudica vários outros métodos publicados na literatura e abrindo possibilidade de determinação simultânea. Resultados obtidos com amostras reais são concordantes com os obtidos por método espectrofotométrico, em uso rotineiro desde o seu aperfeiçoamento na dissertação de mestrado do autor desta tese. Em relação à dissertação, também se otimizou a geometria do dispositivo de coleta, de modo a concentrar a acetona num volume menor de água gelada e prover maior conforto ao paciente. O método completo apresentado, englobando o dispositivo de amostragem aperfeiçoado e o novo e efetivo algoritmo para tratamento automático de sinais voltamétricos, está pronto para ser aplicado. Evolução para um analisador portátil depende de melhorias no limite de detecção e facilidade de obtenção eletrodos sólidos (impressos) com filme de mercúrio, vez que eletrodos de bismuto ou diamante dopado com boro, entre outros, não apresentaram resposta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introdução: Crianças com distúrbio específico de linguagem (DEL) são propensas a apresentar dificuldade no processo de alfabetização devido às múltiplas alterações de linguagem que possuem. Este estudo comparou e caracterizou o desempenho de crianças com DEL e em desenvolvimento típico de linguagem em atividades de aliteração, rima, memória de curto prazo fonológica, ditado de palavras e de pseudopalavras. A principal hipótese do estudo era de que o grupo DEL apresentaria desempenho inferior do que o grupo em desenvolvimento típico em todas as habilidades estudadas. Método: Participaram do estudo 12 crianças com DEL (GP) e 48 em desenvolvimento típico (GC) com idade entre 7 anos e 9 anos e 11 meses. Todos os sujeitos cursavam o 2º ou 3º ano do ensino fundamental I e apresentavam audição e rendimento intelectual não-verbal preservados. Para a seleção dos grupos foram utilizadas medidas de vocabulário receptivo, fonologia e nível socioeconômico. Já as medidas experimentais avaliadas foram testes padronizados de aliteração, rima, memória de curto prazo fonológica e a aplicação de um ditado de palavras e de pseudopalavras elaborados para esta pesquisa. Resultados: ambos os grupos apresentaram pior desempenho em tarefas de rima do que de aliteração e o GP apresentou desempenho inferior em ambas as tarefas quando comparado ao GC. A análise dos distratores nas atividades de aliteração e rima apontou que em tarefas de aliteração, o GP cometeu mais erros de tipologia semântico enquanto na prova de rima foram mais erros de tipologia fonológico. O GP obteve desempenho inferior ao GC nas avaliações da memória de curto prazo fonológica, ditado de palavras e de pseudopalavras. O GP evidenciou maior dificuldade no ditado de pseudopalavras no que no de palavras e o GC não apresentou diferença significativa no desempenho dos ditados. No ditado de palavras, o GP cometeu mais erros na palavra toda enquanto no ditado de pseudopalavras ocorreram mais erros na palavra toda e na sílaba final. Na comparação do desempenho dos grupos de acordo com a escolaridade, notou-se que os sujeitos do GC do 2º e 3º ano não evidenciaram diferença significativa em seu desempenho nas tarefas, enquanto os sujeitos do GP do 3º ano apresentaram melhor desempenho do que os do 2º ano em todas as medidas experimentais, com exceção da memória de curto prazo fonológica. Conclusões: o GP apresentou dificuldade em tarefas de processamento fonológico e de escrita que foram realizadas com relativa facilidade pelo GC. Os sujeitos com DEL evidenciaram uma análise mais global dos estímulos apresentados nas tarefas de consciência fonológica, o que os fez desprezar aspectos segmentais importantes. A dificuldade em abordar as informações de modo analítico, somado a alterações linguísticas e do processamento fonológico, levou o GP a apresentar maior taxa de erros nas tarefas de ditado. Apesar das alterações apontadas, os sujeitos do GP do 3º ano obtiveram melhor desempenho do que os do 2º ano em todas as habilidades com exceção da memória de curto prazo fonológica, que é sua marca clínica. Estes dados reforçam a necessidade do diagnóstico e intervenção precoces para esta população, onde as habilidades abordadas neste estudo devem ser incluídas no processo terapêutico

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O Monitoramento Acústico Passivo (PAM) submarino refere-se ao uso de sistemas de escuta e gravação subaquática, com o intuito de detectar, monitorar e identificar fontes sonoras através das ondas de pressão que elas produzem. Se diz que é passivo já que tais sistemas unicamente ouvem, sem perturbam o meio ambiente acústico existente, diferentemente de ativos, como os sonares. O PAM submarino tem diversas áreas de aplicação, como em sistemas de vigilância militar, seguridade portuária, monitoramento ambiental, desenvolvimento de índices de densidade populacional de espécies, identificação de espécies, etc. Tecnologia nacional nesta área é praticamente inexistente apesar da sua importância. Neste contexto, o presente trabalho visa contribuir com o desenvolvimento de tecnologia nacional no tema através da concepção, construção e operação de equipamento autônomo de PAM e de métodos de processamento de sinais para detecção automatizada de eventos acústicos submarinos. Foi desenvolvido um equipamento, nomeado OceanPod, que possui características como baixo custo de fabrica¸c~ao, flexibilidade e facilidade de configuração e uso, voltado para a pesquisa científica, industrial e para controle ambiental. Vários protótipos desse equipamento foram construídos e utilizados em missões no mar. Essas jornadas de monitoramento permitiram iniciar a criação de um banco de dados acústico, o qual permitiu fornecer a matéria prima para o teste de detectores de eventos acústicos automatizados e em tempo real. Adicionalmente também é proposto um novo método de detecção-identificação de eventos acústicos, baseado em análise estatística da representação tempo-frequência dos sinais acústicos. Este novo método foi testado na detecção de cetáceos, presentes no banco de dados gerado pelas missões de monitoramento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho teve como objetivo desenvolver um modelo específico para analisar a competitividade de clusters de alta tecnologia. Foi realizado um estudo de casos múltiplos em que foram analisados os clusters de ciências da saúde de Ribeirão Preto, no Brasil, e de Oxfordshire, na Inglaterra. Coletaram-se dados primários e secundários. Os dados primários foram coletados por meio de entrevistas em ambos os clusters e os dados secundários por meio de relatórios, papers, websites, além de coleta realizada nos bancos de dados Fame e Orbis. O modelo Zaccarelli et al. (2008), utilizado como ponto de partida para o desenvolvimento do modelo, foi aprimorado de três maneiras: i. Por meio do ajustamento das métricas utilizadas para avaliar cada fundamento, o que incluiu, dentre outras coisas, uma adaptação do modelo para mapeamento de clusters desenvolvido por Todeva (2008); ii. Pela verificação da aderência de seus fundamentos aos clusters de alta tecnologia analisados; e iii. Pela identificação de fatores emergentes, importantes para competitividade de clusters de alta tecnologia. Os resultados mostram evidências de que entre os onze fundamentos do modelo original, nove se mostraram relevantes aos clusters de alta tecnologia, ratificando sua importância para a análise da competitividade de clusters. Além dos fundamentos originais, os resultados sugerem a inclusão de dois fundamentos emergentes: \"Inserção em cadeias globais\" e \"Disponibilidade de investimentos financeiros\", até então ignorados pelo modelo Zaccarelli et al. (2008). A pesquisa traz como contribuição teórica o desenvolvimento de um modelo específico para clusters de alta tecnologia; como contribuição metodológica as novas métricas, incluindo a incorporação da adaptação da metodologia de Todeva (2008); como contribuição empírica traz a comparação entre clusters de ciências da saúde reconhecidamente competitivos, mas pertencentes a países de realidades culturais e econômicas distintas; e como contribuição gerencial um modelo que pode ser utilizado por empresários e instituições pertencentes a clusters e que desejam analisar fatores que influenciam a sua competitividade.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Em virtude de uma elevada expectativa de vida mundial, faz-se crescente a probabilidade de ocorrer acidentes naturais e traumas físicos no cotidiano, o que ocasiona um aumento na demanda por reabilitação. A terapia física, sob o paradigma da reabilitação robótica com serious games, oferece maior motivação e engajamento do paciente ao tratamento, cujo emprego foi recomendado pela American Heart Association (AHA), apontando a mais alta avaliação (Level A) para pacientes internados e ambulatoriais. No entanto, o potencial de análise dos dados coletados pelos dispositivos robóticos envolvidos é pouco explorado, deixando de extrair informações que podem ser de grande valia para os tratamentos. O foco deste trabalho consiste na aplicação de técnicas para descoberta de conhecimento, classificando o desempenho de pacientes diagnosticados com hemiparesia crônica. Os pacientes foram inseridos em um ambiente de reabilitação robótica, fazendo uso do InMotion ARM, um dispositivo robótico para reabilitação de membros superiores e coleta dos dados de desempenho. Foi aplicado sobre os dados um roteiro para descoberta de conhecimento em bases de dados, desempenhando pré-processamento, transformação (extração de características) e então a mineração de dados a partir de algoritmos de aprendizado de máquina. A estratégia do presente trabalho culminou em uma classificação de padrões com a capacidade de distinguir lados hemiparéticos sob uma precisão de 94%, havendo oito atributos alimentando a entrada do mecanismo obtido. Interpretando esta coleção de atributos, foi observado que dados de força são mais significativos, os quais abrangem metade da composição de uma amostra.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Internet das Coisas é um novo paradigma de comunicação que estende o mundo virtual (Internet) para o mundo real com a interface e interação entre objetos. Ela possuirá um grande número de dispositivos heteregôneos interconectados, que deverá gerar um grande volume de dados. Um dos importantes desafios para seu desenvolvimento é se guardar e processar esse grande volume de dados em aceitáveis intervalos de tempo. Esta pesquisa endereça esse desafio, com a introdução de serviços de análise e reconhecimento de padrões nas camadas inferiores do modelo de para Internet das Coisas, que procura reduzir o processamento nas camadas superiores. Na pesquisa foram analisados os modelos de referência para Internet das Coisas e plataformas para desenvolvimento de aplicações nesse contexto. A nova arquitetura de implementada estende o LinkSmart Middeware pela introdução de um módulo para reconhecimento de padrões, implementa algoritmos para estimação de valores, detecção de outliers e descoberta de grupos nos dados brutos, oriundos de origens de dados. O novo módulo foi integrado à plataforma para Big Data Hadoop e usa as implementações algorítmicas do framework Mahout. Este trabalho destaca a importância da comunicação cross layer integrada à essa nova arquitetura. Nos experimentos desenvolvidos na pesquisa foram utilizadas bases de dados reais, provenientes do projeto Smart Santander, de modo a validar da nova arquitetura de IoT integrada aos serviços de análise e reconhecimento de padrões e a comunicação cross-layer.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Foram conduzidos dois experimentos com o intuito de se avaliar o desempenho, características de carcaça e parâmetros ruminais de bovinos Nelore recebendo dietas contendo grãos de milho flint processados de diferentes formas em associação a diferentes aditivos e níveis de FDN de silagem de milho (FDNf). No Experimento 1, 239 tourinhos (PCI=350±26,79kg) foram alojados em 40 baias de acordo com o peso corporal inicial e receberam dietas contendo dois tipos de processamento dos grãos de milho (moagem fina e floculação) e diferentes aditivos (monensina sódica; 25 ppm e formulação A062 a base de virginiamicina; produto teste, não comercial, fornecido pela Ourofino Saúde Animal; nas dosagens de 17 e 25 ppm), totalizando 8 tratamentos. Os dados foram analisados pelo PROC MIXED do SAS. A floculação aumentou o peso final, o ganho de peso diário, a eficiência alimentar, o peso da carcaça quente e tendeu a aumentar o rendimento de carcaça em comparação a moagem fina. Houve tendência de interação entre processamento e fornecimento de aditivos para a ingestão de matéria seca e ganho de peso diário. A floculação reduziu o teor de amido fecal, aumentou a digestibilidade do amido no trato total, aumentou os valores de energia liquida para manutenção e ganho da dieta e o numero médio de papilas ruminais. Os aditivos aumentaram a altura, largura e área das papilas e reduziram a espessura de faixa de queratina em relação ao tratamento controle. Houve tendência das formulações a base de virginiamicina aumentarem o peso da carcaça quente dos animais em comparação com a monensina sódica, mas não em relação ao tratamento controle sem aditivo. A floculação foi mais efetiva para aumentar a digestiblidade do amido no trato total, o valor energético do milho e o desempenho dos bovinos enquanto que os aditivos não foram efetivos para aumentar o valor energético das dietas e a eficiência alimentar dos animais. No Experimento 2, 237 tourinhos (PCI=350±28,49kg) foram alojados em 32 baias de acordo com o peso corporal inicial e receberam dietas contendo dois tipos de processamento (moagem grosseira e floculação) e diferentes níveis de FDNf (4; 7; 10 e 13% MS), totalizando 8 tratamentos. Os dados foram analisados pelo PROC MIXED do SAS. A floculação tendeu a aumentar a eficiência alimentar, o peso da carcaça quente e a espessura de gordura subcutânea, reduziu o teor de amido fecal, aumentou a digestibilidade do amido no trato total como também aumentou os valores de energia liquida para manutenção e para ganho das dietas. Os níveis de FDNf afetaram ingestão de matéria seca e o peso da carcaça quente independente do método de processamento. Houve tendência de aumento linear no GPD e tendência de redução quadrática na eficiência alimentar com inclusão crescente de FDNf. A inclusão de silagem de milho em dietas com alto teor de milho flint reduziu a eficiência alimentar dos animais, mas aumentou o peso da carcaça quente. A floculação aumentou o valor energético do cereal para tourinhos Nelore em dietas com alto teor de energia.