6 resultados para New methodology
em Biblioteca de Teses e Dissertações da USP
Resumo:
Este trabalho descreve a síntese, caracterização e aplicação de sistemas poliméricos baseados em polímeros condutores em sistemas de liberação controlada de drogas. Esta tese pode ser dividida em duas partes: na primeira se apresentam os resultados da aplicação de filmes de polianilina e polipirrol na liberação de drogasmodelo como a dopamina protonada e o ácido salicílico. Na liberação de salicilato utilizou-se um filme polianilina eletrosintetizado e dopado com íons cloreto. Já para a liberação de dopamina protonada (um cátion) a liberação foi conduzida a partir de um sistema bicamadas, com um filme de polianilina recoberta com uma camada de Náfion. É mostrada a liberação controlada nos dois casos, porém também se discutem limitaçãoes deste tipo de sistema que levaram ao estudo de uma forma alternativa de controle eletroquímico utilizando polímeros condutores. A segunda parte do trabalho mostra então esta nova metodologia que se baseia em compósitos de poianilina eletropolimerizada no interior de hidrogéis de poliacrilamida. É mostrado que este novo material é eletroativo e mantém as características de intumescimento dos hidrogéis, tanto necessárias ao desenvolvimento destes sistemas de liberação controlada. Mecanismos para o crescimento e distribuição da polianilina na matriz isolante e para a atuação do compósito no controle eletroquímico da liberação são propostos com base nos dados de microscopia de força atômica, Raman e eletrônica de varredura, além de testes de liberação controlada com moléculas de diferentes cargas.
Resumo:
Este trabalho apresenta uma nova metodologia para elastografia virtual em imagens simuladas de ultrassom utilizando métodos numéricos e métodos de visão computacional. O objetivo é estimar o módulo de elasticidade de diferentes tecidos tendo como entrada duas imagens da mesma seção transversal obtidas em instantes de tempo e pressões aplicadas diferentes. Esta metodologia consiste em calcular um campo de deslocamento das imagens com um método de fluxo óptico e aplicar um método iterativo para estimar os módulos de elasticidade (análise inversa) utilizando métodos numéricos. Para o cálculo dos deslocamentos, duas formulações são utilizadas para fluxo óptico: Lucas-Kanade e Brox. A análise inversa é realizada utilizando duas técnicas numéricas distintas: o Método dos Elementos Finitos (MEF) e o Método dos Elementos de Contorno (MEC), sendo ambos implementados em Unidades de Processamento Gráfico de uso geral, GpGPUs ( \"General Purpose Graphics Units\" ). Considerando uma quantidade qualquer de materiais a serem determinados, para a implementação do Método dos Elementos de Contorno é empregada a técnica de sub-regiões para acoplar as matrizes de diferentes estruturas identificadas na imagem. O processo de otimização utilizado para determinar as constantes elásticas é realizado de forma semi-analítica utilizando cálculo por variáveis complexas. A metodologia é testada em três etapas distintas, com simulações sem ruído, simulações com adição de ruído branco gaussiano e phantoms matemáticos utilizando rastreamento de ruído speckle. Os resultados das simulações apontam o uso do MEF como mais preciso, porém computacionalmente mais caro, enquanto o MEC apresenta erros toleráveis e maior velocidade no tempo de processamento.
Resumo:
O trabalho trata do projeto e do desenvolvimento de um processador de baixo consumo de potência, de forma simplificada, explorando técnicas de microarquitetura, para atingir menor consumo de potência. É apresentada uma sequência lógica de desenvolvimento, a partir de conceitos e estruturas básicas, até chegar a estruturas mais complexas e, por fim, mostrar a microarquitetura completa do processador. Esse novo modelo de processador é comparado com estudos prévios de três processadores, sendo o primeiro modelo síncrono, o segundo assíncrono e o terceiro uma versão melhorada do primeiro modelo, que inclui minimizações de registradores e circuitos. Uma nova metodologia de criação de padring de microcontroladores, baseada em reuso de informações de projetos anteriores, é apresentada. Essa nova metodologia foi criada para a rápida prototipagem e para diminuir possíveis erros na geração do código do padring. Comparações de resultados de consumo de potência e área são apresentadas para o processador desenvolvido e resultados obtidos com a nova metodologia de geração de padring também são apresentados. Para o processador, um modelo, no qual se utilizam múltiplos barramentos para minimizar o número de ciclos de máquina por instrução, é apresentado. Também foram ressaltadas estruturas que podem ser otimizadas e circuitos que podem ser reaproveitados para diminuir a quantidade de circuito necessário na implementação. Por fim, a nova implementação é comparada com os três modelos anteriores; os ganhos obtidos de desempenho com a implementação dessas estruturas foram de 18% que, convertidos em consumo de potência, representam economia de 13% em relação ao melhor caso dos processadores comparados. A tecnologia utilizada no desenvolvimento dos processadores foi CMOS 250nm da TSMC.
Resumo:
A biomassa lignicelulósica tem sua estrutura composta por celulose, hemicelulose e lignina. Dentre essas, a lignina tem se mostrado interessante por ser uma fonte precursora sustentável de fragmentos aromáticos antes obtidos apenas de combustíveis fósseis. Sua estrutura é composta por resíduos de fenilpropanóides p-hidroxibenzeno (H), guaiacil (G) e siringil (S) unidas por ligações C–C e C–O–C em que a ligação β–O–4 é a predominante (mais de 50%). Devido à sua complexidade estrutural e conformacional, a clivagem de suas ligações é pouco seletiva e a caracterização dos fragmentos resultantes é complexa. Uma estratégia comumente empregada para evitar esses desafios é o uso de modelos mais simples. Entretanto, poucas metodologias são reportadas na literatura para a sua síntese e a maioria delas envolve o emprego de halocetonas. O presente trabalho desenvolveu duas novas metodologias promissoras para síntese desses oligômeros, contendo ligação β–O–4 por meio da química de diazo: (a) reação de inserção O–H entre fenol e α–aril diazocetonas, e (b) compostos α–diazo β-cetoéster. Ademais, a utilização de monômeros contendo a função fenol e diazocetona no mesmo anel permitiria a síntese de cadeias de diversos tamanhos em uma única etapa. Como ponto de partida para o estudo, limitou-se à síntese de dímeros, visando entender a reação de inserção O–H. Os produtos desejados foram obtidos em rendimentos de 27–51% após catálise com Cu(hfac)2. Por fim, os modelos de lignina propriamente ditos foram sintetizados após simples adição aldólica e redução em rendimentos globais de 51–78%. Os estudos envolvendo a inserção de fenol em α–diazo β-cetoéster mostraram resultados promissores, corroborando para uma nova estratégia sintética para a obtenção de modelos de lignina. Novos estudos em nosso laboratório estão sendo desenvolvidos para se obter resultados mais conclusivos.
Resumo:
Este trabalho apresenta uma nova metodologia para otimizar carteiras de ativos financeiros. A metodologia proposta, baseada em interpoladores universais tais quais as Redes Neurais Artificiais e a Krigagem, permite aproximar a superfície de risco e consequentemente a solução do problema de otimização associado a ela de forma generalizada e aplicável a qualquer medida de risco disponível na literatura. Além disto, a metodologia sugerida permite que sejam relaxadas hipóteses restritivas inerentes às metodologias existentes, simplificando o problema de otimização e permitindo que sejam estimados os erros na aproximação da superfície de risco. Ilustrativamente, aplica-se a metodologia proposta ao problema de composição de carteiras com a Variância (controle), o Valor-em-Risco (VaR) e o Valor-em-Risco Condicional (CVaR) como funções objetivo. Os resultados são comparados àqueles obtidos pelos modelos de Markowitz e Rockafellar, respectivamente.
Resumo:
This research proposes a methodology to improve computed individual prediction values provided by an existing regression model without having to change either its parameters or its architecture. In other words, we are interested in achieving more accurate results by adjusting the calculated regression prediction values, without modifying or rebuilding the original regression model. Our proposition is to adjust the regression prediction values using individual reliability estimates that indicate if a single regression prediction is likely to produce an error considered critical by the user of the regression. The proposed method was tested in three sets of experiments using three different types of data. The first set of experiments worked with synthetically produced data, the second with cross sectional data from the public data source UCI Machine Learning Repository and the third with time series data from ISO-NE (Independent System Operator in New England). The experiments with synthetic data were performed to verify how the method behaves in controlled situations. In this case, the outcomes of the experiments produced superior results with respect to predictions improvement for artificially produced cleaner datasets with progressive worsening with the addition of increased random elements. The experiments with real data extracted from UCI and ISO-NE were done to investigate the applicability of the methodology in the real world. The proposed method was able to improve regression prediction values by about 95% of the experiments with real data.