1000 resultados para Filtros elétricos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El sector del transporte es un gran consumidor de energía con un 30 % de la energía utilizada en el mundo. Esa demanda energética está dirigida prioritariamente a los derivados del petróleo, un recurso que se agota, concentrado en países políticamente inestables y causante del calentamiento global por efecto invernadero. Dada esta situación y al aumento de la demanda y precio es necesaria la búsqueda de alternativas para su uso como combustible. Una de las alternativas más viables es el biodiesel, ya que posee características similares al diesel y puede ser usado como sustituto sin tener que realizar grandes modificaciones en el motor. El proyecto tiene como objetivo el estudio de los ésteres etílicos de ácidos grasos (FAEEs) obtenidos a partir de aceites tunecinos para establecer una correlación entre su composición y sus propiedades. Las propiedades estudiadas han sido la viscosidad cinemática, densidad, número de cetano, estabilidad a la oxidación, punto de niebla, punto de fluidez y punto de obstrucción de filtros en frío con los aceites de las siguientes plantas: Ecballium elaterium, Sylibum marianum, Ammi visnaga, Datura stramonium, Citrullus colocynthis Shard, y un aceite de Sardinops sagax tunecino (Aceite de sardina). El motivo por el cual se han seleccionado estos aceites es por su escasa investigación para su uso como combustible, siendo de gran interés estimar su rentabilidad para una posible explotación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nowadays, a lot of applications use digital images. For example in face recognition to detect and tag persons in photograph, for security control, and a lot of applications that can be found in smart cities, as speed control in roads or highways and cameras in traffic lights to detect drivers ignoring red light. Also in medicine digital images are used, such as x-ray, scanners, etc. These applications depend on the quality of the image obtained. A good camera is expensive, and the image obtained depends also on external factor as light. To make these applications work properly, image enhancement is as important as, for example, a good face detection algorithm. Image enhancement also can be used in normal photograph, for pictures done in bad light conditions, or just to improve the contrast of an image. There are some applications for smartphones that allow users apply filters or change the bright, colour or contrast on the pictures. This project compares four different techniques to use in image enhancement. After applying one of these techniques to an image, it will use better the whole available dynamic range. Some of the algorithms are designed for grey scale images and others for colour images. It is used Matlab software to develop and present the final results. These algorithms are Successive Means Quantization Transform (SMQT), Histogram Equalization, using Matlab function and own implemented function, and V transform. Finally, as conclusions, we can prove that Histogram equalization algorithm is the simplest of all, it has a wide variability of grey levels and it is not suitable for colour images. V transform algorithm is a good option for colour images. The algorithm is linear and requires low computational power. SMQT algorithm is non-linear, insensitive to gain and bias and it can extract structure of the data. RESUMEN. Hoy en día incontable número de aplicaciones usan imágenes digitales. Por ejemplo, para el control de la seguridad se usa el reconocimiento de rostros para detectar y etiquetar personas en fotografías o vídeos, para distintos usos de las ciudades inteligentes, como control de velocidad en carreteras o autopistas, cámaras en los semáforos para detectar a conductores haciendo caso omiso de un semáforo en rojo, etc. También en la medicina se utilizan imágenes digitales, como por ejemplo, rayos X, escáneres, etc. Todas estas aplicaciones dependen de la calidad de la imagen obtenida. Una buena cámara es cara, y la imagen obtenida depende también de factores externos como la luz. Para hacer que estas aplicaciones funciones correctamente, el tratamiento de imagen es tan importante como, por ejemplo, un buen algoritmo de detección de rostros. La mejora de la imagen también se puede utilizar en la fotografía no profesional o de consumo, para las fotos realizadas en malas condiciones de luz, o simplemente para mejorar el contraste de una imagen. Existen aplicaciones para teléfonos móviles que permiten a los usuarios aplicar filtros y cambiar el brillo, el color o el contraste en las imágenes. Este proyecto compara cuatro técnicas diferentes para utilizar el tratamiento de imagen. Se utiliza la herramienta de software matemático Matlab para desarrollar y presentar los resultados finales. Estos algoritmos son Successive Means Quantization Transform (SMQT), Ecualización del histograma, usando la propia función de Matlab y una nueva función que se desarrolla en este proyecto y, por último, una función de transformada V. Finalmente, como conclusión, podemos comprobar que el algoritmo de Ecualización del histograma es el más simple de todos, tiene una amplia variabilidad de niveles de gris y no es adecuado para imágenes en color. El algoritmo de transformada V es una buena opción para imágenes en color, es lineal y requiere baja potencia de cálculo. El algoritmo SMQT no es lineal, insensible a la ganancia y polarización y, gracias a él, se puede extraer la estructura de los datos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La evolución de los teléfonos móviles inteligentes, dotados de cámaras digitales, está provocando una creciente demanda de aplicaciones cada vez más complejas que necesitan algoritmos de visión artificial en tiempo real; puesto que el tamaño de las señales de vídeo no hace sino aumentar y en cambio el rendimiento de los procesadores de un solo núcleo se ha estancado, los nuevos algoritmos que se diseñen para visión artificial han de ser paralelos para poder ejecutarse en múltiples procesadores y ser computacionalmente escalables. Una de las clases de procesadores más interesantes en la actualidad se encuentra en las tarjetas gráficas (GPU), que son dispositivos que ofrecen un alto grado de paralelismo, un excelente rendimiento numérico y una creciente versatilidad, lo que los hace interesantes para llevar a cabo computación científica. En esta tesis se exploran dos aplicaciones de visión artificial que revisten una gran complejidad computacional y no pueden ser ejecutadas en tiempo real empleando procesadores tradicionales. En cambio, como se demuestra en esta tesis, la paralelización de las distintas subtareas y su implementación sobre una GPU arrojan los resultados deseados de ejecución con tasas de refresco interactivas. Asimismo, se propone una técnica para la evaluación rápida de funciones de complejidad arbitraria especialmente indicada para su uso en una GPU. En primer lugar se estudia la aplicación de técnicas de síntesis de imágenes virtuales a partir de únicamente dos cámaras lejanas y no paralelas—en contraste con la configuración habitual en TV 3D de cámaras cercanas y paralelas—con información de color y profundidad. Empleando filtros de mediana modificados para la elaboración de un mapa de profundidad virtual y proyecciones inversas, se comprueba que estas técnicas son adecuadas para una libre elección del punto de vista. Además, se demuestra que la codificación de la información de profundidad con respecto a un sistema de referencia global es sumamente perjudicial y debería ser evitada. Por otro lado se propone un sistema de detección de objetos móviles basado en técnicas de estimación de densidad con funciones locales. Este tipo de técnicas es muy adecuada para el modelado de escenas complejas con fondos multimodales, pero ha recibido poco uso debido a su gran complejidad computacional. El sistema propuesto, implementado en tiempo real sobre una GPU, incluye propuestas para la estimación dinámica de los anchos de banda de las funciones locales, actualización selectiva del modelo de fondo, actualización de la posición de las muestras de referencia del modelo de primer plano empleando un filtro de partículas multirregión y selección automática de regiones de interés para reducir el coste computacional. Los resultados, evaluados sobre diversas bases de datos y comparados con otros algoritmos del estado del arte, demuestran la gran versatilidad y calidad de la propuesta. Finalmente se propone un método para la aproximación de funciones arbitrarias empleando funciones continuas lineales a tramos, especialmente indicada para su implementación en una GPU mediante el uso de las unidades de filtraje de texturas, normalmente no utilizadas para cómputo numérico. La propuesta incluye un riguroso análisis matemático del error cometido en la aproximación en función del número de muestras empleadas, así como un método para la obtención de una partición cuasióptima del dominio de la función para minimizar el error. ABSTRACT The evolution of smartphones, all equipped with digital cameras, is driving a growing demand for ever more complex applications that need to rely on real-time computer vision algorithms. However, video signals are only increasing in size, whereas the performance of single-core processors has somewhat stagnated in the past few years. Consequently, new computer vision algorithms will need to be parallel to run on multiple processors and be computationally scalable. One of the most promising classes of processors nowadays can be found in graphics processing units (GPU). These are devices offering a high parallelism degree, excellent numerical performance and increasing versatility, which makes them interesting to run scientific computations. In this thesis, we explore two computer vision applications with a high computational complexity that precludes them from running in real time on traditional uniprocessors. However, we show that by parallelizing subtasks and implementing them on a GPU, both applications attain their goals of running at interactive frame rates. In addition, we propose a technique for fast evaluation of arbitrarily complex functions, specially designed for GPU implementation. First, we explore the application of depth-image–based rendering techniques to the unusual configuration of two convergent, wide baseline cameras, in contrast to the usual configuration used in 3D TV, which are narrow baseline, parallel cameras. By using a backward mapping approach with a depth inpainting scheme based on median filters, we show that these techniques are adequate for free viewpoint video applications. In addition, we show that referring depth information to a global reference system is ill-advised and should be avoided. Then, we propose a background subtraction system based on kernel density estimation techniques. These techniques are very adequate for modelling complex scenes featuring multimodal backgrounds, but have not been so popular due to their huge computational and memory complexity. The proposed system, implemented in real time on a GPU, features novel proposals for dynamic kernel bandwidth estimation for the background model, selective update of the background model, update of the position of reference samples of the foreground model using a multi-region particle filter, and automatic selection of regions of interest to reduce computational cost. The results, evaluated on several databases and compared to other state-of-the-art algorithms, demonstrate the high quality and versatility of our proposal. Finally, we propose a general method for the approximation of arbitrarily complex functions using continuous piecewise linear functions, specially formulated for GPU implementation by leveraging their texture filtering units, normally unused for numerical computation. Our proposal features a rigorous mathematical analysis of the approximation error in function of the number of samples, as well as a method to obtain a suboptimal partition of the domain of the function to minimize approximation error.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El empobrecimiento de los filtros del hueco hace que su eficiencia medioambiental, integración en el sistema constructivo y cualidades compositivas y espaciales se vean drásticamente reducidas. La revisión de la persiana enrollable desde su evolución histórica como elemento fundamental de la transformación del hueco permite devolver al cerramiento y al hueco esa complejidad perdida y acercarnos a la necesaria tipificación de nuestras soluciones. La investigación de la persiana enrollable parte de las primeras patentes inglesas y francesas hasta llegar a España por medio de los Herederos de Ramón Múgica, en San Sebastián y Casas&Bardes, en Barcelona, con múltiples soluciones constructivas integradas en los huecos. Su concepción a principios del s. XIX difiere de la actual tanto a nivel de acondicionamiento climático como constructivo y permite valorar, a través del análisis de algunos ejemplos, el cumplimiento de sus prestaciones e integración en el hueco y discernir qué soluciones emergentes son las más óptimas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mapeamento das dissertações e teses referentes à subárea da comunicação popular, alternativa e comunitária (CPAC) desenvolvidas nos Programas de Pós-Graduação em Comunicação stricto sensu no Brasil, de 1972 a 2012. Dentre os objetivos estão localizar as pesquisas; os autores; sua distribuição no tempo e espaço; identificar as instituições e orientadores que impulsionam a subárea; definir as abordagens teórico-metodológicas; e apontar autores/conceitos referência. Por meio de pesquisa exploratória e aplicação de quatro filtros, chegou-se a uma amostra final de 102 pesquisas, 87 dissertações e 15 teses, submetidas à análise quantitativa, por meio de Análise de Conteúdo a partir de partes pré-definidas (Resumo, Palavras chave, Introdução, Sumário, Considerações Finais e capítulo metodológico, quando presente), e a uma análise qualitativa do conteúdo completo das 15 teses. O método que orienta esta pesquisa é o histórico dialético, na perspectiva da busca de uma análise de conjunto e atenta às contradições e mudanças que o objeto está implicado; e a pesquisa bibliográfica que a fundamenta se ancora em autores como Jorge González, Cicilia Peruzzo, Regina Festa, Pedro Gilberto Gomes, Gilberto Giménez e Augusto Triviños e foi realizada com o apoio do software NVivo. Resultados quantitativos indicam: a) predominância de pesquisas sobre comunicação comunitária (68%) b) predominância de estudos empíricos (79%); c) a variedade de denominações atribuídas às experiências pelos pesquisadores; d) a constante luta das classes populares por democratização da comunicação e por direitos sociais ao longo dos anos; e) a influência e importância dos intelectuais orgânicos nas experiências estudadas, f) problemas metodológicos; g) UMESP, USP e UFRJ como instituições protagonistas, e, h) Cicilia Peruzzo e Raquel Paiva como as que mais orientam teses e dissertações sobre a temática. Quanto à análise qualitativa verificaram-se alguns critérios que permeiam a CPAC: 1) a definição de classes subalternas; 2) a importância da participação ativa das comunidades nos processos de comunicação; e 3) formas, conteúdos e objetivos que se complementam e dão identidade às experiências

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aumento no consumo energético e a crescente preocupação ambiental frente à emissão de gases poluentes criam um apelo mundial favorável para pesquisas de novas tecnologias não poluentes de fontes de energia. Baterias recarregáveis de lítio-ar em solventes não aquosos possuem uma alta densidade de energia teórica (5200 Wh kg-1), o que as tornam promissoras para aplicação em dispositivos estacionários e em veículos elétricos. Entretanto, muitos problemas relacionados ao cátodo necessitam ser contornados para permitir a aplicação desta tecnologia, por exemplo, a baixa reversibilidade das reações, baixa potência e instabilidades dos materiais empregados nos eletrodos e dos solventes eletrolíticos. Assim, neste trabalho um modelo cinético foi empregado para os dados experimentais de espectroscopia de impedância eletroquímica, para a obtenção das constantes cinéticas das etapas elementares do mecanismo da reação de redução de oxigênio (RRO), o que permitiu investigar a influência de parâmetros como o tipo e tamanho de partícula do eletrocatalisador, o papel do solvente utilizado na RRO e compreender melhor as reações ocorridas no cátodo dessa bateria. A investigação inicial se deu com a utilização de sistemas menos complexos como uma folha de platina ou eletrodo de carbono vítreo como eletrodos de trabalho em 1,2-dimetoxietano (DME)/perclorato de lítio (LiClO4). A seguir, sistemas complexos com a presença de nanopartículas de carbono favoreceu o processo de adsorção das moléculas de oxigênio e aumentou ligeiramente (uma ordem de magnitude) a etapa de formação de superóxido de lítio (etapa determinante de reação) quando comparada com os eletrodos de platina e carbono vítreo, atribuída à presença dos grupos laterais mediando à transferência eletrônica para as moléculas de oxigênio. No entanto, foi observada uma rápida passivação da superfície eletrocatalítica através da formação de filmes finos de Li2O2 e Li2CO3 aumentando o sobrepotencial da bateria durante a carga (diferença de potencial entre a carga e descarga > 1 V). Adicionalmente, a incorporação das nanopartículas de platina (Ptnp), ao invés da folha de platina, resultou no aumento da constante cinética da etapa determinante da reação em duas ordens de magnitude, o qual pode ser atribuído a uma mudança das propriedades eletrônicas na banda d metálica em função do tamanho nanométrico das partículas, e estas modificações contribuíram para uma melhor eficiência energética quando comparado ao sistema sem a presença de eletrocatalisador. Entretanto, as Ptnp se mostraram não específicas para a RRO, catalisando as reações de degradação do solvente eletrolítico e diminuindo rapidamente a eficiência energética do dispositivo prático, devido ao acúmulo de material no eletrodo. O emprego de líquido iônico como solvente eletrolítico, ao invés de DME, promoveu uma maior estabilização do intermediário superóxido formado na primeira etapa de transferência eletrônica, devido à interação com os cátions do líquido iônico em solução, o qual resultou em um valor de constante cinética da formação do superóxido de três ordens de magnitude maior que o obtido com o mesmo eletrodo de carbono vítreo em DME, além de diminuir as reações de degradação do solvente. Estes fatores podem contribuir para uma maior potência e ciclabilidade da bateria de lítio-ar operando com líquidos iônicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A acne vulgar é uma das doenças cutâneas mais comuns, apresentando como um de seus fatores fisiopatológicos primários a colonização pelo microrganismo Propionibacterium acnes. Atualmente, têm-se buscado terapias alternativas para o combate ao P. acnes, destacando-se alguns ácidos graxos, como o ácido laúrico (LA). O LA é uma molécula pouco solúvel em água, sendo possível sua incorporação em lipossomas. Os lipossomas apresentam capacidade de encapsulação/ liberação de ativos e impedem a desidratação da pele, tornando-se ingredientes inovadores na área de cosméticos. Foram preparados lipossomas de dipalmitoilfosfatidilcolina (DPPC) contendo diferentes concentrações de LA, que variaram de 0 a 50% da concentração total em mol, em quatro pHs: 9,0, 7,4, 5,0 e 3,0. Nestes pHs o estado de protonação do LA muda variando de 0 a -1. Os lipossomas foram extrusados por filtros com poros de 100 nm de diâmetro visando à obtenção de vesículas unilamelares grandes (LUV). As LUV foram caracterizadas quanto a sua estabilidade em condições de prateleira, temperatura de transição de fase da bicamada, encapsulamento no interior aquoso, liberação do LA, difusão das vesículas na pele e seus aspectos morfológicos foram caracterizados por espalhamento de raios-X a baixo ângulo (SAXS) e crio-microscopia eletrônica de transmissão. Estudos de estabilidade mostraram que independentemente da concentração de LA, as formulações são mais estáveis em pHs mais altos, quando LA está em sua maioria na forma de laurato. Os experimentos de DSC revelaram que em pHs 3,0 e 5,0 e concentrações maiores de LA, a interação deste ácido graxo com as bicamadas é favorecida, havendo um aumento da temperatura de transição de fase (Tm) e diminuição da cooperatividade. Análises de taxa de incorporação de sondas hidrofílicas confirmaram a presença de um compartimento aquoso interno para as vesículas de DPPC:LA. O LA conseguiu permear a pele no período avaliado e pouco LA foi liberado das vesículas em condições de temperatura ambiente. A morfologia das LUV se mostrou bem diferente da esperada e se observaram vesículas com mais de uma bicamada e outros formatos que não o esférico. Estes resultados podem auxiliar na otimização das condições para uma formulação que poderá ser usada no tratamento da acne, aumentando a eficácia do LA no sítio alvo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foram estudadas trinta e uma cepas fúngicas não identificadas, as quais foram denominadasX1 a X31. O potencial fotoprotetor foi avaliado pela medida espectrofotométrica da absorçãodos extratos na região do UV (280-400 nm). Os extratos com os melhores perfis de absorção em cultura estacionária foram X1, X2, X6, X12, X13, X18, X19, X22, X24 e X31 e, em cultura agitada X4 e X17. A reprodutibilidade do processo foi avaliada e as cepas fúngicas que apresentaram coeficiente de variação menor que 15% foram selecionadas para o estudo de fotoestabilidade. A fotoestabilidade dos extratos foi avaliada pela medida da viabilidade celular de fibroblastos L929 tratados com extratos previamente irradiados sob radiação UVA (11,2 J/cm2) e UVB (3,43 J/cm2) e extratos não irradiados, bem como, pela comparação das áreas sob as curvas de absorção na região do UV dos extratos irradiados e não irradiados. Os extratos selecionados para o estudo de fotoestabilidade foram X4, X12, X19, X22, X24 e X31. Os extratos não irradiados apresentaram os seguintes valores deIC50 para viabilidade celular (citotoxidade): X4-130µg/ml, X19-20µg/ml, X22-10 µg/ml e X24-60µg/ml. Após a radiação UVA e UVB, os extratos apresentaram redução significativa da viabilidade celular em relação ao IC50 dos extratos não irradiados. Sob luz UVB, os extratos X12 (IC50 35µg/ml) e X31 (IC50 70µg/ml) mantiveram a mesma porcentagem de redução da viabilidade celular quando comparado ao IC50 dos extratos não irradiados. No entanto após exposição à luz UVA, o extrato X12 aumentou a viabilidade celular de 50% (quando não irradiado) para 75% (irradiado). Enquanto que o extrato X31, mesmo após a radiação UVA, manteve a mesma redução de 50% da viabilidade celular. Nessa etapa os extratos selecionados foram os X12 e X31. O espectro de absorção na região do UV obtido para o extrato X12 mostrou uma redução da absorbância de 28,3% sob radiação UVB e de 60% sob radiação UVA em relação ao extrato não irradiado. O extrato X31 apresentou uma redução da absorbância de 17,6% e30% sob radiação UVB e UVA respectivamente, em relação ao extrato não irradiado. Os fungos selecionados foram identificados por PCR, sugerindo que o fungo X12 seja o Aspergillus terreus e o X31 seja o Talaromyces pinophilus. Por fim, foi feita a identificação da substância ativa do extrato X12 empregando a técnica de desreplicação, a qual fez o uso da instrumentação analítica acoplada UHPLC-DAD-(ESI)-HRMS associada ao banco de dados Chapman& Hall\'s Dictionary of Natural Products (DNP). No extrato X12 o composto majoritário foi identificado como sendo a citreoviridina. Assim, os resultados do presente trabalho permitiu estabelecer um procedimento para a seleção de fungos produtores de compostos absorvedores de radiação UV, que poderia ser aplicado na obtenção de novos filtros orgânicos naturais para protetores solares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivo avaliar diversos métodos de detecção e recuperação de cistos de Giardia spp. e de oocistos de Cryptosporidium parvum em resíduos gerados no tratamento de águas de abastecimento com turbidez elevada tendo como padrão o Método 1623.1 da USEPA (2012 ). Para tanto, ensaios utilizando aparelho Jarteste (coagulação, floculação, decantação e filtração ) foram realizados utilizando o coagulante cloreto de polialumínio - PAC. Em todos os métodos avaliados foi utilizada a técnica de purificação por separação imunomagnética - IMS. A adaptação do método floculação em carbonato de cálcio FCCa elaborado por Vesey et al. (1993) e adaptado por Feng et al. (2011), repercutiu nos melhores resultados para a amostra de resíduo sedimentado, com recuperações de 68 ± 17 % para oocisto de C. parvum e de 42 ± 7 % para cisto de Giardia spp. Entretanto, as recuperações para a amostra de água de lavagem dos filtros - ALF foram inferiores à 1 %, não sendo possível determinar um método adequado. A presença dos patógenos indica que o reuso da ALF em ETA convencionais ou o descarte em mananciais sem um tratamento prévio, pode representar problemas de contaminação. A adaptação dos métodos de Boni de Oliveira (2012) e Keegan et al. (2008), também repercutiram em porcentagens de recuperação expressivas para a amostra de resíduo sedimentado, sendo de: 41 ± 35 % para oocisto de C. parvum e 11 ± 70 % para cisto de Giardia spp., e 38 ± 26 % para oocisto de C. parvum e 26 ± 13 % para cisto de Giardia spp., respectivamente. A análise estatística não resultou em diferença significativa entre estes dois métodos, entretanto, as elevadas recuperações indicam que estes métodos podem ser melhor avaliados em pesquisas futuras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo da microestrutura e dinâmica molecular de polímeros conjugados é de grande importância para o entendimento das propriedades físicas desta classe de materiais. No presente trabalho utilizou-se técnicas de ressonância magnética nuclear em baixo e alto campo para elucidar os processos de dinâmica molecular e cristalização do polímero Poly(3-(2’-ethylhexyl)thiophene) - P3EHT. O P3EHT é um polímero modelo para tal estudo, pois apresenta temperatura de fusão bem inferior a sua temperatura de degradação. Esta característica permite acompanhar os processos de cristalização in situ utilizando RMN. Além disso, sua similaridade ao já popular P3HT o torna um importante candidato a camada ativa em dispositivos eletrônicos orgânicos. O completo assinalamento do espectro de 13C para o P3EHT foi realizado utilizando as técnicas de defasamento dipolar e HETCOR. Os processos de dinâmica molecular, por sua vez, foram sondados utilizando DIPSHIFT. Observou-se um gradiente de mobilidade na cadeia lateral do polímero. Além disso, os baixos valores de parametros de ordem obtidos em comparação a experimentos similares realizados no P3HT na literatura indicam um aparente aumento no volume livre entre cadeias consecutivas na fase cristalina. Isso indica que a presença do grupo etil adicional no P3EHT causa um completo rearranjo das moléculas e dificulta seu empacotamento. Constatou-se ainda pouca variação das curvas de DIPSHIFT para os carbonos da cadeia lateral como função do método de excitação utilizado, o que aponta para um polímero que apresenta cadeia lateral móvel mesmo em sua fase cristalina. Os dados de dinâmica molecular foram corroborados por medidas de T1, T1ρ e TCH. Utilizando filtros dipolares em baixo campo observou-se três temperaturas de transição para o P3EHT: 250 K, 325 K e 350 K. A cristalização desse material é um processo lento. Verificou-se que o mesmo pode se estender por até até 24h a temperatura ambiente. Mudanças no espectro de 13C utilizando CPMAS em alto campo indicam um ordenamento dos anéis tiofeno (empacotamento π – π) como o principal processo de cristalização para o P3EHT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho foram estudadas as series de ligas La0,7Mg0,3Al0,3Mn0,4Co(0,5-x)NbxNi3,8 (x =0 a 0,5) e La0,7Mg0,3Al0,3Mn0,4Nb(0,5-x)Ni(3,8-x) (x =0,3; 0,5 e 1,3), como eletrodo negativo de baterias de Níquel Hidreto Metálico. A pulverização das ligas foi realizada com duas pressões de H2 (2 bar e 9 bar). A capacidade de descarga das baterias de níquel hidreto metálico foi analisada pelo equipamento de testes elétricos Arbin BT-4. As ligas, no estado bruto de fusão, foram analisadas por microscopia eletrônica de varredura (MEV), espectroscopia de energia dispersiva (EDS) e difração de raios-X. Com o aumento da concentração de nióbio nas ligas nota-se a diminuição da estabilidade cíclica das baterias e da capacidade máxima de descarga. A capacidade de descarga máxima obtida foi para a liga La0,7Mg0,3Al0,3Mn0,4Co0,5Ni3,8 (45,36 mAh) e a bateria que apresentou a melhor performance foi a liga La0,7Mg0,3Al0,3Mn0,4Co0,4Nb0,1Ni3,8 (44,94 mAh).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o objetivo de orientar e agilizar a busca do local de curto circuitos em redes primárias aéreas de distribuição de energia, esta pesquisa propõe uma metodologia para localização de áreas com maior probabilidade de ser sede do defeito, utilizando variáveis Heurísticas. A metodologia Heurística se aplica em problemas que envolvem variáveis com incertezas, que podem ser avaliadas por meio de recursos empíricos e na experiência de especialistas. Dentre as variáveis influentes no cálculo de curto circuito, foram consideradas como mais relevantes: a resistência de defeito, a tensão pré falta, a impedância do sistema equivalente a montante da subestação e a impedância da rede. A metodologia proposta se fundamenta no conhecimento das correntes e tensões oscilografadas no barramento da subestação por ocasião da ocorrência de um curto circuito e, por outro lado no pré-calculo de correntes de curto circuito heurísticas ao longo da rede. No âmbito da pesquisa foram realizados testes de campo para levantamento da variável heurística resistência de defeito, resumidos neste texto e documentados no CD - ROM em anexo. Foi desenvolvido um software que permitiu a efetiva aplicação da proposta desta pesquisa em vários alimentadores de uma Distribuidora, cujos resultados comprovaram a eficiência da metodologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas elétricos de potência modernos apresentam inúmeros desafios em sua operação. Nos sistemas de distribuição de energia elétrica, devido à grande ramificação, presença de extensos ramais monofásicos, à dinâmica das cargas e demais particularidades inerentes, a localização de faltas representa um dos maiores desafios. Das barreiras encontradas, a influência da impedância de falta é uma das maiores, afetando significativamente a aplicação dos métodos tradicionais na localização, visto que a magnitude das correntes de falta é similar à da corrente de carga. Neste sentido, esta tese objetivou desenvolver um sistema inteligente para localização de faltas de alta impedância, o qual foi embasado na aplicação da técnica de decomposição por componentes ortogonais no pré-processamento das variáveis e inferência fuzzy para interpretar as não-linearidades do Sistemas de Distribuição com presença de Geração Distribuída. Os dados para treinamento do sistema inteligente foram obtidos a partir de simulações computacionais de um alimentador real, considerando uma modelagem não-linear da falta de alta impedância. O sistema fuzzy resultante foi capaz de estimar as distâncias de falta com um erro absoluto médio inferior a 500 m e um erro absoluto máximo da ordem de 1,5 km, em um alimentador com cerca de 18 km de extensão. Tais resultados equivalem a um grau de exatidão, para a maior parte das ocorrências, dentro do intervalo de ±10%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente trabalho é a investigação e o desenvolvimento de estratégias de otimização contínua e discreta para problemas de Fluxo de Potência Ótimo (FPO), onde existe a necessidade de se considerar as variáveis de controle associadas aos taps de transformadores em-fase e chaveamentos de bancos de capacitores e reatores shunt como variáveis discretas e existe a necessidade da limitação, e/ou até mesmo a minimização do número de ações de controle. Neste trabalho, o problema de FPO será abordado por meio de três estratégias. Na primeira proposta, o problema de FPO é modelado como um problema de Programação Não Linear com Variáveis Contínuas e Discretas (PNLCD) para a minimização de perdas ativas na transmissão; são propostas três abordagens utilizando funções de discretização para o tratamento das variáveis discretas. Na segunda proposta, considera-se que o problema de FPO, com os taps de transformadores discretos e bancos de capacitores e reatores shunts fixos, possui uma limitação no número de ações de controles; variáveis binárias associadas ao número de ações de controles são tratadas por uma função quadrática. Na terceira proposta, o problema de FPO é modelado como um problema de Otimização Multiobjetivo. O método da soma ponderada e o método ε-restrito são utilizados para modificar os problemas multiobjetivos propostos em problemas mono-objetivos. As variáveis binárias associadas às ações de controles são tratadas por duas funções, uma sigmoidal e uma polinomial. Para verificar a eficácia e a robustez dos modelos e algoritmos desenvolvidos serão realizados testes com os sistemas elétricos IEEE de 14, 30, 57, 118 e 300 barras. Todos os algoritmos e modelos foram implementados em General Algebraic Modeling System (GAMS) e os solvers CONOPT, IPOPT, KNITRO e DICOPT foram utilizados na resolução dos problemas. Os resultados obtidos confirmam que as estratégias de discretização são eficientes e as propostas de modelagem para variáveis binárias permitem encontrar soluções factíveis para os problemas envolvendo as ações de controles enquanto os solvers DICOPT e KNITRO utilizados para modelar variáveis binárias não encontram soluções.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os smart grids representam a nova geração dos sistemas elétricos de potência, combinando avanços em computação, sistemas de comunicação, processos distribuídos e inteligência artificial para prover novas funcionalidades quanto ao acompanhamento em tempo real da demanda e do consumo de energia elétrica, gerenciamento em larga escala de geradores distribuídos, entre outras, a partir de um sistema de controle distribuído sobre a rede elétrica. Esta estrutura modifica profundamente a maneira como se realiza o planejamento e a operação de sistemas elétricos nos dias de hoje, em especial os de distribuição, e há interessantes possibilidades de pesquisa e desenvolvimento possibilitada pela busca da implementação destas funcionalidades. Com esse cenário em vista, o presente trabalho utiliza uma abordagem baseada no uso de sistemas multiagentes para simular esse tipo de sistema de distribuição de energia elétrica, considerando opções de controle distintas. A utilização da tecnologia de sistemas multiagentes para a simulação é baseada na conceituação de smart grids como um sistema distribuído, algo também realizado nesse trabalho. Para validar a proposta, foram simuladas três funcionalidades esperadas dessas redes elétricas: classificação de cargas não-lineares; gerenciamento de perfil de tensão; e reconfiguração topológica com a finalidade de reduzir as perdas elétricas. Todas as modelagens e desenvolvimentos destes estudos estão aqui relatados. Por fim, o trabalho se propõe a identificar os sistemas multiagentes como uma tecnologia a ser empregada tanto para a pesquisa, quanto para implementação dessas redes elétricas.