954 resultados para Transformada de Hough
Resumo:
This thesis provides a reading of the different forms of representation that can be attributed to the character Tashi, the protagonist of the novel Possessing the Secret of Joy (1992), written by the African American writer Alice Walker. Before this work Tashi had already appeared in two previous novels by Walker, first, in The Color Purple (1982) and then, as a mention, in The Temple of My Familiar (1989). With Tashi, the author introduces the issue of female circumcision, a ritual Tashi submits herself to at the beginning of her adult life. The focus of observation lies in the ways in which the author’s anger is transformed into a means of creative representation. Walker uses her novel Possessing the Secret of Joy openly as a political instrument so that the expression “female mutilation” (term used by the author) receives ample attention from the media and critics in general. The aim of this investigation is to evaluate to what extent Walker’s social engagement contributes to the development of her work and to what extent it undermines it. For the analysis of the different issues related to “female genital cutting”, the term I use in this thesis, the works of feminist critics and writers such as Ellen Gruenbaum, Lightfoot-Klein, Nancy Hartsock, Linda Nicholson, Efrat Tseëlon and the Egyptian writer and doctor Nawal El Saadawi will be consulted. I hope that this thesis can contribute as an observation about Alice Walker’s use of her social engagement in the creation of her fictional world.
Resumo:
Os registros de vazões líquidas obtidos das estações fluviométricas são válidos, unicamente, para o local de onde foram coletados ou muito próximo a ele. Na maioria das vezes, a região de influência deste não inclui o local de interesse para o desenvolvimento de projetos de recursos hídricos. Este inconveniente, geralmente, pode ser resolvido através do uso de métodos de regionalização hidrológica. Para determinar os coeficientes da equação de regionalização, o procedimento mais usado consiste em: i) estabelecer uma relação do tipo exponencial multivariada entre a variável dependente (vazão média de longo prazo ou média anual de cheia) e as covariáveis (variáveis climáticas e fisiográficas da bacia hidrográfica); ii) linearizar a equação anterior mediante a transformação logarítmica de ambos os membros; iii) utilizar modelos lineares de regressão para estimar os coeficientes, geralmente, o método dos mínimos quadrados ordinários; e iv) aplicar a transformação inversa para definir a equação. A aplicação deste procedimento implica assumir certas propriedades dos dados (assimetria positiva, registros da mesma extensão e que os mesmos possuem o mesmo período de início e fim, entre outros) que dificilmente podem ser atendidas, prejudicando a verificação das hipóteses nas quais estão baseados os métodos lineares de regressão e, em conseqüência, seu adequado uso, bem como a confiabilidade dos resultados obtidos. Esta pesquisa apresenta um aprimoramento dos métodos de regionalização de vazões geralmente empregados, incluindo-se técnicas que levam em consideração as limitações anteriores. Estas técnicas foram: i) uso da transformada de Box-Cox na linearização da equação exponencial multivariada; ii) determinação dos coeficientes da equação de regionalização usando mínimos quadrados ponderados; e iii) verificação se os resíduos da regressão estão correlacionados ou não. Para o desenvolvimento e verificação da metodologia proposta foram usados somente registros fluviométricos de Bacias Hidrográficas Brasileiras, que drenam suas águas para o Rio Grande do Sul e/ou que estejam localizadas dentro dele. Geograficamente, a área de estudo inclui a totalidade do estado do Rio Grande do Sul e parte de Santa Catarina. As equações de regionalização foram definidas usando dados de vazões médias de longo prazo e média de cheia, para tempo de retorno de 2,33 e 50 anos. Neste último caso, as freqüências foram estimadas através do método dos momentos-L.Comparando os resultados obtidos utilizando o modelo de regionalização hidrológica proposto neste trabalho (transformada de Box-Cox / mínimos quadrados ponderados) junto a seus similares gerados usando a metodologia convencional (transformada logarítmica / mínimos quadrados ordinários) e de modelos intermediários (transformada logarítmica / mínimos quadrados ponderados e transformada de Box-Cox / mínimos quadrados ordinários), os mesmos podem ser considerados satisfatórios, visto que em todas as simulações realizadas o modelo proposto forneceu melhores resultados que aqueles obtidos com os outros modelos, sendo utilizado como padrão de comparação: 1) a qualidade do ajuste, 2) o grau de verificação das hipóteses dos métodos lineares de regressão e 3) os erros na estimativa das descargas, em termos de vazão específica. Nas simulações realizadas usando os modelos intermediários, observou-se que: i) na regionalização de vazões médias, o ganho de considerar a heterogeneidade temporal dos dados é maior do que corrigir a assimetria dos mesmos; ii) quando são usadas séries de descargas máximas, ocorre o efeito contrário, visto que o ganho de corrigir a assimetria das séries é maior do que o efeito da heterogeneidade temporal dos dados. Com relação aos resíduos da regressão, contrariamente ao esperado, os mesmos não sugerem estar correlacionados; isto pode ser conseqüência de utilizar como variável dependente um único registro por estação (vazão média de longo prazo ou média anual de cheia).
Resumo:
Neste trabalho, o objeto é o marketing do dentista, facilmente reconhecível por quem já foi a um consultório odontológico e pelos profissionais da área. Por ser um tema ao qual, até então, não foi dada muita importância, além de ser recheado de tabus, pouco foi dito ou escrito sobre ele, principalmente no Brasil. Esta dissertação teve, além do seu objetivo acadêmico, uma preocupação de colocar os temas de forma que pudesse ser transformada em um livro disponível a todos os dentistas
Resumo:
Neste trabalho apresenta-se uma solução analítica para a dispersão vertical turbulenta em uma Camada Limite Convectiva e em uma Camada Limite Estável. A equação analisada considera a difusão com velocidades finitas, o que representa o transporte turbulento fisicamente correto. Considerando o caráter não-local, adicionam-se na equação que representa uma fonte área instantânea, termos como: o tempo de relaxação, a assimetria, a escala de tempo Lagrangeana e a velocidade turbulenta vertical. A solução é obtida utilizando-se a técnica da Transformada de Laplace. Os parâmetros que encerram a turbulência são derivados da teoria de difusão estatística de Taylor combinada com a teoria de similaridade. Foram utilizados coeficientes de difusão especáficos para cada uma das camadas. A transformada inversa é obtida através do esquema numérico de quadratura Gaussiana. São apresentadas várias simulações para diferentes alturas de fonte área e obtém-se o valor da concentração para alturas próximas ao solo e próximas ao topo da Camada Limite Planetária. A inserção do termo de contra-gradiente na equação resultou em uma pequena influência na concentração de poluentes, observada de forma mais expressiva na Camada Limite Convectiva.
Resumo:
O método LTSN tem sido utilizado na resolução de uma classe abrangente de problemas de transporte de partículas neutras que são reduzidos a um sistema linear algébrico depois da aplicação da transformada de Laplace. Na maioria dos casos estudados os autovalores associados são reais e simétricos. Para o problema de criticalidade os autovalores associados são reais ou imaginários puros e simétricos, e para o o problema de multigrupo podem aparecer autovalores complexos. O objetivo deste trabalho consiste na generalização da formulação LTSN para problemas de transporte com autovalores complexos. Por esse motivo é focada a solução de um problema radiativo de transporte com polarização em uma placa plana. A solução apresentada fundamenta-se na aplicação da transformada de Laplace ao conjunto de equações SN dos problemas resultantes da decomposição da equação de transferência radiativa com polarização em série de Fourier, seguindo o procedimento de Chandrasekhar. Esse procedimento gera 2L + 2 sistemas lineares de ordem 4N dependentes do parâmetro complexo "s". Aqui, L é o grau de anisotropia e N a ordem de quadratura. A solução desse sistema simbólico é obtida através da aplicação da transformada inversa de Laplace depois da inversão da matriz simbólica pelo método da diagonalização. Para a obtenção das constantes de integração é assumido que os componentes do vetor de Stokes são reais e as matrizes dos autovalores e autovetores são separadas em suas partes real e imaginária. A solução LTSN para autovalores complexos é validada através da comparação da solução para uma placa com espessura unitária, grau de anisotropia L = 13, albedo de espalhamento simples $ = 0:99, coe ciente de re exão de Lambert ¸0 = 0:1 e N = 150, segundo dados da literatura consultada.
Resumo:
Neste trabalho e apresentado um avanço na tecnica GILTT(Generalized Integral and Laplace Transform Technique) solucionando analiticamente um sistema de EDO's(Equações Diferenciais Ordinarias) de segunda ordem resultante da transformação pela GITT(Generalized Integral Transform Technique). Este tipo de problema usualmente aparece quando esta tecnica é aplicada na solução de problemas bidimensionais estacionários. A principal idéia consiste na redução de ordem do problema transformado em outro sistema de EDO's lineares de primeira ordem e a solução analítica deste problema, pela técnica da transformada de Laplace. Como exemplo de aplicação é resolvida a equação da energia linear bidimensional e estacionária. São apresentadas simulações numéricas e comparações com resultados disponíveis na literatura.
Resumo:
O objetivo principal deste trabalho é propor uma metodologia de classificação de imagens de sensoriamento remoto que integre a importância de atributos de textura na seleção de feições, através da utilização de freqüências espaciais de cada classe textural e sua direção, com a eficiência das redes neurais artificiais para classificá-las. O processo é composto por uma etapa de filtragem baseada nos filtros de Gabor, seguida de uma fase de classificação através de uma rede neural Multi-Layer Perceptron com algoritmo BackPropagation. A partir da transformada de Fourier são estimados os parâmetros a serem utilizados na constituição dos filtros de Gabor, adequados às freqüências espaciais associadas a cada classe presente na imagem a ser classificada. Desta forma, cada filtro gera uma imagem filtrada. O conjunto de filtros determina um conjunto de imagens filtradas (canais texturais). A classificação pixel a pixel é realizada pela rede neural onde cada pixel é definido por um vetor de dimensionalidade igual ao número de filtros do conjunto. O processo de classificação através da rede neural Multi-Layer Perceptron foi realizado pelo método de classificação supervisionada. A metodologia de classificação de imagens de sensoriamento remoto proposta neste trabalho foi testada em imagens sintética e real de dimensões 256 x 256 pixels. A análise dos resultados obtidos é apresentada sob a forma de uma Matriz de Erros, juntamente com a discussão dos mesmos.
Resumo:
A análise do sono está baseada na polissonogra a e o sinal de EEG é o mais importante. A necessidade de desenvolver uma análise automática do sono tem dois objetivos básicos: reduzir o tempo gasto na análise visual e explorar novas medidas quantitativas e suas relações com certos tipos de distúrbios do sono. A estrutura do sinal de EEG de sono está relacionada com a chamada microestrutura do sono, que é composta por grafoelementos. Um destes grafoelementos é o fuso de sono (spindles). Foi utilizado um delineamento transversal aplicado a um grupo de indivíduos normais do sexo masculino para testar o desempenho de um conjunto de ferramentas para a detecção automática de fusos. Exploramos a detecção destes fusos de sono através de procura direta, Matching Pursuit e uma rede neural que utiliza como "input"a transformada de Gabor (GT). Em comparação com a análise visual, o método utilizando a transformada de Gabor e redes neurais apresentou uma sensibilidade de 77% e especi cidade de 73%. Já o Matching Pursuit, apesar de mais demorado, se mostrou mais e ciente, apresentando sensibilidade de 81,2% e especi cidade de 85.2%.
Resumo:
Uma nova rede de polímeros interpenetrantes (IPN) baseada em poliuretana de óleo de mamona e poli(etileno glicol) e poli(metacrilato de metila) foi preparada para ser utilizada como eletrólito polimérico. Os seguintes parâmetros de polimerização foram avaliados: massa molecular do poli(etileno glicol) (PEG), concentração de PEG e concentração de metacrilato de metila. As membranas de IPN foram caracterizadas por calorimetria diferencial de varredura (DSC) e espectroscopia de infravermelho por transformada de Fourier (FT-IR). Os eletrólitos de redes de polímeros interpenetrantes (IPNE) foram preparados a partir da dopagem com sal de lítio através do inchamento numa solução de 10% em massa de LiClO4 na mistura de carbonato de etileno e carbonato de propileno na razão mássica de 50:50. As IPNEs foram caracterizadas por espectroscopia de impedância eletroquímica e Raman. As IPNEs foram testadas como eletrólito polimérico em supercapacitores. As células capacitivas foram preparadas utilizando eletrodos de polipirrol (PPy). Os valores de capacitância e eficiência foram calculados por impedância eletroquímica, voltametria cíclica e ciclos galvonostáticos de carga e descarga. Os valores de capacitância obtidos foram em torno de 90 F.g-1 e eficiência variou no intervalo de 88 a 99%. Os valores de densidade de potência foram superiores a 250 W.kg-1 enquanto que a densidade de energia variou de 10 a 33 W.h.kg-1, dependendo da composição da IPNE. As características eletroquímicas do eletrólito formado pela IPN-LiClO4 (IPNE) foram comparadas aos eletrólitos poliméricos convencionais, tais como poli(difluoreto de vinilideno)-(hexafluorpropileno) ((PVDF-HFP/LiClO4) e poliuretana comercial (Bayer desmopan 385) (PU385/LiClO4). As condutividades na temperatura ambiente foram da ordem de 10-3 S.cm-1. A capacitância da célula utilizando eletrodos de PPy com eletrólito de PVDFHFP foi de 115 F.g-1 (30 mF.cm-2) e 110 F.g-1 (25 mF.cm-2) para a célula com PU385 comparadas a 90 F.g-1 (20 mF.cm-2) para a IPNE. Os capacitores preparados com eletrólito de IPNE apresentaram valores de capacitância inferior aos demais, entretanto provaram ser mais estáveis e mais resistentes aos ciclos de carga/descarga. A interpenetração de duas redes poliméricas, PU e PMMA produziu um eletrólito com boa estabilidade mecânica e elétrica. Um protótipo de supercapacitor de estado sólido foi produzindo utilizando eletrodos impressos de carbono ativado (PCE) e o eletrólito polimérico de IPNE. A técnica de impressão de carbono possui várias vantagens em relação aos outros métodos de manufatura de eletrodos de carbono, pois a área do eletrodo, espessura e composição são variáveis que podem ser controladas experimentalmente. As células apresentaram uma larga janela eletroquímica (4V) e valores da capacitância da ordem de 113 mF.cm-2 (16 F.g-1). Métodos alternativos de preparação do PCE investigados incluem o uso de IPNE como polímero de ligação ao carbono ativado, estes eletrodos apresentaram valores de capacitância similares aos produzidos com PVDF. A influência do número de camadas de carbono usadas na produção do PCE também foi alvo de estudo. Em relação ao eletrólito polimérico, o plastificante e o sal de lítio foram adicionados durante a síntese, formando a IPNGel. As células apresentaram alta capacitância e boa estabilidade após 4000 ciclos de carga e descarga. As membranas de IPN foram testadas também como reservatório de medicamento em sistemas de transporte transdérmico por iontoforese. Os filmes, mecanicamente estáveis, formaram géis quando inchado em soluções saturadas de lidocaina.HCl, anestésico local, em propileno glicol (PG), poli(etileno glicol) (PEG400) e suas misturas. O grau de inchamento em PG foi de 15% e 35% em PEG400. Agentes químicos de penetração foram utilizados para diminuir a resistência da barreira causada pela pele, dentre eles o próprio PG, a 2-pirrolidinona (E1) e a 1-dodecil-2-pirrolidinona (E2). Os géis foram caracterizados por espectroscopia de impedância eletroquímica e transporte passivo e por iontoforese através de uma membrana artificial (celofane). O sistema IPN/ lidocaina.HCl apresentou uma correlação linear entre medicamento liberado e a corrente aplicada. Os melhores resultados de transporte de medicamento foram obtidos utilizando o PG como solvente.
Resumo:
Nos últimos anos, o mercado brasileiro de opções apresentou um forte crescimento, principalmente com o aparecimento da figura dos High Frequency Traders (HFT) em busca de oportunidades de arbitragem, de modo que a escolha adequada do modelo de estimação de volatilidade pode tornar-se um diferencial competitivo entre esses participantes. Este trabalho apresenta as vantagens da adoção do modelo de volatilidade estocástica de Heston (1993) na construção de superfície de volatilidade para o mercado brasileiro de opções de dólar, bem como a facilidade e o ganho computacional da utilização da técnica da Transformada Rápida de Fourier na resolução das equações diferenciais do modelo. Além disso, a partir da calibração dos parâmetros do modelo com os dados de mercado, consegue-se trazer a propriedade de não-arbitragem para a superfície de volatilidade. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema.
Resumo:
Neste trabalho é apresentada uma solução analítica de um problema bidimensional e transiente de dispersão de poluentes atmosféricos. O modelamento utilizado é conhecido na literatura como modelo Kzz para dispersão de poluentes atmosféricos e é representado por uma equação difusivo-advectiva com coeficientes de difusão e advecção variáveis. São utilizados três diferentes coeficientes de difusão nas simulações, bem como as componentes horizontal e vertical do vento são tomadas como variáveis. A solução analítica é gerada através da aplicação da técnica GITT (Generalized Integral Transform Technique) dupla com problema transformado resolvido por Transformada de Laplace e diagonalização de matrizes. Filtros matemáticos são usados para homogenizar as condições de contorno viabilizando o uso da técnica citada. Além disso, o tipo de filtro matemático utilizado permite a sensível diminuição do custo computacional. Resultados numéricos são obtidos e comparados com dados experimentais e outras soluções da literatura.
Resumo:
Este trabalho tem o objetivo de realizar uma análise de sensibilidade dos parâmetros operacionais e de projeto de uma usina termelétrica. A análise de sensibilidade serve para indicar qual a importância dessas grandezas no resultado do sistema. A planta modelada é a da Usina Termelétrica Presidente Médici – Fase B, localizada em Candiota, RS, onde cada módulo é capaz de produzir até 160 MW de potência. Para esta planta é apresentado o equacionamento de cada componente do sistema. Destacam-se duas modelagens para a turbina a vapor, usadas para a simulação de seu comportamento em carga parcial, o da Elipse de Stodola e o de Schegliáiev. Ambos os modelos são comparados. Também são apresentados os modos de controle de carga por válvula de estrangulamento, por válvula de bocais e por pressão deslizante. A análise de sensibilidade é feita por meio de três métodos distintos, cujos resultados são comparados. O Método Diferencial utiliza as derivadas parciais para estimar a sensibilidade. O Método de Monte Carlo realiza uma série de avaliações do sistema, com os dados de entrada gerados randomicamente em cada avaliação e análise estatística dos resultados para avaliar a sensibilidade das respostas. É desenvolvido neste trabalho o Método da Transformada de Fourier, que gera os dados de forma senoidal e utiliza a transformada de Fourier para medir as sensibilidades. A medida da sensibilidade é feita através de dois índices. O índice de importância é a derivada parcial de um resultado em relação a um parâmetro, adimensionalizado pelas médias das variáveis, e o índice de sensibilidade é a composição fracional da variância de um resultado. Como conclusão, observa-se que os modelos para operação em carga parcial da turbina de Schegliáiev e de Stodola produzem praticamente os mesmos resultados. Os três métodos de análise de sensibilidade conduzem aos mesmos índices de sensibilidade no caso estudado. A ordenação da importância dos parâmetros estudados é idêntica quando se usa tanto o índice de importância quanto o de sensibilidade, mesmo seus valores sejam diferentes para cada parâmetros.
Resumo:
Resumo não disponível
Resumo:
Uma significativa quantidade de proteínas vegetais apresenta-se compartimentalizada nas diversas estruturas celulares. A sua localização pode conduzir à elucidação do funcionamento dos processos biossintéticos e catabólicos e auxiliar na identificação de genes importantes. A fim de localizar produtos gênicos relacionados à resistência, foi utilizada a fusão de cDNAs de arroz (Oryza sativa L.) ao gene da proteína verde fluorescente (GFP). Os cDNAs foram obtidos a partir de uma biblioteca supressiva subtrativa de genes de arroz durante uma interação incompatível com o fungo Magnaporthe grisea. Estes cDNAs foram fusionados a uma versão intensificada de gfp e usados para transformar 500 plantas de Arabidopsis thaliana. Outras 50 plantas foram transformadas com o mesmo vetor, porém sem a fusão (vetor vazio). Foram obtidas aproximadamente 25.500 sementes oriundas das plantas transformadas com as fusões EGFP::cDNAs e 35.000 sementes das transformadas com o vetor vazio, produzindo, respectivamente, 750 e 800 plantas tolerantes ao herbicida glufosinato de amônio. Após a seleção, segmentos foliares das plantas foram analisados por microscopia de fluorescência, visando o estabelecimento do padrão de localização de EGFP. Foram observadas 18 plantas transformadas com a fusão EGFP::cDNAs e 16 plantas transformadas com o vetor vazio apresentando expressão detectável de GFP. Uma planta transformada com uma fusão EGFP::cDNA apresentou localização diferenciada da fluorescência, notadamente nas células guarda dos estômatos e nos tricomas. Após seqüenciamento do cDNA fusionado, foi verificado que esta planta apresentava uma inserção similar a uma seqüência codificante de uma quinase, uma classe de enzimas envolvidas na transdução de sinais em resposta à infecção por patógenos.
Resumo:
A indústria bancária brasileira foi transformada nas últimas décadas em meio a um fenômeno conhecido como consolidação, que marca uma concentração do mercado em poucas instituições. O objetivo do trabalho é testar empiricamente quais as causas desse processo no Brasil. As duas hipóteses testadas foram formuladas por Berger, Dick et al. (2007): a hipótese da eficiência indica que avanços tecnológicos melhoram a competitividade dos grandes em relação aos pequenos. Deste modo, os resultados dos pequenos são sacrificados por esse fator. Por outro lado, a hipótese da arrogância afirma que os administradores realizam fusões e aquisições pelos maiores bônus dos grandes conglomerados, mas as deseconomias de escala são superiores aos ganhos competitivos da tecnologia e, com o tempo, os pequenos passam a competir em vantagem. Modelos de dados em painel foram utilizados para testar se houve pressões competitivas durante o processo de consolidação. A conclusão foi de que a hipótese da eficiência explica melhor empiricamente o fenômeno brasileiro, assim como o norte-americano. A pressão para diminuição de receitas financeiras foi o fator determinante para que os bancos pequenos sofressem efeitos deletérios com o aumento do peso dos grandes na indústria.