843 resultados para Equação das superfícies mínimas
Resumo:
Este trabajo estudia los orígenes y el desarrollo de la política de inclusión activa a través del empleo como estrategia de lucha contra la pobreza y la exclusión social. Se indican las otras políticas que, en el marco de la Unión Europea, dificultan o impiden la consecución de los objetivos de la política de inclusión, entre ellas la versión puramente flexibilizadora de la flexiseguridad y las ambigüedades y varias alternativas que plantean las políticas de activación. Se expone la relación de la política de inclusión con las prestaciones económicas de garantía de rentas, con especial detalle al caso de la Comunidad Autónoma del País Vasco y a las nuevas condiciones provenientes de las políticas de recorte del gasto público social impulsadas por las instituciones estatales, comunitarias e internacionales.
Resumo:
Esta dissertação tem como objetivo aplicar um algoritmo genético (GA) ao projeto de filtros FIR com coeficientes quantizados representados em somas de potências de dois com sinal (SPT). Os filtros FIR apresentam configurações que permitem a obtenção de fase linear, atributo desejado em diversas aplicações que necessitam de atraso de grupo constante. A representação SPT, de fácil implementação em circuitos, foi discutida e uma comparação das representações SPT mínimas e canônicas foi feita, baseada no potencial de redução de operações e na variedade de valores representáveis. O GA é aplicado na otimização dos coeficientes SPTs do filtro, para que este cumpra as suas especificações de projeto. Foram feitas análises sobre o efeito que diversos parâmetros do GA como a intensidade de seleção, tamanho das populações, cruzamento, mutação, entre outros, têm no processo de otimização. Foi proposto um novo cruzamento que produz a recombinação dos coeficientes e que obteve bons resultados. Aplicou-se o algoritmo obtido na produção de filtros dos tipos passa-baixas, passa-altas, passa-faixas e rejeita-faixas.
Resumo:
O propósito do presente estudo foi analisar o efeito da aplicação de múltiplas camadas consecutivas de dois sistemas adesivos convencionais de dois passos na difusão resinosa e padrão de distribuição dos componentes monoméricos resinosos. Dezesseis terceiros molares humanos hígidos foram tratados com os sistemas adesivos convencionais de dois passos de acordo com as instruções dos fabricantes ou com aplicações em múltiplas camadas consecutivas. Os espécimes foram seccionados paralelamente aos túbulos dentinários e as superfícies submetidas ao polimento com lixas 600, 1200, 1800, 2000 e 4000. Os espectros Raman foram coletados ao longo de uma linha perpendicular a interface adesivo-resina em intervalos de 1 ou 2 m. As medidas de difusão da resina adesiva e distribuição dos componentes monomériccos foram avaliadas pelos picos Raman de 1113 cm-1, 1609 cm-1 e 1454 cm-1. O gradiente de desmineralização usado na determinação da região de hibridização foi avaliado pelo pico de 960 cm-1 da apatita. De acordo com os resultados obtidos, a aplicação de múltiplas camadas apresentou uma tendência de homogeneização dos componentes poliméricos, dependente da composição química da resina adesiva.
Resumo:
O estudo das formas de relevo através da geomorfometria ciência que quantifica as superfícies topográficas demanda que múltiplas escalas sejam consideradas simultaneamente. Esse fato soma-se à continuidade espacial inerente à topografia, a qual raramente apresenta limites naturais abruptos, para conceder um caráter vago às formas de relevo. Essa dupla vagueza, no entanto, é raramente abordada de forma explícita em trabalhos científicos que, usualmente, valem-se de limiares e definições subjetivas e arbitrárias para descreverem o relevo. Dentro desse contexto, o trabalho apresenta um método inovador de caracterização geomorfométrica multiescala de modelos digitais de terreno (MDTs). A abordagem proposta baseia-se no método de extração de feições morfométricas de Wood (1996), mas o modifica em um número de maneiras: (i) expandindo o número de classes identificadas; (ii) transformando-o em um sistema fuzzy, cujos conjuntos fuzzy são parametrizados automaticamente e; (iii) limitando localmente a escala máxima de análise de maneira não-supervisionada. Como resultado, obtém-se um mapa de feições fundamentais e um mapa de escalas fundamentais que, juntos, sintetizam a estrutura multiescala das superfícies. Além disso, são produzidos mapas de pertinências fuzzy e de índice de confusão para cada escala analisada, assim como versões multiescala dos mesmos. Para avaliar a transferibilidade e o caráter não-supervisionado do método, foram analisados cinco MDTs oriundos de bases de dados distintas, com diferentes resoluções e extensões espaciais, compreendendo regiões continentais, do fundo dos oceanos e do planeta Marte. Os resultados obtidos foram avaliados em relação à utilização de escalas e parametrizações fixas, atestando a capacidade do método de empreender caracterizações geomorfométricas mais completas do que abordagens convencionais. Duas aplicações foram ainda propostas: a parametrização geomorfométrica multiescala e o desenvolvimento de uma assinatura morfométrica multiescala, demonstrando claros caminhos para a continuidade da pesquisa. Como conclusão geral, não obstante a algumas limitações apontadas, considerou-se que o trabalho apresentado alcançou seu objetivo de prover a caracterização geomorfométrica multiescala de modelos digitais de terreno.
Resumo:
Neste trabalho, três técnicas para resolver numericamente problemas inversos de transporte de partículas neutras a uma velocidade para aplicações em engenharia nuclear são desenvolvidas. É fato conhecido que problemas diretos estacionários e monoenergéticos de transporte são caracterizados por estimar o fluxo de partículas como uma função-distribuição das variáveis independentes de espaço e de direção de movimento, quando os parâmetros materiais (seções de choque macroscópicas), a geometria, e o fluxo incidente nos contornos do domínio (condições de contorno), bem como a distribuição de fonte interior são conhecidos. Por outro lado, problemas inversos, neste trabalho, buscam estimativas para o fluxo incidente no contorno, ou a fonte interior, ou frações vazio em barras homogêneas. O modelo matemático usado tanto para os problemas diretos como para os problemas inversos é a equação de transporte independente do tempo, a uma velocidade, em geometria unidimensional e com o espalhamento linearmente anisotrópico na formulação de ordenadas discretas (SN). Nos problemas inversos de valor de contorno, dado o fluxo emergente em um extremo da barra, medido por um detector de nêutrons, por exemplo, buscamos uma estimativa precisa para o fluxo incidente no extremo oposto. Por outro lado, nos problemas inversos SN de fonte interior, buscamos uma estimativa precisa para a fonte armazenada no interior do domínio para fins de blindagem, sendo dado o fluxo emergente no contorno da barra. Além disso, nos problemas inversos SN de fração de vazio, dado o fluxo emergente em uma fronteira da barra devido ao fluxo incidente prescrito no extremo oposto, procuramos por uma estimativa precisa da fração de vazio no interior da barra, no contexto de ensaios não-destrutivos para aplicações na indústria. O código computacional desenvolvido neste trabalho apresenta o método espectronodal de malha grossa spectral Greens function (SGF) para os problemas diretos SN em geometria unidimensional para gerar soluções numéricas precisas para os três problemas inversos SN descritos acima. Para os problemas inversos SN de valor de contorno e de fonte interior, usamos a propriedade da proporcionalidade da fuga de partículas; ademais, para os problemas inversos SN de fração de vazio, oferecemos a técnica a qual nos referimos como o método físico da bissecção. Apresentamos resultados numéricos para ilustrar a precisão das três técnicas, conforme descrito nesta tese.
Resumo:
Neste trabalho, foi desenvolvido um simulador numérico baseado no método livre de malhas Smoothed Particle Hydrodynamics (SPH) para a resolução de escoamentos de fluidos newtonianos incompressíveis. Diferentemente da maioria das versões existentes deste método, o código numérico faz uso de uma técnica iterativa na determinação do campo de pressões. Este procedimento emprega a forma diferencial de uma equação de estado para um fluido compressível e a equação da continuidade a fim de que a correção da pressão seja determinada. Uma versão paralelizada do simulador numérico foi implementada usando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA) da NVIDIA Corporation. Foram simulados três problemas, o problema unidimensional do escoamento de Couette e os problemas bidimensionais do escoamento no interior de uma Cavidade (Shear Driven Cavity Problem) e da Quebra de Barragem (Dambreak).
Resumo:
206 p.
Resumo:
O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.
Resumo:
Os processos estocásticos com ruído branco multiplicativo são objeto de atenção constante em uma grande área da pesquisa científica. A variedade de prescrições possíveis para definir matematicamente estes processos oferece um obstáculo ao desenvolvimento de ferramentas gerais para seu tratamento. Na presente tese, estudamos propriedades de equilíbrio de processos markovianos com ruído branco multiplicativo. Para conseguirmos isto, definimos uma transformação de reversão temporal de tais processos levando em conta que a distribuição estacionária de probabilidade depende da prescrição. Deduzimos um formalismo funcional visando obter o funcional gerador das funções de correlação e resposta de um processo estocástico multiplicativo representado por uma equação de Langevin. Ao representar o processo estocástico neste formalismo (de Grassmann) funcional eludimos a necessidade de fixar uma prescrição particular. Neste contexto, analisamos as propriedades de equilíbrio e estudamos as simetrias ocultas do processo. Mostramos que, usando uma definição apropriada da distribuição de equilíbrio e considerando a transformação de reversão temporal adequada, as propriedades usuais de equilíbrio são satisfeitas para qualquer prescrição. Finalmente, apresentamos uma dedução detalhada da formulação supersimétrica covariante de um processo markoviano com ruído branco multiplicativo e estudamos algumas das relações impostas pelas funções de correlação através das identidades de Ward-Takahashi.
Resumo:
Um Estudo para a solução numérica do modelo de difusão com retenção, proposta por Bevilacqua et al. (2011), é apresentado, bem como uma formulação implícita para o problema inverso para a estimativa dos parâmetros envolvidos na formulação matemática do modelo. Através de um estudo minucioso da análise de sensibilidade e do cálculo do coeficiente de correlação de Pearson, são identificadas as chances de se obter sucesso na solução do problema inverso através do método determinístico de Levenberg-Marquardt e dos métodos estocásticos Algoritmo de Colisão de Partículas (Particle Collision Algorithm - PCA) e Evolução Diferencial (Differential Evolution - DE). São apresentados os resultados obtidos através destes três métodos de otimização para três casos de conjunto de parâmetros. Foi observada uma forte correlação entre dois destes três parâmetros, o que dificultou a estimativa simultânea dos mesmos. Porém, foi obtido sucesso nas estimativas individuais de cada parâmetro. Foram obtidos bons resultados para os fatores que multiplicam os termos diferenciais da equação que modela o fenômeno de difusão com retenção.
Resumo:
Nesse trabalho, foi desenvolvido um simulador numérico (C/C++) para a resolução de escoamentos de fluidos newtonianos incompressíveis, baseado no método de partículas Lagrangiano, livre de malhas, Smoothed Particle Hydrodynamics (SPH). Tradicionalmente, duas estratégias são utilizadas na determinação do campo de pressões de forma a garantir-se a condição de incompressibilidade do fluido. A primeira delas é a formulação chamada Weak Compressible Smoothed Particle Hydrodynamics (WCSPH), onde uma equação de estado para um fluido quase-incompressível é utilizada na determinação do campo de pressões. A segunda, emprega o Método da Projeção e o campo de pressões é obtido mediante a resolução de uma equação de Poisson. No estudo aqui desenvolvido, propõe-se três métodos iterativos, baseados noMétodo da Projeção, para o cálculo do campo de pressões, Incompressible Smoothed Particle Hydrodynamics (ISPH). A fim de validar os métodos iterativos e o código computacional, foram simulados dois problemas unidimensionais: os escoamentos de Couette entre duas placas planas paralelas infinitas e de Poiseuille em um duto infinito e foram usadas condições de contorno do tipo periódicas e partículas fantasmas. Um problema bidimensional, o escoamento no interior de uma cavidade com a parede superior posta em movimento, também foi considerado. Na resolução deste problema foi utilizado o reposicionamento periódico de partículas e partículas fantasmas.
Resumo:
FOTO-ASSEMBLAGE consiste em nomenclatura sugestionada para definir os trabalhos que tenho produzido a partir da junção de fotografias digitais. As elaborações e fundamentações desses trabalhos representam também o cerne das pesquisas que resultaram na presente dissertação. Em princípio, o termo foto-assemblage haveria de referir-se a questões técnicas ou formais dessa prática. Contudo, ao desenvolver as pesquisas alguns procedimentos acabaram por determinar certas nuances que revelaram aspectos comuns também em seus e conteúdos. Como resultado de construções artísticas juntando fotografias desde 2009, cheguei às composições sintéticas aqui apresentadas, construídas a partir de duas fotografias. Aventei o nome foto-assemblage por observar nas imagens resultantes ressalvas que as distinguiriam de certas convenções atribuídas à ideia de fotografia. Ao mesmo tempo, as referidas imagens proporiam um possível desdobramento ao entendimento de assemblage enquanto técnica artística. Ainda que não seja uma regra, fotografias revelam imagens de momentos. Em sua relação com a compreensão humana de tempo ou espaço, fotografias quase sempre contêm instâncias mínimas. Fotografias, contudo, podem ser também compreendidas como uma contração de um percurso de tempo. Toda imagem fotográfica pode ser assimilada como resultante de determinados acontecimentos anteriores e mesmo tida como elemento gerador de conseqüências futuras. Seguindo esse entendimento, o que proponho com a foto-assemblage é que essa lide com segmentos de tempo ou de espaço contidos numa mesma imagem. Essas fotografias originárias ganhariam uma nova atribuição, sendo retiradas de seu contexto original, serviriam de balizas do percurso de tempo ou espaço suprimido e subjetivado entre elas. Poeticamente, eventos ocorridos entre as fotografias originárias estariam contidos nas imagens produzidas. O termo assemblage foi incorporado às artes a partir de 1953, por Jean Dubuffet, para descrever trabalhos que seriam algo mais do que simples colagem. A ideia de assemblage se baseia no princípio de que todo e qualquer material ou objeto colhido de nosso mundo cotidiano pode ser incorporado a uma obra de arte, criando um novo conjunto, sem que perca seu sentido original. Esse objeto é arrancado de seu uso habitual e inserido num novo contexto, tecendo laços de relação com os demais elementos, construindo narrativas num novo ambiente, o da obra. Na ideia da foto-assemblage, entretanto, é sugerido uso das imagens fotográficas originárias não como objetos que estariam em um mundo cotidiano, mas sim como imagem na concepção do que seria uma entidade mental. Adoto como que uma visão mágica onde as imagens originárias e básicas estariam numa outra dimensão, num plano bidimensional, não manipulável por nós habitantes da tridimensionalidade. Nesse ambiente imaginário ou não, as fotografias são assentadas consolidando a foto-assemblage. Quando a foto-assemblage se concretiza, se corporifica numa mídia, sendo impressa para uma contemplação, ai então, passaria a integrar nosso mundo tridimensional. O resultado poderia ser admitido como um híbrido, uma terceira coisa, a partir de duas que já não se dissociam mais no ensejo de uma compreensão estética. Ao final da dissertação, apresento experiências práticas que resultaram em quatro séries de imagens em foto-assemblage. Cada série enfatiza aspectos peculiares do que denomino paisagem expandida, representando percursos de tempo, espaço ou trajetos entre o mundo concreto e mundos do inconsciente.
Resumo:
Neste trabalho apresentamos as etapas para a utilização do método da Programação Dinâmica, ou Princípio de Otimização de Bellman, para aplicações de controle ótimo. Investigamos a noção de funções de controle de Lyapunov (FCL) e sua relação com a estabilidade de sistemas autônomos com controle. Uma função de controle de Lyapunov deverá satisfazer a equação de Hamilton-Jacobi-Bellman (H-J-B). Usando esse fato, se uma função de controle de Lyapunov é conhecida, será então possível determinar a lei de realimentação ótima; isto é, a lei de controle que torna o sistema globalmente assintóticamente controlável a um estado de equilíbrio. Como aplicação, apresentamos uma modelagem matemática adequada a um problema de controle ótimo de certos sistemas biológicos. Este trabalho conta também com um breve histórico sobre o desenvolvimento da Teoria de Controle de forma a ilustrar a importância, o progresso e a aplicação das técnicas de controle em diferentes áreas ao longo do tempo.
Resumo:
Neste trabalho aplicamos métodos espectrais para a determinação da configuração inicial de três espaços-tempos contendo buracos negros. Para isto apresentamos primeiro a foliação do espaço-tempo em hipersuperfícies tridimensionais espaciais parametrizadas pela função temporal t. Este processo é chamado de decomposição 3+1 [2] [5]. O resultado deste processo são dois conjuntos de equações classificadas em equações de vínculo e evolução [4]. As equações de vínculo podem ser divididas em vínculos Hamiltoniano e dos momentos. Para a obtenção dos dados iniciais dos problemas estudados aqui, apenas a equação de vínculo Hamiltoniano será resolvida numericamente, pois as equações de vínculo dos momentos possuem solução analítica nestes casos. Uma pequena descrição dos métodos espectrais é apresentada, destacando-se os método de Galerkin, método pseudoespectral ou de colocação e método de Tau, que são empregados na resolução das equações de vínculo Hamiltoniano dos problemas estudados. Verificamos que os resultados obtidos neste trabalho superam aqueles produzidos por Kidder e Finn [15], devido a uma escolha diferente das funções de base, que aqui satisfazem uma das condições de contorno.
Resumo:
El trabajo empieza por una exposición general, para posteriormente centrarse en la pobreza en Europa y su evolución y la situación actual en España. Continúa con los programas de Sustitución de Rentas, haciendo especial hincapié en los Programas de Garantía de Mínimos y dentro de estos en los Programas de Rentas Mínimas de Inserción de las Comunidades Autónomas. Plantea los problemas que estos presentan y estable posibles alternativas. Por último, unas breves conclusiones de lo analizado en el trabajo. Idioma del TFG completamente en Castellano