276 resultados para Malhas de Voronoi
Resumo:
A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.
Resumo:
确定城市经济影响区域的空间组织是一项十分复杂的工作,在区域规划和城市规划中有着重要的理论和实际意义.目前,通常是利用数理统计的方法进行城市的分级,并以此来确定区域中的中心城市,未充分考虑区域空间中城市之间的竞争关系;确定城市经济影响区域时,往往采用断裂点公式来划定两两城市之间的分界线,当城市的数量较多时,这种方法有困难且工作十分繁杂.本研究提出可以用Voronoi图来确定各级城市的空间影响区,并利用Voronoi多边形邻居关系的性质来确定城市体系中不同等级城市之间的空间组织关系.
Resumo:
A comunicação apresenta as directivas de desenvolvimento de um modelo distribuído e a sua aplicação à Ribeira da Pradiela (distrito de Évora, afluente do Dejebe). A utilização de modelos distribuídos de precipitação/escoamento superficial para modelação integrada dos fenómenos hidrodinâmicos, transporte de sedimentos e qualidade da água à escala da bacia hidrográfica, é fundamental para uma correcta percepção dos binómios causas/efeitos e consequente gestão optimizada dos recursos hídricos. Os modelos distribuídos existentes assentam em malhas estruturadas de células regulares adjacentes (DEM) ou em malhas de triângulos irregulares adjacentes (TIN). Os primeiros têm um processamento relativamente simples e são compatíveis com a estrutura matricial de uma imagem raster, contudo obrigam a uma densidade de informação uniforme sobre a área em estudo, apresentam problemas de escala na representação das linhas de água e das variáveis distribuídas como a altitude, classes de solo, classes de uso do solo, dotações de rega, fertilizantes e pesticidas. As redes TIN são mais versáteis e no caso particular de os pontos levantados sobre o terreno formarem uma métrica regular, a rede TIN representa uma malha estruturada. Os modelos existentes que utilizam uma malha TIN definem a rede hidrográfica pelas arestas comuns dos triângulos que formam um ângulo côncavo entre si. Esta implementação pode forçar a existência de linhas de água onde não existem traços morfológicos da sua existência. A metodologia proposta para gerar as linhas de água passa por definir uma área de influência associada a cada nó (polígono de Voronoi) que drena por uma linha de água definida entre o próprio nó e o nó vizinho com o qual forma o maior declive. Esta metodologia é relativamente simples, não cria ambiguidades e permite criar uma rede hidrográfica cuja estrutura é perfeitamente compatível com a implementação de um algoritmo de diferenças finitas. As secções transversais das linhas de água são definidas como função da área a montante da respectiva secção. A precipitação efectiva é calculada à escala da bacia pelo método da curva número (CN) do Soil Conservation Service (SCS) e à escala de uma parcela pela equação de Richardson. O escoamento é resolvido pela equação da onda cinemática nas linhas de água de ordem superior, pela equação de conservação da massa nas depressões e pelas equações de Saint-Venant na linha de água principal. É considerado o destacamento nas encostas e o destacamento/ transporte/ deposição nas linhas de água. Também é considerado o transporte de poluentes adsorvidos aos sedimentos, bem como fenómenos de wash-off .
Resumo:
A presente dissertação realizada na empresa Continental-Indústria Têxtil do Ave, S.A., teve como objetivo a otimização energética da secção das malhas. Esta secção divide-se em duas áreas, a tricotagem e a ramulagem. Os artigos produzidos diferem no seu peso específico, composição e condições de operação, sendo os artigos A, B e C compostos por poliéster e termofixados a 190ºC e os artigos D e E compostos por poliéster e algodão, com uma temperatura de operação de 205ºC. Numa primeira etapa estudou-se o funcionamento da máquina de termofixação – a râmula – que opera em trabalho contínuo a 40 m/min. Esta máquina tem incorporado um permutador de calor, que aquece o ar fresco de entrada com os gases de exaustão das estufas. Posteriormente efetuou-se o levantamento energético de cada artigo, para as áreas de tricotagem e ramulagem. Verificou-se que os artigos D e E, pela sua constituição, são os que apresentam um consumo específico superior, em tep/ton. Entre as várias utilidades consumidas (gás natural, eletricidade e ar comprimido) o gás natural representa mais de 50% do consumo de energia total necessário para a produção de cada artigo. Após a completa análise aos consumos energéticos da râmula, foram realizados ensaios de otimização, tendo-se concluído que a diminuição do caudal de exaustão pode atingir valores de poupança anual de gás natural na ordem dos 3.000 €. Com o objetivo de avaliar o consumo de gás natural, não sendo possível a realização experimental, foram feitas simulações com base em alterações na corrente de entrada de ar fresco no permutador. Foi também estudada a possibilidade de isolamento e revestimento térmico da conduta exterior, projetada para o reaproveitamento do ar dos compressores, tendo-se obtido um orçamento de 2.500 €. Admitindo-se uma gama de temperaturas entre os 40ºC e os 60ºC, com um caudal de insuflação de 30%, obteve-se um payback entre os 0,97 e os 3,28 anos. Numa segunda fase admitiu-se uma temperatura média de 50ºC, aumentando o caudal de insuflação até 100%. O período de retorno obtido variou entre os 0,33 e os 1,38 anos, podendo as poupanças anuais atingirem os 7.600 €.
Resumo:
We present an algorithm for computing exact shortest paths, and consequently distances, from a generalized source (point, segment, polygonal chain or polygonal region) on a possibly non-convex polyhedral surface in which polygonal chain or polygon obstacles are allowed. We also present algorithms for computing discrete Voronoi diagrams of a set of generalized sites (points, segments, polygonal chains or polygons) on a polyhedral surface with obstacles. To obtain the discrete Voronoi diagrams our algorithms, exploiting hardware graphics capabilities, compute shortest path distances defined by the sites
Resumo:
Alternative meshes of the sphere and adaptive mesh refinement could be immensely beneficial for weather and climate forecasts, but it is not clear how mesh refinement should be achieved. A finite-volume model that solves the shallow-water equations on any mesh of the surface of the sphere is presented. The accuracy and cost effectiveness of four quasi-uniform meshes of the sphere are compared: a cubed sphere, reduced latitude–longitude, hexagonal–icosahedral, and triangular–icosahedral. On some standard shallow-water tests, the hexagonal–icosahedral mesh performs best and the reduced latitude–longitude mesh performs well only when the flow is aligned with the mesh. The inclusion of a refined mesh over a disc-shaped region is achieved using either gradual Delaunay, gradual Voronoi, or abrupt 2:1 block-structured refinement. These refined regions can actually degrade global accuracy, presumably because of changes in wave dispersion where the mesh is highly nonuniform. However, using gradual refinement to resolve a mountain in an otherwise coarse mesh can improve accuracy for the same cost. The model prognostic variables are height and momentum collocated at cell centers, and (to remove grid-scale oscillations of the A grid) the mass flux between cells is advanced from the old momentum using the momentum equation. Quadratic and upwind biased cubic differencing methods are used as explicit corrections to a fast implicit solution that uses linear differencing.
Resumo:
We bridge the properties of the regular triangular, square, and hexagonal honeycomb Voronoi tessellations of the plane to the Poisson-Voronoi case, thus analyzing in a common framework symmetry breaking processes and the approach to uniform random distributions of tessellation-generating points. We resort to ensemble simulations of tessellations generated by points whose regular positions are perturbed through a Gaussian noise, whose variance is given by the parameter α2 times the square of the inverse of the average density of points. We analyze the number of sides, the area, and the perimeter of the Voronoi cells. For all valuesα >0, hexagons constitute the most common class of cells, and 2-parameter gamma distributions provide an efficient description of the statistical properties of the analyzed geometrical characteristics. The introduction of noise destroys the triangular and square tessellations, which are structurally unstable, as their topological properties are discontinuous in α = 0. On the contrary, the honeycomb hexagonal tessellation is topologically stable and, experimentally, all Voronoi cells are hexagonal for small but finite noise withα <0.12. For all tessellations and for small values of α, we observe a linear dependence on α of the ensemble mean of the standard deviation of the area and perimeter of the cells. Already for a moderate amount of Gaussian noise (α >0.5), memory of the specific initial unperturbed state is lost, because the statistical properties of the three perturbed regular tessellations are indistinguishable. When α >2, results converge to those of Poisson-Voronoi tessellations. The geometrical properties of n-sided cells change with α until the Poisson- Voronoi limit is reached for α > 2; in this limit the Desch law for perimeters is shown to be not valid and a square root dependence on n is established. This law allows for an easy link to the Lewis law for areas and agrees with exact asymptotic results. Finally, for α >1, the ensemble mean of the cells area and perimeter restricted to the hexagonal cells agree remarkably well with the full ensemble mean; this reinforces the idea that hexagons, beyond their ubiquitous numerical prominence, can be interpreted as typical polygons in 2D Voronoi tessellations.
Resumo:
We analyse in a common framework the properties of the Voronoi tessellations resulting from regular 2D and 3D crystals and those of tessellations generated by Poisson distributions of points, thus joining on symmetry breaking processes and the approach to uniform random distributions of seeds. We perturb crystalline structures in 2D and 3D with a spatial Gaussian noise whose adimensional strength is α and analyse the statistical properties of the cells of the resulting Voronoi tessellations using an ensemble approach. In 2D we consider triangular, square and hexagonal regular lattices, resulting into hexagonal, square and triangular tessellations, respectively. In 3D we consider the simple cubic (SC), body-centred cubic (BCC), and face-centred cubic (FCC) crystals, whose corresponding Voronoi cells are the cube, the truncated octahedron, and the rhombic dodecahedron, respectively. In 2D, for all values α>0, hexagons constitute the most common class of cells. Noise destroys the triangular and square tessellations, which are structurally unstable, as their topological properties are discontinuous in α=0. On the contrary, the honeycomb hexagonal tessellation is topologically stable and, experimentally, all Voronoi cells are hexagonal for small but finite noise with α<0.12. Basically, the same happens in the 3D case, where only the tessellation of the BCC crystal is topologically stable even against noise of small but finite intensity. In both 2D and 3D cases, already for a moderate amount of Gaussian noise (α>0.5), memory of the specific initial unperturbed state is lost, because the statistical properties of the three perturbed regular tessellations are indistinguishable. When α>2, results converge to those of Poisson-Voronoi tessellations. In 2D, while the isoperimetric ratio increases with noise for the perturbed hexagonal tessellation, for the perturbed triangular and square tessellations it is optimised for specific value of noise intensity. The same applies in 3D, where noise degrades the isoperimetric ratio for perturbed FCC and BCC lattices, whereas the opposite holds for perturbed SCC lattices. This allows for formulating a weaker form of the Kelvin conjecture. By analysing jointly the statistical properties of the area and of the volume of the cells, we discover that also the cells shape heavily fluctuates when noise is introduced in the system. In 2D, the geometrical properties of n-sided cells change with α until the Poisson-Voronoi limit is reached for α>2; in this limit the Desch law for perimeters is shown to be not valid and a square root dependence on n is established, which agrees with exact asymptotic results. Anomalous scaling relations are observed between the perimeter and the area in the 2D and between the areas and the volumes of the cells in 3D: except for the hexagonal (2D) and FCC structure (3D), this applies also for infinitesimal noise. In the Poisson-Voronoi limit, the anomalous exponent is about 0.17 in both the 2D and 3D case. A positive anomaly in the scaling indicates that large cells preferentially feature large isoperimetric quotients. As the number of faces is strongly correlated with the sphericity (cells with more faces are bulkier), in 3D it is shown that the anomalous scaling is heavily reduced when we perform power law fits separately on cells with a specific number of faces.
Resumo:
We perturb the SC, BCC, and FCC crystal structures with a spatial Gaussian noise whose adimensional strength is controlled by the parameter a, and analyze the topological and metrical properties of the resulting Voronoi Tessellations (VT). The topological properties of the VT of the SC and FCC crystals are unstable with respect to the introduction of noise, because the corresponding polyhedra are geometrically degenerate, whereas the tessellation of the BCC crystal is topologically stable even against noise of small but finite intensity. For weak noise, the mean area of the perturbed BCC and FCC crystals VT increases quadratically with a. In the case of perturbed SCC crystals, there is an optimal amount of noise that minimizes the mean area of the cells. Already for a moderate noise (a>0.5), the properties of the three perturbed VT are indistinguishable, and for intense noise (a>2), results converge to the Poisson-VT limit. Notably, 2-parameter gamma distributions are an excellent model for the empirical of of all considered properties. The VT of the perturbed BCC and FCC structures are local maxima for the isoperimetric quotient, which measures the degre of sphericity of the cells, among space filling VT. In the BCC case, this suggests a weaker form of the recentluy disproved Kelvin conjecture. Due to the fluctuations of the shape of the cells, anomalous scalings with exponents >3/2 is observed between the area and the volumes of the cells, and, except for the FCC case, also for a->0. In the Poisson-VT limit, the exponent is about 1.67. As the number of faces is positively correlated with the sphericity of the cells, the anomalous scaling is heavily reduced when we perform powerlaw fits separately on cells with a specific number of faces.
Resumo:
We present a detailed description of the Voronoi Tessellation (VT) cluster finder algorithm in 2+1 dimensions, which improves on past implementations of this technique. The need for cluster finder algorithms able to produce reliable cluster catalogs up to redshift 1 or beyond and down to 10(13.5) solar masses is paramount especially in light of upcoming surveys aiming at cosmological constraints from galaxy cluster number counts. We build the VT in photometric redshift shells and use the two-point correlation function of the galaxies in the field to both determine the density threshold for detection of cluster candidates and to establish their significance. This allows us to detect clusters in a self-consistent way without any assumptions about their astrophysical properties. We apply the VT to mock catalogs which extend to redshift 1.4 reproducing the ACDM cosmology and the clustering properties observed in the Sloan Digital Sky Survey data. An objective estimate of the cluster selection function in terms of the completeness and purity as a function of mass and redshift is as important as having a reliable cluster finder. We measure these quantities by matching the VT cluster catalog with the mock truth table. We show that the VT can produce a cluster catalog with completeness and purity > 80% for the redshift range up to similar to 1 and mass range down to similar to 10(13.5) solar masses.
Resumo:
Esta dissertação se ocupa de discursos da legislação educacional brasileira e documentos correlatos de uma formação particular (em que aconteceram mudanças significativas na sociedade e na cultura) a pedagogia. Seu objetivo é mostrar como esses discursos, ao prescreverem sobre a formação da pedagoga, produzem uma pedagogia que se constitui como prática de governo. Trata-se de uma pedagogia específica, fabricada nas malhas dos discursos legais e colocada a serviço da nação para a produção de sujeitos de determinado tipo. Ao tomar como objeto de estudo os discursos que produzem a pedagogia como prática de governo, esta dissertação está tratando de poder; um poder sobre a ação das pessoas; um poder, que atinge tanto a pedagoga através de sua formação, quanto o alunado por intermédio dos efeitos de sua atuação. Enfim, um poder que incita, constitui o que a pedagoga deve ser e saber, e que move suas ações para a participação numa operação que não cessa, até que todos sejam atingidos, atravessados e, finalmente, engajados em um modelo de sociedade em formação. Para realização das análises que desenvolvo neste trabalho, busquei inspiração em algumas formulações desenvolvidas pelo filósofo francês Michel Foucault, bem como em autoras e autores que concebem, organizam e inscrevem suas idéias na perspectiva dos Estudos Culturais. Compõem o corpus dessa pesquisa, os seguintes documentos: a) Parecer 252/1969 do Conselho Federal de Educação Currículo de Pedagogia: Estudos Superiores. Mínimo de Currículo e duração para o curso de graduação em Pedagogia; b) Parecer 632/1969 do Conselho Federal de Educação Conteúdo Específico da Faculdade de Educação; c) Exposição de Motivos do Ministro Jarbas Passarinho Acompanha o anteprojeto de lei que fixa diretrizes e bases para o ensino de 1º e 2º graus (Lei nº 5.692/1971).
Resumo:
Avaliação de desempenho de malhas de controle, na abordagem baseada em controle com variância mínima, é uma tecnologia bastante promissora e de grandes potencialidades. No entanto ainda não é devidamente explorada no meio científico nacional e muito menos em nível industrial. Neste trabalho é apresentado um estudo abrangente na área de avaliação de desempenho de malhas de controle. Um vasto levantamento bibliográfico é feito e os fundamentos teóricos necessários para o entendimento das técnicas existentes são detalhadamente desenvolvidos. As características positivas e as principais falhas são apontadas. Diferentes abordagens são propostas, técnicas complementares à avaliação de desempenho baseada em variância mínima são sugeridas e questões de cunho prático são levantadas. Simulações e estudo de casos reais são levados a cabo, nos casos SISO e MIMO, com a finalidade de colocar em prática os procedimentos estudados, fornecer subsídios a uma avaliação crítica dos métodos apresentados e também possibilitar conclusões a respeito dos resultados obtidos. Como resultado, este trabalho introduz o assunto no meio acadêmico nacional, fornece diretrizes para a implementação industrial das técnicas apresentadas e demonstra, através da interpretação de resultados obtidos, que esta tecnologia é valiosa no sentido que pode resultar em grande retorno econômico ao resolverem-se os problemas detectados nos diagnósticos produzidos pela análise de desempenho de malhas de controle.
Resumo:
Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.
Resumo:
Resumo não disponível.
Análise de escoamentos incompressíveis utilizando simulação de grandes escalas e adaptação de malhas
Resumo:
No presente estudo, são apresentadas soluções numéricas de problemas de Engenharia, na área de Dinâmica dos Fluidos Computacional, envolvendo fluidos viscosos, em escoamentos incompressíveis, isotérmicos e não isotérmicos, em regime laminar e turbulento, podendo envolver transporte de massa. Os principais objetivos deste trabalho são a formulação e a aplicação de uma estratégia de adaptação automática de malhas e a inclusão de modelos de viscosidade turbulenta, integrados com um algoritmo utilizado para simular escoamentos de fluidos viscosos bi e tridimensionais, no contexto de malhas não estruturadas. O estudo é dirigido no sentido de aumentar o conhecimento a respeito das estruturas de escoamentos turbulentos e de estudar os efeitos físicos no transporte de quantidades escalares propiciando, através de técnicas de adaptação automática de malhas, a obtenção de soluções numéricas precisas a um custo computacional otimizado. As equações de conservação de massa, de balanço de quantidade de movimento e de quantidade escalar filtradas são utilizadas para simular as grandes escalas de escoamentos turbulentos e, para representar as escalas submalha, são utilizados dois modelos de viscosidade turbulenta: o modelo de Smagorinsky clássico e o modelo dinâmico. Para obter soluções numéricas com precisão, é desenvolvida e implementada uma estratégia de adaptação automática de malhas, a qual é realizada simultaneamente e interativamente com a obtenção da solução. O estudo do comportamento da solução numérica é fundamentado em indicadores de erro, com o propósito de mapear as regiões onde certos fenômenos físicos do escoamento ocorrem com maior intensidade e de aplicar nestas regiões um esquema de adaptação de malhas. A adaptação é constituída por processos de refinamento/desrefinamento e por um processo de suavização laplaciana. Os procedimentos para a implementação dos modelos de viscosidade turbulenta e a estratégia de adaptação automática de malhas são incorporados ao código computacional de elementos finitos tridimensionais, o qual utiliza elementos tetraédricos lineares. Aplicações de escoamentos de fluidos viscosos, incompressíveis, isotérmicos e não isotérmicos em regime laminar e turbulento são simuladas e os resultados são apresentados e comparados com os obtidos numérica ou experimentalmente por outros autores.