975 resultados para Análise Morfométrica 2D e 3D
Resumo:
We analyse in a common framework the properties of the Voronoi tessellations resulting from regular 2D and 3D crystals and those of tessellations generated by Poisson distributions of points, thus joining on symmetry breaking processes and the approach to uniform random distributions of seeds. We perturb crystalline structures in 2D and 3D with a spatial Gaussian noise whose adimensional strength is α and analyse the statistical properties of the cells of the resulting Voronoi tessellations using an ensemble approach. In 2D we consider triangular, square and hexagonal regular lattices, resulting into hexagonal, square and triangular tessellations, respectively. In 3D we consider the simple cubic (SC), body-centred cubic (BCC), and face-centred cubic (FCC) crystals, whose corresponding Voronoi cells are the cube, the truncated octahedron, and the rhombic dodecahedron, respectively. In 2D, for all values α>0, hexagons constitute the most common class of cells. Noise destroys the triangular and square tessellations, which are structurally unstable, as their topological properties are discontinuous in α=0. On the contrary, the honeycomb hexagonal tessellation is topologically stable and, experimentally, all Voronoi cells are hexagonal for small but finite noise with α<0.12. Basically, the same happens in the 3D case, where only the tessellation of the BCC crystal is topologically stable even against noise of small but finite intensity. In both 2D and 3D cases, already for a moderate amount of Gaussian noise (α>0.5), memory of the specific initial unperturbed state is lost, because the statistical properties of the three perturbed regular tessellations are indistinguishable. When α>2, results converge to those of Poisson-Voronoi tessellations. In 2D, while the isoperimetric ratio increases with noise for the perturbed hexagonal tessellation, for the perturbed triangular and square tessellations it is optimised for specific value of noise intensity. The same applies in 3D, where noise degrades the isoperimetric ratio for perturbed FCC and BCC lattices, whereas the opposite holds for perturbed SCC lattices. This allows for formulating a weaker form of the Kelvin conjecture. By analysing jointly the statistical properties of the area and of the volume of the cells, we discover that also the cells shape heavily fluctuates when noise is introduced in the system. In 2D, the geometrical properties of n-sided cells change with α until the Poisson-Voronoi limit is reached for α>2; in this limit the Desch law for perimeters is shown to be not valid and a square root dependence on n is established, which agrees with exact asymptotic results. Anomalous scaling relations are observed between the perimeter and the area in the 2D and between the areas and the volumes of the cells in 3D: except for the hexagonal (2D) and FCC structure (3D), this applies also for infinitesimal noise. In the Poisson-Voronoi limit, the anomalous exponent is about 0.17 in both the 2D and 3D case. A positive anomaly in the scaling indicates that large cells preferentially feature large isoperimetric quotients. As the number of faces is strongly correlated with the sphericity (cells with more faces are bulkier), in 3D it is shown that the anomalous scaling is heavily reduced when we perform power law fits separately on cells with a specific number of faces.
Resumo:
Given a fixed set of identical or different-sized circular items, the problem we deal with consists on finding the smallest object within which the items can be packed. Circular, triangular, squared, rectangular and also strip objects are considered. Moreover, 2D and 3D problems are treated. Twice-differentiable models for all these problems are presented. A strategy to reduce the complexity of evaluating the models is employed and, as a consequence, instances with a large number of items can be considered. Numerical experiments show the flexibility and reliability of the new unified approach. (C) 2007 Elsevier Ltd. All rights reserved.
Resumo:
Two-dimensional and 3D quantitative structure-activity relationships studies were performed on a series of diarylpyridines that acts as cannabinoid receptor ligands by means of hologram quantitative structure-activity relationships and comparative molecular field analysis methods. The quantitative structure-activity relationships models were built using a data set of 52 CB1 ligands that can be used as anti-obesity agents. Significant correlation coefficients (hologram quantitative structure-activity relationships: r 2 = 0.91, q 2 = 0.78; comparative molecular field analysis: r 2 = 0.98, q 2 = 0.77) were obtained, indicating the potential of these 2D and 3D models for untested compounds. The models were then used to predict the potency of an external test set, and the predicted (calculated) values are in good agreement with the experimental results. The final quantitative structure-activity relationships models, along with the information obtained from 2D contribution maps and 3D contour maps, obtained in this study are useful tools for the design of novel CB1 ligands with improved anti-obesity potency.
Resumo:
Objetivos: Testar a hipótese de que a mucosa do intestino delgado proximal de crianças com diarréia persistente apresenta alterações morfométricas e estereológicas proporcionais ao estado nutricional. Métodos: estudo transversal, incluindo 65 pacientes pediátricos internados no período de maio de 1989 a novembro de 1991, com idade entre 4 meses e 5 anos , com diarréia de mais de 14 dias de duração, que necessitaram realizar biópsia de intestino delgado como parte do protocolo de investigação. A avaliação nutricional foi realizada pelos métodos de Gomez, Waterlow e pelos escores z para peso/ idade (P/I), peso/estatura (P/E) e estatura/idade (E/I), divididos em: eutróficos = z ≥ 2 DP e desnutridos z < -2dp; eutróficos = z ≥ 2 DP, risco nutricional = z < -1DP e desnutridos = z < -2DP; e de maneira contínua em ordem decrescente, utilizando-se as tabelas do NCHS. A captura e análise das imagens por programa de computador foi efetuada com o auxílio do patologista. Nos fragmentos de mucosa do intestino delgado, foram medidas a altura dos vilos, a profundidade das criptas, a espessura da mucosa, a espessura total da mucosa e a relação vilo/cripta, com aumento de 100 vezes. Com aumento de 500 vezes, foram medidas a altura do enterócito, a altura do núcleo e do bordo em escova. O programa computadorizado utilizado foi o Scion Image. A análise estereológica, foi feita com o uso de arcos ciclóides. Resultados: Para os escores z P/I, P/E e E/I, divididos em duas categorias de estado nutricional, não houve diferença estatisticamente significante quanto às medidas da altura dos vilos, profundidade das criptas, espessura da mucosa, espessura total da mucosa e relação vilo/cripta. A altura do enterócito foi a característica que apresentou maior diferença entre os grupos eutrófico e desnutrido, para os índices P/I e P/E, em 500 aumentos, sem atingir significância estatística. Quando os escores z foram divididos em 3 categorias de estado nutricional, a análise morfométrica digitalizada mostrou diferença estatisticamente significante para a relação vilo/cripta entre eutróficos e desnutridos leves e entre eutróficos e desnutridos moderados e graves (p=0,048). A relação vilo/cripta foi maior nos eutróficos. A avaliação nutricional pelos critérios de Waterlow e a análise estereológica não mostraram associação com o estado nutricional. Pelo método de Gomez, houve diferença estatisticamente significante para a altura do enterócito entre eutróficos e desnutridos de Grau III: quanto maior o grau de desnutrição, menor a altura do enterócito (r= -.3330; p = 0,005). As variáveis altura do enterócito, altura do núcleo do enterócito e do bordo em escova apresentaram uma clara associação com os índices P/I (r=0,25;p=0,038), P/E (r=0,029;p=0,019) e com o critério de avaliação nutricional de Gomez (r=-0,33;p=0,007), quando foram avaliadas pelo coeficiente de correlação de Pearson. A altura do núcleo mostrou associação com o índice P/I (r=0,24;p=0,054). A altura do bordo em escova mostrou associação com o índice P/I (r=0,26;p=0,032) e a avaliação nutricional de Gomez (r=-0,28;p=0,020). Conclusões: As associações encontradas entre o estado nutricional - avaliado de acordo com Gomez e os índices P/I e P/E - e as variáveis da mucosa do intestino delgado mostraram relação com o peso dos pacientes. Embora estas associações tenham sido de magnitude fraca a moderada, há uma tendência à diminuição do tamanho do enterócito, seu núcleo e seu bordo em escova à medida que aumenta o grau de desnutrição.
Resumo:
Com o advento dos computadores surgiram problemas de saúde associados à tarefa da digitação, causados, principalmente, pela posição estática do corpo, pela repetitividade de movimentos dos membros superiores, pelas forças envolvidas, etc. Na tentativa de relacionar esses fatores com os distúrbios, iniciou-se, na década de 90, o estudo da força aplicada nos teclados de computador. O objetivo principal deste trabalho é desenvolver uma plataforma para medir a força aplicada nas teclas do teclado de um computador durante a digitação, para utilização em biomecânica. Foi projetada e construída uma plataforma de força que mede a força vertical, Fz, (direção z), a força horizontal (e transversal) ao teclado, Fy, (direção y) e o momento aplicado no eixo horizontal e longitudinal ao teclado, Mx, (eixo x). Com estes três componentes é possível, numa análise bidimensional (2D), determinar a magnitude do vetor força resultante, seu ângulo com plano horizontal e o ponto de aplicação sobre a superfície da tecla. Os sensores utilizados foram os extensômetros de resistência elétrica, colados em placas que deformam-se principalmente por flexão; estes sensores são ligados em ponte completa de Wheatstone para cada canal de aquisição, Fx, Fy e Mx. Foi construído um modelo em madeira, PVC e acrílico, na escala 4,5:1, para auxiliar na busca de soluções de problemas de construção. Com o objetivo de aperfeiçoar o modelo conceitual criado, utilizou-se modelamento numérico (elementos finitos) Os sinais adquiridos para cada canal são independentes, não necessitando de operações posteriores. O sistema de aquisição é composto por um computador para armazenar e posteriormente tratar matematicamente os dados coletados, por uma placa de aquisição (A/D) de dados, um condicionador de sinais e o programa SAD 2.0 para aquisição e processamento de dados. A linearidade da plataforma de força permaneceu dentro dos limites de 3 % durante a calibração estática. Os testes dinâmicos mostraram que a plataforma possui freqüência fundamental superior a 2300 Hz, o que permite que ela seja utilizada com segurança para a análise de forças aplicadas durante a digitação.
Resumo:
O objetivo deste trabalho é a introdução e desenvolvimento de uma metodologia analítico-simbólica para a obtenção de respostas dinâmicas e forçadas (soluções homogêneas e não homogêneas) de sistemas distribuídos, em domínios ilimitados e limitados, através do uso da base dinâmica gerada a partir da resposta impulso. Em domínios limitados, a resposta impulso foi formulada pelo método espectral. Foram considerados sistemas com condições de contorno homogêneas e não homogêneas. Para sistemas de natureza estável, a resposta forçada é decomposta na soma de uma resposta particular e de uma resposta livre induzida pelos valores iniciais da resposta particular. As respostas particulares, para entradas oscilatórias no tempo, foram calculadas com o uso da fun»c~ao de Green espacial. A teoria é desenvolvida de maneira geral permitindo que diferentes sis- temas evolutivos de ordem arbitrária possam ser tratados sistematicamente de uma forma compacta e simples. Realizou-se simulações simbólicas para a obtenção de respostas dinâmicas e respostas for»cadas com equações do tipo parabólico e hiperbólico em 1D,2D e 3D. O cálculo das respostas forçadas foi realizado com a determinação das respostas livres transientes em termos dos valores iniciais das respostas permanentes. Foi simulada a decomposição da resposta forçada da superfície livre de um modelo acoplado oceano-atmosfera bidimensional, através da resolução de uma equação de Klein-Gordon 2D com termo não-homogêneo de natureza dinâmica, devido a tensão de cisalhamento na superfície do oceano pela ação do vento.
Resumo:
Dados volumétricos temporais são usados na representação de fenômenos físicos em várias aplicações de visualização científica, pois tais fenômenos são complexos, alteram-se com o tempo e não possuem uma forma de representação definida. Uma solução é usar amostragens sobre um espaço de forma geométrica simples que contém o fenômeno (um cubo, por exemplo), discretizado ao longo de uma grade em células de mesmo formato e usualmente chamado de volume de amostragem. Este volume de amostragem representa um instante da representação do fenômeno e, para representar dados temporais, simplesmente enumera-se tantos volumes quanto forem as diferentes instâncias de tempo. Esta abordagem faz com que a representação seja extremamente custosa, necessitando de técnicas de representação de dados para comprimir e descomprimir os mesmos. Este trabalho apresenta uma nova abordagem para compressão de volumes de dados temporais que permite a visualização em tempo real destes dados usando hardware gráfico. O método de compressão usa uma representação hierárquica dos vários volumes de dados dentro da memória do hardware gráfico, referenciados pelo hardware como texturas 3D. O método de compressão tem melhor desempenho para dados volumétricos esparsos e com alto grau de coerência (espacial e temporal). A descompressão destes dados é feita por programas especiais que são executados no próprio hardware gráfico. Um estudo de caso usando o método de compressão/descompressão proposto é apresentado com dados provenientes do Projeto MAPEM (Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima). O objetivo do projeto é propor uma metodologia para o monitoramento dos efeitos das descargas de materiais no ecossistema marinho durante a perfuração de um poço de petróleo. Para estimar certos descarregamentos de fluidos, o projeto usa um simulador CFD que permite mostrar tais descarregamentos, gerando grades planares e uniformes 2D ou 3D em qualquer instante de tempo durante a simulação.
Resumo:
A constraint satisfaction problem is a classical artificial intelligence paradigm characterized by a set of variables (each variable with an associated domain of possible values), and a set of constraints that specify relations among subsets of these variables. Solutions are assignments of values to all variables that satisfy all the constraints. Many real world problems may be modelled by means of constraints. The range of problems that can use this representation is very diverse and embraces areas like resource allocation, scheduling, timetabling or vehicle routing. Constraint programming is a form of declarative programming in the sense that instead of specifying a sequence of steps to execute, it relies on properties of the solutions to be found, which are explicitly defined by constraints. The idea of constraint programming is to solve problems by stating constraints which must be satisfied by the solutions. Constraint programming is based on specialized constraint solvers that take advantage of constraints to search for solutions. The success and popularity of complex problem solving tools can be greatly enhanced by the availability of friendly user interfaces. User interfaces cover two fundamental areas: receiving information from the user and communicating it to the system; and getting information from the system and deliver it to the user. Despite its potential impact, adequate user interfaces are uncommon in constraint programming in general. The main goal of this project is to develop a graphical user interface that allows to, intuitively, represent constraint satisfaction problems. The idea is to visually represent the variables of the problem, their domains and the problem constraints and enable the user to interact with an adequate constraint solver to process the constraints and compute the solutions. Moreover, the graphical interface should be capable of configure the solver’s parameters and present solutions in an appealing interactive way. As a proof of concept, the developed application – GraphicalConstraints – focus on continuous constraint programming, which deals with real valued variables and numerical constraints (equations and inequalities). RealPaver, a state-of-the-art solver in continuous domains, was used in the application. The graphical interface supports all stages of constraint processing, from the design of the constraint network to the presentation of the end feasible space solutions as 2D or 3D boxes.
Resumo:
A pesquisa foi conduzida com o objetivo de comparar duas técnicas de enterorrafias no cólon descendente de eqüinos, uma aposicional e outra invaginante, utilizando-se de avaliações morfométricas. As intervenções cirúrgicas foram executadas em 15 eqüinos adultos sadios, pelo flanco esquerdo, sob anestesia geral inalatória. As enterotomias foram realizadas na tênia antimesentérica do cólon descendente e as enterorrafias foram feitas com fio de poliglactina 910 n° 0. Os eqüinos foram distribuídos aleatoriamente em cinco grupos de três animais cada e submetidos à eutanásia aos três, sete, 14, 21 e 35 dias de pós-operatório para colheita de segmentos intestinais dos locais das enterorrafias para análise morfométrica. Com o auxílio de analisador de imagens, foram contados os números de neutrófilos, células mononucleares e eosinófilos ao redor do fio de sutura. Na contagem de neutrófilos, houve diferença (P = 0,05) entre as enterorrafias, com maior número na aposicional. Quanto aos mononucleares, observou-se diferença (P = 0,01) na interação entre os dias de pós-operatório e as enterorrafias. Não foram observadas diferenças (P > 0,05) na contagem de eosinófilos. Concluiu-se que a enterorrafia invaginante causou reação inflamatória de menor intensidade que a aposicional, sendo a opção preferencial para uso neste órgão.
Resumo:
Este trabalho teve como objetivo avaliar as características morfométricas das microbacias (2ª, 3ª, 4ª e 5ª ordens de magnitude) da bacia hidrográfica do córrego Rico, sub-bacia do Rio Mogi-Guaçu, localizada na região administrativa de Ribeirão Preto, Estado de São Paulo, Brasil. Para tanto, foram determinados os parâmetros físicos e a configuração topográfica natural do sistema de drenagem. Os procedimentos para a obtenção dos dados foram fundamentados em técnicas de sensoriamento remoto e geoprocessamento. A partir da vetorização das cartas topográficas correspondentes à área de estudo, realizou-se a análise morfométrica quanto às características dimensionais, do padrão de drenagem e do relevo no sistema de informação geográfica ArcView. A microbacia é considerada de sexta ordem de magnitude, com área estimada de 542 km², com 85 microbacias de segunda ordem, 22 de terceira, sete de quarta ordem e duas de quinta. Utilizando o critério geométrico, na disposição fluvial das sub-bacias de cabeceiras observou-se a predominância dos modelos dendríticos e subdendríticos, enquanto a jusante predominava o modelo subparalelo, respectivamente, nas áreas de ocorrências dos arenitos Bauru e rochas efusivas básicas.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Foi realizado estudo morfométrico do cólon descendente de 15 eqüinos hígidos, nove fêmeas e seis machos, submetidos a enterorrafias aposicionais com fio de poliglactina 910 ou com cianoacrilato. Os animais foram distribuídos aleatoriamente em cinco grupos de três animais cada e sacrificados aos três, sete, 14, 35 e 70 dias de pós-operatório para colheita dos segmentos intestinais operados e posterior processamento histológico de rotina. A análise morfométrica foi feita em microscópio óptico adaptado a um sistema de análise de imagens, onde se quantificou o infiltrado inflamatório, mediante contagens de neutrófilos, eosinófilos, macrófagos, linfócitos e plasmócitos, não sendo observadas diferenças (P>0,05) entre as enterorrafias. Houve diferenças significativas entre os dias de pós-operatório para as contagens de neutrófilos, eosinófilos, macrófagos e linfócitos. Também se mensuraram as espessuras das regiões operadas (cicatriz) e das áreas contíguas não operadas (controle), registrando-se diferenças entre os dias de pós-operatório e as regiões (P<0,05), mas não entre as enterorrafias. O fio de poliglactina 910 e o cianoacrilato apresentam a mesma eficácia para serem usados em enterorrafias aposicionais do cólon descendente de eqüinos.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Objetivou-se verificar o efeito da substituição do leite desnatado em pó pelo isolado protéico de soja em rações para leitões desmamados aos 21 dias de idade sobre o desempenho, a morfometria intestinal e relação peso de pâncreas/peso de carcaça. Foram utilizados 80 leitões desmamados, no período de 21 a 35 dias de idade, distribuídos em delineamento de blocos ao acaso com cinco tratamentos, quatro repetições e quatro animais por unidade experimental (dois machos e duas fêmeas), totalizando 16 leitões por tratamento. Os tratamentos consistiram na substituição protéica (0, 25, 50, 75 e 100%) do leite desnatado em pó pelo isolado protéico de soja. Todas as dietas apresentaram mesmo conteúdo protéico (20,00%), energético (3420 kcal ED/kg de dieta) e de lactose (8,16%). Foram analisados parâmetros de desempenho (ganho de peso, consumo e conversão alimentar) e relação entre peso de pâncreas/peso de carcaça. Realizou-se análise morfométrica do intestino delgado, abatendo-se seis animais/tratamento ao término do período experimental. Observou-se efeito quadrático dos tratamentos para ganho de peso e conversão alimentar e efeito linear negativo para consumo de ração. Não houve alterações morfométricas para altura de vilosidade, profundidade de criptas e para a relação entre peso de pâncreas/peso de carcaça. Concluiu-se que o isolado protéico de soja pode substituir a proteína do leite em pó desnatado em 34,25% para máximo ganho de peso e 51,00% para melhor conversão alimentar. A substituição total da proteína láctea pela proteína da soja não afetou a integridade do vilo e a relação entre peso de pâncreas/peso de carcaça.
Resumo:
The seismic method is of extreme importance in geophysics. Mainly associated with oil exploration, this line of research focuses most of all investment in this area. The acquisition, processing and interpretation of seismic data are the parts that instantiate a seismic study. Seismic processing in particular is focused on the imaging that represents the geological structures in subsurface. Seismic processing has evolved significantly in recent decades due to the demands of the oil industry, and also due to the technological advances of hardware that achieved higher storage and digital information processing capabilities, which enabled the development of more sophisticated processing algorithms such as the ones that use of parallel architectures. One of the most important steps in seismic processing is imaging. Migration of seismic data is one of the techniques used for imaging, with the goal of obtaining a seismic section image that represents the geological structures the most accurately and faithfully as possible. The result of migration is a 2D or 3D image which it is possible to identify faults and salt domes among other structures of interest, such as potential hydrocarbon reservoirs. However, a migration fulfilled with quality and accuracy may be a long time consuming process, due to the mathematical algorithm heuristics and the extensive amount of data inputs and outputs involved in this process, which may take days, weeks and even months of uninterrupted execution on the supercomputers, representing large computational and financial costs, that could derail the implementation of these methods. Aiming at performance improvement, this work conducted the core parallelization of a Reverse Time Migration (RTM) algorithm, using the parallel programming model Open Multi-Processing (OpenMP), due to the large computational effort required by this migration technique. Furthermore, analyzes such as speedup, efficiency were performed, and ultimately, the identification of the algorithmic scalability degree with respect to the technological advancement expected by future processors