935 resultados para point-to-segment algorithm
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
L’hypothyroïdie congénitale par dysgénésie thyroïdienne (HCDT) est la condition endocrinienne néonatale la plus fréquemment rencontrée, avec une incidence d’un cas sur 4000 naissances vivantes. L’HCDT comprend toutes les anomalies du développement de la thyroïde. Parmi ces anomalies, le diagnostic le plus fréquent est l’ectopie thyroïdienne (~ 50% des cas). L’HCDT est fréquemment associée à un déficit sévère en hormones thyroïdiennes (hypothyroïdisme) pouvant conduire à un retard mental sévère si non traitée. Le programme de dépistage néonatal assure un diagnostic et un traitement précoce par hormones thyroïdiennes. Cependant, même avec un traitement précoce (en moyenne à 9 jours de vie), un retard de développement est toujours observé, surtout dans les cas les plus sévères (c.-à-d., perte de 10 points de QI). Bien que des cas familiaux soient rapportés (2% des cas), l’HCTD est essentiellement considérée comme une entité sporadique. De plus, plus de 92% des jumeaux monozygotiques sont discordants pour les dysgénésies thyroïdiennes et une prédominance féminine est rapportée (spécialement dans le cas d’ectopies thyroïdiennes), ces deux observations étant clairement incompatible avec un mode de transmission héréditaire mendélien. Il est donc cohérent de constater que des mutations germinales dans les facteurs de transcription thyroïdiens connus (NKX2.1, PAX8, FOXE1, and NKX2.5) ont été identifiées dans seulement 3% des cas sporadiques testés et furent, de plus, exclues lors d’analyse d’association dans certaines familles multiplex. Collectivement, ces données suggèrent que des mécanismes non mendéliens sont à l’origine de la majorité des cas de dysgénésie thyroïdienne. Parmi ces mécanismes, nous devons considérer des modifications épigénétiques, des mutations somatiques précoces (au stade du bourgeon thyroïdien lors des premiers stades de l’embryogenèse) ou des défauts développementaux stochastiques (c.-à-d., accumulation aléatoire de mutations germinales ou somatiques). Voilà pourquoi nous proposons un modèle «2 hits » combinant des mutations (épi)génétiques germinales et somatiques; ce modèle étant compatible avec le manque de transmission familial observé dans la majorité des cas d’HCDT. Dans cette thèse, nous avons déterminé si des variations somatiques (épi)génétiques sont associées à l’HCTD via une approche génomique et une approche gène candidat. Notre approche génomique a révélé que les thyroïdes ectopiques ont un profil d’expression différent des thyroïdes eutopiques (contrôles) et que ce profil d’expression est enrichi en gènes de la voie de signalisation Wnt. La voie des Wnt est cruciale pour la migration cellulaire et pour le développement de plusieurs organes dérivés de l’endoderme (p.ex. le pancréas). De plus, le rôle de la voie des Wnt dans la morphogénèse thyroïdienne est supporté par de récentes études sur le poisson-zèbre qui montrent des anomalies du développement thyroïdien lors de la perturbation de la voie des Wnt durant différentes étapes de l’organogénèse. Par conséquent, l’implication de la voie des Wnt dans l’étiologie de la dysgénésie thyroïdienne est biologiquement plausible. Une trouvaille inattendue de notre approche génomique fut de constater que la calcitonine était exprimée autant dans les thyroïdes ectopiques que dans les thyroïdes eutopiques (contrôles). Cette trouvaille remet en doute un dogme de l’embryologie de la thyroïde voulant que les cellules sécrétant la calcitonine (cellules C) proviennent exclusivement d’une structure extrathyroïdienne (les corps ultimobranchiaux) fusionnant seulement avec la thyroïde en fin de développement, lorsque la thyroïde a atteint son emplacement anatomique définitif. Notre approche gène candidat ne démontra aucune différence épigénétique (c.-à-d. de profil de méthylation) entre thyroïdes ectopiques et eutopiques, mais elle révéla la présence d’une région différentiellement méthylée (RDM) entre thyroïdes et leucocytes dans le promoteur de FOXE1. Le rôle crucial de FOXE1 dans la migration thyroïdienne lors du développement est connu et démontré dans le modèle murin. Nous avons démontré in vivo et in vitro que le statut de méthylation de cette RDM est corrélé avec l’expression de FOXE1 dans les tissus non tumoraux (c.-à-d., thyroïdes et leucocytes). Fort de ces résultats et sachant que les RDMs sont de potentiels points chauds de variations (épi)génétiques, nous avons lancé une étude cas-contrôles afin de déterminer si des variants génétiques rares localisés dans cette RDM sont associés à la dysgénésie thyroïdienne. Tous ces résultats générés lors de mes études doctorales ont dévoilé de nouveaux mécanismes pouvant expliquer la pathogenèse de la dysgénésie thyroïdienne, condition dont l’étiologie reste toujours une énigme. Ces résultats ouvrent aussi plusieurs champs de recherche prometteurs et vont aider à mieux comprendre tant les causes des dysgénésies thyroïdiennes que le développement embryonnaire normal de la thyroïde chez l’homme.
Resumo:
Contexte: L'obésité chez les jeunes représente aujourd’hui un problème de santé publique à l’échelle mondiale. Afin d’identifier des cibles potentielles pour des stratégies populationnelles de prévention, les liens entre les caractéristiques du voisinage, l’obésité chez les jeunes et les habitudes de vie font de plus en plus l’objet d’études. Cependant, la recherche à ce jour comporte plusieurs incohérences. But: L’objectif général de cette thèse est d’étudier la contribution de différentes caractéristiques du voisinage relativement à l’obésité chez les jeunes et les habitudes de vie qui y sont associées. Les objectifs spécifiques consistent à: 1) Examiner les associations entre la présence de différents commerces d’alimentation dans les voisinages résidentiels et scolaires des enfants et leurs habitudes alimentaires; 2) Examiner comment l’exposition à certaines caractéristiques du voisinage résidentiel détermine l’obésité au niveau familial (chez le jeune, la mère et le père), ainsi que l’obésité individuelle pour chaque membre de la famille; 3) Identifier des combinaisons de facteurs de risque individuels, familiaux et du voisinage résidentiel qui prédisent le mieux l’obésité chez les jeunes, et déterminer si ces profils de facteurs de risque prédisent aussi un changement dans l’obésité après un suivi de deux ans. Méthodes: Les données proviennent de l’étude QUALITY, une cohorte québécoise de 630 jeunes, âgés de 8-10 ans au temps 1, avec une histoire d’obésité parentale. Les voisinages de 512 participants habitant la Région métropolitaine de Montréal ont été caractérisés à l’aide de : 1) données spatiales provenant du recensement et de bases de données administratives, calculées pour des zones tampons à partir du réseau routier et centrées sur le lieu de la résidence et de l’école; et 2) des observations menées par des évaluateurs dans le voisinage résidentiel. Les mesures du voisinage étudiées se rapportent aux caractéristiques de l’environnement bâti, social et alimentaire. L’obésité a été estimée aux temps 1 et 2 à l’aide de l’indice de masse corporelle (IMC) calculé à partir du poids et de la taille mesurés. Les habitudes alimentaires ont été mesurées au temps 1 à l'aide de trois rappels alimentaires. Les analyses effectuées comprennent, entres autres, des équations d'estimation généralisées, des régressions multiniveaux et des analyses prédictives basées sur des arbres de décision. Résultats: Les résultats démontrent la présence d’associations avec l’obésité chez les jeunes et les habitudes alimentaires pour certaines caractéristiques du voisinage. En particulier, la présence de dépanneurs et de restaurants-minutes dans le voisinage résidentiel et scolaire est associée avec de moins bonnes habitudes alimentaires. La présence accrue de trafic routier, ainsi qu’un faible niveau de prestige et d’urbanisation dans le voisinage résidentiel sont associés à l’obésité familiale. Enfin, les résultats montrent qu’habiter un voisinage obésogène, caractérisé par une défavorisation socioéconomique, la présence de moins de parcs et de plus de dépanneurs, prédit l'obésité chez les jeunes lorsque combiné à la présence de facteurs de risque individuels et familiaux. Conclusion: Cette thèse contribue aux écrits sur les voisinages et l’obésité chez les jeunes en considérant à la fois l'influence potentielle du voisinage résidentiel et scolaire ainsi que l’influence de l’environnement familial, en utilisant des méthodes objectives pour caractériser le voisinage et en utilisant des méthodes statistiques novatrices. Les résultats appuient en outre la notion que les efforts de prévention de l'obésité doivent cibler les multiples facteurs de risque de l'obésité chez les jeunes dans les environnements bâtis, sociaux et familiaux de ces jeunes.
Resumo:
Decision trees are very powerful tools for classification in data mining tasks that involves different types of attributes. When coming to handling numeric data sets, usually they are converted first to categorical types and then classified using information gain concepts. Information gain is a very popular and useful concept which tells you, whether any benefit occurs after splitting with a given attribute as far as information content is concerned. But this process is computationally intensive for large data sets. Also popular decision tree algorithms like ID3 cannot handle numeric data sets. This paper proposes statistical variance as an alternative to information gain as well as statistical mean to split attributes in completely numerical data sets. The new algorithm has been proved to be competent with respect to its information gain counterpart C4.5 and competent with many existing decision tree algorithms against the standard UCI benchmarking datasets using the ANOVA test in statistics. The specific advantages of this proposed new algorithm are that it avoids the computational overhead of information gain computation for large data sets with many attributes, as well as it avoids the conversion to categorical data from huge numeric data sets which also is a time consuming task. So as a summary, huge numeric datasets can be directly submitted to this algorithm without any attribute mappings or information gain computations. It also blends the two closely related fields statistics and data mining
Resumo:
This thesis presents a perceptual system for a humanoid robot that integrates abilities such as object localization and recognition with the deeper developmental machinery required to forge those competences out of raw physical experiences. It shows that a robotic platform can build up and maintain a system for object localization, segmentation, and recognition, starting from very little. What the robot starts with is a direct solution to achieving figure/ground separation: it simply 'pokes around' in a region of visual ambiguity and watches what happens. If the arm passes through an area, that area is recognized as free space. If the arm collides with an object, causing it to move, the robot can use that motion to segment the object from the background. Once the robot can acquire reliable segmented views of objects, it learns from them, and from then on recognizes and segments those objects without further contact. Both low-level and high-level visual features can also be learned in this way, and examples are presented for both: orientation detection and affordance recognition, respectively. The motivation for this work is simple. Training on large corpora of annotated real-world data has proven crucial for creating robust solutions to perceptual problems such as speech recognition and face detection. But the powerful tools used during training of such systems are typically stripped away at deployment. Ideally they should remain, particularly for unstable tasks such as object detection, where the set of objects needed in a task tomorrow might be different from the set of objects needed today. The key limiting factor is access to training data, but as this thesis shows, that need not be a problem on a robotic platform that can actively probe its environment, and carry out experiments to resolve ambiguity. This work is an instance of a general approach to learning a new perceptual judgment: find special situations in which the perceptual judgment is easy and study these situations to find correlated features that can be observed more generally.
Resumo:
In this paper a colour texture segmentation method, which unifies region and boundary information, is proposed. The algorithm uses a coarse detection of the perceptual (colour and texture) edges of the image to adequately place and initialise a set of active regions. Colour texture of regions is modelled by the conjunction of non-parametric techniques of kernel density estimation (which allow to estimate the colour behaviour) and classical co-occurrence matrix based texture features. Therefore, region information is defined and accurate boundary information can be extracted to guide the segmentation process. Regions concurrently compete for the image pixels in order to segment the whole image taking both information sources into account. Furthermore, experimental results are shown which prove the performance of the proposed method
Resumo:
An unsupervised approach to image segmentation which fuses region and boundary information is presented. The proposed approach takes advantage of the combined use of 3 different strategies: the guidance of seed placement, the control of decision criterion, and the boundary refinement. The new algorithm uses the boundary information to initialize a set of active regions which compete for the pixels in order to segment the whole image. The method is implemented on a multiresolution representation which ensures noise robustness as well as computation efficiency. The accuracy of the segmentation results has been proven through an objective comparative evaluation of the method
Resumo:
The objective of traffic engineering is to optimize network resource utilization. Although several works have been published about minimizing network resource utilization, few works have focused on LSR (label switched router) label space. This paper proposes an algorithm that takes advantage of the MPLS label stack features in order to reduce the number of labels used in LSPs. Some tunnelling methods and their MPLS implementation drawbacks are also discussed. The described algorithm sets up NHLFE (next hop label forwarding entry) tables in each LSR, creating asymmetric tunnels when possible. Experimental results show that the described algorithm achieves a great reduction factor in the label space. The presented works apply for both types of connections: P2MP (point-to-multipoint) and P2P (point-to-point)
Resumo:
We undertake a first step to investigating a reform that has been applied in numerous universities across Europe: the right to select students. We ask to what extent this right will increase the efficiency of the university. While it seems evident that giving universities the right to select students that match best with the human capital of professors should increase efficiency measures in the productivities of students in the labor market, we point to a potentially negative efect. We argue that allowing universities to select the students they prefer can reduce the incentives of the universities to improve the human capital of their professors.
Resumo:
Recent interest in the validation of general circulation models (GCMs) has been devoted to objective methods. A small number of authors have used the direct synoptic identification of phenomena together with a statistical analysis to perform the objective comparison between various datasets. This paper describes a general method for performing the synoptic identification of phenomena that can be used for an objective analysis of atmospheric, or oceanographic, datasets obtained from numerical models and remote sensing. Methods usually associated with image processing have been used to segment the scene and to identify suitable feature points to represent the phenomena of interest. This is performed for each time level. A technique from dynamic scene analysis is then used to link the feature points to form trajectories. The method is fully automatic and should be applicable to a wide range of geophysical fields. An example will be shown of results obtained from this method using data obtained from a run of the Universities Global Atmospheric Modelling Project GCM.
Resumo:
The focus of the present review is to assimilate current knowledge concerning the differing signalling transduction cascades that control muscle mass development and affect skeletal muscle phenotype following exercise or nutritional uptake. Effects of mechanical loading on protein synthesis are discussed. Muscle growth control is regulated by the interplay of growth promoting and growth suppressing factors, which act in concert. Much emphasis has been placed on understanding how increases in the rate of protein synthesis are induced in skeletal muscle during the adaptive process. One key point to emerge is that protein synthesis following resistance exercise or increased nutrient availability is mediated through changes in signal transduction involving the phosphorylation of mTOR and sequential activation of downstream targets. On the other hand, AMPK activation plays an important role in the inhibition of protein synthesis by suppressing the function of multiple translation regulators of the mTOR signalling pathway in response to cellular energy depletion and low metabolic conditions. The effects of exercise and/or nutritional uptake on the activation of signalling molecules that regulate protein synthesis are highlighted, providing a better understanding of the molecular changes in the cell.
Resumo:
In this paper, a fuzzy Markov random field (FMRF) model is used to segment land-objects into free, grass, building, and road regions by fusing remotely, sensed LIDAR data and co-registered color bands, i.e. scanned aerial color (RGB) photo and near infra-red (NIR) photo. An FMRF model is defined as a Markov random field (MRF) model in a fuzzy domain. Three optimization algorithms in the FMRF model, i.e. Lagrange multiplier (LM), iterated conditional mode (ICM), and simulated annealing (SA), are compared with respect to the computational cost and segmentation accuracy. The results have shown that the FMRF model-based ICM algorithm balances the computational cost and segmentation accuracy in land-cover segmentation from LIDAR data and co-registered bands.
Resumo:
K-Means is a popular clustering algorithm which adopts an iterative refinement procedure to determine data partitions and to compute their associated centres of mass, called centroids. The straightforward implementation of the algorithm is often referred to as `brute force' since it computes a proximity measure from each data point to each centroid at every iteration of the K-Means process. Efficient implementations of the K-Means algorithm have been predominantly based on multi-dimensional binary search trees (KD-Trees). A combination of an efficient data structure and geometrical constraints allow to reduce the number of distance computations required at each iteration. In this work we present a general space partitioning approach for improving the efficiency and the scalability of the K-Means algorithm. We propose to adopt approximate hierarchical clustering methods to generate binary space partitioning trees in contrast to KD-Trees. In the experimental analysis, we have tested the performance of the proposed Binary Space Partitioning K-Means (BSP-KM) when a divisive clustering algorithm is used. We have carried out extensive experimental tests to compare the proposed approach to the one based on KD-Trees (KD-KM) in a wide range of the parameters space. BSP-KM is more scalable than KDKM, while keeping the deterministic nature of the `brute force' algorithm. In particular, the proposed space partitioning approach has shown to overcome the well-known limitation of KD-Trees in high-dimensional spaces and can also be adopted to improve the efficiency of other algorithms in which KD-Trees have been used.
Resumo:
This paper argues for the relevance of paying attention to structuring participation processes across scales as one of the ways in which participation of multi-organisational partnerships that involve conflicting interests might be managed. Issue wise the paper deals with problems in connection with land mobilisation for road widening in complex and concentrated high value urban settings. It discusses a case study of plan implementation involving individual landowners, the land development market, the local government, other governmental and non-governmental organisations and the state government, which together achieved objectives that seemed impossible at first sight. In theoretical terms, the paper engages with Jessop's (2001) Strategic-Relational Approach (SRA), arguing for its potential for informing action in a way that is capable of achieving steering outputs. The claim for SRA is demonstrated by re-examining the case study. The factors that come through as SRA is applied are drawn out and it is suggested that the theory though non-deterministic, helps guide action by highlighting certain dynamics of systems that can be used for institutional intervention. These dynamics point to the importance of paying attention to scale and the way in which participation and negotiation processes are structured so as to favour certain outcomes rather than others
Resumo:
Decadal predictions have a high profile in the climate science community and beyond, yet very little is known about their skill. Nor is there any agreed protocol for estimating their skill. This paper proposes a sound and coordinated framework for verification of decadal hindcast experiments. The framework is illustrated for decadal hindcasts tailored to meet the requirements and specifications of CMIP5 (Coupled Model Intercomparison Project phase 5). The chosen metrics address key questions about the information content in initialized decadal hindcasts. These questions are: (1) Do the initial conditions in the hindcasts lead to more accurate predictions of the climate, compared to un-initialized climate change projections? and (2) Is the prediction model’s ensemble spread an appropriate representation of forecast uncertainty on average? The first question is addressed through deterministic metrics that compare the initialized and uninitialized hindcasts. The second question is addressed through a probabilistic metric applied to the initialized hindcasts and comparing different ways to ascribe forecast uncertainty. Verification is advocated at smoothed regional scales that can illuminate broad areas of predictability, as well as at the grid scale, since many users of the decadal prediction experiments who feed the climate data into applications or decision models will use the data at grid scale, or downscale it to even higher resolution. An overall statement on skill of CMIP5 decadal hindcasts is not the aim of this paper. The results presented are only illustrative of the framework, which would enable such studies. However, broad conclusions that are beginning to emerge from the CMIP5 results include (1) Most predictability at the interannual-to-decadal scale, relative to climatological averages, comes from external forcing, particularly for temperature; (2) though moderate, additional skill is added by the initial conditions over what is imparted by external forcing alone; however, the impact of initialization may result in overall worse predictions in some regions than provided by uninitialized climate change projections; (3) limited hindcast records and the dearth of climate-quality observational data impede our ability to quantify expected skill as well as model biases; and (4) as is common to seasonal-to-interannual model predictions, the spread of the ensemble members is not necessarily a good representation of forecast uncertainty. The authors recommend that this framework be adopted to serve as a starting point to compare prediction quality across prediction systems. The framework can provide a baseline against which future improvements can be quantified. The framework also provides guidance on the use of these model predictions, which differ in fundamental ways from the climate change projections that much of the community has become familiar with, including adjustment of mean and conditional biases, and consideration of how to best approach forecast uncertainty.