994 resultados para implicit surface representations
Resumo:
Presence of surface glycoprotein in Piptocephalis virginiana that recognizes the host glycoproteins band c, reported earlier from our laboratory, was detected by immunofluorescence microscopy. Germinated spores of P. virginiana treated with Mortierella pusilla cell wall protein extract, primary antibodies prepared against glycoproteins band c and FITC-goat anti-rabbit IgG conjugate showed fluorescence. This indicated that on the surfaces of the biotrophic mycoparasite P. virginiana , there might be a complementary molecule which recognizes the glycoproteins band c from M. pusilla. Immunobinding analysis identified a glycoprotein of Mr 100 kDa from the mycoparasite which binds with the host glycoproteins band c, separately as well as collectively. Purification of this glycoprotein was achieved by (i) 60% ammonium sulfate precipitation, (ii) followed by heat treatment, and (iii) Sephadex G-IOO gel filtration. The glycoprotein was isolated by preparative polyacrylamide gel electrophoresis by cutting and elution. The purity of the protein ·was ascertained by SDS-PAGE and Western blot analysis. Positive reaction to periodic acid-Schiff reagent revealed the glycoprotein nature of this 100 kDa protein. Mannose was identified as a major sugar component of this glycoprotein by using a BoehringerMannheim Glycan Differentiation Kit. Electrophoretically purified glycoprotein was used to raIse polyclonal antibody in rabbit. The specificity of the antibody was determined by dot-immunobinding test and western-blot analysis. Immunofluorescence mIcroscopy revealed surface localization of the protein on the germ tube of Piptocephalis virginiana. Fluorescence was also observed at the surfaceJ of the germinated spores and hyphae of the host, M. pusilla after treatment with complementary protein from P. virginiana, primary antibody prepared against the complementary protein and FITC-goat anti-rabbit IgG conjugate.
Resumo:
The study examines the buddy film genre and the representation of masculinity in relation to the homosocial and the homoerotic. As a genre, the buddy films focus on male relationships, thematically seeking to mediate the boundaries surrounding the homosocial continuum and the intimacy and eroticism implicit in male bonding. Theories of genre, gender and identity are used to analyze the construction of masculine identity within the films. By providing a qualitative analysis of films from the 1960s to contemporary times, the research establishes a relationship between social changes, attitudes toward men and depictions of men. The buddy films adapt to address changes in the representation of masculinity, embodied in the difference between the male couple in the films. The early films of the 1960s served as templates that deconstructed traditional representations of male identity through articulating the tension within homosocial relationships. However, in the later films this tension became a refle~ive convention, acting to undermine the eroticism onto a displaced Other. The buddy film genre highlights the tension inherent to the male masquerade. This tension is situated in the need to represent the protagonist's homosocial relationship, while disavowing the eroticism that surrounds homosocial bonding. The structure of the buddy film genre, which focuses on the exploration of masculinity and representing the bonds of homosocial intimacy, makes these films a significant site for investigating the cultural construction of masculine identities.
Resumo:
A room temperature ferromagnetic hysteresis is observed in single crystal strontium titanate substrates as purchased from several manufacturers. It was found that polishing all sides of the substrates removed this observed hysteresis, suggesting that the origin of the ferromagnetic behavior resides on the surface of the substrates. X-ray diffraction and energy dispersive x-ray spectra were measured however they were unable to detect any impurity phases. In similar semiconducting oxides it was previously suggested that ferromagnetism could originate in oxygen vacancies or from disorder within the single crystal. To this end substrates were annealed in both air and vacuum in a range of temperatures (600°C to 1100°G) to both create bulk oxygen vacancies and to heal surface damage. Annealing in vacuum was found to create a measureable number of oxygen vacancies however their creation could not be correlated to the ferromagnetic signal of the substrate. Annealing in air was found to effect the remnant moment of the substrate as well as the width of the x-ray diffraction peaks on the unpolished face, weakly suggesting a relation between surface based disorder and ferromagnetism. Argon ion bombardment was employed to create a layer of surface disorder in the polished crystal, however it was not found to induce ferromagnetism. It was found that acid etching was sufficient to remove the ferromagnetism from as purchased samples and similarly simulated handling with stainless steel tweezers was sufficient to re-create the ferromagnetism. It is suggested that the origin of this ferromagnetism in SrTi03 is surface contaminants (mainly iron).
Resumo:
This thesis explores the representation of Swinging London in three examples of 1960s British cinema: Blowup (Michelangelo Antonioni, 1966), Smashing Time (Desmond Davis, 1967) and Performance (Donald Cammell and Nicolas Roeg, 1970). It suggests that the films chronologically signify the evolution, commodification and dissolution of the Swinging London era. The thesis explores how the concept of Swinging London is both critiqued and perpetuated in each film through the use of visual tropes: the reconstruction of London as a cinematic space; the Pop photographer; the dolly; representations of music performance and fashion; the appropriation of signs and symbols associated with the visual culture of Swinging London. Using fashion, music performance, consumerism and cultural symbolism as visual narratives, each film also explores the construction of youth identity through the representation of manufactured and mediated images. Ultimately, these films reinforce Swinging London as a visual economy that circulates media images as commodities within a system of exchange. With this in view, the signs and symbols that comprise the visual culture of Swinging London are as central and significant to the cultural era as their material reality. While they attempt to destabilize prevailing representations of the era through the reproduction and exchange of such symbols, Blowup, Smashing Time, and Performance nevertheless contribute to the nostalgia for Swinging London in larger cultural memory.
Resumo:
As the complexity of evolutionary design problems grow, so too must the quality of solutions scale to that complexity. In this research, we develop a genetic programming system with individuals encoded as tree-based generative representations to address scalability. This system is capable of multi-objective evaluation using a ranked sum scoring strategy. We examine Hornby's features and measures of modularity, reuse and hierarchy in evolutionary design problems. Experiments are carried out, using the system to generate three-dimensional forms, and analyses of feature characteristics such as modularity, reuse and hierarchy were performed. This work expands on that of Hornby's, by examining a new and more difficult problem domain. The results from these experiments show that individuals encoded with those three features performed best overall. It is also seen, that the measures of complexity conform to the results of Hornby. Moving forward with only this best performing encoding, the system was applied to the generation of three-dimensional external building architecture. One objective considered was passive solar performance, in which the system was challenged with generating forms that optimize exposure to the Sun. The results from these and other experiments satisfied the requirements. The system was shown to scale well to the architectural problems studied.
Resumo:
Ordered gene problems are a very common classification of optimization problems. Because of their popularity countless algorithms have been developed in an attempt to find high quality solutions to the problems. It is also common to see many different types of problems reduced to ordered gene style problems as there are many popular heuristics and metaheuristics for them due to their popularity. Multiple ordered gene problems are studied, namely, the travelling salesman problem, bin packing problem, and graph colouring problem. In addition, two bioinformatics problems not traditionally seen as ordered gene problems are studied: DNA error correction and DNA fragment assembly. These problems are studied with multiple variations and combinations of heuristics and metaheuristics with two distinct types or representations. The majority of the algorithms are built around the Recentering- Restarting Genetic Algorithm. The algorithm variations were successful on all problems studied, and particularly for the two bioinformatics problems. For DNA Error Correction multiple cases were found with 100% of the codes being corrected. The algorithm variations were also able to beat all other state-of-the-art DNA Fragment Assemblers on 13 out of 16 benchmark problem instances.
Resumo:
Indwelling electromyography (EMG) has great diagnostic value but its invasive and often painful characteristics make it inappropriate for monitoring human movement. Spike shape analysis of the surface electromyographic signal responds to the call for non-invasive EMG measures for monitoring human movement and detecting neuromuscular disorders. The present study analyzed the relationship between surface and indwelling EMG interference patterns. Twenty four males and twenty four females performed three isometric dorsiflexion contractions at five force levels from 20% to maximal force. The amplitude measures increased differently between electrode types, attributed to the electrode sensitivity. The frequency measures were different between traditional and spike shape measures due to different noise rejection criteria. These measures were also different between surface and indwelling EMG due to the low-pass tissue filtering effect. The spike shape measures, thought to collectively function as a means to differentiate between motor unit characteristics, changed independent of one another.
Resumo:
Digital Terrain Models (DTMs) are important in geology and geomorphology, since elevation data contains a lot of information pertaining to geomorphological processes that influence the topography. The first derivative of topography is attitude; the second is curvature. GIS tools were developed for derivation of strike, dip, curvature and curvature orientation from Digital Elevation Models (DEMs). A method for displaying both strike and dip simultaneously as colour-coded visualization (AVA) was implemented. A plug-in for calculating strike and dip via Least Squares Regression was created first using VB.NET. Further research produced a more computationally efficient solution, convolution filtering, which was implemented as Python scripts. These scripts were also used for calculation of curvature and curvature orientation. The application of these tools was demonstrated by performing morphometric studies on datasets from Earth and Mars. The tools show promise, however more work is needed to explore their full potential and possible uses.
Resumo:
UANL
Resumo:
Affiliation: Faculté de Médecine Vétérinaire, Université de Montréal
Resumo:
Réalisé en cotutelle avec l'Université Bordeaux 1 (France)
Resumo:
Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.
Resumo:
Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.
Resumo:
L’objectif de cette étude était de démontrer que le léchage excessif de surface (LES) chez le chien représente un signe clinique d’un trouble digestif sous-jacent plutôt qu’un trouble obsessionnel compulsif. Vingt chiens présentés pour LES (groupe L) ont été divisés en 2 sous-groupes de 10 chiens chacun : L0, sans, et LD, avec des signes cliniques digestifs concomitants. Dix chiens en santé ont été assignés à un groupe contrôle (groupe C). Une évaluation comportementale complète, un examen physique et neurologique ont été réalisés avant un bilan diagnostic gastro-intestinal (GI) complet (hématologie, biochimie, analyse urinaire, mesure des acides biliaires pré et post-prandiaux et de l’immunoréactivité spécifique de la lipase pancréatique canine, flottaison fécale au sulfate de zinc, culture de selles, échographie abdominale et endoscopie GI haute avec prise de biopsies). En fonction des résultats, un interniste recommandait un traitement approprié. Les chiens étaient suivis pendant 90 jours durant lesquels le comportement de léchage était enregistré. Des troubles GI ont été identifiés chez 14/20 chiens du groupe L. Ces troubles GI sous-jacents incluaient une infiltration éosinophilique du tractus GI, une infiltration lymphoplasmocytaire du tractus GI, un retard de vidange gastrique, un syndrome du côlon irritable, une pancréatite chronique, un corps étranger gastrique et une giardiose. Une amélioration >50% en fréquence ou en durée par rapport au comportement de léchage initial a été observée chez une majorité de chiens (56%). La moitié des chiens ont complètement cessé le LES. En dehors du LES, il n’y avait pas de différence significative de comportement (p.ex. anxiété), entre les chiens L et les chiens C. Les troubles GI doivent être considérés dans le diagnostic différentiel du LES chez le chien.
Resumo:
Cette thèse propose une approche du mémoriel qui interroge la production de la mémoire dans son caractère processuel. Elle comporte trois caractéristiques principales. D’abord, elle met l’accent sur une pluralité des temps qui participe de la production de la mémoire (mais aussi de l’instauration de collectivités et de la production de leurs continuités). Elle place aussi les processus de représentation au cœur de ses questionnements – notamment, elle met l’accent sur les manières par lesquelles la mémoire est constituée par la représentation (au lieu d’examiner les manières par lesquelles la mémoire est représentée). Enfin, elle interroge les manières par lesquelles la production de la mémoire concourt à délimiter, entretenir et faire être des collectivités, et quelles formes de collectivisation sont à cet égard réalisées. Le premier chapitre expose cette approche de la mémoire en constraste avec une présentation de trois grandes familles d’approches – les approches de la mémoire collective, celles de la mémoire culturelle et les approches présentistes – qui appréhendent la mémoire comme un construit. Il explique aussi comment je mets le mémoriel à profit dans une analyse de surface qui appréhende la constitution des représentations par lesquelles l’ex-hockeyeur Maurice Richard et l’ex-animatrice et auteure Janette Bertrand sont établis comme personnalités publiques, par le biais de technologies et de figures d’individualité publique qui les font être de manières singulières. Dans cette optique, je réalise, dans le deuxième chapitre, une analyse de la constitution de Maurice Richard comme héros, et dans le troisième, un examen de la constitution de Janette Bertrand comme pionnière. Dans le quatrième et dernier chapitre, je constate notamment les effectivités respectives des technologies et des procédés de représentation par lesquels des personnalités publiques sont instaurées. Je mets aussi en lumière que ces technologies et les éléments qu’elles produisent, traversent et mettent en relation, s’appréhendent à chaque fois dans la singularité de leurs rencontres. Je conclus ensuite en mettant en lumière les manières par lesquelles mon approche du mémoriel contribue aux études de la mémoire, lesquelles sont l’objet d’une disciplinarisation croissante.