956 resultados para second pre-image attack
Resumo:
A Brock player hits the ball over in this match suspected to be from 87/88 or 88/89.
Resumo:
This study was a comparative investigation of face-toface (i.e., proximate) and computer-mediated written (i.e., graphic) pre-writing conferences. The participants in this study were advanced English as a second language students. The 2 types of conferences were compared in terms of textual features, participation, and the . degree to which they were on topic. Moreover, drafts written after the 2 types of conferences were compared in terms of textual features, and the degree to which they were related to the conferences. Students produced an equivalent amount of discourse in an equivalent amount of time in the 2 types of conferences. The discourse in graphic conferences displayed greater lexical range, and some evidence suggests that it was less on-topic. Both these results likely occurred because the graphic conferences contained more discourse demonstrating interactive competence. Participation in graphic conferences was found to be as balanced or more balanced among students, and among students and the group leader combined. Overall, the drafts produced after the 2 types of conferences were of equivalent length and topical range, but some evidence suggests that drafts written after proximate conferences were more related to the conferences.
Resumo:
Confocal and two-photon microcopy have become essential tools in biological research and today many investigations are not possible without their help. The valuable advantage that these two techniques offer is the ability of optical sectioning. Optical sectioning makes it possible to obtain 3D visuahzation of the structiu-es, and hence, valuable information of the structural relationships, the geometrical, and the morphological aspects of the specimen. The achievable lateral and axial resolutions by confocal and two-photon microscopy, similar to other optical imaging systems, are both defined by the diffraction theorem. Any aberration and imperfection present during the imaging results in broadening of the calculated theoretical resolution, blurring, geometrical distortions in the acquired images that interfere with the analysis of the structures, and lower the collected fluorescence from the specimen. The aberrations may have different causes and they can be classified by their sources such as specimen-induced aberrations, optics-induced aberrations, illumination aberrations, and misalignment aberrations. This thesis presents an investigation and study of image enhancement. The goal of this thesis was approached in two different directions. Initially, we investigated the sources of the imperfections. We propose methods to eliminate or minimize aberrations introduced during the image acquisition by optimizing the acquisition conditions. The impact on the resolution as a result of using a coverslip the thickness of which is mismatched with the one that the objective lens is designed for was shown and a novel technique was introduced in order to define the proper value on the correction collar of the lens. The amoimt of spherical aberration with regard to t he numerical aperture of the objective lens was investigated and it was shown that, based on the purpose of our imaging tasks, different numerical apertures must be used. The deformed beam cross section of the single-photon excitation source was corrected and the enhancement of the resolution and image quaUty was shown. Furthermore, the dependency of the scattered light on the excitation wavelength was shown empirically. In the second part, we continued the study of the image enhancement process by deconvolution techniques. Although deconvolution algorithms are used widely to improve the quality of the images, how well a deconvolution algorithm responds highly depends on the point spread function (PSF) of the imaging system applied to the algorithm and the level of its accuracy. We investigated approaches that can be done in order to obtain more precise PSF. Novel methods to improve the pattern of the PSF and reduce the noise are proposed. Furthermore, multiple soiu'ces to extract the PSFs of the imaging system are introduced and the empirical deconvolution results by using each of these PSFs are compared together. The results confirm that a greater improvement attained by applying the in situ PSF during the deconvolution process.
Resumo:
This study examined the effectiveness of motor-encoding activities on memory and performance of students in a Grade One reading program. There were two experiments in the study. Experiment 1 replicated a study by Eli Saltz and David Dixon (1982). The effect of motoric enactment (Le., pretend play) of sentences on memory for the sentences was investigated. Forty Grade One students performed a "memory-for-sentences" technique, devised by Saltz and Dixon. Only the experimental group used motoric enactment of the sentences. Although quantitative findings revealed no significant difference between the mean scores of the experimental group versus the control group, aspects of the experimental design could have affected the results. It was suggested that Saltz and Dixon's study could be replicated again, with more attention given to variables such as population size, nature of the test sentences, subjects' previous educational experience and conditions related to the testing environment. The second experiment was an application of Saltz and Dixon's theory that motoric imagery should facilitate memory for sentences. The intent was to apply this theory to Grade One students' ability to remember words from their reading program. An experimental gym program was developed using kinesthetic activities to reinforce the skills of the classroom reading program. The same subject group was used in Experiment 2. It was hypothesized that the subjects who experienced the experimental gym program would show greater signs of progress in reading ability, as evidenced by their scores on Form G of the Woodcock Reading Mastery Test--Revised. The data from the WRM--R were analyzed with a 3-way split-plot analysis of variance in which group (experimental vs. control) and sex were the between subjects variables and test-time (pre-test vs. post-test) was the within-subjects variable. Findings revealed the following: (a) both groups made substantial gains over time on the visual-auditory learning sub-test and the triple action of group x sex x time also was significant; (b) children in the experimental and control groups performed similarly on both the pre- and post-test of the letter identification test; (c) time was the only significant effect on subjects' performance on the word identification task; (d) work attack scores showed marked improvement in performance over time for both the experimenta+ and control groups; (e) passage comprehension scores indicated an improvement in performance for both groups over time. Similar to Experiment 1, it is suggested that several modifications in the experimental design could produce significant results. These factors are addressed with suggestions for further research in the area of active learning; more specifically, the effect of motor-encoding activities on memory and academic performance of children.
Resumo:
Negative of second Welland Canal at Lock 2.
Resumo:
Negative of second Welland Canal at Lock 3.
Resumo:
Negative of second Welland Canal at Lock 3.
Resumo:
Negative of second Welland Canal at Lock 9.
Resumo:
Negative of second Welland Canal at Lock 22. There is a building with a sign that reads "Artificial Stone Builder's Supply Co."
Resumo:
Negative of second Welland Canal below Lock 3 in St. Catharines.
Resumo:
La phagocytose est un processus par lequel des cellules spécialisées du système immunitaire comme les macrophages ingèrent des microorganismes envahisseurs afin de les détruire. Les microbes phagocytés se retrouvent dans un compartiment intracellulaire nommé le phagosome, qui acquiert graduellement de nombreuses molécules lui permettant de se transformer en phagolysosome possédant la capacité de tuer et dégrader son contenu. L’utilisation de la protéomique a permis de mettre en évidence la présence de microdomaines (aussi nommés radeaux lipidiques ou radeaux membranaires) sur les phagosomes des macrophages. Notre équipe a démontré que ces radeaux exercent des fonctions cruciales au niveau de la membrane du phagosome. D’abord nous avons observé que la survie du parasite intracellulaire L. donovani est possible dans un phagosome dépourvu de radeaux lipidiques. Parallèlement nous avons constaté qu’un mutant de L. donovani n’exprimant pas de LPG à sa surface(LPG-) est rapidement tué dans un phagosome arborant des radeaux membranaires. Pour comprendre le mécanisme de perturbation des microdomaines du phagosome par la molécule LPG, nous avons provoqué la phagocytose de mutants LPG- du parasite et comparé par microscopie les différences avec le parasite de type sauvage. Nous avons ainsi démontré que le LPG de L. donovani est nécessaire et suffisant au parasite pour empêcher la maturation normale du phagosome. Nous avons également découvert que la molécule LPG permet d’empêcher la formation des radeaux lipidiques sur le phagosome et peut aussi désorganiser les radeaux lipidiques préexistants. Enfin, nous avons montré que l’action de LPG est proportionnelle au nombre d’unités répétitives de sucres (Gal(β1,4)-Manα1-PO4) qui composent cette molécule. Nos travaux ont démontré pour la première fois le rôle important de ces sous-domaines membranaires dans la maturation du phagosome. De plus, nos conclusions seront des pistes à suivre au cours des études cliniques ayant pour but d’enrayer la leishmaniose. Le second objectif de ce travail consistait à effectuer la caractérisation des radeaux lipidiques par une analyse protéomique et lipidomique à l’aide de la spectrométrie de masse. Nous avons ainsi entrepris l’identification systématique des protéines présentes dans les radeaux membranaires des phagosomes et ce, à trois moments clés de leurmaturation. Le traitement des phagosomes purifiés avec un détergent nous a permis d’isoler les «Detergent Resistent Membranes» (DRMs) des phagosomes, qui sont l’équivalent biochimique des radeaux membranaires. Nous avons ainsi établi une liste de 921 protéines associées au phagosome, dont 352 sont présentes dans les DRMs. Les protéines du phagosome sont partagées presque également entre trois tendances cinétiques (augmentation, diminution et présence transitoire). Cependant, une analyse plus spécifique des protéines des DRMs démontre qu’une majorité d’entre elles augmentent en fonction de la maturation. Cette observation ainsi que certains de nos résultats montrent que les radeaux lipidiques des phagosomes précoces sont soit très peu nombreux, soit pauvres en protéines, et qu’ils sont recrutés au cours de la maturation du phagosome. Nous avons aussi analysé les phospholipides du phagosome et constaté que la proportion entre chaque classe varie lors de la maturation. De plus, en regardant spécifiquement les différentes espèces de phospholipides nous avons constaté que ce ne sont pas uniquement les espèces majoritaires de la cellule qui dominent la composition de la membrane du phagosome. L’ensemble de nos résultats a permis de mettre en évidence plusieurs fonctions potentielles des radeaux lipidiques, lesquelles sont essentielles à la biogenèse des phagolysosomes (signalisation, fusion membranaire, action microbicide, transport transmembranaire, remodelage de l’actine). De plus, la cinétique d’acquisition des protéines de radeaux lipidiques indique que ceux-ci exerceraient leurs fonctions principalement au niveau des phagosomes ayant atteint un certain niveau de maturation. L’augmentation du nombre de protéines des radeaux membranaires qui s’effectue durant la maturation du phagosome s’accompagne d’une modulation des phospholipides, ce qui laisse penser que les radeaux membranaires se forment graduellement sur le phagosome et que ce ne sont pas seulement les protéines qui sont importées.
Resumo:
Research and teaching in societal development ethics face potentially four fundamental types of objection: first, that ethics is obvious already; second, that it is instead impossible, on epistemological grounds; third, that it is theoretically possible but in practice fruitless; and fourth, that it is in any case politically insignificant. The paper presents qualified rebuttals of the four objections. In the process of doing so, it builds up a picture of this field of thought and practice: its modes, methods and alternative forms of organization, and some of its pitfalls and potentials, exemplars and achievements.
Resumo:
Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Tout autant que la mère, le père est une figure d’attachement importante pour l’enfant. Toutefois le lien d’attachement père-enfant se formerait différemment du lien d’attachement mère-enfant. Les pères sont souvent plus engagés que les mères dans des activités ludiques, moins dans des activités de soins. Les jeux faits avec le père sont souvent plus physiques aussi, plus stimulants. En incitant son enfant au jeu de façon sensible, le père devient un tremplin pour l’exploration de son enfant et le développement de sa confiance en soi et en l’autre. C’est en tant que figure d’ouverture sur le monde que le père aurait une plus grande influence sur le développement de son enfant. C’est ce que nous apprennent les études sur l’engagement paternel. Jusqu’à maintenant peu d’auteurs ont étudié l’engagement des pères en même temps que l’attachement père-enfant, mais plusieurs proposent déjà que cette fonction d’ouverture sur le monde expliquerait la formation du lien père-enfant. La relation d’attachement père-enfant serait basée sur une relation d’activation. L’objectif de la présente thèse est précisément de mieux comprendre la nature du lien d’attachement père-enfant. Deux articles composent cette thèse. Le premier article est théorique et fait une recension de la littérature sur l’attachement père-enfant et l’engagement paternel. Le deuxième article est empirique et propose justement de vérifier l’influence de l’engagement paternel sur la formation du lien d’attachement au père. En tout 53 dyades pères-enfants ont participé à cette étude. L’engagement des pères au niveau du réconfort, de la stimulation et de la discipline a été évalué lorsque les enfants avaient entre 12 et 18 mois. À cet âge, la qualité d’attachement et de la relation d’activation ont aussi été évaluées, respectivement avec la Situation étrangère et la Situation risquée. Les deux mises en situation ont ensuite été comparées pour voir laquelle prédit mieux le développement des enfants à l’âge préscolaire, au niveau des compétences sociales, des problèmes intériorisés et des problèmes extériorisés. Les résultats obtenus indiquent que la Situation risquée prédit mieux le développement socio-affectif des enfants (compétences sociales et problèmes intériorisés). Aucun lien n’a été trouvé avec la Situation étrangère, même en tenant compte de l’engagement du père au niveau du réconfort. Ces résultats valident la théorie de la relation d’activation et l’importance de la fonction paternelle d’ouverture sur le monde. Les limites de la présente étude, ainsi que ses implications théoriques et méthodologiques, seront abordées dans la discussion du deuxième article et en conclusion de la présente thèse.