808 resultados para Vision-based system
Resumo:
The original contribution of this thesis to knowledge are novel digital readout architectures for hybrid pixel readout chips. The thesis presents asynchronous bus-based architecture, a data-node based column architecture and a network-based pixel matrix architecture for data transportation. It is shown that the data-node architecture achieves readout efficiency 99% with half the output rate as a bus-based system. The network-based solution avoids “broken” columns due to some manufacturing errors, and it distributes internal data traffic more evenly across the pixel matrix than column-based architectures. An improvement of > 10% to the efficiency is achieved with uniform and non-uniform hit occupancies. Architectural design has been done using transaction level modeling (TLM) and sequential high-level design techniques for reducing the design and simulation time. It has been possible to simulate tens of column and full chip architectures using the high-level techniques. A decrease of > 10 in run-time is observed using these techniques compared to register transfer level (RTL) design technique. Reduction of 50% for lines-of-code (LoC) for the high-level models compared to the RTL description has been achieved. Two architectures are then demonstrated in two hybrid pixel readout chips. The first chip, Timepix3 has been designed for the Medipix3 collaboration. According to the measurements, it consumes < 1 W/cm^2. It also delivers up to 40 Mhits/s/cm^2 with 10-bit time-over-threshold (ToT) and 18-bit time-of-arrival (ToA) of 1.5625 ns. The chip uses a token-arbitrated, asynchronous two-phase handshake column bus for internal data transfer. It has also been successfully used in a multi-chip particle tracking telescope. The second chip, VeloPix, is a readout chip being designed for the upgrade of Vertex Locator (VELO) of the LHCb experiment at CERN. Based on the simulations, it consumes < 1.5 W/cm^2 while delivering up to 320 Mpackets/s/cm^2, each packet containing up to 8 pixels. VeloPix uses a node-based data fabric for achieving throughput of 13.3 Mpackets/s from the column to the EoC. By combining Monte Carlo physics data with high-level simulations, it has been demonstrated that the architecture meets requirements of the VELO (260 Mpackets/s/cm^2 with efficiency of 99%).
Resumo:
Récemment, nous avons pu observer un intérêt grandissant pour l'application de l'analogie formelle à l'analyse morphologique. L'intérêt premier de ce concept repose sur ses parallèles avec le processus mental impliqué dans la création de nouveaux termes basée sur les relations morphologiques préexistantes de la langue. Toutefois, l'utilisation de ce concept reste tout de même marginale due notamment à son coût de calcul élevé.Dans ce document, nous présenterons le système à base de graphe Moranapho fondé sur l'analogie formelle. Nous démontrerons par notre participation au Morpho Challenge 2009 (Kurimo:10) et nos expériences subséquentes, que la qualité des analyses obtenues par ce système rivalise avec l'état de l'art. Nous analyserons aussi l'influence de certaines de ses composantes sur la qualité des analyses morphologiques produites. Nous appuierons les conclusions tirées de nos analyses sur des théories bien établies dans le domaine de la linguistique. Ceci nous permet donc de fournir certaines prédictions sur les succès et les échecs de notre système, lorsqu'appliqué à d'autres langues que celles testées au cours de nos expériences.
Resumo:
Inspiré par la réflexion quant aux nouvelles formes d’organisation du travail de la nouvelle économie, ce mémoire s’intéresse à la question des heures supplémentaires non formellement rémunérées chez une frange de travailleurs hautement qualifiés, les concepteurs de jeux vidéo. Très innovantes pour les employeurs, ces formes d’organisation, en particulier l’organisation par projets, ne sont pas sans poser des problèmes aux travailleurs. À l’instar des travailleurs du savoir qui sont souvent prêts à investir de longues heures au travail, les concepteurs de jeux vidéo travaillent fréquemment en heures supplémentaires. Or ces heures supplémentaires sont non seulement non rémunérées, mais elles sont aussi longues et fréquentes. Comment en vient-on à faire accepter aux concepteurs cette situation, sans toutefois exiger d’eux qu’ils travaillent en heures supplémentaires? Pour explorer cette question, les discours de 53 concepteurs de jeux vidéo montréalais ont été analysés. Les résultats de cette recherche dévoilent une explication basée sur un système informel de récompenses et de châtiments qui induit chez la majorité des concepteurs de jeux interrogés une propension à travailler en heures supplémentaires non rémunérées.
Resumo:
Cette thèse questionne l’apport de la conservation du patrimoine urbain à l’urbanisme. Il y est avancé que l’association entre la conservation du patrimoine urbain et l'urbanisme, dans leur cadre conceptuel actuel, plutôt que d’être le catalyseur du renouvellement de l’urbanisme, a perpétué une appréhension fragmentée et une atomisation de l'établissement, consacrant ainsi le paradigme fonctionnaliste, qui conditionne encore largement les pratiques urbanistiques contemporaines, au Québec notamment. En effet, bien que depuis les années 1960 la conservation du patrimoine soit présentée comme le fil rouge dans le redéploiement de la compétence d’édifier, plusieurs études soulignent les résultats mitigés de nombreuses expériences de conservation ainsi qu’une contribution limitée relativement à la formulation des projets urbains. Plus particulièrement, malgré la reconnaissance de l’intérêt de la patrimonialisation et de la fécondité potentielle de l’idée de patrimoine en général, l’urbanisme n’est pas parvenu à en définir les termes de la contribution, tant au plan conceptuel que processuel, en regard de sa propre projectualité. De ce fait, il ne réussit pas à affranchir la réflexion patrimoniale du registre de la conservation afin de se l’approprier véritablement. Cette thèse explique les causes de cette incapacité à partir d’une analyse des conditions de l’appropriation de la notion de patrimoine urbain mises de l’avant par l’approche giovannonienne. Celle-ci, fondamentalement urbanistique, propose une conception du patrimoine urbain qui s’émancipe du monument historique et du registre de la conservation. Indissociable d’une projectualité urbanistique, l’intérêt pour le patrimoine urbain de Giovannoni relève d’une reconnaissance du déjà là qui fonde des modalités de prises en charge de l’existant. Celles-ci posent les bases d’un renouvellement de la manière de penser l’urbanisme. La notion giovannonienne de patrimoine urbain, qui réfère à l’ensemble urbain patrimonial, devient l’élément de base d’une analyse morphologique urbanistique qui permet de conceptualiser l’agglomération contemporaine comme ensemble marqué par les ruptures et les discontinuités. Prenant appui sur une démarche dialogique, l’approche giovannonienne relève d’une mise en tension des singularités et d’une appréhension conjointe des différentes registres, ceux des formes et des forces, de l’existant et du souhaité, du penser et du faire. Giovannoni dépasse ainsi l’opposition entre continuité et rupture portée par les pratiques afin de penser l’articulation du nouveau à l’ancien. La confrontation de l’approche giovannonienne aux différentes perspectives qui ont marqué l’urbanisme moderne, montre que ces modalités de prise en charge de l’existant sont conditionnelles à l’accomplissement des promesses de la considération du patrimoine urbain. Autrement, l’association de la conservation du patrimoine urbain et de l’urbanisme culmine dans une double assimilation : l’assimilation du patrimoine urbain au monument historique d’architecture conduit à confondre projet d’urbanisme et projet de conservation.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Les systèmes statistiques de traduction automatique ont pour tâche la traduction d’une langue source vers une langue cible. Dans la plupart des systèmes de traduction de référence, l'unité de base considérée dans l'analyse textuelle est la forme telle qu’observée dans un texte. Une telle conception permet d’obtenir une bonne performance quand il s'agit de traduire entre deux langues morphologiquement pauvres. Toutefois, ceci n'est plus vrai lorsqu’il s’agit de traduire vers une langue morphologiquement riche (ou complexe). Le but de notre travail est de développer un système statistique de traduction automatique comme solution pour relever les défis soulevés par la complexité morphologique. Dans ce mémoire, nous examinons, dans un premier temps, un certain nombre de méthodes considérées comme des extensions aux systèmes de traduction traditionnels et nous évaluons leurs performances. Cette évaluation est faite par rapport aux systèmes à l’état de l’art (système de référence) et ceci dans des tâches de traduction anglais-inuktitut et anglais-finnois. Nous développons ensuite un nouvel algorithme de segmentation qui prend en compte les informations provenant de la paire de langues objet de la traduction. Cet algorithme de segmentation est ensuite intégré dans le modèle de traduction à base d’unités lexicales « Phrase-Based Models » pour former notre système de traduction à base de séquences de segments. Enfin, nous combinons le système obtenu avec des algorithmes de post-traitement pour obtenir un système de traduction complet. Les résultats des expériences réalisées dans ce mémoire montrent que le système de traduction à base de séquences de segments proposé permet d’obtenir des améliorations significatives au niveau de la qualité de la traduction en terme de le métrique d’évaluation BLEU (Papineni et al., 2002) et qui sert à évaluer. Plus particulièrement, notre approche de segmentation réussie à améliorer légèrement la qualité de la traduction par rapport au système de référence et une amélioration significative de la qualité de la traduction est observée par rapport aux techniques de prétraitement de base (baseline).
Resumo:
Le caribou forestier est une espèce menacée au Canada, la principale hypothèse au déclin des populations étant l’intensification de la prédation provoquée par les perturbations anthropiques du paysage. Afin de faire face à cette situation, il est nécessaire d’étudier et comprendre l’impact de l’environnement sur les interactions prédateur-proies entre le caribou et le loup, ainsi qu’avec l’orignal, qui est sa principale proie alternative. Pour cela, cette thèse présente la conception d’un modèle centré sur l’individu des déplacements de ces trois espèces en fonction de leur environnement, dont résulteront les interactions prédateur-proies. Afin de permettre l’application de ce modèle sur de longues périodes, et donc pour un environnement changeant, une méthodologie a été développée, qui s’articule atour de deux aspects principaux. Tout d’abord, la notion de niveaux d’émergence est introduite, permettant d’ordonner les comportements observables du système selon leurs interdépendances, afin de choisir comme trait du modèle un com- portement correspondant au domaine d’applicabilité visé. Ordonner les comportements selon leurs niveaux d’émergence permet également d’identifier la redondance entre les patrons, qui peut être à l’origine d’un phénomène de sur-apprentissage lorsqu’ils sont utilisés lors de la calibration. Dans un second temps, un nouveau protocole pour la calibration et la validation du ou des traits choisis à l’aide des niveaux d’émergence, nommé réplication de système basé sur l’individu (Individual Based System Replication - IBSRtion) est également présenté. Ce protocole met l’emphase sur la modélisation directe, contrairement au principal protocole existant, la modélisation orientée patrons (Pattern Oriented Modelling - POM), et permet une approche empirique en générant artificiellement des données non disponibles ou ne pouvant être récoltées par des études de terrains. IBSRtion a également l’avantage de pouvoir être intégrée dans POM, afin de contribuer à la création d’une méthodologie universelle pour la conception de modèles centrés sur l’individu. Le processus de conception de ce modèle aura entre autre permis de faire une synthèse des connaissances et d’identifier certaines lacunes. Une étude visant à palier le manque de connaissances satisfaisantes sur les réponses comportementales à court-terme des proies face au risque de prédation a notamment permis d’observer que celles-ci sont une combinaison de comportements chroniques et éphémères, et que les mécanismes qui en sont à l’origine sont complexes et non-linéaires. Le résultat de ce travail est un modèle complexe utilisant de nombreux sous-modèles, et calibré de façon empirique, applicable à une grande variété d’environnements. Ce modèle a permis de tester l’impact de l’enfeuillement sur les relations prédateur-proies. Des simulations ont été effectuées pour différentes quantités d’enfeuillement, suivant deux configurations spatiales différentes. Les résultats de simulation suggèrent que des plans d’aménagement considérant également l’habitat de l’orignal pourraient être bénéfiques pour le caribou forestier, car ils permettraient d’améliorer la ségrégation spatiale entre les deux espèces, et donc entre le caribou et le loup. En le couplant avec un module de naissances et de morts naturelles ainsi qu’un modèle d’évolution du paysage, ce modèle permettra par la suite d’évaluer l’impact de plans d’aménagement forestier sur la viabilité des populations de caribou forestier.
Resumo:
L’optogénétique est une technique prometteuse pour la modulation de l’activité neuronale. Par l’insertion d’une opsine microbienne dans la membrane plasmique de neurones et par son activation photonique, il devient possible de réguler l’activité neuronale avec une grande résolution temporelle et spatiale. Beaucoup de travaux ont été faits pour caractériser et synthétiser de nouvelles opsines. Ainsi, plusieurs variétés d’opsines sont désormais disponibles, chacune présentant des cinétiques et sensibilités à des longueurs d’onde différentes. En effet, il existe des constructions optogénétiques permettant de moduler à la hausse ou à la baisse l’activité neuronale, telles la channelrhodopsine-2 (ChR2) ou la halorhodopsine (NpHR), respectivement. Les promesses de cette technologie incluent le potentiel de stimuler une région restreinte du cerveau, et ce, de façon réversible. Toutefois, peu d’applications en ce sens ont été réalisées, cette technique étant limitée par l’absorption et la diffusion de la lumière dans les tissus. Ce mémoire présente la conception d’une fibre optique illuminant à un angle de 90° à sa sortie, capable de guider la lumière à des structures bien précises dans le système nerveux central. Nous avons conduit des tests in vivo dans le système visuel de souris transgéniques exprimant la ChR2 dans l’ensemble du système nerveux central. Dans le système visuel, les signaux rétiniens sont conduits au corps genouillé latéral (CGL) avant d’être relayés au cortex visuel primaire (V1). Pour valider la capacité de mon montage optogénétique à stimuler spécifiquement une sous-population de neurones, nous avons tiré profit de l’organisation rétinotopique existant dans le système visuel. En stimulant optogénétiquement le CGL et en tournant la fibre optique sur elle-même à l’aide d’un moteur, il devient possible de stimuler séquentiellement différentes portions de cette structure thalamique et conséquemment, différentes représentations du champ visuel. L’activation des projections thalamiques sera enregistrée au niveau de l’aire V1 à l’aide de l’imagerie optique intrinsèque, une technique qui permet d’imager les variations de la concentration d’oxygène et du volume sanguin dans le tissu neuronal, sur une grande surface corticale. Comme l’organisation rétinotopique est maintenue au niveau de l’aire V1, l’espace activé au niveau du cortex révèlera l’étendue spatiale de notre stimulation optogénétique du CGL. Les expériences in vivo démontrèrent qu’en déplaçant la fibre optique dans le CGL, il nous était possible de stimuler différents sous- ensembles de neurones dans cette structure thalamique. En conclusion, cette étude montre notre capacité à développer un système à base de fibre optique capable de stimuler optogénétiquement une population de neurone avec une grande précision spatiale.
Resumo:
L’amblyopie est un trouble développemental de la vision binoculaire. Elle est typiquement caractérisée par des atteintes de l’acuité visuelle et de la stéréoscopie. Toutefois, de plus en plus d’études indiquent la présence d’atteintes plus étendues telles que les difficultés d’attention visuelle ou de lecture. L’amblyopie est généralement expliquée par une suppression interoculaire au niveau cortical, considérée comme chronique ou permanente à l’extérieur de la période développementale. Or, un nombre croissant d’études suggèrent que des interactions binoculaires normales seraient présentes chez les amblyopes adultes. Dans une première étude, nous avons tenté d’identifier un marqueur électrophysiologique de la vision binoculaire. Nous avons enregistré des potentiels évoqués visuels chez des observateurs normaux à qui l’on a induit une dysfonction binoculaire. Les interactions binoculaires étaient caractérisées à l’aide de patrons (facilitation, moyennage et suppression) en comparant les réponses monoculaires et binoculaires. De plus, ces interactions étaient quantifiées à partir d’index d’intégration continus en soustrayant la somme des réponses monoculaires de la réponse binoculaire. Les résultats indiquaient que les patrons d’interaction n’étaient pas optimaux pour estimer les performances stéréoscopiques. Ces dernières étaient, en revanche, mieux expliquées par notre index d’intégration binoculaire. Ainsi, cette étude suggère que l’électrophysiologie est un bon prédicteur de la vision binoculaire. Dans une deuxième étude, nous avons examiné les corrélats neuronaux et comportementaux de la suppression interoculaire chez des amblyopes adultes et des observateurs normaux. Des potentiels évoqués visuels stationnaires ont été enregistrés en utilisant un paradigme de suppression par flash. La suppression était modulée par un changement de contraste du stimulus flash (10, 20, 30, ou 100%), ou le suppresseur, qui était présenté soit dans l’œil dominant ou non-dominant (ou amblyope). Sur le plan comportemental, la suppression interoculaire était observée indépendamment de l’œil stimulé par le flash chez les contrôles. Au contraire, chez les amblyopes, la suppression était asymétrique (c’est-à-dire supérieure lorsqu’elle provenait de l’œil dominant), ce qui suggérait une suppression chronique. De manière intéressante, l’œil amblyope a supprimé l’œil dominant à haut niveau de contraste. Sur le plan électrophysiologique, l’effet de suppression interoculaire observé à la région occipitale était équivalent dans chaque groupe. Toutefois, les réponses électrophysiologiques à la région frontale chez les amblyopes n’étaient pas modulées comme celles des contrôles; la suppression de l’œil amblyope était manifeste même à bas contraste. Nous résultats supportent ainsi l’existence d’interaction binoculaire fonctionnelle chez les amblyopes adultes ainsi que l’implication d’un réseau cortical étendu dans la suppression interoculaire. En somme, l’amblyopie est une condition complexe dont les atteintes corticales et les déficits fonctionnels semblent globaux. L’amblyopie ne doit plus être considérée comme limitée à une dysfonction de l’aire visuelle primaire. La suppression interoculaire semble un point central de cette problématique, mais encore beaucoup d’études seront nécessaires afin de déterminer l’ensemble des mécanismes impliqués dans celle-ci.
Resumo:
Structural and magnetic transformations in the Heusler-based system Ni0.50Mn0.50¿xSnx are studied by x-ray diffraction, optical microscopy, differential scanning calorimetry, and magnetization. The structural transformations are of austenitic-martensitic character. The austenite state has an L21 structure, whereas the structures of the martensite can be 10M , 14M , or L10 depending on the Sn composition. For samples that undergo martensitic transformations below and around room temperature, it is observed that the magnetic exchange in both parent and product phases is ferromagnetic, but the ferromagnetic exchange, characteristic of each phase, is found to be of different strength. This gives rise to different Curie temperatures for the austenitic and martensitic states.
Resumo:
The purpose of personal financial management is achievement of personal financial freedom. It is a stage where finance will not be a hindrance against the fulfilment ofthe financial objectives of persons. After counting individual values and preferences we arrive at a standard or normal financial behaviour. Even though individuals differ in their tastes and preferences, there are a very large amount of commonality among them. The financial manager should list out the various financial objectives ofthe family. Then he should make the best choice from among the various alternatives on a priority based system. In short personal finance is concerned with the way in which a person manages his income and expenditure to achieve his personal financial objectives. Thus a proper personal financial planning is essential in every family for attaining financial discipline in the family. The fall ofthejoint family system, the growing financial responsibilities of modern families, limited chance ofincreasing income, growing population, financial insecurity of the government employees, lack of financial freedom, lack of proper personal financial practice and its awareness, the growing suicide rate on account offinancial crisis etc.,make the study a necessity
Resumo:
Motivation for Speaker recognition work is presented in the first part of the thesis. An exhaustive survey of past work in this field is also presented. A low cost system not including complex computation has been chosen for implementation. Towards achieving this a PC based system is designed and developed. A front end analog to digital convertor (12 bit) is built and interfaced to a PC. Software to control the ADC and to perform various analytical functions including feature vector evaluation is developed. It is shown that a fixed set of phrases incorporating evenly balanced phonemes is aptly suited for the speaker recognition work at hand. A set of phrases are chosen for recognition. Two new methods are adopted for the feature evaluation. Some new measurements involving a symmetry check method for pitch period detection and ACE‘ are used as featured. Arguments are provided to show the need for a new model for speech production. Starting from heuristic, a knowledge based (KB) speech production model is presented. In this model, a KB provides impulses to a voice producing mechanism and constant correction is applied via a feedback path. It is this correction that differs from speaker to speaker. Methods of defining measurable parameters for use as features are described. Algorithms for speaker recognition are developed and implemented. Two methods are presented. The first is based on the model postulated. Here the entropy on the utterance of a phoneme is evaluated. The transitions of voiced regions are used as speaker dependent features. The second method presented uses features found in other works, but evaluated differently. A knock—out scheme is used to provide the weightage values for the selection of features. Results of implementation are presented which show on an average of 80% recognition. It is also shown that if there are long gaps between sessions, the performance deteriorates and is speaker dependent. Cross recognition percentages are also presented and this in the worst case rises to 30% while the best case is 0%. Suggestions for further work are given in the concluding chapter.
Resumo:
As exploration of our solar system and outerspace move into the future, spacecraft are being developed to venture on increasingly challenging missions with bold objectives. The spacecraft tasked with completing these missions are becoming progressively more complex. This increases the potential for mission failure due to hardware malfunctions and unexpected spacecraft behavior. A solution to this problem lies in the development of an advanced fault management system. Fault management enables spacecraft to respond to failures and take repair actions so that it may continue its mission. The two main approaches developed for spacecraft fault management have been rule-based and model-based systems. Rules map sensor information to system behaviors, thus achieving fast response times, and making the actions of the fault management system explicit. These rules are developed by having a human reason through the interactions between spacecraft components. This process is limited by the number of interactions a human can reason about correctly. In the model-based approach, the human provides component models, and the fault management system reasons automatically about system wide interactions and complex fault combinations. This approach improves correctness, and makes explicit the underlying system models, whereas these are implicit in the rule-based approach. We propose a fault detection engine, Compiled Mode Estimation (CME) that unifies the strengths of the rule-based and model-based approaches. CME uses a compiled model to determine spacecraft behavior more accurately. Reasoning related to fault detection is compiled in an off-line process into a set of concurrent, localized diagnostic rules. These are then combined on-line along with sensor information to reconstruct the diagnosis of the system. These rules enable a human to inspect the diagnostic consequences of CME. Additionally, CME is capable of reasoning through component interactions automatically and still provide fast and correct responses. The implementation of this engine has been tested against the NEAR spacecraft advanced rule-based system, resulting in detection of failures beyond that of the rules. This evolution in fault detection will enable future missions to explore the furthest reaches of the solar system without the burden of human intervention to repair failed components.
Resumo:
Impressive claims have been made for the performance of the SNoW algorithm on face detection tasks by Yang et. al. [7]. In particular, by looking at both their results and those of Heisele et. al. [3], one could infer that the SNoW system performed substantially better than an SVM-based system, even when the SVM used a polynomial kernel and the SNoW system used a particularly simplistic 'primitive' linear representation. We evaluated the two approaches in a controlled experiment, looking directly at performance on a simple, fixed-sized test set, isolating out 'infrastructure' issues related to detecting faces at various scales in large images. We found that SNoW performed about as well as linear SVMs, and substantially worse than polynomial SVMs.
Resumo:
A review article of the The New England Journal of Medicine refers that almost a century ago, Abraham Flexner, a research scholar at the Carnegie Foundation for the Advancement of Teaching, undertook an assessment of medical education in 155 medical schools in operation in the United States and Canada. Flexner’s report emphasized the nonscientific approach of American medical schools to preparation for the profession, which contrasted with the university-based system of medical education in Germany. At the core of Flexner’s view was the notion that formal analytic reasoning, the kind of thinking integral to the natural sciences, should hold pride of place in the intellectual training of physicians. This idea was pioneered at Harvard University, the University of Michigan, and the University of Pennsylvania in the 1880s, but was most fully expressed in the educational program at Johns Hopkins University, which Flexner regarded as the ideal for medical education. (...)